Tema 4.- El espacio vectorial R n.

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Tema 4.- El espacio vectorial R n."

Transcripción

1 Tema 4- El espacio vectorial R n Subespacios vectoriales de R n Bases de un subespacio Rango de una matriz 4 Bases de R n Cambios de base 5 Ejercicios En este tema estudiamos la estructura vectorial del espacio R n, de las n uplas ordenadas de números reales, es decir, la estructura relacionada con las operaciones suma (de vectores) y multiplicación de un número (real) por un vector El espacio R n es uno de los modelos para el estudio de los denominados espacios vectoriales (generales) Sin entrar en más detalles y definiciones, un espacio vectorial es un conjunto de elementos sobre el que hay definida una operación suma (de dichos elementos) y una operación producto de un número por uno de dichos elementos Por ejemplo, son espacios vectoriales: el conjunto de las matrices de unas dimensiones dadas, con la operación suma de matrices y producto de un escalar (real, complejo) por una matriz, el conjunto de todos los polinomios en una variable, con las operaciones suma de polinomios y producto de un escalar por un polinomio, el conjunto de todos los polinomios en una variable y con grado menor o igual que un cierto valor prefijado Por ejemplo, el conjunto de todos los polinomios de grado menor o igual que Para finalizar, daremos la definición formal de base y consideraremos los resultados fundamentales asociados a dicho concepto Subespacios vectoriales de R n Los subespacios vectoriales de R n serán los subconjuntos de R n que se pueden caracterizar mediante ecuaciones lineales homogéneas (ecuaciones implícitas en las n variables dadas por las coordenadas de un vector genérico) Como ya hemos visto, cualquier conjunto de vectores descrito como el conjunto de todas las combinaciones lineales de ciertos vectores también puede caracterizarse mediante ecuaciones lineales homogéneas A la hora de manipular subespacios vectoriales recurriremos, de forma habitual, a su expresión mediante ecuaciones implícitas o a su expresión mediante ecuaciones paramétricas Una de las cuestiones que trataremos es el número mínimo de ecuaciones implícitas mediante las que se puede caracterizar un subespacio y el número mínimo de vectores que permiten generar dicho subespacio En el espacio tridimensional R, los subespacios vectoriales son, además del subespacio nulo {} y del total R, las rectas y los planos que pasan por el origen de coordenadas Recordemos que cualquier recta o plano se puede caracterizar mediante ecuaciones implícitas y mediante ecuaciones paramétricas En R, para caracterizar una recta que pasa por el origen de coordenadas necesitamos dos ecuaciones (no redundantes) o un vector, y para caracterizar un plano que pasa por el origen de coordenadas necesitamos una ecuación o dos vectores linealmente independientes (una base de dicho plano) Subespacios vectoriales Definición Se llama subespacio vectorial de R n a todo subconjunto no vacío S R n que verifica: () Si un vector está en S, también lo está cualquiera de sus múltiplos, es decir, v S = αv S, α R, () Si dos vectores están en S, también lo está la suma de ambos, es decir, v,v S = v +v S 79

2 La propiedad () nos dice que si tenemos un vector no nulo de un subespacio vectorial, la recta determinada por dicho vector está contenida en el subespacio La propiedad () nos dice que si tenemos dos vectores (no colineales) de un subespacio vectorial, el plano determinado por dichos vectores está contenido en el subespacio Las dos propiedades anteriores se pueden expresar de forma conjunta: Si dos vectores están en S, también lo está cualquiera de sus combinaciones lineales: { } v,v S = αv α,β R +βv S En particular el vector nulo pertenece a cualquier subespacio vectorial { } Obviamente S = y S = R n son subespacios vectoriales (a veces llamados subespacios triviales) En el espacio bidimensional, R, además de esos dos subespacios triviales, cualquier recta que pase por el origen es un subespacio vectorial Sin embargo, los vectores de posición determinados por los puntos de una parábola NO forman un subespacio vectorial } En el espacio tridimensional, R, además de los dos subespacios triviales ({ y R ), cualquier recta o plano que pase por el origen es un subespacio vectorial Ejercicio resuelto Encontrar unas ecuaciones implícitas del subespacio de R 4 E = Gen{(,,,) T,(,,,) T,(,,, ) T,(,,,) T,(,,, ) T } Dado un conjunto generador {v,v,v,v 4,v 5 } de un subespacio E R 4, encontrar las ecuaciones implícitas de E es hallar las condiciones que deben verificar las componentes de un vector de R 4, x = (x,x,x,x 4 ) T, para que pertenezca a E, es decir, para que se pueda escribir como combinación lineal del conjunto generador x = c v +c v + c v +c 4 v 4 +c 5 v 5, es decir, para que existan esos escalares c i, o lo que es equivalente, para que el sistema (v v v v 4 v 5 )c = x, con c = (c,c,c,c 4,c 5 ) T sea compatible Para exigir esto construimos la matriz ampliada (v v v v 4 v 5 x): x x x F F F F x 4 F F / F 4 +F es decir, el sistema es compatible cuando { x x / x / =, x 4 +x x =, x x x x x x 4 x x x x x / x / x 4 +x x { x +x x =, x x x 4 =, que son unas ecuaciones implícitas de E Observemos que podíamos haber buscado primero una base de E, aplicando eliminación gaussiana a la matriz (v v v v 4 v 5 ): F F F F F F / F 4 +F, de donde deducimos que E = Gen{v,v }, es decir, una base de E es B E = {v,v } Dada una base {v,v } de un subespacio E R 4, encontrar las ecuaciones implícitas de E es hallar las condiciones que deben verificar las componentes de un vector de R 4, x = (x,x,x,x 4 ) T, para que pertenezca a E, es decir, para que se pueda escribir como combinación lineal de los vectores de la base x = c v +c v, es decir, para que existan esos escalares c i, o lo que es equivalente, para que el sistema (v v )c = x, con c = (c,c ) T, 8

3 sea compatible Para exigir esto construimos la matriz ampliada (v v x): x x x x F F x x F F x x F F / F 4 +F x 4 x 4 x x x x x / x / x 4 +x x, es decir, el sistema es compatible cuando { x x / x / =, x 4 +x x =, { x +x x =, x x x 4 =, que son unas ecuaciones implícitas de E La garantía de que el resultado al que hemos llegado es correcto se obtiene comprobando que todos los vectores v i verifican todas las ecuaciones implícitas obtenidas Espacio nulo y espacio columna de una matriz Asociados a una matriz A,m n, A = [v v v n = hemos considerado los denominados a a a n a a a n a m a m a mn Espacio nulo de la matriz A, esto es, el conjunto de vectores reales x R n caracterizados por las ecuaciones implícitas a x +a x + +a n x n = a x +a x + +a n x n = Ax = a m x +a m x + +a mn x n = Espacio columna de la matriz A, subespacio generado por las columnas de A, esto es, el conjunto de vectores y que se pueden escribir como combinación lineal de dichas columnas y = α v +α v + +α n v n, caracterizado por las ecuaciones paramétricas y = α a +α a + +α n a n y = α a +α a + +α n a n, con α,α,,α n R y m = α a m +α a m + +α n a mn Resolviendo el sistema homogéneo Ax = podemos obtener los vectores del espacio nulo de A como el conjunto de vectores que se pueden expresar como combinación lineal (arbitraria) de determinados vectores, es decir, como el subespacio generado por ciertos vectores o como el espacio columna de la matriz que tiene a dichos vectores como vectores columna Por otra parte, puesto que el espacio columna de una matriz A está formado por los vectores y tales que el sistema de ecuaciones Ax = y es compatible, obteniendo las condiciones de compatibilidad de este sistema (en función del término independiente y), tendremos unas ecuaciones lineales homogéneas que permiten expresar el citado espacio columna como espacio nulo de otra matriz Por tanto, hablar de espacio nulo o espacio columna de una matriz (o subespacio generado por ciertos vectores) no es hablar de conjuntos de vectores con características distintas, sino que es hablar de un mismo tipo de conjunto de vectores, que son los denominados subespacios vectoriales, pero expresados en forma distinta: cuando uno de dichos conjuntos de vectores viene dado como espacio nulo de una matriz tenemos una descripción implícita (ecuaciones implícitas) de dicho conjunto (un vector está en el conjunto considerado si, y sólo si, sus coordenadas verifican el sistema homogéneo asociado a la matriz), 8

4 cuando uno de dichos conjuntos de vectores viene dado como espacio columna de una matriz tenemos una descripción paramétrica (ecuaciones paramétricas) de dicho conjunto (un vector está en el conjunto considerado si, y sólo si, puede expresarse como combinación lineal de determinados vectores) Entre las descripciones paramétricas de un subespacio vectorial unas serán mejores que otras en el sentido de que unas involucren menos vectores que otras Es decir, si tenemos el espacio columna de una cierta matriz A,m n, y los vectores columna de A son linealmente dependientes, suprimiendo vectores que sean combinación lineal de los que quedan, tendremos que el espacio columna de la matriz original también es el espacio columna de la matriz que resulta de la matriz anterior suprimiendo algunas columnas Si nos quedamos con un conjunto de vectores linealmente independiente, tendremos que dichos vectores generan el espacio columna de la matriz original y cada vector de dicho espacio se puede expresar de forma única como combinación lineal de los vectores linealmente independientes obtenidos Dichos vectores constituyen lo que se denomina una base (es decir, un conjunto de vectores linealmente independiente que genera el subespacio) del subespacio vectorial considerado, el espacio columna de la matriz original Si en la representa-ción paramétrica eliminamos los parámetros, llegaremos a unas ecuaciones homogéneas que darán una descripción implícita del subespacio considerado De forma paralela, entre las descripciones implícitas de un subespacio vectorial también habrá unas mejores que otras, en el sentido de que una puede tener ecuaciones redundantes y otra no Si mediante operaciones fila reducimos una matriz A a forma escalonada y obtenemos la matriz U, las soluciones del sistema Ux = coinciden con las del sistema Ax =, es decir los espacios nulos de la matriz A y de la matriz U coinciden Si de la matriz U eliminamos las filas nulas, que proceden de ecuaciones originales redundantes en el sistema Ax =, tendremos un sistema de ecuaciones sin ecuaciones redundantes y cuyas soluciones forman el espacio nulo de la matriz A original Si resolvemos el sistema homogéneo tendremos una descripción paramétrica del conjunto solución, es decir, del subespacio dado Podemos caracterizar las matrices invertibles en términos de sus espacios nulo y columna Teorema- Consideremos una matriz cuadrada de orden n () La matriz A tiene inversa si, y sólo si, Col(A) = R n () La matriz A tiene inversa si, y sólo si, Nul(A) = {} Cuando se consideran las transformaciones lineales sin hacer referencia a la matriz asociada, se suele utilizar la siguiente terminología: Definición Consideremos una aplicación lineal T : R n R m () Se denomina núcleo de T y se denota por ker(t) al conjunto (subespacio) ker(t) = {x R n : T(x) = } () Se denomina conjunto o espacio imagen de T al conjunto de vectores de R m que tienen anti-imagen, es decir, Imagen(T) = T(R n ) = {T(x) : x R m } = {y R m : x R n,y = T(x)} Si consideramos la matriz A asociada a T, tenemos ker(t) = {x R n : Ax = } = Nul(A) Imagen(T) = T(R n ) = {Ax : x R m } = {y R m : x R n,y = Ax} = = {y R m : Ax = y es un SC} = Col(A) Ejemplo- Consideremos el espacio nulo de la matriz A = 4 5 es decir, estamos considerando el conjunto S de los vectores x R 4 cuyas coordenadas (x,x,x,x 4 ) verifican las ecuaciones (implícitas) x +x + x 4 = x + x x 4 = x +4x +x +5x 4 = Haciendo operaciones fila sobre la matriz A (que se corresponden con operaciones sobre las ecuaciones del sistema) tenemos A = F +F F F 6 8 U = F +F 6 8, 8

5 De hecho, refiriéndonos a la matriz original tenemos que F (A) = F (A) + F (A) Equivalentemente, la tercera ecuación del sistema original es combinación lineal de las dos primeras con lo cual si un vector es solución de las dos primeras también lo es de la tercera Resumiendo, tenemos que S = Nul(A) = Nul [ = Nul(U) = Nul [ 6 8 con lo cual nuestro conjunto S de vectores está caracterizado por las ecuaciones (no redundantes) } x x +x + x 4 = +x + x 4 = o por x 6x +x +8x 4 = + x +x 4 = Resolviendo el sistema Ux = tenemos = Variables libres x y x 4 Variables fijas x y x x = 6 ( x 8x 4 ) = x = x +x 4 = 6 ( x 8x 4 )+x 4 = x + x 4 x x x x 4 = x 6 +x 4 4 Por tanto, Nul(A) = Gen = Col v = ,v = = Col = Gen 6v = 6,v = 4 Los vectores {v,v } forman una base de S = Nul(A) Los vectores de Nul(A) son los que pueden expresarse como combinación lineal de v y v y, como consecuencia de la independencia lineal, cada vector de S sólo puede expresarse de una única forma como combinación lineal de v y v Los coeficientes que aparezcan en dicha combinación lineal son las coordenadas del vector de S respecto a la base {v,v } (de S) El vector v = [ está en S y sus coordenadas respecto a {v,v } son la solución de v = λv +µv es decir, λ = 8,µ = 6 (v = 8v 6v ) [ v = v v λ µ Ejemplo- Vamos a utilizar la misma matriz A del ejemplo anterior El espacio columna de dicha matriz es, por definición de espacio columna, el conjunto de vectores y que se pueden expresar como combinación lineal de las columnas de A, es decir los vectores y ( con coordenadas!) que se pueden expresar mediante y = y y = α +β +γ +δ y 4 5 para ciertos α,β,γ,δ R Esto es lo mismo que decir que el espacio columna está formado por los vectores y R para los que el sistema de ecuaciones Ax = y tiene solución En dicho caso, cada solución del sistema Ax = y nos daría una forma de expresar y como combinación lineal de las columnas de A Obtengamos, para un vector genérico, 8

6 y R las condiciones de compatibilidad del sistema Ax = y, reduciendo la matriz ampliada del sistema [A y a forma escalonada Haciendo las mismas operaciones fila que hemos hecho cuando hemos obtenido el espacio nulo tenemos [A y = y F +F y y 6 8 y +y 4 5 y F +F 6 8 y +y F F U = - y 6 8 y +y y y y Por tanto, el sistema Ax = y es compatible (determinado o indeterminado) y y y = Es decir, el espacio columna de A está formado por los vectores y R cuyas coordenadas verifican la ecuación (lineal homogénea) y y y = Se trata, por tanto, de un plano (en R ) que pasa por el origen de coordenadas Además, teniendo la forma escalonada U que hemos obtenido, puesto que: Las columnas y de U son linealmente independientes y Las columnas y 4 son combinación lineal de las columnas y, lo mismo sucede con las columnas correspondientes de la matriz A con lo cual, el espacio columna de A (generado por las 4 columnas) coincide con el espacio generado por las columnas y de A ( no de U!) Los vectores dados por las columnas y de A forman una base de Col(A) puesto que son linealmente independientes y generan dicho espacio Si denotamos por v,v,v y v 4 a los vectores columna de A, cada vector y Col(A) se puede expresar de infinitas formas distintas como combinación lineal de v,v,v y v 4 puesto que el sistema de ecuaciones Ax = y es compatible (puesto que y Col(A)) indeterminado (puesto que hay variables libres) Sin embargo, dicho vector y Col(A) sólo puede expresarse de una única forma como combinación lineal de v y v puesto que el sistema de ecuaciones v [ v λ µ = tendrá solución única Para discutir, y resolver, este sistema basta con suprimir las columnas y 4 de la reducción que hemos hecho del sistema Ax = y con lo cual tenemos y y - y 6 y +y 4 y y y y La solución única (λ,µ) de este sistema (compatible cuando y R ) nos dará los coeficientes para los cuales se verifica y = λv +µv Estos coeficientes (λ,µ) (únicos para cada vector y Col(A)) se denominan coordenadas de y respecto de la base {v,v } Por ejemplo, las coordenadas del vector y = y y y ( Col(A) puesto que y y y = = ) respecto a la base {v,v } de Col(A) vienen dadas por la solución del sistema [ v v λ = - [ µ 6 4 λ = µ = [ 4 6 Ejercicio resuelto Dada la matriz A = 4 a, a R, encontrar, según los valores del parámetro a, unas ecuaciones implícitas del espacio columna de A, Col(A) Para a =, escribir razonadamente, si es que existe, una matriz C, 4 5, tal que Col(C) = Col(A) 84

7 Si llamamos v i a las columnas de A, A = [v v v, entonces su espacio columna, Col(A) = Gen{v,v,v }, que está contenido en R 4 Dadounconjuntogenerador{v,v,v }de un subespacioe R 4, encontrarlasecuacionesimplícitasdee eshallar las condiciones que deben verificar las componentes de un vector de R 4, x = (x,x,x,x 4 ) T, para que pertenezca a E, es decir, para que se pueda escribir como combinación lineal del conjunto generador, x = c v + c v + c v, es decir, para que existan esos escalares c i, o lo que es equivalente, para que el sistema (v v v )c = x, con c = (c,c,c ) T sea compatible Para exigir esto construimos la matriz ampliada (v v v x): x x x 4 x F F x 4 x F +F F 4 +F a x 4 a x 4 x F F x F 4 F x +x +x F 4 F a 4 x 4 +x x es decir, si a 4 aparecen tres pivotes y el sistema es compatible cuando x +x +x = x x x +x a x 4 +x x x a 4 x 4 +x x x +x +x (si a 4, Col(A) R 4 tiene una sola ecuación implícita pues al ser las tres columnas linealmente independientes, dim(col(a)) = ) Sin embargo, si a = 4, sólo aparecen dos pivotes(sólo hay dos columnas linealmente independientes, con lo que dim(col(a)) = y ese subespacio tendrá dos ecuaciones implícitas) y, por tanto, el sistema es compatible cuando { x +x +x =, x x x 4 =, que son unas ecuaciones implícitas de Col(A) cuando a = 4 La garantía de que el resultado al que hemos llegado es correcto se tiene comprobando que todos los vectores v i verifican todas las ecuaciones implícitas obtenidas (una en el caso a 4 y dos cuando a = 4) Nos piden después que, para a =, encontremos si es posible alguna matriz C, 4 5, tal que Col(C) = Col(A) Es decir, C = [u u u u 4 u 5 y como los u i R 4, entonces Col(C) R 4 con lo que sí puede darse Col(C) = Col(A) (Si C no tuviera 4 filas, entonces los u i / R 4 y no existiría C tal que Col(C) = Col(A)) Para escribir una matriz C, 4 5, cuyo espacio columna coincida con Col(A) basta con que sus cinco columnas sean combinación lineal de v, v y v (columnas de A) y que tres de ellas sean linealmente independientes (pues las tres columnas de A lo son para a = ) Por ejemplo, nos sirven las matrices siguientes (por comodidad repetimos las tres primeras columnas de A, aunque basta con que las cinco columnas verifiquen la ecuación implícita de Col(A), x +x +x =, y que haya tres linealmente independientes): 4, , 4 4, 4, 7 Observemosque paralasmatrices B = [v v v v v, B = [v v v v v v, B = [v v v v v 4v 5v, se verifica Col(B i ) Col(A) pero no se da la igualdad Col(B i ) = Col(A) (que es lo que nos pide el enunciado; por tanto, tres columnas deben ser linealmente independientes) ya que dim(col(b )) =, dim(col(b )) = dim(col(b )) =, mientras que dim(col(a)) = Ejercicio resuelto Dada la matriz B = b, b R, encontrar, según los valores del parámetro b, un conjunto generador linealmente independiente del espacio nulo de B, Nul(B),, 85

8 El espacio nulo de B está formado por los vectores x R 4 tales que Bx = Nos piden que encontremos un conjunto generador linealmente independiente (una base) de dicho espacio nulo, en función del parámetro b Para ello basta con resolver el sistema Bx = (homogéneo, de tres ecuaciones y cuatro incógnitas): b F F b Entonces, cuando b =, la matriz que representa al sistema es F b F b (b ) con lo que tomando x,x 4 como variables libres (al ser las columnas tercera y cuarta columnas no pivote) obtenemos x x,x 4 R / / x = (x +x 4 ) x = x x x 4 = x x x = x x = x / +x / 4, 4 x 4 con lo que Nul(B) = Gen / /, / / = Gen y una base de Nul(B), para b =, es {(,,,) T,(,,,) T } Conviene comprobar que estos vectores verifican el sistema Bx = Si b, la matriz que representa el sistema (hemos dividido la tercera fila por b ) es con lo que, tomando x 4 como variable libre (al ser la cuarta columna no pivote), obtenemos x 4 R x x = x 4 x = (x x = x +x 4 ) = x = x 4 Nul(B) = Gen x = x x x 4 = x 4 x 4 y una base de Nul(B), para b, es {(,,,) T } Conviene comprobar que este vector verifica el sistema Bx = Ejercicio resuelto [ Dada la matriz A =, escribir, si es posible, dos matrices cuadradas de orden y dos matrices 4 4 cuyo espacio columna coincida con el espacio nulo de A, Nul(A) Vamos a calcular, en primer lugar el espacio nulo de A, Nul(A), es decir vamos a encontrar los vectores x tales que Ax = Puesto que A es una matriz, para que se pueda hacer el producto Ax, debe verificarse que x R Así, Ax = nos proporciona las ecuaciones implícitas de Nul(A): Nul(A) { x +x +x = x 4x x =, Nul(A) = Gen v =,v = Por tanto, una base de Nul(A) es {v,v } Para escribir matrices cuyo espacio columna coincida con Nul(A) basta con que sus tres columnas sean combinación lineal de v y v (o, equivalentemente, que verifiquen su ecuación implícita x +x +x = ) y que dos sean linealmente independientes:,,,, 4 4, 86

9 Observemosque parala matrizb = [v v v se verificacol(b) Nul(A) perono se da la igualdadcol(b) = Nul(A) (que es lo que nos pide el enunciado) Por tanto, dos columnas deben ser linealmente independientes Si las matrices son 4, se aplica el mismo razonamiento sobre las cuatro columnas: todas deben ser combinación lineal de v y v y, simultáneamente, dos deben ser linealmente independientes:, 4 4, 7 7,, Bases de un subespacio Definición Dado un subespacio S de R n distinto del subespacio nulo S {}, se dice que un conjunto de vectores {v,v,,v r } de S es una base de S si: (a) {v,v,,v r } es linealmente independiente, (b) {v,v,,v r } genera S, S = Gen {v,v,,v r } Las anteriores condiciones se pueden expresar de forma matricial: Si denotamos por A a la matriz cuyas columnas son los vectores dados A = v v vr las columnas de A forman una base de un subespacio vectorial S si: (a) El sistema homogéneo Ax = tiene solución única (condición equivalente a que los vectores sean linealmente independientes) y (b) S = Col(A), es decir S está formado por los vectores y R m para los que el sistema de ecuaciones Ax = y es compatible Ejemplo Los vectores canónicos de R n, e = forman una base de R n Los vectores también forman una base de R n,e =,,e n = {e,e +e,,e +e + +e n } Definición/Teorema (Coordenadas respecto de una base) Dada una base {v,v,,v r } de un subespacio vectorial S, cada vector v de S se puede expresar de forma única como combinación lineal de los vectores de la base dada, v = c v +c v + +c r v r Los coeficientes que aparecen en dicha expresión (c,,c r ) se denominan coordenadas de v respecto a la base dada B = {v,v,,v r } y se suelen denotar por [v B = Definición/Teorema Consideremos un subespacio vectorial S de R m distinto del subespacio nulo S {} Se verifican: c c r 87

10 (a) S tiene base (b) Todas las bases de S tienen el mismo número de elementos Al número de elementos de una base de S se le denomina dimensión de S Por definición, la dimensión del subespacio formado por el vector nulo es cero Si, al igual que antes, denotamos por A a la matriz cuyas columnas son los vectores dados A = v v vr, para cada vector v (vector columna) de S se verifica que para algún vector de coeficientes c v = Ac Teorema (El Teorema de la Base) Consideremos un subespacio vectorial S de R m de dimensión p (p m) y un conjunto de vectores {u,,u q } S (a) Si {u,,u q } generan S, entonces q p Además, q = p {u,,u q } es una base de S (b) Si {u,,u q } es linealmente independiente, entonces q p Además, q = p {u,,u q } es una base de S En particular, si tenemos un conjunto de n vectores de R m : Si n > m, los n vectores no pueden ser linealmente independientes, Si m > n, los n vectores no pueden generar R m Rango de una matriz Definición Dada una matriz A, m n, se llama rango de A a la dimensión de su espacio columna, es decir, a la dimensión del subespacio vectorial (de R m ) Col(A) = {combinaciones lineales de las columnas de A} = {Ax : x R n } = {y R m : Ax = y es compatible} Teniendo en cuenta la relación entre la dimensión del espacio columna de A y la reducción de A a forma escalonada tenemos que rango(a) = número de pivotes de A Para una matriz cuadrada A de orden n, teniendo en cuenta los resultados sobre la existencia de la inversa obtenemos que: A tiene inversa rango(a) = n Teorema Consideremos una matriz A, m n Se verifican: (a) rango(a) = rango(a T ) Es decir, la dimensión del subespacio vectorial (de R n ) generado por las m filas de A coincide con la dimensión del espacio columna de A (subespacio vectorial de R m generado por las n columnas de A): dim(col(a)) = dim ( Col(A T ) ) Es decir, si por un lado reducimos la matriz A a forma escalonada por filas (mediante operaciones fila) y por otro reducimos a forma escalonada por columnas (mediante operaciones columna), el número de pivotes que se tienen en ambas reducciones es el mismo 88

11 (b) Teorema del rango dim(col(a))+dim(nul(a)) = n (c) En términos de la reducción por filas de A a forma escalonada, el Teorema del rango se puede expresar mediante: (número de pivotes) + (número de variables libres) = n Si consideramos la transformación lineal T : R n R m, asociada a una matriz real A,m n, el espacio imagen de la transformación es el espacio columna de la matriz A, Imagen(T) = T(R n ) = {T(x) R m : x R n } = = {y R m : y = T(x) para algún x R n } = Col(A) Se trata, por tanto, de un subespacio vectorial de R m cuya dimensión es rango(a) La imagen, mediante T, de cualquier subespacio vectorial S de R n será un subespacio vectorial T(S) de R m contenido en el espacio imagen (columna) y por tanto la dimensión de dicho subespacio T(S) será menor o igual que el rango de A (y menor o igual que la dimensión del subespacio S original) Por otra parte, si consideramos un subespacio vectorial H de R m, el conjunto de los vectores x R n cuyos transformados T(x) = Ax pertenecen a H forman un subespacio vectorial de R n En particular, si H es el subespacio nulo de R m, es decir, H = {} R m entonces, obtenemos el núcleo de la transformación T o lo que es lo mismo, el espacio nulo de A, ker(t) = {x R n : T(x) = } = {x R n : Ax = } = Nul(A) Ejercicio resuelto Considera la transformación lineal T que verifica, T T = =, T = (a) Calcula la matriz A tal que T(x) = Ax para todo x R (b) Calcula unas ecuaciones implícitas del espacio columna de A (c) Calcula un conjunto linealmente independiente de vectores S que genere el subespacio nulo de A (a) La aplicación lineal T : R R 4 tiene asociada, respecto de las bases canónicas, la matriz A en cuyas columnas aparecen los transformados de la base canónica del espacio de partida, es decir, A = [T(e ) T(e ) T(e ) Unaposibilidadesplantearelsistemadeecuacionesvectoriales,donde,porcomodidadllamamosa = (,,,) T, b = (,,, ) T, c = (, 4,,5) T, T([,, T ) = T(e +e ) = T(e )+T(e ) = a T([,, T ) = T(e +e ) = T(e )+T(e ) = b T([,, T ) = T(e +e ) = T(e )+T(e ) = c 4 5 T(e ) = a b = (,,, )T T(e ) = b T(e ) = (, 5,,4) T T(e ) = c T(e ) = (,,,) T que en este caso se resuelve trivialmente (en general, lo resolveremos mediante eliminación de Gauss) Por tanto, A = [T(e ) T(e ) T(e ) = 5 4 Antes de seguir, podemos asegurarnos de que la matriz encontrada es la correcta comprobando que A[,, T = (,,,) T, A[,, T = (,,, ) T A[,, T = (, 4,,5) T Otra forma de encontrar A es escribir matricialmente las igualdades que nos dan: A =,A =,A = 4 A = 5 4 5, 89

12 de donde deducimos A = 4 5 = 4 5 = 5 4 La matriz inversa que aparece la hemos calculado aplicando el método de Gauss Jordan: (b) Puesto que Col(A) = Gen 5 4,,, dado un conjunto generador {v,v,v } del subespacio Col(A) R 4, encontrar las ecuaciones implícitas de Col(A) es hallarlascondicionesquedeben verificarlascomponentesdeunvectorder 4,x = (x,x,x,x 4 ) T,paraquepertenezca a Col(A), es decir, para que se pueda escribir como combinación lineal del conjunto generador x = c v +c v +c v, es decir, para que existan esos escalares c i, o lo que es equivalente, para que el sistema (v v v )c = x, con c = (c,c,c ) T sea compatible Para exigir esto construimos la matriz ampliada (v v v x): x 5 x x 4 x 4 x 9 x 5x x +x 9 x 4 +4x es decir, las coordenadas de los vectores que pertenezcan a Col(A) deben verificar x +x =, x x x 4 = x 9 x 5x x +x x 4 x +x Merece la pena emplear unos segundos, para estar seguros de que el resultado obtenido es correcto, en comprobar que los tres vectores que generan el espacio columna verifican todas (dos en nuestro caso) las ecuaciones obtenidas Observemos que dim(col(a)) = (pues la tercera columna de A es combinación lineal de las dos primeras) y al estar ese subespacio en R 4 lo definen dos ecuaciones implícitas (c) El espacio nulo de A está formado por los vectores x R tales que Ax = Al aplicar el método de eliminación para resolverlo vamos a obtener el mismo resultado (en las tres primeras columnas) que el conseguido al buscar las ecuaciones implícitas en el apartado anterior: , { x = x +x = x +x = x, x = x, con lo que Nul(A) = Gen{v = (,,) T }, es decir, S = Es fácil comprobar que v verifica Av =, es decir, que pertenece a Nul(A) Además, sabiendo que, en nuestro caso, T está definida en R, la igualdad nos permitía saber, antes de comenzar este apartado, que dim(col(a))+dim(nul(a)) = dim(nul(a)) = dim(col(a)) = = 9

13 4 Bases de R n Cambios de base 4 Bases de R n Todas las bases de R n están formadas por n vectores Puesto que en ese caso tendremos n vectores linealmente independientes con n coordenadas cada uno, la matriz cuadrada formada por dichos vectores como vectores columna tiene inversa (y los vectores columna de dicha matriz inversa formarán otra base de R n ) Por otra parte, también los vectores fila de las dos matrices citadas serán una base de R n Para comprobar si n vectores forman una base de R n bastará con reducir a forma escalonada la matriz formada por dichos vectores como vectores columna y comprobar si se obtienen n pivotes Notemos que, el orden de los vectores no influye en si éstos forman base o no Ejemplo Siendo e,e,,e n los vectores de la base canónica de R n, los vectores e,e +e,e +e +e,,e +e + +e n forman una base de R n y para calcular las coordenadas de un vector genérico x R n respecto de esta base basta con resolver el sistema (con término independiente x) α α α n = x x x n Resolvemos el sistema x x x n x x x x x n x n x n Por tanto, las coordenadas de x respecto a la base dada son α x x α x x = α n x n x n α n x n 4 Cambios de base Dada una base B = {v,v,,v n } de R n, las coordenadas de un vector x R n respecto a dicha base son los coeficientes (únicos) α,α,,α n para los cuales se verifica Dadas dos bases α v +α v + +α n v n = x con x = x x x n v v vn α α α n = x = las coordenadas de xrespecto de la base canónica U = {u,u,,u n } y B = {v,v,,v n } de R n se trata de hallar la relación entre las coordenadas de un vector x R n respecto de ambas bases Hallemos primero, la relación entre las coordenadas del vector x en la base U y la base canónica C Las coordenadas de un vector x x x n 9

14 x R n respecto a U vienen dadas por un vector [x U que verifica que x α x α La matriz x = x n, [x U = α n x = α u +α u + +α n u n x x x n = u u un u u un que relaciona las coordenadas de un mismo vector x respecto a la base canónica con las coordenadas del mismo vector x respecto a la base U se denomina matriz del cambio de base U C de U a la base canónica C = {e,e,,e n } y se denota por P C U = Puesto que la igualdad ( ) es equivalente a ( la matriz P C U α α α n = α α u u un, x = [x C = P [x U C U u u un x x x n ( [x U = ) es la matriz del cambio de base C U con lo cual ( P U C = De forma análoga, si consideramos ahora las bases de R n, P C U ) B = {v,v,,v n } y U = {u,u,,u n } P C U α n ) [x C podríamos obtener las matrices de cambio de base B U y U B de la misma forma que lo que acabamos de hacer si conociéramos las coordenadas de los vectores de una base respecto a la otra Si, en cambio, conocemos las coordenadas de los vectores de ambas bases respecto, por ejemplo, a la base canónica, tenemos un planteamiento similar Denotemos las coordenadas de un vector genérico x R n respecto de ambas bases B y U mediante [x B = α α n, [x U = Tenemos entonces que x = α v + +α n v n = β u + +β n u n y expresando estas igualdades en forma matricial tenemos que x α β x = = v v v n = u u u n x es decir, siendo B la matriz cuyas columnas son los vectores de la base B en la base canónica y siendo U la matriz cuyas columnas son los vectores de la base U en la base canónica, se verifica que α n x = B[x B = U[x U β β n β n ( ) 9

15 Por tanto, [x B = B U[x U = P B U = B U, [x U = U B[x B = P U B = U B Ejemplos () Vamos a calcular las matrices de cambio de base entre la base canónica de R y la base { B = v = [ T,v = [ T,v = [ T} Siendo las coordenadas de un vector genérico x R respecto a B y respecto a la base canónica α x [x B = α, x = x, α x respectivamente, se verifica que x = α v +α v +α v x x x = v v v α α α Por tanto, la matriz P = v v v = (cuyas columnas son las coordenadas de los vectores de la base B respecto a la base C es la matriz cambio de base B C puesto que Puesto que la inversa P verifica x = [x C = P[x B, x R [x B = P [x C, x R dicha matriz es la del cambio de base C B Resumiendo, P = P =, P C B B C = P = 6 6 P C B del () Calculemos las matrices de cambio de base entre las bases B = v =,v = U = u =,u =,v = y,u = Denotemos las coordenadas de un vector genérico x R respecto de ambas bases B y U mediante [x B = α α, [x U = β β α β Tenemos entonces que x = α v + α v + α v = β u + β u + β u Escribiendo estas igualdades en forma matricial x x = α α = β β x α β 9

16 obtenemos y, por tanto, P B U = = 6 α α α = = 6 β β β 6 Análogamente podríamos obtener P U B = P B U = Ejercicio resuelto {( ) ( )} {( ) ( )} 5 4 Dadas las bases de R, B =, y B =,, encontrar, con la ayuda de la matriz correspondiente, las coordenadas en la base B del vector v cuyas coordenadas en la base B son [v B = (,) B Sabemos que dada una base de R, B = {v,v }, la matriz P B = [v v relaciona las coordenadas que un vector v tiene en la base canónica, [v BC, y las que tiene en la base B, [v B, de forma que [v BC = P B [v B Análogamente, dada una base B = {u,u }, la matriz P B = [u u relaciona las coordenadas que un vector v tiene en la base canónica, [v BC, y las que tiene en la base B, [v B, de forma que [v BC = P B [v B Combinando ambas expresiones obtenemos { [vb = P P B [v B = P B [v B B P B [v B = P B B [v B, [v B = P B P B [v B = P B B [v B Como el enunciado nos da [v B, usaremos [v B = P B P B [v B Puesto que [ [ [ 5 4 P B =, P B = P 4 B P B = [ 5 = [ [ [ [ obtenemos [v B = P 4 B P B [v B = = Es fácil comprobar que el resultado es correcto Teniendo en cuenta las coordenadas obtenidas en ambas bases v = v +v = 4u u con lo que debe ser cierto [ [ [ [ = 4 De aquí deducimos además (sin más que sumar los vectores) que, en la base canónica, v = ( 8,) T Ejercicio resuelto Consideremos una transformación lineal f : R R Hallar la matriz A que representa a f cuando se trabaja con la base canónica B = {e,e,e }, sabiendo que A es simétrica, que f(e ) = e +e, f(e +e +e ) = (e +e +e ) y que f(e ) pertenece al subespacio E de ecuación x z = 94

17 La aplicación lineal dada f : R R tiene asociada, respecto de las bases canónicas, la matriz A en cuyas columnas aparecen los transformados de la base canónica del espacio de partida, es decir, A = [f(e ) f(e ) f(e ) = a b c a b c a b c Al ser A simétrica, A T = A, debe ser b = a, c = a y c = b, con lo que A = a a a a b b Puesto que a b c f(e ) = Ae = e +e = (,,) T la matriz A será A = b b b c Puesto que f(e ) pertenece al subespacio E de ecuación x z =, los elementos de la segunda columna de A deben verificar dicha ecuación, es decir, b =, con lo que b = y tenemos A = b c Finalmente, usando f(e +e +e ) = f(e )+f(e )+f(e ) = (,,) T, obtenemos que la tercera columna de A debe verificar f(e ) = (,,) T f(e ) f(e ) = (,,) T (,,) T (,b,) T = (, b,) T Por tanto, debe ser (,,c ) T = (, b,) T, con lo que b =, c =, y la matriz pedida es A = Es recomendable emplear un minuto en comprobar que la matriz calculada satisface todas las condiciones del enunciado, es decir, que no nos hemos equivocado al calcularla 5 Ejercicios Ejercicio Determinar si los siguientes conjuntos son subespacios vectoriales de R y R, respectivamente: {[ } x (a) H = R y : x,y (b) H = x y R : x+y = z Ejercicio Sea E el conjunto de vectores de R 4 cuyas dos primeras coordenadas suman cero (a) Probar que E es un subespacio vectorial de R 4 (b) Calcular un sistema generador linealmente independiente para dicho subespacio (c) Hallar unas ecuaciones implícitas del subespacio E Ejercicio Probar que el espacio nulo y columna de una matriz A de orden m n son subespacios vectoriales de R n y R m respectivamente Ejercicio 4 Dados la matriz A y el vector b por A =, b = 95

18 (a) Determinar si el vector b pertenece al espacio columna de la matriz A (b) Obtener los vectores pertenecientes al espacio nulo de la matriz A Ejercicio 5 Sean las matrices A, B y el vector b dados por A =, B =, b = (a) Determinar unas ecuaciones implícitas y paramétricas del espacio columna de las matrices A y B (b) Determinar unas ecuaciones implícitas linealmente independientes y unas ecuaciones paramétricas del espacio nulo de A y B (c) Hallar un sistema generador linealmente independiente para el espacio nulo y columna de dichas matrices (d) Razonar si el vector b pertenece al espacio nulo de la matriz A Y al espacio nulo de la matriz B? Ejercicio 6 (a) Determinar el rango de las siguientes matrices: A =, B = (b) Sea A una matriz 5 cuyo rango es Determinar la dimensión de los siguientes subespacios vectoriales, Col(A), Nul(A), Col(A T ) y Nul(A T ) Ejercicio 7 Siendo e,e,e los vectores de la base canónica de R y sabiendo que los vectores de la base B verifican e = u + u + u, e = u u + u,e = u + u + u, señalar la relación correcta entre las siguientes (considerando a los vectores como vectores-columna) (a) [e e e = [u u u (b) [u u u = = 9 (c) [u u u = = 9 Ejercicio 8 Consideremos la base B = {(,) T,(, ) T } de R R 4 : (a) Obtener, en dicha base, las ecuaciones implícitas y las paramétricas de los subespacios que, en la base canónica, vienen definidos mediante E x +x =, F x x =, G = Gen{(,) T }, H = Gen{(,) T } (b) Obtener, en la base canónica, las ecuaciones implícitas y las paramétricas de los subespacios que, en la base B, vienen definidos mediante E y +5y =, F y =, G = Gen{(,) T B}, H = Gen{(,4) T B} 96

19 Tema 5- Ortogonalidad Mínimos cuadrados Producto escalar Norma, distancia, ángulos y ortogonalidad El complemento ortogonal de un subespacio Bases ortonormales de un subespacio Matrices ortogonales 4 Proyección ortogonal sobre un subespacio El teorema de la mejor aproximación 5 El método de Gram-Schmidt 6 Problemas de mínimos cuadrados Ecuaciones normales de Gauss 7 Ajuste de curvas, regresión lineal 8 Ejercicios EnestetemaestudiamoslaestructuramétricadelosespaciosR n,esdecir,lascuestionesrelacionadascondistancias y ángulos Al contrario de lo que sucede con el estudio de la resolución de sistemas de ecuaciones lineales, el álgebra de matrices, etc, el hecho de considerar aquí vectores reales es esencial Para poder considerar conceptos métricos en C n, es decir, con vectores de coordenadas complejas, habría que considerar la definición apropiada (coherente) de producto escalar de vectores complejos, que se suele denominar producto hermítico Al aplicar dicha definición a vectores reales nos daría la definición usual que vemos a continuación y que los alumnos conocen en dimensión y en dimensión Finalmente, estudiaremos el problema del ajuste por mínimos cuadrados, de gran interés en las aplicaciones Producto escalar Norma, distancia, ángulos y ortogonalidad Definición (Producto escalar, norma, ortogonalidad) Consideremos dos vectores x,y R n Se denomina Producto escalar de dos vectores x,y R n al número real x y = x T y = y T x = x y +x y + +x n y n R Se denomina Norma de un vector x R n al número real no-negativo x = x + + x n = x x Se denomina Distancia entre dos vectores x,y R n al número real no-negativo Ortogonalidad d(x,y) = x y (a) Se dice que dos vectores x,y R n son ortogonales (x y) si x y = (b) Se dice que un conjunto de vectores {v,,v m } de R n es un conjunto ortogonal si cada uno de los vectores v k es ortogonal a todos los demás, v k v j =, j k (c) Se dice que un conjunto de vectores {v,,v m } de R n es un conjunto ortonormal si es un conjunto ortogonal y cada uno de los vectores v k tiene norma igual a, v k v j =, j k; v = = v m = Las propiedades del producto escalar, la norma, la distancia y la ortogonalidad son conocidas por el alumno para vectores en R y en R En los espacios R n, las propiedades son esencialmente las mismas Notemos que si considerásemos dichos conceptos de forma independiente de un sistema de referencia, en cada uno de ellos aparecen involucrados uno o dos vectores Algunas de las propiedades del producto escalar pueden obtenerse directamente del hecho de que el producto escalar de dos vectores puede expresarse como un producto matricial, vector-fila por vector-columna x y = [x, x,,x n y y n = x T y = y T x = [y, y,,y n x x n = y x 97

20 Propiedades Sean x,y R n,α R () x = x = () αx = α x () Desigualdad triangular: x+y x + y, ( x y x + y ) () Desigualdad de Cauchy-Schwartz: x y x y (4) Teorema de Pitágoras: x y x+y = x + y El ángulo (los ángulos) determinado por dos vectores no-nulos x,y R n puede caracterizarse (definirse) mediante la igualdad x y = x y cos(θ) El complemento ortogonal de un subespacio Definición (El complemento ortogonal de un subespacio) Dado un subespacio vectorial S de R n se denomina complemento ortogonal de S al conjunto S = {v R n : v u, u S} Es decir, S está formado por todos los{ vectores que son ortogonales a todos los vectores de S Por tanto, el complemento ortogonal del subespacio nulo } es R n puesto que cualquier vector es ortogonal al vector nulo Por otra parte, el complemento ortogonal del espacio total R n es el subespacio nulo, puesto que el vector nulo (de R n ) es el único que es ortogonal a todos los vectores de R n Ejemplos A la hora de trabajar con el complemento ortogonal de un subespacio es conveniente tener presente cómo se puede caracterizar, el complemento ortogonal de un subespacio, cuando el subespacio viene dado en forma paramétrica o cuando viene dado en forma implícita En R, un subespacio vectorial de dimensión es una recta que pasa por el origen y su complemento ortogonal será (como es natural) la recta que pasa por el origen (es un subespacio vectorial) y es perpendicular a la recta dada En R, un subespacio vectorial de dimensión es una recta que pasa por el origen Su complemento ortogonal será el plano que pasa por el origen (es un subespacio vectorial) y es perpendicular a la recta dada Un subespacio vectorial de dimensión es un plano que pasa por el origen Su complemento ortogonal será la recta que pasa por el origen (es un subespacio vectorial) y es perpendicular al plano dado () Consideremos un subespacio de dimensión en R, dado en forma paramétrica, es decir, una recta que pasa por el origen de coordenadas, dada por un vector dirección v Por ejemplo, para v = [, T S = Gen {v } = {αv : α R} { x = α x = α, su complemento ortogonal estará formado por los vectores v = [x,x T R que son ortogonales a todos los vectores de la forma αv,α R v S (αv ) v =, α R v v = x x = Es decir, el complemento ortogonals está formado por todos los vectores v = [x,x T R cuyas coordenadas verifican la ecuación x x =, con lo cual S es un subespacio vectorial (de dimensión ) que viene dado en forma implícita y los coeficientes de la ecuación implícita son las coordenadas del vector dirección de S Si hubiéramos considerado otro vector dirección de S (que será un múltiplo no-nulo de v ), habríamos obtenido una ecuación equivalente () Si consideramos un subespacio vectorial S de dimensión en R n, es decir una recta que pasa por el origen, generada por un vector no-nulo v R n S = Gen v = a a n, 98

21 su complemento ortogonal estará formado por los vectores v = [x,,x n T R n cuyas coordenadas verifican la ecuación v v = a x + +a n x n =, con lo cual S es un subespacio vectorial (de dimensión n ) que viene dado mediante una ecuación implícita y los coeficientes de dicha ecuación son las coordenadas del vector dirección de S Teorema Dado un subespacio vectorial S de R n se verifica: () S es un subespacio vectorial de R n () ( S ) = S () Se verifica la siguiente relación entre S y S (a) S S = {} Por tanto, todo vector v de R n se puede expresar de forma única como suma de un vector de S y un vector de S (Esto será consecuencia del teorema de (b) S +S = R n la proyección ortogonal que veremos más adelante) (5) Si S = Gen {v,,v p }, entonces v S v v,,v v p Ejemplo Antes hemos obtenido el complemento ortogonal de un subespacio de R n de dimensión, que era un subespacio vectorial de dimensión n (estos subespacios se suelen denominar hiperplanos) Las propiedades anteriores permiten obtener fácilmente el complemento ortogonal de un subespacio, de dimensión n, cuya ecuación implícita es W a x + +a n x n = Como hemos visto antes, W = S, siendo S = Gen a a n, tenemos que W = ( S ) = S Es decir, de manera inmediata obtenemos, W, en forma paramétrica El hecho de expresar el complemento ortogonal de una u otra forma paramétrica/implícita dependiendo de como venga expresado el subespacio vectorial: S en forma paramétrica S en forma implícita S en forma implícita S en forma paramétrica queda reflejado con el siguiente Teorema Teorema (Los cuatro subespacios asociados a una matriz) Sea A una matriz real m n Se verifica: [Col(A) = Nul(A T ), [Nul(A) = Col(A T ) El espacio Col(A T ) se suele denominar espacio fila de la matriz A Notemos que en lo que se refiere a las dimensiones de los complementos ortogonales tenemos ( dim [Col(A) ) = dim ( Nul(A T ) ) = m pivotes de A T = m rango(a) = m dim (Col(A)) Puesto que cualquier subespacio vectorial se puede expresar como el espacio columna de una matriz tenemos que para cualquier subespacio vectorial S de R m, se verifica dim ( S ) = m dim(s) 99

22 Bases ortonormales de un subespacio Matrices ortogonales Proposición Si {u,u,,u r } es un conjunto de vectores no-nulos ortogonales dos a dos, entonces son linealmente independientes Demostración- Si tenemos una combinación lineal de los vectores dados igual al vector nulo α u +α u + +α pu p = ( ) al multiplicar escalarmente por el vector u tenemos Desarrollando el primer miembro de la igualdad (α u +α u + +α pu p) u = u = α u u +α u u + +α pu p u = [ = α u +α + +α p = usando la condición de ortogonalidad puesto que u De manera análoga, al multiplicar escalarmente la igualdad ( ) por un vector se obtiene u k, k =,,,p, [ α +α + +α k u k + +α n = puesto que u k = = α = α k = Por tanto, la única combinación lineal que es igual al vector nulo es la combinación lineal idénticamente nula (todos los coeficientes son nulos) Es decir, los vectores dados son linealmente independientes Proposición Sea {u,u,,u r } una base ortogonal de un subespacio S de R n Entonces: Las coordenadas de un vector u S respecto de dicha base vienen dadas por u u k, es decir, se verifica que u k u = u u u u + + u u r u r u r La expresión anterior se suele denominar desarrollo de Fourier de v respecto a la base {u,u,,u r } Antes de pasar a estudiar la proyección ortogonal de un vector sobre un subespacio, vamos a considerar las propiedades de las matrices cuyas columnas son ortonormales En particular, vamos a considerar las matrices cuadradas cuyas columnas son ortonormales Cuando se tiene un conjunto ortogonal de vectores no-nulos y se normalizan (se divide cada uno por su norma), obtenemos un conjunto ortonormal de vectores que formarán una base ortonormal del subespacio vectorial que generan En términos de computación numérica, las matrices cuyas columnas son ortonormales juegan un papel importante por ser matrices que transmiten los errores de redondeo de manera controlada Proposición Sea U = [u,,u n una matriz real m n () U tiene columnas ortonormales U T U = I () Si U tiene columnas ortonormales, la transformación lineal asociada conserva ángulos y distancias, es decir (a) Ux = x, x R n (b) (Ux) (Uy) = x y, x,y R n y en particular, (c) Ux Uy x y U : x R n y = Ux R m Un caso particularmente importante lo constituyen las matrices cuadradas con columnas ortonormales Definición (Matriz ortogonal) Se denomina matriz ortogonal a toda matriz Q real cuadrada no-singular cuya inversa coincide con su traspuesta, Q = Q T

23 Proposición Se verifica: () Si Q es ortogonal = det(q) = ± () Q es ortogonal Q T es ortogonal () Si Q y Q son ortogonales, entonces Q Q es ortogonal Proposición Sea Q una matriz real cuadrada n n Son equivalentes: () Q es una matriz ortogonal () Las n columnas de Q son ortonormales (y por tanto forman una base ortonormal de R n ) () Las n filas de Q son ortonormales (y por tanto forman una base ortonormal de R n ) 4 Proyección ortogonal sobre un subespacio El teorema de la mejor aproximación Si consideramos el subespacio vectorial S, de dimensión uno (una recta), generado por un vector, u, no-nulo, S = Gen {u }, la proyección ortogonal de un vector v R n sobre S será el vector u = αu S que verifica que v u = v αu es ortogonal a S, es decir, tenemos que determinar α con la condición que v αu sea ortogonal a u, (v αu ) u = v u α u = α = v u u = u = proy S (v) = v u u u Para un subespacio de dimensión arbitraria puede darse una expresión de la proyección ortogonal de un vector sobre dicho subespacio cuando disponemos de una base ortogonal de dicho subespacio Considerando una base ortonormal puede darse una expresión cómoda de la matriz de la proyección ortogonal Teorema (de la descomposición ortogonal) Sea S un subespacio vectorial de R n Dado cualquier vector v R n existe un único vector u S (llamado proyección ortogonal de v sobre S) tal que v u S De hecho, si {u,u,,u r } es una base ortogonal de S, entonces la proyección ortogonal de v sobre S es u := proy S (v) = v u u u + + v u r u r u r, y la proyección ortogonal de v sobre S es w = v u Notemos que: Cada sumando de la expresión v u u u + + v u r u r u r nos da la proyección ortogonal del vector v sobre el subespacio generado por el correspondiente vector u k El vector u = proy S (v) verifica que u v Corolario (Matriz de una proyección ortogonal) Sea S un subespacio vectorial de R n (a) Si {u,u,,u r } es una base ortonormal de S, la proyeción ortogonal de un vector v R n sobre S es u := proy S (v) = (v u )u + +(v u r )u r

24 (b) Siendo U una matriz cuyas columnas forman una base ortonormal de S, la matriz de la proyección ortogonal sobre S es P S = UU T, es decir proy S (v) = UU T v, v R n Aunque puedan considerarse distintas matrices U como en el enunciado, la matriz P S = UU T que representa a la proyección ortogonal, respecto a la base canónica, es única Las propiedades características de las matrices de proyección ortogonal son PS = P ( S, ) UU T = U(U T U)U T = UIU T = UU T, y P S es simétrica, ( UU T) T = (U T ) T U T = UU T Teorema (de la mejor aproximación) Sea S un subespacio vectorial de R n y consideremos un vector x R n y un vector y S Son equivalentes: (a) y es la proyección ortogonal de x sobre S, S es decir, x y S, x y S (b) y es la mejor aproximación de x desde S, es decir, S O w y y S, x y x w para todo w S Sea y = proy S (x) y sea w S Puesto que x w = (x y)+(y w), x y S,y w S, aplicando el Teorema de Pitágoras tenemos x w = x y + y w x y 5 El método de Gram-Schmidt En el Tema 4 hemos visto cómo obtener una base de un subespacio vectorial a partir de un conjunto de vectores que genera el subespacio vectorial En los epígrafes anteriores hemos visto que el cálculo de las coordenadas de un vector respecto de una base ortogonal es muy simple (desarrollo de Fourier) y que éstas permiten dar la expresión de la proyección ortogonal sobre el subespacio que generan dichos vectores El método de ortogonalización de Gram- Schmidt, que vamos a describir, permite construir de manera progresiva una base ortogonal de un subespacio vectorial a partir de una base de dicho subespacio e incluso de un conjunto de vectores que genere el subespacio Partiendo de una base {v,v,,v p } de un subespacio S, el método consiste en generar uno a uno vectores que son ortogonales a los construidos Denotamos por S,S,, los subespacios vectoriales definidos por S = Gen {v },S = Gen {v,v },,S p = Gen {v,v,,v p } = S El método de Gram-Schmidt consiste en generar los vectores: u = v S, u = v proy S (v ) S, es decir, u es el único vector de la forma u = v +αu que es ortogonal a u, u = v proy S (v ) S, es decir, u es el único vector de la forma u = v +αu +βu que es ortogonal a u y a u, Notemos que, puesto que los vectores {v,v,,v p } son linealmente independientes, necesariamente los subespacios S S S p = S

25 son todos distintos (dim(s k ) = k,k =,,,p), los vectores u,u,,u p son todos no-nulos y linealmente independientes y se verifica que S = Gen{v } = Gen{u }, S = Gen {v,v } = Gen {u,u }, S = Gen {v,v,v } = Gen {u,u,v } = Gen {u,u,u }, S p = Gen {v,,v p } = = Gen {u,,u p } Teorema (Método de ortogonalización de Gram-Schmidt) Consideremos una base {v,v,,v p } de un subespacio vectorial S de R n Entonces, los siguientes vectores están bien definidos u = v u = v v u u u u = v v u u u v u u u u p = v p v p u u u vp u p u p u p y son no-nulos y ortogonales dos a dos (a) {u,u,,u p } es una base ortogonal de S = Gen {v,v,,v p } (b) Para cada k =,,p, {u,u,,u k } es una base ortogonal de S k = Gen {v,v,,v k } Observaciones (a) Si elobjetivoesobtenerunabaseortonormaldes, unavezquesehaobtenidouna baseortogonalbastanormalizar los vectores obtenidos (b) En cada paso del método de Gram-Schmidt que acabamos de describir podríamos multiplicar (o dividir) el vector obtenido por un coeficiente no-nulo y seguir los cálculos con dicho vector (c) Si el vector v k es combinación lineal de los anteriores, v,v,,v k, al aplicar el método de Gram-Schmidt obtenemos u k = Es decir, el método de Gram-Schmidt devuelve el vector nulo cuando se aplica a un conjunto de vectores linealmente dependientes Ejercicio resuelto Consideremos la matriz A = b a a b b a a b, a,b R Si a = y b =, la matriz B = A es la matriz de la proyección ortogonal sobre un cierto subespacio S R4 (a) Encontrar una base ortonormal del subespacio S (b) Calcular la proyección ortogonal del vector (,,,) T sobre S Si a = y b = la matriz B es B = A = (a) Nos dicen que B es la matriz P S de la proyección ortogonal sobre un cierto subespacio S R 4, es decir, que la proyección ortogonal de cualquier vector x R 4 sobre S es Bx Los vectores v que pertenecen a S son aquéllos que coinciden con su proyección ortogonal sobre S, es decir, los que verifican Bv = v Resolviendo este sistema v v v v 4 = v v v v 4 v v v v 4 = { v v =, v v 4 =,

26 obtenemos v = α +β, α,β R S = Gen u =,u = Como la base encontrada ya es ortogonal (u u = ), basta con dividir por la norma de cada vector para encontrar una base ortonormal de S:, (b) Para calcular la proyección ortogonal del vector w = (,,,) T sobre S, usamos que la matriz de la proyección ortogonal sobre S, P S, vale P S = I P S = = con lo que Proy S w = P S w = resultado lógico ya que w S, pues verifica sus ecuaciones implícitas (halladas en el apartado anterior), x x =, x x 4 = (en particular, podemos ver que w = u +u ) =, Ejercicio resuelto Dados el subespacio E de R 4 y la matriz A E = Gen u =,u =,u =, A = a b a a b b (a) Encontrar la matriz de la proyección ortogonal sobre E (b) Calcular A sabiendo que Col(A) está contenido en E (a) Para calcular la matriz de la proyección ortogonal P E sobre un subespacio E necesitamos una base ortonormal de E Pero teniendo en cuenta que P E + P E = I, puede ser más fácil calcular primero P E a partir de una base ortonormal de E Por tanto, lo más conveniente es trabajar con el espacio que tenga menor dimensión entre E y E Por un lado, dim(e) = pues los tres vectores que lo generan son linealmente independientes De esta forma, al estar en R 4, dim(e ) = 4 dim(e) = 4 =, con lo que es trivial encontrar una base ortonormal de E y muy tedioso hallarla para E Para trabajar con E podemos escribir sus ecuaciones implícitas (a partir de un conjunto generador de E; si se trata de una base de E, entonces tenemos garantíade que no nos sobra ninguna ecuación en ese conjunto de ecuaciones implícitas): E x +x 4 = x +x 4 = x +x 4 = x 4 R x = x 4 x = x 4 x = x 4 E = Gen Otra forma de encontrar una base de E es a partir de las ecuaciones implícitas de E, y éstas son fáciles de calcular 4

27 (repetimos la primera eliminación que hicimos para ver la dimensión de E, añadiendo una cuarta columna): x x x x x x x x x x x x x x 4 x 4 x x 4 x x 4 x, x x de donde deducimos que x + x + x x 4 = es una ecuación implícita de E (es recomendable emplear unos segundos en comprobar que todos los vectores que generan E satisfacen todas las ecuaciones implícitas obtenidas; en nuestro caso, que los tres vectores verifican la ecuación) Observemos que obtenemos una sola ecuación implícita pues E tiene dimensión y es un subespacio de R 4 A partir de dicha ecuación implícita de E deducimos que E = Gen{(,,, ) T } La ventaja de trabajar con E es que la base obtenida ya es ortogonal (al tener un único vector) y, por tanto, una base ortonormal es B E = {v = 7 (,,, ) T } Construyendo la matriz U = [v podemos ya calcular la matriz de la proyección ortogonal sobre E que viene dada por P E = UU T = 7 7 [ = 7 Es muy fácil obtener entonces la matriz de la proyección ortogonal sobre E 6 P E = I P E = Para estar seguros de que las matrices encontradas son las correctas es recomendable comprobar que, al proyectar cada vector de la base de ese espacio obtenemos el mismo vector, y que, al proyectar cada vector de la base del subespacio ortogonal obtenemos el vector nulo Además, hay dos comprobaciones inmediatas que si no las satisface una matriz de proyección seguro que está mal calculada: es siempre una matriz cuadrada, en este caso al estar el subespacio en R 4 es 4 4 y debe ser simétrica al ser (UU T ) T = (U T ) T U T = UU T Observemos que un camino no recomendable (pues nos puede llevar mucho tiempo y seguramente con errores en los cálculos) para calcular P E consiste en buscar una base de E, {z,z,z }, aplicarle el método de Gram Schmidt para conseguir una base ortogonal, {t,t,t }, dividir por las normas de los vectores para conseguir una base ortonormal y construir la matriz con lo que, finalmente, P E = UU T U = [ t t t t (b) Si Col(A) está contenido en E, quiere decir que cada columna de A se puede escribir como combinación lineal de los vectores de cualquier base de E Como una base de E es {(,,, ) T }, debe verificarse a α =, b β =, a a = α a =, ; a = 4, b = β b =, b =, a =, b b =, a b con lo que la matriz A buscada resulta ser A = a a b = 4 b Un planteamiento equivalente consiste en exigir que la matriz siguiente tenga rango uno r a b a a b b = r a b a a b a a b b a b +b t t, = a a =, a a =, a =, b =, b b =, b +b =, a =, a = 4, a =, b =, b =, b = 5

28 Otra posibilidad es exigir que las columnas de A verifiquen las tres ecuaciones implícitas de E obtenidas en el primer apartado Ejercicio resuelto Consideremos el subespacio E de R definido mediante x z = y la aplicación lineal f : R R representada (en la base canónica de R ) por la matriz A = (a) Hallar la proyección ortogonal del vector (,,) T sobre el subespacio f(e) (b) Encontrar la matriz de la proyección ortogonal sobre el subespacio [f(e) (a) A partir de las ecuaciones implícitas de E, x z =, es inmediato deducir (resolviendo la ecuación que define a E) que: E = Gen v =,v = Si x es un vector de E, x E, entonces se podrá escribir como x = α v + α v y su transformado, mediante la transformación lineal f, será f(x) = f(α v +α v ) = α f(v )+α f(v ) es decir, que si E = Gen{v,v } entonces, f(e) = Gen{f(v ),f(v )} Calculamos pues f(v ) = Av = f(v ) = Av = = 4, =, con lo que f(e) = Gen{(4,,) T,(,, ) T } = Gen{w = (,,) T } Puesto que dim(f(e)) = y se trata de un subespacio de R, entonces dim([f(e) ) =, con lo que es más fácil proyectar sobre f(e) que sobre [f(e) Cuidado, no hay que confundir [f(e) con f(e ) Este último viene generado por f[(,, ) T = (,,) T, ya que E = Gen{(,, ) T }, mientras que una ecuación implícita que define [f(e) es x+y+z = y, por tanto, resolviendo esta ecuación, [f(e) = Gen{u = (,,) T,u = (,,) T } Para proyectar sobre un subespacio necesitamos conocer una base ortogonal suya Puesto que una base de f(e) es w = (,,) T (que es ortogonal al estar formada por un único vector) ya podemos proyectar el vector u = (,,) T sobre f(e) Proy f(e) u = u w w w w = 6 w = Este resultado indica que el vector u que hemos proyectado sobre f(e) pertenece a [f(e) Si preferimos proyectar mediante la matriz de la proyección P f(e), la calculamos construyendo U = (w/ w ) de forma que P f(e) = UU T = ( ) = 6 4 Conviene emplear unos segundos en comprobar que la matriz P f(e) calculada es correcta (hay dos comprobaciones inmediatas que si no las satisface seguro que está mal: es siempre una matriz cuadrada, en este caso al estar el subespacio en R es ; además debe ser simétrica al ser (UU T ) T = (U T ) T U T = UU T ) Para tener garantía de que está bien calculada, vemos que P f(e) w = w (como la proyección de cualquier vector de f(e) sobre f(e) es el propio vector, basta con comprobarlo con todos los vectores de su base) y que P f(e) u = P f(e) u = (como la proyección de cualquier vector de [f(e) sobre f(e) es el vector nulo, lo verificamos con todos los vectores de la base de [f(e) ) De esta forma Proy f(e) u = P f(e) u = 6 4 = 6

29 (b) Por la consideración de las dimensiones f(e) y de [f(e), la manera más fácil de calcular P [f(e) es teniendo en cuenta que P f(e) +P [f(e) = I Puesto que ya hemos calculado P f(e), es inmediato que P [f(e) = I P f(e) = 6 4 = Veamos que si no recurrimos al subespacio ortogonal, es decir, si trabajamos directamente con [f(e) los cálculos serán más engorrosos Para calcular la matriz de la proyección necesitamos una base ortonormal del subespacio Como una ecuación implícita de [f(e) es x+y+z =, resolviendo esta ecuación, obtenemos una base B [f(e) = {u = (,,) T,u = (,,) T } Para obtener una base ortogonal vamos a aplicar el método de Gram Schmidt a esos dos vectores w = u = ; w = u u w w w w = 5 = /5 /5 Conviene comprobar, para detectar posibles errores, que w y w son ortogonales, es decir, que w w = Por tanto, una base ortogonal de [f(e) viene dada por {w,w } Por comodidad, en vez de w podemos tomar un múltiplo suyo para evitar la aparición de fracciones, obteniendo la base ortogonal {w = (,,) T,w = (,, 5)T } { Dividiendo por su norma conseguimos una base ortonormal de [f(e), B [f(e) = ( ) construimos la matriz U = w w w w con lo que P [f(e) = UU T = ( ) = 6 w w, w w }, a partir de la cual 5 5 Observemos que una alternativa a aplicar el método de Gram-Schmidt es buscar con cuidado una base ortogonal de [f(e) Como su ecuación implícita es x+y +z =, elegimos un primer vector cualquiera (cuanto más sencillo mejor, pues en la solución aparecen dos parámetros) que verifique esa ecuación, por ejemplo, z = (,,) T Ahora un segundo vector,z = (a,b,c) T, lo determinamos exigiendo que verifique la ecuación anterioryque seaperpendicular a z, es decir, debe verificar a + b + c =, a b = Elegimos un vector cualquiera (en la solución aparece un parámetro) que verifique este sistema, por ejemplo, z = (,, 5) T La base ortogonal encontrada es {z,z } Ejercicio resuelto Hallar la proyección ortogonal del vector (, 4,5) T sobre el subespacio f(e) siendo f la aplicación lineal dada por la matriz A = y E el subespacio de R dado por x y z = A partir de las ecuaciones implícitas de E, x y z =, es inmediato deducir (resolviendo la ecuación que define a E) que: E = Gen v =,v = Si x es un vector de E, x E, entonces se podrá escribir como x = α v + α v y su transformado, mediante la transformación lineal f, será f(x) = f(α v +α v ) = α f(v )+α f(v ) es decir, que si E = Gen{v,v } entonces, f(e) = Gen{f(v ),f(v )} Calculamos pues f(v ) = Av = f(v ) = Av = =, = 7

30 Puestoquedim(f(E)) = (puesf(v )yf(v )sonlinealmenteindependientes)yestamosenr entoncesdim([f(e) ) =, con lo que es más fácil proyectar sobre [f(e) Cuidado, no hay que confundir [f(e) con f(e ) Este último viene generado por f[(,, ) T = (,,) T, ya que E = Gen{(,, ) T } Si hallamos las ecuaciones implícitas de f(e) (debe ser una ecuación, pues es un subespacio de dimensión en R ) x y z x y x y f(e) x+y z =, z x z x y podemos deducir inmediatamente que [f(e) = Gen{w = (,, ) T } Observemos que, por estar en R, podemos encontrar un vector de [f(e) calculando el producto vectorial de f(v ) con f(v ), f(v ) f(v ) = (, ) T Puesto que w es una base ortogonal de [f(e), ya podemos proyectar ortogonalmente De esta forma, Proy [f(e) u = u w w w w = 4 Proy f(e) u = u Proy [f(e) u = = 47 4 Mencionemos otros caminos que podíamos haber seguido, aunque sean menos aconsejables pues son más largos Conocida una base ortogonal de f(e), {w,w } (para lo que tenemos que aplicar el método de Gram Schmidt a f(v ),f(v ) o bien, buscar con cuidado, a partir de la ecuación implícita de f(e), x + y z =, dos vectores ortogonales) podemos aplicar Proy f(e) u = u w w + u w w w w w w Si preferimos proyectar sobre f(e) usando la matriz de la proyección, lo más fácil es calcular mediante una base ortonormal de [f(e) (como sólo tiene un vector, w, basta con dividir por su norma, w/ w ) la matriz P [f(e) y luego P f(e) = I P [f(e) con lo que Proy f(e) u = P f(e) u Notemos que si pretendemos calcular la matriz P f(e) directamente, necesitamos una base ortonormal de f(e) por lo que tenemos que aplicar el método de Gram Schmidt a f(v ),f(v ) o bien, buscaremos con cuidado, a partir de la ecuación implícita de f(e), x+y z =, dos vectores ortogonales Ejercicio resuelto Considera el siguiente subespacio de R 4 : F x +x +x 4 = (a) Determina las matrices de la proyección ortogonal sobre F y sobre F (b) Sea v = [5 4 6 T Halla unos vectores u F y u F tales que v = u +u (a) Paracalcular las matrices de la proyecciónortogonalsobre F, P F, y sobre F, P F, lo más conveniente es trabajar con el espacio de menor dimensión Por un lado, dim(f) = pues F R 4 y está definido por una ecuación implícita De esta forma, dim(f ) = 4 dim(f) = 4 = Con lo que es trivial encontrar una base ortonormal de F y muy muy tedioso hallarla para F Como F x +x +x 4 = entonces F = Gen = Gen / / / Usando esta base ortonormal, la matriz de la proyección ortogonal sobre F viene dada por / P F = / ( ) / / / / / / / = / / / = / / / Es muy fácil obtener entonces la matriz de la proyección ortogonal sobre F / / / P F = I P F = / / / = / / / 8

31 Para estar seguros de que las matrices encontradas son correctas es recomendable comprobar que, al proyectar cada vector de la base de ese espacio obtenemos el mismo vector, y que, al proyectar cada vector del subespacio ortogonal obtenemos el vector nulo Observemos que un camino no recomendable (pues nos puede llevar mucho tiempo y seguramente con errores en los cálculos) para calcular P F consiste en buscar una base de F, {z,z,z }, aplicarle el método de Gram Schmidt para conseguir una base ortogonal, {t,t,t }, dividir por las normas de los vectores para conseguir una base ortonormal y construir la matriz con lo que, finalmente, P F = UU T U = [ t t t t (b) Dado el vector v, pedirnos unos vectores u F y u F tales que v = u +u, es demandarnos las proyecciones ortogonales de v sobre F y F : v = u +u = Proy F v +Proy F v Estas proyecciones las calculamos fácilmente u = P F v = = 4 7 t t, ; u = Proy F v = v s s s s = s = Obviamente, podemos calcular primero Proy F v o Proy F v y después encontrar el otro vector aplicando que v = Proy F v +Proy F v Ejercicio resuelto Siendo α R, consideremos el subespacio H αx +x +4αx = de R y los vectores v = y v = Determina α para que la proyección ortogonal de v sobre H sea perpendicular a v Nos piden que hallemos α exigiendo que Proy H v v = Necesitamos pues calcular la proyección ortogonal de v sobre el subespacio H, Proy H v Como dim(h) = y H R, entonces dim(h ) =, con lo que es más sencillo calcular la proyección sobre H = Gen{u = (α,,4α) T }: Así, Proy H v = v u u u u = 9α+ 7α + Proy H v = v Proy H v = α 4α con lo que podemos hallar los valores de α pedidos exigiendo Proy H v v = 8α α+ 7α 9α 7α + α 4α+ = 7α + 9α +α 9α+ 6α +4α 8α α+ 7α 9α 7α + α 4α+, = 4α 9α+5 = α =, 5 4 Vamos a comentar un procedimiento alternativo y menos engorrosoque el anterior Como H = Gen{u}, entonces Proy H v = ku siendo k un número que desconocemos Con esto Proy H v = v Proy H v = v ku = kα k, 4kα y como Proy H v H debe verificar su ecuación implícita, lo que nos proporciona la siguiente condición para k y α: α( kα)+( k)+4α( 4kα) = 7kα 9α+k = (7) Esta ecuación junto con la que obtenemos al exigir Proy H v v = kα k 4kα = 5 9kα =, 9

32 forma un sistema de dos ecuaciones con dos incógnitas 7kα 9α+k = 9kα = 5 que podemos resolver despejando k de la segunda ecuación, k = 5/9α (notemos que α no puede anularse porque la segunda ecuación sería incompatible, = 5) y sustituyendo en la primera con lo que llegamos a la misma ecuación de segundo grado para α } 4α 9α+5 = α =, 5 4 Ejercicio resuelto Dado el subespacio E = Gen{(a,,,) T,(a,a,b,) T,(a,b, a,) T }, a,b R (a) Hallar una base ortonormal del subespacio E según los valores de los parámetros a y b (b) Para a =, hallar la matriz de la proyección ortogonal sobre E, según los valores de b x =, (c) Dado el subespacio F 5x +x +x =, determinar los valores de a y b para que F sea x +x x +x 4 =, ortogonal a E, F = E (a) Como nos piden una base ortonormal, primero buscamos una base de E, luego encontramos una base ortogonal aplicando el método de Gram Schmidt y, finalmente, dividiendo por la norma de cada vector, una base ortonormal Al darnos un conjunto generador de E, para encontrar una base debemos estudiar qué vectores son linealmente independientes Así, para a obtenemos a a a a b b a F b a F a a a a b a b a a a a a b es decir, los tres vectores son linealmente independientes para cualquier valor de b, con lo que una base de E, en este caso, es {(a,,,) T,(a,a,b,) T,(a,b, a,) T } Observemos que si lo preferimos, en el primer paso del proceso de eliminación podemos dividir por a las tres primeras filas y trabajar con la matriz {(,,,) T,(,,b/a,) T,(,b/a,,) T } b/a b/a Cuandoa =,formamos,conlosvectoresquegenerane,lasiguientematriz Podemos entonces, si queremos, tomar como base b b,conloqueesinmediato obtener que {(,,b,) T,(,b,,) T } es una base si b (las dos últimas columnas son linealmente independientes) y que {(,,,) T } forma una base cuando b = (el único vector no nulo es el tercero) Hemos visto pues que: si a la dimensión de E es tres, independientemente del valor de b; si a = y b E tiene dimensión dos; si a = b =, la dimensión de E es uno Comenzamos con el caso más sencillo Si a = b = la base {(,,,) T } ya es ortogonal (pues sólo tiene un vector) y casualmente también es ortonormal (pues el vector tiene norma uno) La segunda situación aparece cuando a = y b La base encontrada, {(,,b,) T,(,b,,) T }, coincide que es ortogonal (el producto escalar de sus dos vectores es nulo) pero no es ortonormal Basta con dividir cada vector por su norma La del primero es b y la del segundo b + Una base ortonormal es, por ejemplo, {(,,,) T, b + (,b,,)t } Observemos, como anécdota, que para obtener el primer vector (,,,) T tenemos que dividir por b si b > y por b si b < La última posibilidad aparece cuando a (y cualquier valor de b) En este caso la base obtenida, {v = (a,,,) T,v = (a,a,b,) T,v = (a,b, a,) T }, no es ortogonal Aplicamos el método de Gram Schmidt para encontrar una base ortogonal: x = v = a, x = v v x x x x = a a b a a a = a b,

33 x = v v x x x x v x x x x = a b a a a a a +b Recordemos que siempre que se aplica el método de Gram Schmidt conviene comprobar, en cada paso, que el vector obtenido es ortogonal a todos los anteriores Así, tras el primer paso comprobamos que x x = y tras el segundo que x x = y x x = Hemos encontrado una base ortogonal de E cuando a, {x,x,x } Normalizando cada vector llegamos a la base ortonormal {(,,,) T,, a +b (,a,b,)t a +b + (,b, a,)t } a b = b a (b) Para calcular la matriz de la proyección sobre un subespacio necesitamos una base ortonormal suya (que hemos calculado en el apartado anterior), formamos una matriz U colocando en sus columnas los vectores de dicha base y la matriz de la proyección buscada se obtiene multiplicando UU T Nos piden en el caso a =, con lo que hay que distinguir entre b = y b Así, para b = obtenemos U = mientras que para b llegamos a b U= b + b + P E = UU T = P E = UU T = b b + b + ( ) = ( b b + b +, ) b = b b + b + b b + b + Una comprobación inmediata que permite detectar errores en los cálculos es verificar que la matriz de la proyección ortogonal obtenida es simétrica, pues P T E = (UUT ) T = U T U = P E (c) Una forma de resolver este apartado es buscar una base de F y exigir que todos los vectores de dicha base sean perpendiculares a todos los de cualquier base de E Resolviendo el sistema de ecuaciones implícitas obtenemos x x =, F 5x +x +x =, x x x +x x +x 4 =, = x, x R u, x 4 con lo que el vector u es una base de F, B F = {u} Por tanto, exigiendo perpendicularidad entre todos los vectores de las bases, B F y B E = {v,v,v }, llegamos a u v = u v = u v = u v = = u v = a+b = u v = b a+ = { a =, b = Ejercicio resuelto Sea V R 5 el subespacio formado por los vectores cuyas componentes suman cero Encontrar el vector de V más próximo a w = (,,,4,5) T Del enunciado deducimos que V viene definido por la ecuación implícita x +x +x +x 4 +x 5 = Sabemos que el vector de V más próximo a w es la proyección ortogonal de w sobre V, Proy V w Como V R 5 y viene definido por una ecuación implícita, deducimos que dim(v) = 4 y que dim(v ) = 5 dim(v) = 5 4 = Ante esta diferencia entre las dimensiones de V y V, es obvio que resulta mucho más fácil proyectar ortogonalmente sobre V que sobre V Recordemos que para proyectar ortogonalmente sobre un subespacio necesitamos una base ortogonal suya En nuestro caso, de la ecuación implícita de V deducimos que V = Gen{u = (,,,,) T }, es decir, ya tenemos una base ortogonal (pues sólo tiene un vector) de V, B V = {u} Por tanto, Proy V w = w u u u u = 5 5 u = u = (,,,,)T,

34 es decir, el vector que nos piden es Proy V w = w Proy V w = (,,,4,5) T (,,,,) T = (,,,,) T Conviene comprobar que el vector encontrado pertenece a V, es decir, que verifica su ecuación implícita: ++ + = Si elegimos el camino de proyectar directamente sobre V (cosa totalmente desaconsejable, como podemos ver a continuación, por los cálculos tan tediosos que aparecen) procederemos de la siguiente forma Primero encontramos una base de V resolviendo su ecuación implícita, con lo que llegamos a V = Gen{v = (,,,,) T,v = (,,,,) T,v = (,,,,) T,v 4 = (,,,,) T } Como esta base no es ortogonal, aplicamos el método de Gram Schmidt a esos cuatro vectores: x = v =, / x = v v x x = v x x x / = x =, x = v v x x v x x x x x x = v x 6 x = / / / x = x 4 = v 4 v 4 x x v 4 x x x x x x v 4 x x x x = v 4 x 6 x x =, /4 /4 /4 /4 x 4 = Nótese que hemos introducido el vector x (múltiplo de x ) para evitar la aparición de fracciones en los cálculos posteriores El mismo comentario justifica la introducción de x y x 4 Para detectar posibles errores, comprobamos: después del primer paso que x es perpendicular a x (x x = ) y que pertenece a V (que verifica su ecuación implícita, x +x +x +x 4 +x 5 = ); después del segundo paso, que x es perpendicular a x y a x y que pertenece a V; después del tercer y último paso, que x 4 es perpendicular a x, a x y a x y que pertenece a V Con la base ortogonal de V encontrada llegamos a Proy V w = w x x + w x x x x x x + w x x x x + w x 4 x x 4 x 4 = 4 x + 6 x + 6 x + x 4 = (,,,,) T Observemos que una alternativa a aplicar el método de Gram-Schmidt es buscar con cuidado una base ortogonal de V Como su ecuación implícita es x +x +x +x 4 +x 5 =, elegimos un primer vector cualquiera (cuanto más sencillo mejor, pues en la solución aparecen cuatro parámetros) que verifique esa ecuación, por ejemplo, w = (,,,,) T Ahora un segundo vector, w = (a,b,c,d,e) T, lo determinamos exigiendo que verifique la ecuación anterior y que sea perpendicular a w, es decir, debe verificar a + b + c + d + e =, a b = Elegimos un vector cualquiera (cuanto más sencillo mejor, pues en la solución aparecen tres parámetros) que verifique este sistema, por ejemplo, w = (,,,,) T Un tercer vector, w = (a,b,c,d,e) T, lo determinamos exigiendo que verifique la ecuación de V y que sea perpendicular a w y a w, es decir, debe verificar a+b+c+d+e =, a b =, a+b c = Elegimos un vector cualquiera (cuanto más sencillo mejor, pues en la solución aparecen dos parámetros) que verifique este sistema, por ejemplo, w = (,,,,) T Por último, un cuarto vector, w 4 = (a,b,c,d,e) T, lo determinamos exigiendo que verifique la ecuación de V y que sea perpendicular a w, a w y a w, es decir, debe verificar a + b + c + d + e =, a b =, a+b c =, a+b+c d = Elegimos un vector cualquiera (en la solución aparecen los múltiplos de (,,,, 4) T ) que verifique este sistema, por ejemplo, w 4 = (,,,, 4) T De esta forma, una base ortogonal de V será {w,w,w,w 4 } Notemos que si queremos calcular las matrices de la proyección ortogonal sobre V, P V, y sobre V, P V, conviene 4

35 calcular primero P V (usando una base ortonormal de V ): / 5 / 5 P V = / ( ) 5 / / 5 / 5 / 5 / 5 / 5 = 5 / 5 5 y luego, trivialmente que 4 P V = I P V = Con P V ya podemos calcular Proy V w: Proy V w = P V w = (,,,,) T y, por tanto, obtenemos Proy V w = w Proy V w = (,,,,) T Si trabajamos con P V, entonces Proy V w = P V w = (,,,,) T, Ejercicio resuelto Consideremos la base B =,, 6 (a) Determinar las matrices de cambio de base entre B y la base canónica (b) Calcular todos los vectores de R cuyas coordenadas son las mismas en la base B que en la base canónica (c) Calcular { la proyección ortogonaldel vector [ T sobre el subespacio de R 5 cuyas ecuaciones implícitas x +x son + x 4 x 5 =, x +x +x 4 = (d) Demostrar que Nul(M) Nul(M ) para cualquier matriz cuadrada M (a) Tenemos que encontrar dos matrices La primera de ellas, correspondiente al paso de la base B a la base canónica (que denotaremos por E), no es más que P B = P =, E B 6 donde hemos situado, por columnas, los vectores de la base B La matriz de paso de la base canónica a la base B es la inversa de la anterior, es decir, P = P = = 4 6 B E E B 6 Esta inversa se puede calcular, por ejemplo, por el método de Gauss-Jordan: 6 4/ / / / / / / / / / 4/ / / / / (b) Queremos aquellos vectores de R cuyas coordenadas coinciden en la base canónica y en B, es decir, aquellos vectores v = [x y z T, tales que P B v = v Escrito en forma de sistema queda x y = x y, 6 z z

36 o, equivalentemente, 5 ya que este último sistema no es más que (P B I)v = Una simple eliminación de Gauss transforma este sistema en otro equivalente,, que, una vez resuelto, tiene como solución x y = z, siendo z R, una variable libre z x y z =, (c) Para simplificar, llamemos S al subespacio y u al vector que nos dan Ya que la dimensión de S es (viene definido por dos ecuaciones implícitas independientes en R 5 ) y estamos trabajando en R 5, es conveniente calcular la proyección ortogonal sobre S, que tiene menor dimensión (en concreto su dimensión es ) Una base de S se obtiene directamente de los coeficientes de las ecuaciones implícitas de S, ya que dan lugar a dos vectores linealmente independientes: v =,v = Estos vectores no son ortogonales, así que vamos a aplicarles el método de Gram-Schmidt: w = v = ; w = v v w w = w w = De este modo, hemos obtenido una base ortogonal de S : B S = w =,w = Si nos pidiesen la matriz de la proyección ortogonal, necesitaríamos normalizar los vectores y después multiplicar la matriz que se obtuviese a partir de ellos, colocándolos por columnas, por su traspuesta Esto nos llevaría a trabajar con fracciones y radicales hasta llegar a una matriz 5 5, que en este caso, no es necesaria Para proyectar ortogonalmente un vector sobre un subespacio basta con tener una base ortogonal de éste: Proy S u = u w w + u w w = w w w w Volviendo al subespacio original, S, el vector pedido no es más que /5 Proy S u = u Proy S u = /5 7/5 /5 /5 = = /5 /5 /5 /5 /5 /5 /5 7/5 /5 /5 (d) Si un vector v pertenece a Nul(M) significa que Mv = Si multiplicamos esta expresión por M quedará M v = M =, por lo que v también pertenece a Nul(M ) 4

37 6 Problemas de mínimos cuadrados Ecuaciones normales de Gauss En términos generales, resolver un problema en el sentido de los mínimos cuadrados es sustituir un problema en el que hay que resolver un sistema de ecuaciones (que no tiene solución) por el problema de minimizar una suma de cuadrados Ejemplo El problema de la regresión lineal Si consideramos dos magnitudes, x e y, de las que suponemos que están relacionadas mediante una igualdad del tipo y = ax+b, donde tenemos que determinar a y b mediante la obtención de resultados experimentales, y dichos resultados son x x x x n y y y y n los valores a y b los obtendremos de la resolución del sistema de ecuaciones lineales ax +b = y x y ax +b = y x a y = [ b, ax n +b = y n x n y n pero lo habitual es que un sistema de ecuaciones como el anterior no tenga solución Resolver el sistema anterior en el sentido de los mínimos cuadrados consiste en determinar los valores a y b para los cuales la suma de cuadrados (ax +b y ) +(ax +b y ) + +(ax n +b y n ) es mínima (si hubiera solución, del sistema dado, dicho valor mínimo sería cero) Puesto que esta suma de cuadrados es el cuadrado de la norma del vector x y x y y los vectores de la forma x n x x x n a [ b a [ b y n,, a,b R, forman el espacio columna S de la matriz considerada, resolver el sistema en mínimos cuadrados es determinar el vector de S más cercano al término independiente considerado y resolver el sistema (que será compatible) con ese nuevo término independiente Para un sistema genérico de ecuaciones lineales Ax = b, resolverlo en el sentido de los mínimos cuadrados es determinar el vector (o vectores) x R n para los cuales Ax b es mínima Puesto que los vectores Ax recorren el espacio columna de A (cuando x recorre R n ), Ax b será mínima para los vectores x R n tales que Ax es igual a la proyección ortogonal de b sobre el espacio Col(A) R n A Rm b O x O Ax proy S (b) Col(A) Teorema Consideremos un sistema de ecuaciones Ax = b, A matriz real m n, b R m, S = Col(A) y sea ˆx R n Son equivalentes: (a) ˆx es solución en mínimos cuadrados del sistema Ax = b, es decir, Aˆx b Ax b, x R n 5

38 (b) ˆx verifica Aˆx = proy S (b) (c) ˆx verifica las ecuaciones normales de Gauss: A T Aˆx = A T b Observaciones (a) El sistema de ecuaciones Ax = proy S (b) (sistema m n) y el sistema A T Ax = A T b (sistema n n) son siempre compatibles y tienen el mismo conjunto de soluciones (b) El sistema Ax = proy S (b) será compatible determinado (es decir, el problema en mínimos cuadrados tendrá solución única) si y sólo si el sistema homogéneo asociado Ax = tiene solución única Por tanto, el sistema Ax = b tiene solución única en mínimos cuadrados las columnas de A son linealmente independientes (rango(a) = n) 7 Ajuste de curvas, regresión lineal En el epígrafe anterior hemos planteado el problema de la regresión lineal Resolviendo en mínimos cuadrados el sistema planteado se obtiene la recta de regresión de y sobre x (en el planteamiento del sistema, la variable y está expresada en función de x) para la nube de puntos dada Notemos que la resolución en mínimos cuadrados considerada consiste en determinar la recta que hace mínima la suma de cuadrados de las distancias sobre la vertical de los puntos dados a la recta Y y k y = ax+b ax k +b X x k De forma similar (y resultado distinto, por lo general) podríamos haber planteado el problema de determinar una recta x = αy +β que pase por los puntos (x k,y k ),k =,,n dados Por lo general, el sistema resultante αy +β = x αy +β = x αy n +β = x n y y α = [ β y n no tiene solución y su resolución en el sentido de los mínimos cuadrados permite determinar la recta que hace mínima la suma de cuadrados de las distancias sobre la horizontal de los puntos dados a la recta La recta que se obtiene mediante la resolución en mínimos cuadrados del sistema anterior se denomina recta de regresión de x sobre y para la nube de puntos dada Notemos que cualquier recta que no sea paralela a ninguno de los ejes coordenados puede expresarse mediante y = ax+b y mediante x = αy +β Sin embargo, no es equivalente resolver en el sentido de los mínimos cuadrados el sistema asociado a una u otra expresión x x x n 6

39 Y x = αy +β y k X x k αy k +β Desde un punto de vista más genérico que el de la regresión lineal (ajustar una recta a una nube de puntos), puede considerarse el problema de ajustar, a una nube de puntos del plano (x,y ),,(x n,y n ), una curva de un cierto tipo (dada por un tipo de ecuación explícita y = f(x) o implícita F(x,y) = ) Así, podemos considerar el problema de determinar la parábola (de eje principal vertical) y = ax +bx+c, la circunferencia x +y +ax+by+c = que mejor se ajusta, en el sentido de los mínimos cuadrados, a una nube de puntos dada En cualquier caso, se trata de problemas que llevan a sistemas de ecuaciones lineales que no tienen solución y se resuelven en el sentido de los mínimos cuadrados Un planteamiento similar al de ajustar una curva a una nube de puntos es válido para ajustar una superficie en R de un tipo prefijado a una determinada nube de puntos (x,y,z ),,(x n,y n,z n ) Por ejemplo, puede considerarse el problema de ajustar, en el sentido de los mínimos cuadrados, un plano dado por la ecuación z = ax+by +c (regresión lineal z sobre (x,y)), una esfera de ecuación x +y +z +ax+by +cz +d =, a los puntos dados Ejercicio resuelto Encontrar la recta y = αx+β que mejor ajusta, en el sentido de los mínimos cuadrados, a la nube de puntos (,), (,6) y (,) Queremos ajustar la nube de puntos (,), (,6) y (,) por una recta del tipo y = αx+β En primer lugar escribimos el sistema correspondiente Ax = b, después calculamos las ecuaciones normales de Gauss, A T Ax = A T b, y finalmente las resolvemos Así, cada punto da lugar a una ecuación, y podemos identificar A, x y b: (,) = α+β (,6) 6 = α+β (,) = α+β [ α = β 6 A = [ α,x = β,b = 6 Las ecuaciones normales de Gauss, A T Ax = A T b, son pues [ [ [ α = [ 6 4 β 4 [ α β [ 6 = 8 [ 5 4 [ α β [ = 8 7

40 y resolviéndolas obtenemos [ [ [ [ 5 4 { α =, β = 4, con lo que la recta que mejor ajusta a la nube de puntos en el sentido de los mínimos cuadrados es y = x+4 Ejercicio resuelto Por el método de los mínimos cuadrados, ajustar una parábola y = ax + bx + c a los puntos (, ), (,), (,), (, ) Si exigimos que los puntos pertenezcan a la parábola, obtenemos el siguiente sistema (una ecuación por cada punto): = a+ b+c = a+ b+c = ( ) a+( )b+c = ( ) a+( )b+c a+b+c = a+b+c = a b+c = a b+c = 4 5 que obviamente es incompatible (compárense, por ejemplo, las dos primeras ecuaciones) Escribimos y resolvemos las ecuaciones normales de Gauss, A T Ax = A T b, a b = a b = 4 c c 4 4 c c que resultan ser un sistema compatible indeterminado (c R) Es decir, las parábolas ( ) y = 4 +c x 4 x+c, c R son la solución al problema planteado Ejercicio resuelto Encontrar la circunferencia de la familia x +y +ax+by +c = que mejor se ajuste, en el sentido de los mínimos cuadrados, a los puntos (,), (,), (,) y (,), indicando las coordenadas del centro y el radio de la misma Exigimos que cada punto pertenezca a la circunferencia ax+by+c = x y, con lo que obtenemos el sistema, de cuatro ecuaciones y tres incógnitas, que matricialmente se puede escribir como Ax = b (,) : a+ b+c = = (,) : a+ b+c = = (,) : a+ b+c = = (,) : a+ b+c = = a b c El sistema que debemos resolver para encontrar la solución en el sentido de los mínimos cuadrados es el que nos proporcionan las ecuaciones normales de Gauss, A T Ab = A T b, a b = a b = c 4 c 4 = 8

41 que resolvemos fácilmente 4 4 con lo que obtenemos c =, b = y a = Es decir, la circunferencia que mejor ajusta en el sentido de los mínimos cuadrados es ( x +y x y = x ) ( 4 + y ) ( 4 = x ) ( + y ( ) =, ) con centro en (, ) y de radio Observemos que, casualmente, el sistema Ax = b que obtenemos es compatible (ya que los cuatro puntos que nos dan son los vértices de un cuadrado de lado unidad y con centro en (, )) Sabemos entonces que la solución en el sentido de los mínimos cuadrados coincide con la solución del sistema original Ejercicio resuelto Determinar la cónica de la familia ax +4axy +ay +bx by + = que mejor se ajusta, en el sentido de los mínimos cuadrados, a los puntos (,), (,), (,) y (,) Exigimos que cada punto pertenezca a la cónica a(x +4xy+y )+b(x y)+ =, con lo que obtenemos el sistema, de cuatro ecuaciones y dos incógnitas, (,) : ( +4 + )a+( )b+ = a+b =, (,) : (( ) +4( ) + )a+( )b+ = a b =, (,) : (( ) +4( ) + )a+( )b+ = a b =, (,) : ( +4 + )a+( )b+ = 4a b =, que matricialmente se puede escribir como Ax = b 4 [ a b = El sistema que debemos resolver para encontrar la solución en el sentido de los mínimos cuadrados es el que nos proporcionan las ecuaciones normales de Gauss, A T Ab = A T b, [ [ [ [ [ 4 a 4 [ = 4 a 4 b = 4 b 4 4 que resolvemos fácilmente [ [ [ con lo que obtenemos b = 6 7 y a = 7 Es decir, la cónica que mejor ajusta, en el sentido de los mínimos cuadrados, a la nube de puntos dada es Ejercicio resuelto Consideremos la matriz A = 7 (x +4xy +y )+ 6 7 (x y)+ = (x +4xy +y ) 6(x y) = 7 (a) Determinar una base y unas ecuaciones implícitas de Col(A) y (Nul(A)) (b) Obtener una base ortonormal de Col(A) y calcular la matriz de la proyección ortogonal sobre dicho subespacio (c) Siendo b = [ T, encontrar las soluciones en el sentido de los mínimos cuadrados de Ax = b Determinar, entre ellas, las que tengan norma 5/4 (d) Sea S = {v,,v p } un conjunto ortonormal en R n Probar que S es linealmente independiente,, 9

42 (a) Comentamos una de las diversas formas que hay para resolver este apartado Ecuaciones implícitas de Col(A): Como sabemos, para encontrar unas ecuaciones implícitas de un subespacio generado por varios vectores (en este caso los vectores columna de A) basta considerar un vector genérico [x x x T e imponer que sea combinación lineal de dichos vectores Comprobamos que la ecuación implícita x x x x x x - x x define a Col(A) y una base viene dada por B Col(A) =, x = x (8) Ecuaciones implícitas de (Nul(A)) : Comenzamos hallando una base de Nul(A), lo que se consigue sin más que resolver Ax = De la eliminación de Gauss anterior se desprende que unas ecuaciones equivalentes al sistema son { x +x =, x +x =, las cuales, una vez resueltas nos dan la siguiente base B Nul(A) = Para obtener unas ecuaciones implícitas de (Nul(A)) simplemente hemos de utilizar las componentes de los vectores (sólo uno en este caso) de la base como coeficientes en dichas ecuaciones Así tenemos que x +x +x = (9) es una ecuación implícita de (Nul(A)) (b) Como ya hemos hecho una eliminación de Gauss con la matriz A, sabemos que una base del espacio Col(A) puede estar formada por las dos primeras columnas de la matriz Sin embargo, estos dos vectores no son ortogonales, así que tendríamos que ortogonalizar los vectores mediante el método de Gram-Schmidt Para evitar esos cálculos sólo tenemos que darnos cuenta (por simple inspección) de que las dos últimas columnas de A también forman una base de Col(A) y, además, es ortogonal Dividiendo los dos vectores por su norma tendremos la base ortonormal que pide el enunciado: Siendo ahora B Col(A) = / / Q =, / /, la matriz de la proyección ortogonal sobre Col(A) se puede calcular como P = QQ T = / / [ / / = / / / / Nota: Esta matriz es siempre la misma, independientemente de la base ortonormal escogida (c) Podemos resolver el problema usando las ecuaciones normales de Gauss, pero ya que tenemos, del apartado anterior, la matriz P de la proyección ortogonal sobre Col(A), es más corto calcular la proyección del vector b sobre Col(A) y después resolver Ax = Proy Col(A) b Entonces, como Proy Col(A) b = Pb =,

43 el sistema que hemos de resolver es x x x Realizamos ahora una eliminación de Gauss, que es análoga a la que hicimos en el primer apartado, -, llegando a la forma escalonada reducida / / = / Es inmediato, tomando como variable libre x R, que la solución del sistema es x x = / +x x = /+x x x Veamos ahora cuál de esas soluciones verifica que su norma es 5/4 x /+x x = ( x ) +( /+x ) +x = x x Imponiendo que la norma sea 5/4 queda la condición x x =, que nos da los valores x = y x = Sustituyendo en la solución del sistema de mínimos cuadrados tenemos las dos soluciones que pide el enunciado: / y / (d) Escribamos una combinación lineal de los vectores de S igualada a cero: α v ++α p v p = En caso de que probemos que todos los coeficientes han de ser nulos tendremos que S es linealmente independiente Multiplicando escalarmente la expresión anterior por cualquiera de los vectores de S (digamos v i ) tendremos α (v i v )++α i (v i v i )+α i (v i v i )+α i+ (v i v i+ )++α p (v i v p ) = Por ser S ortonormal, v i v j = siempre que j i y además v i v i = Llevando todo esto a la expresión anterior tendremos = = = = = { }} { { }} { { }} { { }} { { }} { α (v i v )++α i (v i v i )+α i (v i v i )+α i+ (v i v i+ )++α p (v i v p ) =, quedando, por tanto, α i = Como el razonamiento no depende del subíndice i escogido, acabamos de probar que todos los coeficientes de la combinación lineal son nulos y, de ese modo, S es linealmente independiente 8 Ejercicios Ejercicio Dados los subespacios E = Gen,, x+y +z t =, y F x+y t =, x+y +9z t =, obtener una base y unas ecuaciones implícitas de E y de F

44 Ejercicio Descomponer el vector (,,,4) T en suma de dos vectores u+v siendo u proporcional a (,,,) T y v u Ejercicio Hallar la proyección ortogonal de los siguientes vectores sobre los subespacios que se indican: (a) (4,,, ) T sobre el subespacio definido por x +x +x +x 4 = (b) (,,,) T sobre el subespacio de R 4 dado por: E { x y +z t =, y +z = (c) (, 4,5) T sobre el subespacio f(e) siendo f la aplicación lineal dada por la matriz A = y E el subespacio de R dado por x y z = Ejercicio 4 Dados los subespacios de R, obtener una base de (E +F) E {x+y z = } y F {x+7y +z =, x y z = }, Ejercicio 5 Dadas las bases ortonormales de R B = B = { ( u = /,/ T ( ),u = /,/ ) } T { ( w = /, T ( /),w = ) } T /,/ y hallar la matriz correspondiente al cambio de una de esas bases a la otra Comprobar que la matriz de paso es ortogonal Ejercicio 6 Hallar el vector perteneciente al subespacio de R 4 generado por los vectores que está más cerca del vector (,,,) T (,,,) T,(,,,) T y (,,, ) T Ejercicio 7 Hallar la matriz de la proyección ortogonal sobre cada uno de los siguientes subespacios de R 4 : (a) el subespacio generado por (,,,) T y (,,,) T (b) el subespacio generado por (,,,) T y (,,,) T (c) Sobre E y E, siendo E vale I { x y+z +t = x 5y+z +t = Comprobar que, como debe ser, la suma de ambas matrices Ejercicio 8 Dado el subespacio S R definido por x x +x =, se pide: (a) Hallar la matriz de la proyección ortogonal sobre S Cuál es la matriz de la proyección ortogonal sobre S? (b) Obtener una base de S (c) Demostrar que Col(A) = S, siendo A =

45 (d) Dado el vector v = (,,) T, calcular el vector de S que dista menos de v Ejercicio 9 Aplicar el método de Gram-Schmidt a la siguiente base de R 4 : { (,,,) T, (,,,) T, (,,,) T, (,,,) T} Ejercicio La proyección ortogonal del vector v = (5,,) T sobre la recta x = y,y = z es: (,, ) T (,,) T (,,) T Ejercicio Halla una base ortonormal de Col(A) y otra de Nul(A) siendo A = Ejercicio Dado el subespacio E = Gen { (a,,,) T,(a,a,b,) T,(a,b, a,) T} con a,b R () Hallar una base ortonormal del subespacio E según los valores de a y b () Hallar la matriz de la proyección ortogonal sobre E, cuando a = () Calcular los valores de los parámetros a y b tales que el subespacio dado por las ecuaciones x = 5x +x +x = x +x x +x 4 = sea ortogonal a E Ejercicio Sea A una matriz cuadrada de orden 5 cuyo rango es Qué sucede al aplicar el método de Gram-Schmidt a los vectores columna de A? Cuántas veces? Por qué? Ejercicio 4 Resolver en el sentido de los mínimos cuadrados los siguientes sistemas de ecuaciones (a) x =,x = 7,x =,x = (b) x = a, x = a,,x = a n, siendo a, a,, a n números reales Qué se obtiene cuando alguno de los valores a k aparece repetido? (c) Ax = b siendo A = [ [ y b = 4 Ejercicio 5 Resuelve en el sentido de los mínimos cuadrados los dos sistemas equivalentes siguientes (que tendrían las mismas soluciones exactas si fueran compatibles) { { x +x = x +x = x +x = 4 x +x =

46 { Ejercicio 6 Dados el subespacio E = Gen [,,, T,[,,, T,[,,, T} y la matriz (a) Calcular una base de E A = (b) Hallar la matriz de la proyección ortogonal sobre E a b a a b b (c) Calcular A sabiendo que Col(A)) está contenido en E (d) Resolver en el sentido de los mínimos cuadrados, el sistema Ax = b con b = (,,,) t Ejercicio 7 Calcular las rectas de regresión y = ax+b y x = αy +β para los datos: x y Ejercicio 8 Se supone que el número de horas de autonomía de un avión está relacionada con las cantidades de dos tipos de combustible x y x (que se pueden utilizar de manera indistinta o mezclados) mediante y = c x +c x Después de realizar un experimento se obtienen los siguientes datos x x y Cuáles son los mejores coeficientes c y c en el sentido de los mínimos cuadrados? Ejercicio 9 Consideremos el sistema ) x ( = y Sus [ ecuaciones [ normales [ de Gauss son: 6 x 4 = 4 y 8 [ 6 4 [ 6 4 [ x y [ x y [ = 4 [ 4 = 8 Ejercicio Consideremos los vectores v,v,v y v 4 de R 4 y la matriz C dados por v =,v =,v =,v 4 = ; C = 8 v v (a) Calcular la matriz de la proyección ortogonal sobre S = Gen {v,v,v }, el vector de S más cercano a v 4 y la distancia de v 4 a S (b) Resolver, en el sentido de los mínimos cuadrados, el sistema Cx = v 4

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases.

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases. BASES Y DIMENSIÓN Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un sistema generador de dicho espacio o subespacio, que sea a la vez linealmente independiente. β Propiedades

Más detalles

Subespacios vectoriales en R n

Subespacios vectoriales en R n Subespacios vectoriales en R n Víctor Domínguez Octubre 2011 1. Introducción Con estas notas resumimos los conceptos fundamentales del tema 3 que, en pocas palabras, se puede resumir en técnicas de manejo

Más detalles

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

E 1 E 2 E 2 E 3 E 4 E 5 2E 4

E 1 E 2 E 2 E 3 E 4 E 5 2E 4 Problemas resueltos de Espacios Vectoriales: 1- Para cada uno de los conjuntos de vectores que se dan a continuación estudia si son linealmente independientes, sistema generador o base: a) (2, 1, 1, 1),

Más detalles

Anexo 1: Demostraciones

Anexo 1: Demostraciones 75 Matemáticas I : Álgebra Lineal Anexo 1: Demostraciones Espacios vectoriales Demostración de: Propiedades 89 de la página 41 Propiedades 89- Algunas propiedades que se deducen de las anteriores son:

Más detalles

Tema 5.- Ortogonalidad y mejor aproximación.

Tema 5.- Ortogonalidad y mejor aproximación. Ingeniería Civil Matemáticas I - Departamento de Matemática Aplicada II Escuela Superior de Ingenieros Universidad de Sevilla Tema 5- Ortogonalidad y mejor aproximación 5- El producto escalar Norma, distancia,

Más detalles

Matrices equivalentes. El método de Gauss

Matrices equivalentes. El método de Gauss Matrices equivalentes. El método de Gauss Dada una matriz A cualquiera decimos que B es equivalente a A si podemos transformar A en B mediante una combinación de las siguientes operaciones: Multiplicar

Más detalles

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1 1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1.1. ESPACIOS VECTORIALES 1. Analizar cuáles de los siguientes subconjuntos de R 3 son subespacios vectoriales. a) A = {(2x, x, 7x)/x R} El conjunto A es una

Más detalles

4 APLICACIONES LINEALES. DIAGONALIZACIÓN

4 APLICACIONES LINEALES. DIAGONALIZACIÓN 4 APLICACIONES LINEALES DIAGONALIZACIÓN DE MATRICES En ocasiones, y con objeto de simplificar ciertos cálculos, es conveniente poder transformar una matriz en otra matriz lo más sencilla posible Esto nos

Más detalles

Tema 3: Producto escalar

Tema 3: Producto escalar Tema 3: Producto escalar 1 Definición de producto escalar Un producto escalar en un R-espacio vectorial V es una operación en la que se operan vectores y el resultado es un número real, y que verifica

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Concepto de aplicación lineal T : V W Definición: Si V y W son espacios vectoriales con los mismos escalares (por ejemplo, ambos espacios vectoriales reales o ambos espacios vectoriales

Más detalles

Tema 3. Espacios vectoriales

Tema 3. Espacios vectoriales Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición

Más detalles

Segundo de Bachillerato Geometría en el espacio

Segundo de Bachillerato Geometría en el espacio Segundo de Bachillerato Geometría en el espacio Jesús García de Jalón de la Fuente IES Ramiro de Maeztu Madrid 204-205. Coordenadas de un vector En el conjunto de los vectores libres del espacio el concepto

Más detalles

1 v 1 v 2. = u 1v 1 + u 2 v 2 +... u n v n. v n. y v = u u = u 2 1 + u2 2 + + u2 n.

1 v 1 v 2. = u 1v 1 + u 2 v 2 +... u n v n. v n. y v = u u = u 2 1 + u2 2 + + u2 n. Ortogonalidad Producto interior Longitud y ortogonalidad Definición Sean u y v vectores de R n Se define el producto escalar o producto interior) de u y v como u v = u T v = u, u,, u n ) Ejemplo Calcular

Más detalles

Espacios vectoriales. Bases. Coordenadas

Espacios vectoriales. Bases. Coordenadas Capítulo 5 Espacios vectoriales. Bases. Coordenadas OPERACIONES ENR n Recordemos que el producto cartesiano de dos conjuntos A y B consiste en los pares ordenados (a,b) tales que a A y b B. Cuando consideramos

Más detalles

21.1.2. TEOREMA DE DETERMINACIÓN DE APLICACIONES LINEALES

21.1.2. TEOREMA DE DETERMINACIÓN DE APLICACIONES LINEALES Aplicaciones lineales. Matriz de una aplicación lineal 2 2. APLICACIONES LINEALES. MATRIZ DE UNA APLICACIÓN LINEAL El efecto que produce el cambio de coordenadas sobre una imagen situada en el plano sugiere

Más detalles

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1 . ESPACIOS VECTORIALES Consideremos el siguiente subconjunto de R 4 : S = {(x, x 2, x 3, x 4 )/x x 4 = 0 x 2 x 4 = x 3 a. Comprobar que S es subespacio vectorial de R 4. Para demostrar que S es un subespacio

Más detalles

Tema 1. VECTORES (EN EL PLANO Y EN EL ESPACIO)

Tema 1. VECTORES (EN EL PLANO Y EN EL ESPACIO) Vectores Tema. VECTORES (EN EL PLANO Y EN EL ESPACIO Definición de espacio vectorial Un conjunto E es un espacio vectorial si en él se definen dos operaciones, una interna (suma y otra externa (producto

Más detalles

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario)

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario) Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS (Solucionario) 2 Í N D I C E CAPÍTULO : MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES CAPÍTULO 2: ESPACIOS VECTORIALES

Más detalles

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR}

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR} Subespacios Capítulo 1 Definición 1.1 Subespacio Sea H un subconjunto no vacio de un espacio vectorial V K. Si H es un espacio vectorial sobre K bajo las operaciones de suma y multiplicación por escalar

Más detalles

y λu = Idea. Podemos sumar vectores y multiplicar por un escalar. El resultado vuelve a ser un vector Definición de espacio vectorial.

y λu = Idea. Podemos sumar vectores y multiplicar por un escalar. El resultado vuelve a ser un vector Definición de espacio vectorial. Espacios vectoriales Espacios y subespacios R n es el conjunto de todos los vectores columna con n componentes. Además R n es un espacio vectorial. Ejemplo Dados dos vectores de R por ejemplo u = 5 v =

Más detalles

Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices Estructura del tema. Conceptos básicos y ejemplos Operaciones básicas con matrices Método de Gauss Rango de una matriz Concepto de matriz regular y propiedades Determinante asociado a una

Más detalles

Cambio de representaciones para variedades lineales.

Cambio de representaciones para variedades lineales. Cambio de representaciones para variedades lineales 18 de marzo de 2015 ALN IS 5 Una variedad lineal en R n admite dos tipos de representaciones: por un sistema de ecuaciones implícitas por una familia

Más detalles

Estructuras algebraicas

Estructuras algebraicas Tema 2 Estructuras algebraicas básicas 2.1. Operación interna Definición 29. Dados tres conjuntos A, B y C, se llama ley de composición en los conjuntos A y B y resultado en el conjunto C, y se denota

Más detalles

Espacios generados, dependencia lineal y bases

Espacios generados, dependencia lineal y bases Espacios generados dependencia lineal y bases Departamento de Matemáticas CCIR/ITESM 14 de enero de 2011 Índice 14.1. Introducción............................................... 1 14.2. Espacio Generado............................................

Más detalles

Ecuaciones de primer grado con dos incógnitas

Ecuaciones de primer grado con dos incógnitas Ecuaciones de primer grado con dos incógnitas Si decimos: "las edades de mis padres suman 120 años", podemos expresar esta frase algebraicamente de la siguiente forma: Entonces, Denominamos x a la edad

Más detalles

1. Producto escalar, métrica y norma asociada

1. Producto escalar, métrica y norma asociada 1. asociada Consideramos el espacio vectorial R n sobre el cuerpo R; escribimos los vectores o puntos de R n, indistintamente, como x = (x 1,..., x n ) = n x i e i i=1 donde e i son los vectores de la

Más detalles

PROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2.

PROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2. PROBLEMA. ESCUELA UNIVERSITARIA POLITÉCNICA DE SEVILLA Ingeniería Técnica en Diseño Industrial Fundamentos Matemáticos de la Ingeniería Soluciones correspondientes a los problemas del Primer Parcial 7/8.

Más detalles

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases.

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases. Tema III Capítulo 2 Sistemas generadores Sistemas libres Bases Álgebra Lineal I Departamento de Métodos Matemáticos y de Representación UDC 2 Sistemas generadores Sistemas libres Bases 1 Combinación lineal

Más detalles

Tema 3. Aplicaciones lineales. 3.1. Introducción

Tema 3. Aplicaciones lineales. 3.1. Introducción Tema 3 Aplicaciones lineales 3.1. Introducción Una vez que sabemos lo que es un espacio vectorial y un subespacio, vamos a estudiar en este tema un tipo especial de funciones (a las que llamaremos aplicaciones

Más detalles

Espacios vectoriales y aplicaciones lineales.

Espacios vectoriales y aplicaciones lineales. Práctica 2 Espacios vectoriales y aplicaciones lineales. Contenido: Localizar bases de espacios vectoriales. Suma directa. Bases y dimensiones. Cambio de base. Aplicaciones lineales. Matriz asociada en

Más detalles

Vectores en el espacio

Vectores en el espacio Vectores en el espacio Un sistema de coordenadas tridimensional se construye trazando un eje Z, perpendicular en el origen de coordenadas a los ejes X e Y. Cada punto viene determinado por tres coordenadas

Más detalles

1 Espacios y subespacios vectoriales.

1 Espacios y subespacios vectoriales. UNIVERSIDAD POLITÉCNICA DE CARTAGENA Departamento de Matemática Aplicada y Estadística Espacios vectoriales y sistemas de ecuaciones 1 Espacios y subespacios vectoriales Definición 1 Sea V un conjunto

Más detalles

Tema 4: Aplicaciones lineales

Tema 4: Aplicaciones lineales Tema 4: Aplicaciones lineales Definición, primeras propiedades y ejemplos Definición. Sean V y W dos espacios vectoriales sobre un cuerpo K. Una función f : V W se dice que es una aplicación lineal si

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Primeras definiciones Una aplicación lineal de un K-ev de salida E a un K-ev de llegada F es una aplicación f : E F tal que f(u + v) = f(u) + f(v) para todos u v E f(λ u) = λ f(u)

Más detalles

1. ESPACIOS VECTORIALES

1. ESPACIOS VECTORIALES 1 1. ESPACIOS VECTORIALES 1.1. ESPACIOS VECTORIALES. SUBESPACIOS VECTORIALES Denición 1. (Espacio vectorial) Decimos que un conjunto no vacío V es un espacio vectorial sobre un cuerpo K, o K-espacio vectorial,

Más detalles

CURSO CERO. Departamento de Matemáticas. Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre

CURSO CERO. Departamento de Matemáticas. Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre CURSO CERO Departamento de Matemáticas Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre Capítulo 1 La demostración matemática Demostración por inducción El razonamiento por inducción es una

Más detalles

Espacios vectoriales y aplicaciones lineales

Espacios vectoriales y aplicaciones lineales Capítulo 3 Espacios vectoriales y aplicaciones lineales 3.1 Espacios vectoriales. Aplicaciones lineales Definición 3.1 Sea V un conjunto dotado de una operación interna + que llamaremos suma, y sea K un

Más detalles

Aplicaciones lineales continuas

Aplicaciones lineales continuas Lección 13 Aplicaciones lineales continuas Como preparación para el cálculo diferencial, estudiamos la continuidad de las aplicaciones lineales entre espacios normados. En primer lugar probamos que todas

Más detalles

Tema 2. Aplicaciones lineales y matrices.

Tema 2. Aplicaciones lineales y matrices. Tema 2 Aplicaciones lineales y matrices. 1 Índice general 2. Aplicaciones lineales y matrices. 1 2.1. Introducción....................................... 2 2.2. Espacio Vectorial.....................................

Más detalles

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores EJERCICIOS DE MATEMÁTICAS I HOJA 4 Ejercicio 1. Se consideran los vectores u 1 = (1, 1, 0, 1), u 2 = (0, 2, 1, 0), u 3 = ( 1, 1, 1, 1), u 4 = (2, 2, 1, 0) de R 4. Expresa, si es posible, los vectores u

Más detalles

Espacios vectoriales y Aplicaciones lineales

Espacios vectoriales y Aplicaciones lineales Espacios vectoriales y Aplicaciones lineales Espacios vectoriales. Subespacios vectoriales Espacios vectoriales Definición Sea V un conjunto dotado de una operación interna + que llamaremos suma, y sea

Más detalles

SISTEMAS DE ECUACIONES LINEALES

SISTEMAS DE ECUACIONES LINEALES Capítulo 7 SISTEMAS DE ECUACIONES LINEALES 7.1. Introducción Se denomina ecuación lineal a aquella que tiene la forma de un polinomio de primer grado, es decir, las incógnitas no están elevadas a potencias,

Más detalles

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS 2 Í N D I C E CAPÍTULO MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES MATRICES. MATRIZ. DEFINICIÓN 2. ALGUNOS

Más detalles

GEOMETRÍA ANALÍTICA 2º Curso de Bachillerato 22 de mayo de 2008

GEOMETRÍA ANALÍTICA 2º Curso de Bachillerato 22 de mayo de 2008 1. Sean los puntos A (1, 0,-1) y B (,-1, 3). Calcular la distancia del origen de coordenadas a la recta que pasa por A y B. Calculemos la recta que pasa por A y B. El vector AB es (1,-1,4) y por tanto

Más detalles

Curso de Procesamiento Digital de Imágenes

Curso de Procesamiento Digital de Imágenes Curso de Procesamiento Digital de Imágenes Impartido por: Elena Martínez Departamento de Ciencias de la Computación IIMAS, UNAM, cubículo 408 http://turing.iimas.unam.mx/~elena/teaching/pdi-lic.html [email protected]

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Tema 3 Aplicaciones Lineales 3.1 Introducción Se presentan en este tema las aplicaciones entre espacios vectoriales, particularmente las aplicaciones lineales, que de una manera informal pueden definirse

Más detalles

1. Cambios de base en R n.

1. Cambios de base en R n. er Curso de Ingeniero de Telecomunicación. Álgebra. Curso 8-9. Departamento de Matemática Aplicada II. Universidad de Sevilla. Tema 5. Cambios de Base. Aplicaciones Lineales. Teoría y Ejercicios Resueltos..

Más detalles

Nota 1. Los determinantes de orden superior a 3 se calculan aplicando las siguientes propiedades:

Nota 1. Los determinantes de orden superior a 3 se calculan aplicando las siguientes propiedades: Capítulo 1 DETERMINANTES Definición 1 (Matriz traspuesta) Llamaremos matriz traspuesta de A = (a ij ) a la matriz A t = (a ji ); es decir la matriz que consiste en poner las filas de A como columnas Definición

Más detalles

Construcción de bases en el núcleo e imagen de una transformación lineal

Construcción de bases en el núcleo e imagen de una transformación lineal Construcción de bases en el núcleo e imagen de una transformación lineal Objetivos. Estudiar el algoritmo para construir una base del núcleo y una base de la imagen de una transformación lineal. Requisitos.

Más detalles

APUNTES DE MATEMÁTICAS TEMA 4: VECTORES 1º BACHILLERATO

APUNTES DE MATEMÁTICAS TEMA 4: VECTORES 1º BACHILLERATO APUNTES DE MATEMÁTICAS TEMA 4: VECTORES 1º BACHILLERATO ÍNDICE VECTORES EN EL PLANO... 3 Vector Fijo... 3 VECTOR LIBRE... 3 Operaciones con Vectores... 3 Suma de vectores... 3 Producto de un número por

Más detalles

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales.

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Introducción Por qué La Geometría? La Geometría tiene como objetivo fundamental

Más detalles

Sección 4.5: Transformaciones del plano y del espacio. Sección 4.6: Problema de mínimos cuadrados y aplicaciones.

Sección 4.5: Transformaciones del plano y del espacio. Sección 4.6: Problema de mínimos cuadrados y aplicaciones. Tema 4 Producto escalar En bachiller habéis visto los conceptos de producto escalar, longitud, distancia y perpendicularidad en R y R 3 En este tema del curso se generalizan estos conceptos a R n, junto

Más detalles

Aplicaciones Lineales y Multilineales Continuas

Aplicaciones Lineales y Multilineales Continuas Capítulo 4 Aplicaciones Lineales y Multilineales Continuas La conexión entre las estructuras vectorial y topológica de los espacios normados, se pone claramente de manifiesto en el estudio de las aplicaciones

Más detalles

Matemáticas I: Hoja 3 Espacios vectoriales y subespacios vectoriales

Matemáticas I: Hoja 3 Espacios vectoriales y subespacios vectoriales Matemáticas I: Hoa 3 Espacios vectoriales y subespacios vectoriales Eercicio 1. Demostrar que los vectores v 1, v 2, v 3, v 4 expresados en la base canónica forman una base. Dar las coordenadas del vector

Más detalles

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define. VECTORES El estudio de los vectores es uno de tantos conocimientos de las matemáticas que provienen de la física. En esta ciencia se distingue entre magnitudes escalares y magnitudes vectoriales. Se llaman

Más detalles

1. El teorema de la función implícita para dos y tres variables.

1. El teorema de la función implícita para dos y tres variables. GRADO DE INGENIERÍA AEROESPACIAL. CURSO. Lección. Aplicaciones de la derivación parcial.. El teorema de la función implícita para dos tres variables. Una ecuación con dos incógnitas. Sea f :( x, ) U f(

Más detalles

Definición de vectores

Definición de vectores Definición de vectores Un vector es todo segmento de recta dirigido en el espacio. Cada vector posee unas características que son: Origen: O también denominado Punto de aplicación. Es el punto exacto sobre

Más detalles

Apuntes de Matemática Discreta 9. Funciones

Apuntes de Matemática Discreta 9. Funciones Apuntes de Matemática Discreta 9. Funciones Francisco José González Gutiérrez Cádiz, Octubre de 004 Universidad de Cádiz Departamento de Matemáticas ii Lección 9 Funciones Contenido 9.1 Definiciones y

Más detalles

a < b y se lee "a es menor que b" (desigualdad estricta) a > b y se lee "a es mayor que b" (desigualdad estricta)

a < b y se lee a es menor que b (desigualdad estricta) a > b y se lee a es mayor que b (desigualdad estricta) Desigualdades Dadas dos rectas que se cortan, llamadas ejes (rectangulares si son perpendiculares, y oblicuos en caso contrario), un punto puede situarse conociendo las distancias del mismo a los ejes,

Más detalles

Vectores: Producto escalar y vectorial

Vectores: Producto escalar y vectorial Nivelación de Matemática MTHA UNLP 1 Vectores: Producto escalar y vectorial Versores fundamentales Dado un sistema de coordenadas ortogonales, se considera sobre cada uno de los ejes y coincidiendo con

Más detalles

Repaso de matrices, determinantes y sistemas de ecuaciones lineales

Repaso de matrices, determinantes y sistemas de ecuaciones lineales Tema 1 Repaso de matrices, determinantes y sistemas de ecuaciones lineales Comenzamos este primer tema con un problema de motivación. Problema: El aire puro está compuesto esencialmente por un 78 por ciento

Más detalles

Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos.

Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos. Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos. Prof. D. Miguel Ángel García Hoyo. Septiembre de 2011 Dependencia lineal

Más detalles

VECTORES EN EL ESPACIO. 1. Determina el valor de t para que los vectores de coordenadas sean linealmente dependientes.

VECTORES EN EL ESPACIO. 1. Determina el valor de t para que los vectores de coordenadas sean linealmente dependientes. VECTORES EN EL ESPACIO. Determina el valor de t para que los vectores de coordenadas (,, t), 0, t, t) y(, 2, t) sean linealmente dependientes. Si son linealmente dependientes, uno de ellos, se podrá expresar

Más detalles

(Ec.1) 2α + β = b (Ec.4) (Ec.3)

(Ec.1) 2α + β = b (Ec.4) (Ec.3) Problema 1. Hallar t R para que el vector x = (3, 8, t) pertenezca al subespacio engendrado por los vectores u = (1, 2, 3) y v = (1, 3, 1). Solución del problema 1. x L{ u, v} si, y sólo si, existen α,

Más detalles

4.- Para los siguientes conjuntos de vectores, probar si son o no subespacios vectoriales de R 4 : 2d + 1 : b, d reales. d

4.- Para los siguientes conjuntos de vectores, probar si son o no subespacios vectoriales de R 4 : 2d + 1 : b, d reales. d GRADO EN I. TELEMÁTICA. HOJA : ESPACIOS VECTORIALES. ESPACIOS NULO Y COLUMNA.- Sea W el conjunto de todos los vectores de R de la forma subespacio de R. s + t s t s t t, con s, t R. Probar que W es un.-

Más detalles

FORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES

FORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES FORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES Eleonora Catsigeras 6 de mayo de 997 Notas para el curso de Análisis Matemático II Resumen Se enuncia sin demostración

Más detalles

Formas bilineales y cuadráticas.

Formas bilineales y cuadráticas. Tema 4 Formas bilineales y cuadráticas. 4.1. Introducción. Conocidas las nociones de espacio vectorial, aplicación lineal, matriz de una aplicación lineal y diagonalización, estudiaremos en este tema dos

Más detalles

4 Aplicaciones Lineales

4 Aplicaciones Lineales Prof Susana López 41 4 Aplicaciones Lineales 41 Definición de aplicación lineal Definición 23 Sean V y W dos espacios vectoriales; una aplicación lineal f de V a W es una aplicación f : V W tal que: 1

Más detalles

Aplicaciones lineales

Aplicaciones lineales Capítulo 4 Aplicaciones lineales 4.1. Introduccción a las aplicaciones lineales En el capítulo anterior encontramos la aplicación de coordenadas x [x] B que asignaba, dada una base del espacio vectorial,

Más detalles

Matrices. Definiciones básicas de matrices. www.math.com.mx. José de Jesús Angel Angel. [email protected]

Matrices. Definiciones básicas de matrices. www.math.com.mx. José de Jesús Angel Angel. jjaa@math.com.mx Matrices Definiciones básicas de matrices wwwmathcommx José de Jesús Angel Angel jjaa@mathcommx MathCon c 2007-2008 Contenido 1 Matrices 2 11 Matrices cuadradas 3 12 Matriz transpuesta 4 13 Matriz identidad

Más detalles

Valores propios y vectores propios

Valores propios y vectores propios Capítulo 6 Valores propios y vectores propios En este capítulo investigaremos qué propiedades son intrínsecas a una matriz, o su aplicación lineal asociada. Como veremos, el hecho de que existen muchas

Más detalles

Tema 3. Matrices, determinantes y sistemas de ecuaciones lineales.

Tema 3. Matrices, determinantes y sistemas de ecuaciones lineales. Ingeniería Civil Matemáticas I -3 Departamento de Matemática Aplicada II Escuela Superior de Ingenieros Universidad de Sevilla Tema 3 Matrices, determinantes y sistemas de ecuaciones lineales 3- Matrices

Más detalles

Matrices Invertibles y Elementos de Álgebra Matricial

Matrices Invertibles y Elementos de Álgebra Matricial Matrices Invertibles y Elementos de Álgebra Matricial Departamento de Matemáticas, CCIR/ITESM 12 de enero de 2011 Índice 91 Introducción 1 92 Transpuesta 1 93 Propiedades de la transpuesta 2 94 Matrices

Más detalles

CAPÍTULO II. 4 El grupo afín

CAPÍTULO II. 4 El grupo afín CAPÍTULO II 4 El grupo afín En geometría clásica, antes de la aparición de los espacios vectoriales, se hablaba de puntos en lugar de vectores. Para nosotros serán términos sinónimos salvo que, cuando

Más detalles

1. INVERSA DE UNA MATRIZ REGULAR

1. INVERSA DE UNA MATRIZ REGULAR . INVERSA DE UNA MATRIZ REGULAR Calcular la inversa de una matriz regular es un trabajo bastante tedioso. A través de ejemplos se expondrán diferentes técnicas para calcular la matriz inversa de una matriz

Más detalles

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES INECUACIONES NOTA IMPORTANTE: El signo de desigualdad de una inecuación puede ser,, < o >. Para las cuestiones teóricas que se desarrollan en esta unidad únicamente se utilizará la desigualdad >, siendo

Más detalles

ALGEBRA LINEAL. Héctor Jairo Martínez R. Ana María Sanabria R.

ALGEBRA LINEAL. Héctor Jairo Martínez R. Ana María Sanabria R. ALGEBRA LINEAL Héctor Jairo Martínez R. Ana María Sanabria R. SEGUNDO SEMESTRE 8 Índice general. SISTEMAS DE ECUACIONES LINEALES.. Introducción................................................ Conceptos

Más detalles

Subconjuntos destacados en la

Subconjuntos destacados en la 2 Subconjuntos destacados en la topología métrica En este capítulo, introducimos una serie de conceptos ligados a los puntos y a conjuntos que por el importante papel que juegan en la topología métrica,

Más detalles

Transformaciones canónicas

Transformaciones canónicas apítulo 29 Transformaciones canónicas 29.1 Introducción onsideremos una transformación arbitraria de las coordenadas en el espacio de las fases de dimensión 2(3N k) (con el tiempo como un parámetro) Q

Más detalles

VECTORES EN EL PLANO

VECTORES EN EL PLANO VECTORES EN EL PLANO VECTOR: vectores libres Segmento orientado, con un origen y extremo. Módulo: es la longitud del segmento orientado, es un número positivo y su símbolo es a Dirección: es la recta que

Más detalles

Clasificación de métricas.

Clasificación de métricas. Clasificación de métricas. 1. El problema de clasificación. Como bien sabemos, el par formado por una métrica T 2 (esto es, un tensor 2-covariante simétrico) sobre un espacio vectorial E, (E, T 2 ), constituye

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Ejercicio Dada la matriz A = 0 2 0 a) Escribir explícitamente la aplicación lineal f : 2 cuya matriz asociada con respecto a las bases canónicas es A. En primer lugar definimos las

Más detalles

Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL. x x1 n. θ y. 1 n x1 n ȳ1 n. Carlos Arce S. William Castillo E. Jorge González V.

Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL. x x1 n. θ y. 1 n x1 n ȳ1 n. Carlos Arce S. William Castillo E. Jorge González V. Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL x x x1 n θ y y ȳ1 n 1 n x1 n ȳ1 n Carlos Arce S. William Castillo E. Jorge González V. 2003 Algebra Lineal Carlos Arce S., William Castillo

Más detalles

Objetivos: Al inalizar la unidad, el alumno:

Objetivos: Al inalizar la unidad, el alumno: Unidad 7 transformaciones lineales Objetivos: Al inalizar la unidad, el alumno: Comprenderá los conceptos de dominio e imagen de una transformación. Distinguirá cuándo una transformación es lineal. Encontrará

Más detalles

VII. Estructuras Algebraicas

VII. Estructuras Algebraicas VII. Estructuras Algebraicas Objetivo Se analizarán las operaciones binarias y sus propiedades dentro de una estructura algebraica. Definición de operación binaria Operaciones como la suma, resta, multiplicación

Más detalles

ESTRUCTURAS ALGEBRAICAS 1

ESTRUCTURAS ALGEBRAICAS 1 ESTRUCTURAS ALGEBRAICAS Se da la relación entre dos conjuntos mediante el siguiente diagrama: (, ) (2, 3) (, 4) (, 2) (7, 8) (, ) (3, 3) (5, ) (6, ) (, 6)........ 5 6......... 2 5 i) Observa la correspondencia

Más detalles

5.1Definición transformación lineal de núcleo ó kernel, e imagen de una transformación lineal y sus propiedades

5.1Definición transformación lineal de núcleo ó kernel, e imagen de una transformación lineal y sus propiedades 5- ransformaciones Lineales 5Definición transformación lineal de núcleo ó kernel, e imagen de una transformación lineal sus propiedades Se denomina transformación lineal a toda función,, cuo dominio codominio

Más detalles

Espacios vectoriales con producto interno

Espacios vectoriales con producto interno Capítulo 8 Espacios vectoriales con producto interno En este capítulo, se generalizarán las nociones geométricas de distancia y perpendicularidad, conocidas en R y en R 3, a otros espacios vectoriales.

Más detalles

Diagonalización de matrices

Diagonalización de matrices diagonalizacion.nb Diagonalización de matrices Práctica de Álgebra Lineal, E.U.A.T., Grupos ºA y ºB, 2005 Algo de teoría Qué es diagonalizar una matriz? Para estudiar una matriz suele ser conveniente expresarla

Más detalles

TEMA 6. EIGENVALORES Y EIGENVECTORES

TEMA 6. EIGENVALORES Y EIGENVECTORES TEMA 6. EIGENVALORES Y EIGENVECTORES M. C. Roberto Rosales Flores INSTITUTO TECNOLÓGICO SUPERIOR DE TLAXCO Ingeniería en Logística M. C. Roberto Rosales Flores (ITST TEMA 6. EIGENVALORES Y EIGENVECTORES

Más detalles

Práctica de Aplicaciones Lineales

Práctica de Aplicaciones Lineales practica5.nb 1 Práctica de Aplicaciones Lineales Aplicaciones lineales y matrices Las matrices también desempeñan un papel muy destacado en el estudio de las aplicaciones lineales entre espacios vectoriales

Más detalles

Matrices invertibles. La inversa de una matriz

Matrices invertibles. La inversa de una matriz Matrices invertibles. La inversa de una matriz Objetivos. Estudiar la definición y las propiedades básicas de la matriz inversa. Más adelante en este curso vamos a estudiar criterios de invertibilidad

Más detalles

Álgebra lineal y matricial

Álgebra lineal y matricial Capítulo Álgebra lineal y matricial.. Vectores y álgebra lineal Unconjuntodennúmerosreales(a,,a n )sepuederepresentar: como un punto en el espacio n-dimensional; como un vector con punto inicial el origen

Más detalles

Álgebra Lineal. Sesión de Prácticas 6: Ortogonalidad. Método de Gram-Schmidt. Complemento ortogonal y mejor aproximación

Álgebra Lineal. Sesión de Prácticas 6: Ortogonalidad. Método de Gram-Schmidt. Complemento ortogonal y mejor aproximación Álgebra Lineal Sesión de Prácticas 6: Ortogonalidad. Método de Gram-Schmidt. Complemento ortogonal y mejor aproximación Primero Grado Ingeniería Informática Departamento de Matemática Aplicada Facultad

Más detalles

Sistemas de vectores deslizantes

Sistemas de vectores deslizantes Capítulo 1 Sistemas de vectores deslizantes 1.1. Vectores. Álgebra vectorial. En Física, se denomina magnitud fsica (o simplemente, magnitud) a todo aquello que es susceptible de ser cuantificado o medido

Más detalles

AXIOMAS DE CUERPO (CAMPO) DE LOS NÚMEROS REALES

AXIOMAS DE CUERPO (CAMPO) DE LOS NÚMEROS REALES AXIOMASDECUERPO(CAMPO) DELOSNÚMEROSREALES Ejemplo: 6 INECUACIONES 15 VA11) x y x y. VA12) x y x y. Las demostraciones de muchas de estas propiedades son evidentes de la definición. Otras se demostrarán

Más detalles

Clase 15 Espacios vectoriales Álgebra Lineal

Clase 15 Espacios vectoriales Álgebra Lineal Espacios vectoriales Clase 5 Espacios vectoriales Álgebra Lineal Código Escuela de Matemáticas - Facultad de Ciencias Universidad Nacional de Colombia En esta sección estudiaremos uno de los conceptos

Más detalles

Variedades Diferenciables. Extremos Condicionados

Variedades Diferenciables. Extremos Condicionados Capítulo 16 Variedades Diferenciables. Extremos Condicionados Vamos a completar lo visto en los capítulos anteriores sobre el teorema de las Funciones Implícitas y Funciones Inversas con un tema de iniciación

Más detalles

Teoría Tema 5 Espacios vectoriales

Teoría Tema 5 Espacios vectoriales página 1/14 Teoría Tema 5 Espacios vectoriales Índice de contenido Puntos en 2 y 3 dimensiones...2 Vectores en el plano...5 Suma de vectores...7 Combinación lineal de vectores...8 Sistema generador...10

Más detalles