Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)"

Transcripción

1 Valores Singulares Descomposición en valores singulares Notas para los cursos y (JL Mancilla Aguilar) Tanto los valores singulares como la descomposición en valores singulares de una matriz son conceptos de gran utilidad en las aplicaciones del álgebra lineal a diversos problemas prácticos y teóricos A continuación definiremos el concepto de valor singular de una matriz Dada una matriz A R m n, la matriz A T A es simética, pues (A T A) T = A T (A T ) T = A T A, y semidefinida positiva, ya que x T A T Ax = (Ax) T (Ax) = Ax x R n Por lo tanto los autovalores de A T A son reales y no negativos Definición Sea A R m n Sean λ, λ,, λ n los autovalores de A T A ordenados en forma decreciente, es decir, λ λ λ n Entonces σ i = λ i es el i-ésimo valor singular de A El primer y el último valor singular de una matriz proporcionan la siguiente información Proposición Sea A R m n Entonces, si σ y σ n son, respectivamente, el mayor y el menor valor singular de A, se tiene que máx Ax = σ y mín Ax = σ n x = x = Demostración Sean λ y λ n el máximo y el mínimo autovalor de A T A, respectivamente Entonces, por Rayleigh, máx x = xt (A T A)x = σ y mín x = xt (A T A)x = σ n Luego σ = λ = máx x = xt (A T A)x = máx Ax = máx Ax, x = x = valiendo la primera igualdad por la definición de valor singular, la segunda por Rayleigh, la tercera por la igualdad x T (A T A)x = Ax y por ser la función η(t) = t monótona creciente en, ) (si η es una función escalar monótona creciente sobre la imagen de f(x) entonces η(máx f(x)) = máx η(f(x)) y η(mín f(x)) = mín η(f(x)) ) En forma similar se prueba que mín x = Ax = σ n Como corolario de la Proposición resultan las desigualdades σ n x Ax σ x x R n,

2 que acotan superior e inferiormente la magnitud de Ax en función de la magnitud de x En efecto, si x = las desigualdades son obviamente ciertas Si x tenemos que v = x/ x es unitario y por lo tanto σ n Av σ Pero Av = Ax / x, con lo cual σ n Ax x σ = σ n x Ax σ x El siguiente resultado será clave para la construcción de la descomposición en valores singulares de una matriz Recordemos que toda matriz simétrica n n con coeficientes reales es diagonalizable ortogonalmente, o, lo que es equivalente, existe una bon de R n compuesta por autovectores de ella Teorema Sea A R m n Supongamos que λ, λ,, λ n son los autovalores de A T A y que λ λ λ r > λ r+ = = λ n =, en otras palabras, los autovalores de A T A están ordenados en forma decreciente y el número de autovalores no nulos es r Sea {v,, v n } una bon de R n tal que A T Av i = λ i v i Entonces {Av,, Av n } es un conjunto ortogonal y Av i = λ i = σ i para todo i =,, n; { Av σ,, Avr σ r } es bon de col(a); {v r+,, v n } es bon de Nul(A); 4 rango(a) = r = número de vs no nulos de A Demostración Respecto del primer punto, como (Av i, Av j ) = (Av i ) T (Av j ) = v T i (A T Av j ) = v T i (λ j v j ) = λ j (v T i v j ) = { λ j i = j i j, entonces Av i Av j si i j y Av i = λ i = σ i para i =,, n Respecto del punto, como por el punto el conjunto { Av σ,, Avr σ r } es ortonormal, basta probar que éste genera el espacio columna de A Para ello alcanza con ver que gen{av,, Av r } = col(a) Consideremos la transformación lineal T : R n R m, T (x) = Ax Tenemos por un lado que Im(T ) = col(a) Por otra parte, como {v,, v n } es base de R n y T (v i ) = Av i, col(a) = Im(T ) = gen{av,, Av n } = gen{av,, Av r }, la última igualdad debida al punto, ya que Av i = λ i = si i r + El punto 4 es inmediato del ya que el rango de A es la dimensión del espacio columna de la matriz y ésta es r, que por otra parte es el número de autovalores no nulos de A T A, el cual coincide con el número de vs no nulos de A Finalmente el punto resulta del hecho que {v r+,, v n } es un conjunto ortonormal, que Av i = para todo i r + y que dim(nul(a)) = n r

3 Ejemplo Consideremos la matriz Como A = A T A = y sus autovalores son λ = 6, λ = 9 y λ =, tenemos que los vs de A son σ = 6 = 6, σ = 9 = σ = Notamos que el rango de A es y que hay exactamente vs no nulos como informa el Teorema Busquemos ahora una bon de R compuesta por autovectores de A T A Como S λ = gen B = {v, v, v }, con, v = S λ = gen, v = es una de tales bases Calculemos Av i para i =,,, 8 Av =, Av 6 = 9, y S λ = gen y v = y Av =,, Notamos que Av i Av j si i j y que Av i = σ i para i =,, En particular {v } es bon de Nul(A) y { Av σ, Av σ } es bon de col(a), que en este caso coincide con R Descomposición en valores singulares En lo que sigue definiremos lo que se conoce como descomposición en valores singulares (DVS) de una matriz Definición Sea A R m n Una descomposición en valores singulares de A es una factorización A = U Σ V T con U R m m y V R n n ortogonales y Σ R m n con σ D Σ = r (n r) σ y D = (m r) r (m r) (n r) con σ σ σ r > σ r k l representa la matriz k l cuyos coeficientes son nulos

4 Notar que si A = U Σ V T es una DVS de A, con Σ como en la Definición, y v i y u i son las i-ésimas columnas de V y U respectivamente, entonces es fácil ver que A puede ser escrita en la forma A = σ u v T + σ u v T + + σ r u r v T r, donde cada una de las matrices u i v T i es de rango Definición Si A = U Σ V T es una DVS de A, a los vectores que aparecen como columnas de la matriz V se los denomina vectores singulares derechos de A mientras que a los que aparecen como columnas de U se los denomina vectores singulares izquierdos de A El siguiente teorema nos dice que toda matriz admite una DVS Teorema Sea A R m n Entonces existe un descomposición en valores singulares de A Demostración Sean λ,, λ n los autovalores de A T A Supongamos que están ordenados en forma decreciente y que exactamente r de ellos son no nulos (r podría ser n) Sea {v, v,, v n } una bon de R n tal que A T Av i = λ i v i para todo i =,, n Definimos V = v v v n, que es ortogonal, y σ D Σ = r (n r) σ con D = (m r) r (m r) (n r) donde σ i = λ i σ r Con el objeto de definir U, consideremos los vectores u = Av σ, u = Av σ,, u r = Av r σ r Entonces, de acuerdo con el Teorema, el conjunto {u,, u r } es ortonormal Si r < m buscamos vectores u r+,, u m de modo tal que {u,, u m } sea bon de R m Luego definimos U = u u u m que es una matriz ortogonal Veamos ahora que A = U Σ V T Por un lado AV = Av Av n = σ u σ r u r ya que Av i = σ i u i para i =,, r por la definición de los vectores u i y Av i = para i = r +,, n por el Teorema Por otro lado σ σ U Σ = u u u m σ r = σ u σ r u r Por lo tanto, AV = U Σ Teniendo en cuenta que V = V T, llegamos a la igualdad A = U ΣV T 4

5 Observación La demostración del Teorema nos da un método para construir una DVS de una matriz A Método que podemos resumir de la siguiente manera Sea A R m n Calcular los autovalores de A T A y ordenarlos de mayor a menor: λ λ λ n Hallar una bon {v,, v n } de R n tal que A T Av i = λ i v i, i =,, n Calcular los vs de A, σ i = λ i 4 Si r es el número de vs de A no nulos, es decir, σ r > y σ i = para todo i r +, definir u = Av, u = Av,, u r = Av r σ σ σ r 5 Si r < m, hallar u r+,, u m tales que {u,, u m } sea bon de R m 6 Definir las matrices V = v v v n, U = u u u n y Σ = D r (n r) con D = (m r) r (m r) (n r) σ σ σ r ; 7 Entonces A = U Σ V T es una DVS de A Ejemplo Consideremos la matriz A del Ejemplo Los autovalores de A T A son λ = 6, λ = 9 y λ = y los vs, B = {v, v, v } con σ = 6 = 6, σ = 9 = σ = v =, v = y v =, es bon de R y A T Av i = λ i v i Como hay dos vs no nulos, calculamos u = Av σ = y u = Av σ = Como {u, u } es bon de R, no hace falta completar el conjunto Ahora definimos V =, U = y tenemos que A = U Σ V T es una DVS de A y Σ = 6, 5

6 Notamos que en la construcción de la DVS de A que hicimos en la demostración del Teorema, los elementos no nulos que aparecen en la diagonal principal de Σ son los vs no nulos de A y que las columnas de V, es decir, los vectores singulares derechos que utilizamos, son autovectores de A T A El siguiente resultado dice que lo anterior siempre ocurre, independientemente de la forma en que la DVS haya sido obtenida Teorema Sea A R m n y sea A = U Σ V T una DVS de A Supongamos que σ D Σ = r (n r) σ y D = (m r) r (m r) (n r) σ r con σ σ σ r > Entonces σ,, σ r son los vs no nulos de A; Si V = v v n, {v,, v n } es una bon de R n tal que A T Av i = σ i v i si i =,, r y A T Av i = si i = r +,, n; Si U = u u m, Av i = σ i u i para i =,, r y Av i = para i = r +,, n Demostración Como A = U Σ V T tenemos que A T A = (U Σ V T ) T (U Σ V T ) = V (Σ T Σ)V T Pero Σ T Σ es la matriz n n Σ T Σ = σ σ σr Por lo tanto A = V (Σ T Σ)V T es una diagonalización ortogonal de A T A En consecuencia, λ = σ, λ = σ,, λ r = σ r, son los autovalores no nulos de A T A ordenados en forma decreciente Por lo tanto σ,, σ r son los vs no nulos de A También tenemos que las columnas de V conforman una bon de R n y son autovectores de A T A, más precisamente, A T Av i = σ i v i para i =, r, y A T Av i = para i = r +,, n, ya que v r+,, v n son autovectores asociados al autovalor nulo Finalmente el punto resulta inmediatamente de la igualdad A V = U Σ Notemos que del Teorema se desprende que los vectores singulares derechos son siempre autovectores de A T A En lo que sigue veremos que los vectores singulares izquierdos son necesariamente autovectores de la matriz AA T Para ello es útil el siguiente resultado 6

7 Proposición Sea A = U Σ V T una DVS de A R m n Entonces A T = V Σ T U T es DVS de A T En particular A y A T tienen los mismos vs no nulos Demostración Es inmediato a partir de la definición de DVS que A T = V Σ T U T es DVS de A T Que A y A T tienen los mismos vs no nulos se deduce del hecho que en Σ aparecen los vs no nulos de A y en Σ T los vs no nulos de A T De la Proposición y del Teorema deducimos que los vectores singulares izquierdos de una matriz A son a la vez vectores singulares derechos de A T y por lo tanto autovectores de AA T Ejemplo Hallar una DVS de A = Como los vs no nulos de A y de A T coinciden, calculamos los vs de A T, que son los autovalores de AA T Como AA T 9 9 =, 9 9 sus autovalores son λ = 8 y λ = Luego σ = 8 = es el único vs no nulo tanto de A T como de A En particular, los restantes vs de A son σ = σ = Para hallar una DVS de A, lo que hacemos primero es hallar una DVS de A T Calculando obtenemos la siguiente { bon de R compuesta por autovectores de AA T (ordenados según el orden de los vs) T, } T Designemos por u y u a los vectores de esa base Ambos son vectores singulares derechos de A T (u corresponde a σ y u a σ = ) y por lo tanto vectores singulares izquierdos de A Para obtener los vectores singulares izquierdos de A T que nos permitan luego construir una DVS de A T, teniendo en cuenta que hay un solo valor singular no nulo, definimos v = AT u = σ Para hallar los restantes vectores singulares izquierdos de A T debemos encontrar v, v tales que {v, v, v } sea bon de R Pero como v y v son a su vez vectores singulares derechos de A y corresponden a valores singulares nulos de A, necesariamente Av = y Av = Luego bastará con que hallemos una bon de Nul(A) Una posible bon es {v, v } con v = y v = 4 Note que {v, v, v } es bon de R (Otra forma de computar v, v consiste en elegir v y v tales que {v, v, v } sea li y ortonormalizar el conjunto mediante Gram-Schmidt) 7

8 Entonces con V = v v v, U = u u y A T = V Σ U T Σ =, es DVS de A T y, por lo tanto, A = U Σ V T con Σ = Σ T es DVS de A Como ejercicio, se propone al lector que calcule una DVS de A en forma directa DVS y los subespacios fundamentales de una matriz En esta sección veremos que las matrices U y V de una DVS de A están compuestas por bases ortonormales de los cuatro subespacios fundamentales de A Supongamos que A R n m es una matriz de rango r y que A = U Σ V T es una DVS de A Entonces, si V = v v n y U = u u m y definimos las matrices V r = v v r, V n r = v r+ v n, U r = u u r y U m r = u r+ u m, se tiene que {v,, v r } es bon de fil(a), V T r V r = I y V r V T r = P fil(a) {v r+,, v n } es bon de Nul(A), V T n rv n r = I y V n r V T n r = P Nul(A) {u,, u r } es bon de col(a), U T r U r = I y U r U T r = P col(a) 4 {u r+,, u m } es bon de Nul(A T ), U T m ru m r = I y U m r U T m r = P Nul(A T ) La justificación de este resultado es la siguiente Como el rango de A es r, A tiene r valores singulares no nulos, y por lo tanto A T A tiene r autovalores no nulos Por el Teorema, los vectores v,, v n son autovectores de A T A, estando los primeros r de ellos asociados a los autovalores no nulos de A T A y los restantes al autovalor nulo de A T A Por lo tanto, por el Teorema, {v r+,, v n } es bon de Nul(A) y, dado que {v,, v n } es bon de R n, necesariamente {v,, v r } es bon de Nul(A) = fil(a) Con esto, y la forma en que se construyen las matrices de proyección, quedan demostrados y Respecto de y 4, combinando el Teorema con el Teorema, tenemos que {u,, u r } es bon de col(a) y, por lo tanto, dado que {u,, u m } es bon de R m, {u r+,, u m } es bon de col(a) = Nul(A T ) De esto último y la forma en que se construyen las matrices de proyección, se deducen las restantes afirmaciones Ejemplo 4 Dada A = 8, hallar los valores singulares de A, bases de sus cuatro subespacios fundamentales y calcular sus matrices de proyección La descomposición que tenemos de A es casi una DVS, salvo por el hecho de que la matriz U que aparece a la izquierda, si bien tiene columnas mutuamente ortogonales, éstas no son de 8

9 norma Procedemos entonces a normalizar las columnas de U dividiendo cada una de ellas por su norma Para que el producto siga siendo A, es necesario multiplicar la fila i de la matriz central, por el número por el cual dividimos la columna i de U Queda entonces la factorización A = 6 Esta factorización no es aún una DVS, porque los elementos de la diagonal de la matriz central no están ordenados de mayor a menor Para ello lo que hacemos es permutar las dos primeras columnas de la matriz de la izquierda y las dos primeras filas de la matriz de la derecha Entonces obtenemos A = 6 que ahora sí es una DVS de A, ya que A = U Σ V T con 6 U =, Σ = y V =, Ahora podemos hallar lo solicitado Los valores singulares de A son σ = 6, σ = y σ = Las primeras dos columnas de V son una bon de fil(a), mientras que la última columna de V es bon de Nul(A) Respecto de col(a), las dos primeras columnas de U son una bon de ese subespacio, y la última columna de U es bon de Nul(A T ) Respecto de las matrices de proyección, éstas son: P fil(a) = P Nul(A) = I P fil(a) = P Nul(A T ) = =, = P col(a) = I P Nul(A T ) =,, 9

10 4 DVS reducida Veremos ahora cómo a partir de una DVS, A = U ΣV T, podemos obtener una descomposición de A que emplea matrices de tamaño reducido Empleando la notación de la sección anterior, escribimos U = U r U m r y V = V r V n r, donde r es el rango de A Entonces A = U Σ V T = U r U m r D r (n r) (m r) r (m r) (n r) V T r V T n r = U r DV T r A la factorización A = U r DVr T se la denomina DVS reducida de A Notar que la matriz D es inversible, pues D es diagonal, y los elementos que aparecen en la diagonal principal son los vs no nulos de A Ejemplo 5 Para la matriz A del Ejemplo 4, A = 6, es una DVS reducida Notamos que es más simple calcular una DVS reducida que una DVS, ya que solo se necesitan los vs no nulos y conjuntos de vectores singulares derechos e izquierdos correspondientes a esos valores singulares 5 Solución por cuadrados mínimos de norma mínima Seudoinversa de Moore-Penrose Si A R m n y b R n, la ecuación Ax = b siempre admite soluciones por cuadrados mínimos (cm) Si Nul(A) = {}, o, equivalentemente, rango(a) = n, la solución por cm es única; en caso contrario hay infinitas soluciones por cm, más aún, si ˆx p es una solución por cm, entonces todas las demás son de la forma: ˆx = ˆx p + x n con x n Nul(A) Es importante en el caso en que hay infinitas soluciones por cm disponer de un criterio que permita seleccionar una de estas infinitas soluciones Un posible criterio es el siguiente Definición 4 x es una solución por cm de norma mínima de la ecuación Ax = b si x es solución por cm y, además, x ˆx para todo ˆx que sea solución por cm de Ax = b En otras palabras, x es, de todas las soluciones por cm de Ax = b, una que tiene la menor norma (longitud) posible A continuación veremos que existe una única solución por cm de norma mínima y daremos una caracterización de ella que será útil para calcularla Proposición Consideremos la ecuación Ax = b con A R m n y b R n Entonces Existe una única solución x por cm de la ecuación Ax = b que pertenece a fil(a) x es la única solución por cm de norma mínima de la ecuación Ax = b

11 Demostración Primero probamos que existe una solución por cm que pertenece a fil(a) Sea ˆx p una solución por cm de la ecuación Ax = b Sea x = P fil(a)ˆx p Veamos que x también es solución por cm de la ecuación Como fil(a) = Nul(A), ˆx p = P fil(a)ˆx p + P Nul(A)ˆx p = x + P Nul(A)ˆx p Luego, dado que ˆx p una solución por cm de la ecuación Ax = b, P col(a) b = Aˆx p = A(x + P Nul(A)ˆx p ) = Ax, y por lo tanto x es solución por cm de la ecuación Ax = b y pertenece a fil(a) Ahora veamos que x es la única solución por cm que pertenece a fil(a) Supongamos que x es una solución por cm que pertenece a fil(a) Entonces Ax = Ax = P col(a) b Luego x x Nul(A) Como x x fil(a) y fil(a) = Nul(A), resulta x x =, y, por lo tanto, x = x Hasta aquí hemos probado el punto de la proposición Ahora probamos que x es la única solución por cm de norma mínima de la ecuación Ax = b Primero vemos que x es solución por cm de norma mínima Sea x una solución por cm de la ecuación Entonces x x Nul(A) Luego x = x + ( x x ) = x + x x pues fil(a) = Nul(A) Entonces x x y x es de norma mínima Finalizamos la demostración viendo que x es la única solución de norma mínima Supongamos que y también es solución de norma mínima Entonces necesariamente y = x Por otro lado, dado que y x Nul(A) y que x fil(a), y = x + (y x ) = x + y x Entonces, necesariamente y x =, y, por lo tanto, y = x De acuerdo con la Proposición, para hallar la solución por cm de norma mínima, debemos buscar entre las soluciones por cm de la ecuación la solución x que pertenece a fil(a) Para hallar tal solución podemos proceder como sigue Supongamos que A = U r D Vr T es una DVS reducida de A Entonces, por lo expuesto en la Sección, U r Ur T = P col(a), Ur T U r = I, las columnas de V r son bon de fil(a) y D es inversible Luego, como x pertenece a fil(a), existe α R r tal que x = V r α Como además x es solución por cm de Ax = b entonces Luego, usando que U r U T r P col(a) b = Ax = AV r α = P col(a), V T r V r = I y A = U r D V T r, tenemos que U r U T r b = U r D V T r V r α = U r Dα Multiplicando por izquierda por U r y usando que U T r U r = I, obtenemos y, por lo tanto, Dα = U T r b = α = D U T r b, x = V r α = V r D U T r b Notemos que hemos probado que la solución por cm de norma mínima de la ecuación Ax = b se obtiene multiplicando b por la matriz V r D U T r

12 Definición 5 Sea A = U r D V T r es una DVS reducida de A La matriz A + = V r D U T r es la matriz seudoinversa de Moore-Penrose de A Notamos que del hecho que para todo b R n, x = A + b es la única solución por cm de longitud mínima de la ecuación Ax = b, se deduce que A + no depende de la DVS reducida empleada para calcularla En efecto, si A = U rdv r T es otra DVS reducida de A, tenemos la igualdad (V r D U T r )b = x = (V r D U rt )b b R n Pero entonces, necesariamente V r D U T r = V r D U rt Teorema 4 Sea A R m n y sea A + la matriz seudoinversa de Moore-Penrose de A Entonces Para todo b R n, x = A + b es la única solución por cm de longitud mínima de la ecuación Ax = b A + A = P fil(a) y AA + = P col(a) Demostración El punto ya fue probado, el punto se deduce inmediatamente del hecho que A + A = V r V T r y que AA + = U r U T r Observación Del punto del Teorema 4 deducimos inmediatamente que A + A = I fil(a) = R n rango(a) = n AA + = I col(a) = R m rango(a) = m Si A es inversible, entonces A = A + Cuando rango(a) = n, la ecuación Ax = b tiene una única solución por cuadrados mínimos ˆx, que está dada por la fórmula ˆx = A b, con A = (A T A) A T Como en el caso en que la solución por cm es única, ésta es necesariamente la de norma mínima, también tenemos que ˆx = A + b Luego A b = A + b b R n = A = A + La siguiente expresión de A + a partir de una DVS de A es útil en algunas circunstancias Supongamos que A = U Σ V T es una DVS de A R m n, y que A es de rango r Definamos Σ + D = r (m r) R n m (n r) r (n r) (m r) Entonces A + = V Σ + U T, como puede comprobar fácilmente el lector, usando las expresiones V = V r V T n r y U = U r U T m r y efectuando el producto Ejemplo 6 Hallar la seudoinversa de Moore-Penrose de 4 A = 6 Notemos que el rango de A es, y por lo tanto A carece de inversa Vamos a buscar entonces una DVS reducida de A

13 Como A T A = sus autovalores son λ = y λ = Luego, A tiene un único vs no nulo, σ = = Para construir una DVS reducida debemos hallar un vector singular derecho v de A asociado a σ, o, lo que es lo mismo, un autovector unitario de A T A asociado a λ, por ejemplo, v = 5 T Ahora, a partir de v definimos el vector singular izquierdo Entonces A = u = Av σ =, 5 5 es una DVS reducida de A y A + = 5 5 = 6 6 Imagen de la esfera unitaria En esta sección veremos cómo una DVS de una matriz A R m n nos permite determinar fácilmente cual es la imagen de la esfera unitaria S n = {x R n : x = } a través de la transformación lineal T (x) = Ax Supongamos que A = U Σ V T es una DVS de A y que rango(a) = r Con el objeto de determinar qué clase de conjunto es T (S n ) = {z R m : z = Ax con x S n }, consideremos el cambio de variable x = V y Notamos que x = y por ser V ortogonal Entonces z T (S n ) z = Ax con x = z = AV y con y = z = UΣy con y = Llamando U = u u m y teniendo en cuenta que A tiene r vs no nulos σ,, σ r, tenemos que UΣy = σ y u + σ y u + + σ r y r u r Entonces z T (S n ) z = σ y u + σ y u + + σ r y r u r con y = Si consideramos la base ortonormal B = {u,, u m } de R m, y z B = w w m T es el vector de coordenadas de z en la base B, tenemos entonces que w = σ y w = σ y z T (S n ) w r = σ r y r w r+ = w m = con y =

14 Como y i conclusión: = w i /σ i para i =,, r y n i= y i =, finalmente llegamos a la siguiente Si r = n z T (S n ) w σ + + w n σ n = w n+ = w n+ = = w m = Con lo cual T (S n ) resulta ser un elipsoide n-dimensional (Si n = es un par de puntos y cuando n = es una elipse) contenido en el subespacio generado por {u,, u n }, que es col(a), y tiene por ejes a las rectas generadas por los vectores u, u,, u n Si r < n, y, por lo tanto, w σ + + w r σ r = r yi, i= z T (S n ) w σ + + w r σ r w r+ = w r+ = = w m = Luego T (S n ) resulta ser un elipsoide r-dimensional sólido (si r = es un segmento, si r = es una elipse junto con su interior), contenido en el subespacio generado por {u,, u n } ( col(a)), y tiene por ejes a las rectas generadas por los vectores u, u,, u r Ejemplo 7 Supongamos que A R y que A = UΣV T es DVS de A Sean u y u la primera y segunda columna de U, y σ y σ el primer y segundo vs de A Entonces, la imagen de la circunsferencia unitaria S R a través de la transformación T (x) = Ax depende del rango de A de la siguiente forma: si rango(a) =, A es la matriz nula y T (S ) = {} Si rango(a) =, σ >, σ = y { T (S ) = z R : z = w u + w u, w σ es el segmento de extremos P = σ u, P = σu Si rango(a) =, σ σ >, y { T (S ) = z R : z = w u + w u, w σ + w σ }, w = = { z R } : z = tu, σ t σ, } =, resulta una elipse con centro en el origen, eje mayor de longitud σ contenido en la recta generada por u y eje menor de longitud σ contenido en la recta u (Figura ) Ejemplo 8 Supongamos ahora que A R y que A = UΣV T es DVS de A Sea U = u u u y σ, σ, σ los vs de A Entonces tenemos las siguientes posibilidades para la imagen de la esfera unitaria S R a través de la transformación T (x) = Ax: 4

15 5 T(S ) x σ u 5 5 x σ u Figura : T (S ) caso rango si rango(a) =, A es la matriz nula y T (S ) = {} Si rango(a) =, σ >, σ = σ = y la imagen de es el conjunto { T (S ) = z R : z = w u + w u + w u, w σ = { z R } : z = tu, σ t σ, que es el segmento de extremos P = σ u, P = σu Si rango(a) =, σ σ >, σ = y { T (S ) = z R : z = w u + w u + w u, w σ + w σ }, w = w = } ; w =, es la superficie contenida en el plano generado por u y u (que es col(a)), que contiene al origen y está limitada por la elipse centrada en el origen, cuyo eje mayor tiene longitud σ y está contenido en la recta generada por u y su eje menor, contenido en la recta u, tiene longitud σ (Figura ) 4 Finalmente, si rango(a) =, σ σ σ > y T (S ) = { z R : z = w u + w u + w u, w σ + w σ + w σ } =, resulta un elipsoide centrado en el origen, con ejes de longitudes σ, σ y σ contenidos en la rectas generadas por u, u y u, respectivamente (Figura ) 5

16 4 col(a) σ u T(S ) u σ u Figura : T (S ) caso rango T(S ) σ u σ u σ u Figura : T (S ) caso rango 6

6.8. Descomposición mediante valores singulares. v 2 =

6.8. Descomposición mediante valores singulares. v 2 = 68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx

Más detalles

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica 6.6 Diagonalización de matrices simétricas o hermitianas Ejemplo de una diagonalización de una matriz simétrica Matrices hermitianas Los autovalores de las matrices reales simétricas o complejas hermitianas

Más detalles

Clase 7 Herramientas de Álgebra Lineal

Clase 7 Herramientas de Álgebra Lineal Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es

Más detalles

6.7. Clasificación de formas cuadráticas

6.7. Clasificación de formas cuadráticas 6.7 Clasificación de s s 1.1. Definición de s s en R n El concepto básico que sirve para definir una es el de polinomio homogéneo de segundo grado en varias variables. En toda esta sección sobreentenderemos

Más detalles

Podemos pues formular los dos problemas anteriores en términos de matrices.

Podemos pues formular los dos problemas anteriores en términos de matrices. Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión

Más detalles

Descomposición en Valores singulares(svd)

Descomposición en Valores singulares(svd) Descomposición en Valores singulares(svd) Año 200 Referencias [] R.L. Burden, J.Douglas Faires, Análisis Numérico, Grupo Editorial Iberoamericana, México, 985. [2] J. Demmel, Applied Numerical Linear Algebra,

Más detalles

Descomposición en valores singulares de una matriz

Descomposición en valores singulares de una matriz Descomposición en valores singulares de una matriz Estas notas están dedicadas a demostrar una extensión del teorema espectral conocida como descomposición en valores singulares (SVD en inglés) de gran

Más detalles

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios 61 Matemáticas I : Álgebra Lineal Tema 6 Diagonalización 61 Valores y vectores propios 611 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial

Más detalles

Tema 2: Diagonalización

Tema 2: Diagonalización TEORÍA DE ÁLGEBRA II: Tema 2. DIPLOMATURA DE ESTADÍSTICA 1 Tema 2: Diagonalización 1 Introducción Sea f : R n R n lineal. Dada una base B de R n podemos asociar a f la matriz A 1 = [f, B] M n. Si C es

Más detalles

ÁLGEBRA Algunas soluciones a la Práctica 4

ÁLGEBRA Algunas soluciones a la Práctica 4 ÁLGEBRA Algunas soluciones a la Práctica 4 Equivalencia de matrices. Sistemas de ecuaciones Curso 28 29 2. Existen dos matrices de igual dimensión que tengan el mismo rango pero no sean ni equivalentes

Más detalles

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t). Universidade de Vigo Departamento de Matemática Aplicada II E.T.S.I. Minas Álgebra Convocatoria de enero de 20 de enero de 20 (2.5 p.) ) Se considera la aplicación lineal f : R 4 R definida por: f(x y

Más detalles

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2 68 Matemáticas I : Álgebra Lineal Tema 7 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado, pues el cuadrado

Más detalles

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( ) MATRICES Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. Ejemplo 1. Algunos ejemplos de matrices ( + ( ) ( + ( ) El tamaño o el orden de una

Más detalles

Aplicaciones Lineales. Diagonalización de matrices.

Aplicaciones Lineales. Diagonalización de matrices. Tema 2 Aplicaciones Lineales. Diagonalización de matrices. 2.1. Definiciones y propiedades Nota 2.1.1. En este tema trabajaremos con los Espacios Vectoriales R n y R m definidos sobre el cuerpo R. Definición

Más detalles

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 2011 2012) 2. Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí.

Más detalles

Algebra lineal de dimensión finita

Algebra lineal de dimensión finita Algebra lineal de dimensión finita Métodos para calcular autovalores Pseudoinversa Algebra lineal númerica 1 Teorema:[Teorema 1.6] Sea A es una matriz real simétrica. Si Q(x) =< Ax, x > entonces: λ 1 =

Más detalles

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas... Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................

Más detalles

Tema 11.- Autovalores y Autovectores.

Tema 11.- Autovalores y Autovectores. Álgebra 004-005 Ingenieros Industriales Departamento de Matemática Aplicada II Universidad de Sevilla Tema - Autovalores y Autovectores Definición, propiedades e interpretación geométrica La ecuación característica

Más detalles

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular

Más detalles

Espacios vectoriales reales.

Espacios vectoriales reales. Tema 3 Espacios vectoriales reales. 3.1 Espacios vectoriales. Definición 3.1 Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre

Más detalles

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Ingeniería Matemática - Universidad de Chile Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 8-7 Formas cuadráticas SEMANA 4: FORMAS CUADRÁTICAS 7 Formas cuadráticas y matrices definidas positivas

Más detalles

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con

Más detalles

Capítulo 2. Determinantes Introducción. Definiciones

Capítulo 2. Determinantes Introducción. Definiciones Capítulo 2 Determinantes 2.1. Introducción. Definiciones Si nos centramos en la resolución de un sistema A x = b con A una matriz n n, podemos calcular A 1 y la resolución es inmendiata. El problema es

Más detalles

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2. Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané

Más detalles

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados Capítulo 5 Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados En este tema iniciamos el estudio de los conceptos geométricos de distancia y perpendicularidad en K n. Empezaremos con las definiciones

Más detalles

Tema 5: Diagonalización de matrices: Apéndice

Tema 5: Diagonalización de matrices: Apéndice Tema : Diagonalización de matrices: Apéndice Más aplicaciones de la diagonalización. Diagonalización de matrices simétricas reales Tiene especial interés la diagonalización de matrices simétricas. Supongamos

Más detalles

Apéndice sobre ecuaciones diferenciales lineales

Apéndice sobre ecuaciones diferenciales lineales Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 2 Determinante wronskiano. Wronskiano de f 1 (t), f 2 (t),..., f n (t). Derivada de un determinante de funciones.

Más detalles

ÁLGEBRA LINEAL II Algunas soluciones a la práctica 2.3

ÁLGEBRA LINEAL II Algunas soluciones a la práctica 2.3 ÁLGEBRA LINEAL II Algunas soluciones a la práctica 2. Transformaciones ortogonales (Curso 2010 2011) 1. Se considera el espacio vectorial euclídeo IR referido a una base ortonormal. Obtener la expresión

Más detalles

ÁLGEBRA LINEAL. EXAMEN FINAL 18 de Enero de b) (0, 5 puntos) Estudia si la siguiente afirmación es verdadera o falsa, justificando

ÁLGEBRA LINEAL. EXAMEN FINAL 18 de Enero de b) (0, 5 puntos) Estudia si la siguiente afirmación es verdadera o falsa, justificando ÁLGEBRA LINEAL EXAMEN FINAL 8 de Enero de Apellidos y Nombre: Duración del examen: 3 horas Publicación de notas: enero Revisión de Examen: feb Ejercicio. ( puntos a (, puntos Estudia si la siguiente afirmación

Más detalles

Diagonalización de matrices

Diagonalización de matrices 7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,

Más detalles

Geometría afín y proyectiva, 2016 SEMANA 4

Geometría afín y proyectiva, 2016 SEMANA 4 Geometría afín y proyectiva, 2016 SEMANA 4 Sonia L. Rueda ETS Arquitectura. UPM September 30, 2016 Geometría afín y proyectiva 1. Álgebra Lineal 2. Geometría afín y eucĺıdea 3. Cónicas y cuádricas Álgebra

Más detalles

APÉNDICE A. Algebra matricial

APÉNDICE A. Algebra matricial APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos

Más detalles

x, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4.

x, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4. 1 Tema 2. Sección 1. Espacio vectorial de Minkowski. Manuel Gutiérrez. Departamento de Álgebra, Geometría y Topología. Universidad de Málaga. 29071-Málaga. Spain. Abril de 2010. En este capítulo se recordará

Más detalles

Vectores y Valores Propios

Vectores y Valores Propios Capítulo 11 Vectores y Valores Propios Las ideas de vector y valor propio constituyen conceptos centrales del álgebra lineal y resultan una valiosa herramienta en la solución de numerosos problemas de

Más detalles

58 7. ESPACIOS COCIENTE

58 7. ESPACIOS COCIENTE CAPíULO 7 Espacios cociente En esta sección estudiamos el cociente de un espacio vectorial por un subespacio W. Este cociente se define como el conjunto cociente de por una relación de equivalencia conveniente.

Más detalles

TEMA III: DIAGONALIZACIÓN.

TEMA III: DIAGONALIZACIÓN. TEMA III: DIAGONALIZACIÓN. OBJETIVOS: Generales: 1. Captar el motivo que justifica el problema de la diagonalización de endomorfismos. 2. Resolver y aplicar dicho problema cuando sea posible. Específicos:

Más detalles

Álgebra Lineal. Tema 6. Transformaciones lineales y matrices

Álgebra Lineal. Tema 6. Transformaciones lineales y matrices Álgebra Lineal Tema 6. Transformaciones lineales y matrices Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S.

Más detalles

Dualidad. 1. Dual de una transformación lineal

Dualidad. 1. Dual de una transformación lineal CAPíTULO 8 Dualidad 1. Dual de una transformación lineal En este capítulo volveremos a considerar el tema de la dualidad de espacios vectoriales. Se recuerda que si V es un espacio vectorial, definimos

Más detalles

Autovalores y autovectores Diagonalización y formas canónicas

Autovalores y autovectores Diagonalización y formas canónicas Autovalores y autovectores Diagonalización y formas canónicas Autovalores y autovectores.propiedades Sea V un espacio vectorial sobre K y f End(V ). Fijada una base de V, existirá una matriz cuadrada A,

Más detalles

Sistemas de Ecuaciones Lineales y Matrices

Sistemas de Ecuaciones Lineales y Matrices Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una

Más detalles

Descomposición en forma canónica de Jordan (Segunda versión)

Descomposición en forma canónica de Jordan (Segunda versión) Descomposición en forma canónica de Jordan (Segunda versión) Francisco J. Bravo S. 1 de septiembre de 211 En esta guía se presentan los resultados necesarios para poder construir la forma de Jordan sin

Más detalles

Deducción de las fórmulas del método del gradiente conjugado

Deducción de las fórmulas del método del gradiente conjugado Deducción de las fórmulas del método del gradiente conjugado Objetivos. Demostrar el teorema sobre los subespacios de Krylov en el método del gradiente conjugado. Requisitos. Subespacios generados por

Más detalles

Descomposición SVD. Luciano A. Perez. 10 de septiembre de 2015

Descomposición SVD. Luciano A. Perez. 10 de septiembre de 2015 Descomposición SVD Luciano A. Perez 1 de septiembre de 15 1. Introducción 1.1. La Descomposición Sean n,m N, y sea A C m n ; una descomposición en valores singulares (o SVD) de A es una factorización donde:

Más detalles

Matrices. Álgebra de matrices.

Matrices. Álgebra de matrices. Matrices. Álgebra de matrices. 1. Definiciones generales Definición 1.1 Si m y n son dos números naturales, se llama matriz de números reales de orden m n a una aplicación A : {1, 2, 3,..., m} {1, 2, 3,...,

Más detalles

Matrices. Operaciones con matrices.

Matrices. Operaciones con matrices. Matrices. Operaciones con matrices. Ejercicio. Dadas las matrices ( ) ( ) 4 A = B = ( ) C = D = 4 5 ( ) 4 E = F = seleccione las que se pueden sumar y súmelas. Ejercicio. Dadas las matrices ( ) ( ) A =

Más detalles

Clase 8 Matrices Álgebra Lineal

Clase 8 Matrices Álgebra Lineal Clase 8 Matrices Álgebra Lineal Código Escuela de Matemáticas - Facultad de Ciencias Universidad Nacional de Colombia Matrices Definición Una matriz es un arreglo rectangular de números denominados entradas

Más detalles

1.2. Producto escalar, longitud y distancia

1.2. Producto escalar, longitud y distancia 22 Cálculo vectorial 27. Si PQR es un triángulo en el espacio y b > 0 es un número, existe un triángulo con lados paralelos a los de PQR y con longitudes b multiplicado por las longitudes de PQR. 28. Las

Más detalles

Matrices, determinantes y sistemas de ecuaciones lineales

Matrices, determinantes y sistemas de ecuaciones lineales Matrices, determinantes y sistemas de ecuaciones lineales David Ariza-Ruiz 10 de octubre de 2012 1 Matrices Una matriz es una tabla numérica rectangular de m filas y n columnas dispuesta de la siguiente

Más detalles

Espacios vectoriales con producto escalar

Espacios vectoriales con producto escalar 147 Fundamentos de Matemáticas : Álgebra Lineal Capítulo 10 Espacios vectoriales con producto escalar 10.1 Producto escalar. Norma. Distancia Definición 71.- Un producto escalar o producto interior en

Más detalles

Capítulo 1: Diagonalización de matrices

Capítulo 1: Diagonalización de matrices Capítulo : Diagonalización de matrices Matrices y determinantes Definición Una matriz es un arreglo rectangular de números reales a a a m a A a a m a n a n a nm La matriz es de orden n m si consta de n

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos.

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos. Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada

Más detalles

520142: ALGEBRA y ALGEBRA LINEAL

520142: ALGEBRA y ALGEBRA LINEAL 520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición

Más detalles

Conjuntos de Vectores y Matrices Ortogonales

Conjuntos de Vectores y Matrices Ortogonales Conjuntos de Vectores y Matrices Ortogonales Departamento de Matemáticas, CCIR/ITESM 28 de junio de 2011 Índice 21.1.Introducción............................................... 1 21.2.Producto interno............................................

Más detalles

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 010 011). Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí. Demostrar

Más detalles

PAIEP. Complemento Ortogonal

PAIEP. Complemento Ortogonal Programa de Acceso Inclusivo, Equidad y Permanencia PAIEP Universidad de Santiago de Chile Complemento Ortogonal Veamos ahora una aplicación de los vectores ortogonales a la caracterización de subespacios

Más detalles

Capítulo 9: Diagonalización de matrices

Capítulo 9: Diagonalización de matrices Capítulo 9: Diagonalización de matrices 1. Lección 33. Transformaciones lineales Del mismo modo que el estudio de las funciones usuales es importante para analizar las relaciones y la evolución de magnitudes

Más detalles

Matemática 2. Clase práctica de coordenadas y cambio de base

Matemática 2. Clase práctica de coordenadas y cambio de base atemática Clase práctica de coordenadas y cambio de base Nota iren este apunte por su cuenta y consulten las dudas que les surjan Ya pueden terminar la práctica Coordenadas en espacios vectoriales de dimensión

Más detalles

Algebra lineal y conjuntos convexos

Algebra lineal y conjuntos convexos Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar

Más detalles

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices Matrices Una matriz de orden m n es un conjunto ordenado de m n números reales dispuestos en m filas y n columnas de la forma: A = a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n a i1 a i2 a ij a in a m1 a m2

Más detalles

ALGEBRA. Escuela Politécnica Superior de Málaga

ALGEBRA. Escuela Politécnica Superior de Málaga ALGEBRA. Escuela Politécnica Superior de Málaga Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Espacio vectorial. Espacios vectoriales R n. Dependencia e independencia lineal. Base. Matrices y determinantes.

Más detalles

Valores y Vectores Propios

Valores y Vectores Propios Valores y Vectores Propios Iván Huerta Facultad de Matemáticas Pontificia Universidad Católica de Chile ihuerta@mat.puc.cl Segundo Semestre, 1999 Definición Valores y Vectores Propios Valores y Vectores

Más detalles

ALGEBRA LINEAL Y GEOMETRÍA. REPASO DE ÁLGEBRA LINEAL-2: CAMBIOS DE BASE GRADO DE MATEMÁTICAS. CURSO

ALGEBRA LINEAL Y GEOMETRÍA. REPASO DE ÁLGEBRA LINEAL-2: CAMBIOS DE BASE GRADO DE MATEMÁTICAS. CURSO ALGEBRA LINEAL Y GEOMETRÍA. REPASO DE ÁLGEBRA LINEAL-2: CAMBIOS DE BASE GRADO DE MATEMÁTICAS. CURSO 2012-2013 José García-Cuerva Universidad Autónoma de Madrid 11 de febrero de 2013 JOSÉ GARCÍA-CUERVA

Más detalles

6 Vectores. Dependencia e independencia lineal.

6 Vectores. Dependencia e independencia lineal. 6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar

Más detalles

Conjuntos y matrices. Sistemas de ecuaciones lineales

Conjuntos y matrices. Sistemas de ecuaciones lineales 1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución

Más detalles

Grado en Edificación MATERIAL DOCENTE: PRESENTACIÓN DEL TEMA III. Ana Isabel Garralda Guillem y Manuel Ruiz Galán

Grado en Edificación MATERIAL DOCENTE: PRESENTACIÓN DEL TEMA III. Ana Isabel Garralda Guillem y Manuel Ruiz Galán MATEMÁTICAS TICAS I Grado en Edificación MATERIAL DOCENTE: PRESENTACIÓN DEL TEMA III Ana Isabel Garralda Guillem y Manuel Ruiz Galán Tema. Diagonalización de matrices.1. Diagonalización de matrices por

Más detalles

MATRICES Y DETERMINANTES MATRIZ INVERSA

MATRICES Y DETERMINANTES MATRIZ INVERSA Índice Presentación... 3 Determinante de una matriz... 4 Determinante de matrices de orden 2 y 3... 5 Determinante de una matriz... 6 Ejemplo... 7 Propiedades del cálculo de determinantes... 8 Matriz inversa...

Más detalles

V = v 1 +2v 2 +3v 3. v 2. v 1

V = v 1 +2v 2 +3v 3. v 2. v 1 Coordenadas Hay muchas maneras de darle coordenadas a los puntos del espacio, las ecuaciones de las curvas o superficies dependen de las coordenadas que utilicemos y eligiendo las coordenadas adecuadas

Más detalles

Tema 4: Espacio vectorial euclídeo

Tema 4: Espacio vectorial euclídeo Tema 4: Espacio vectorial euclídeo 1. Definición de producto escalar Un producto escalar en un R-espacio vectorial es una operación en la que se operan vectores y el resultado es un número real, y que

Más detalles

Diagonalización simultánea de formas cuadráticas.

Diagonalización simultánea de formas cuadráticas. Diagonalización simultánea de formas cuadráticas Lucía Contreras Caballero 14-4-2004 Dadas dos formas cuadráticas, si una de ellas es definida positiva, se puede encontrar una base en la que las dos diagonalizan

Más detalles

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Ingeniería Matemática - Universidad de Chile Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial

Más detalles

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n ) Tema 3 Formas cuadráticas. 3.1. Definición y expresión matricial Definición 3.1.1. Una forma cuadrática sobre R es una aplicación q : R n R que a cada vector x = (x 1, x 2,, x n ) R n le hace corresponder

Más detalles

Factorización de rango completo y aplicaciones

Factorización de rango completo y aplicaciones XXI Congreso de Ecuaciones Diferenciales y Aplicaciones XI Congreso de Matemática Aplicada Ciudad Real, 21-25 septiembre 2009 (pp. 1 8) Factorización de rango completo y aplicaciones R. Cantó 1, B. Ricarte

Más detalles

Tema 6: Diagonalización de matrices

Tema 6: Diagonalización de matrices Tema 6: Diagonalización de matrices La intención en este tema es, dada una matriz cuadrada, ver si existe otra matriz semejante a ella que sea diagonal. Recordemos del Tema 4 que dos matrices cuadradas

Más detalles

Tema I. Capítulo 5. Equivalencia, congruencia y semejanza de matrices.

Tema I. Capítulo 5. Equivalencia, congruencia y semejanza de matrices. 5 Equivalencia, congruencia y semejanza de matrices 1 Equivalencia de matrices por filas 11 Definición y propiedades Definición 11 Dos matrices A, B M m n se dicen equivalentes por filas o equivalentes

Más detalles

1 CÓNICAS Cónicas. Estudio particular. 1 x y. 1 x y. a 00 a 01 a 02 a 10 a 11 a 12 a 20 a 21 a 22

1 CÓNICAS Cónicas. Estudio particular. 1 x y. 1 x y. a 00 a 01 a 02 a 10 a 11 a 12 a 20 a 21 a 22 CÓNICAS. CÓNICAS.. Cónicas. Estudio particular. Una cónica se dene como el lugar geométrico de los puntos del plano euclídeo que, respecto de una referencia cartesiana rectangular, satisfacen una ecuación

Más detalles

ap l i c a c i o n e s d e l a s

ap l i c a c i o n e s d e l a s Unidad 9 ap l i c a c i o n e s d e l a s transformaciones lineales Objetivos: Al inalizar la unidad, el alumno: Relacionará algunas transformaciones especiales con movimientos geométricos de vectores

Más detalles

Diagonalización de matrices, Semejanza.

Diagonalización de matrices, Semejanza. diagonalizacion.nb 1 Diagonalización de matrices, Semejanza. Practica 8, 28 de abril de 2004 En esta práctica aprenderemos/repasaremos los comandos: Eigenvalues[ matriz ] Calcula los autovalores de una

Más detalles

ÁLGEBRA LINEAL Problemas, 2006/2007

ÁLGEBRA LINEAL Problemas, 2006/2007 ÁLGEBRA LINEAL Problemas, 2006/2007 Nota: si no se especifíca lo contrario suponemos que las matrices y espacios vectoriales están definidos sobre un cuerpo K arbitrario 1 Una matriz A de orden n n se

Más detalles

EJERCICIOS DE ÁLGEBRA LINEAL TEMA 3 ESPACIOS EUCLÍDEOS

EJERCICIOS DE ÁLGEBRA LINEAL TEMA 3 ESPACIOS EUCLÍDEOS EJERCICIOS DE ÁLGEBRA LINEAL TEMA 3 ESPACIOS EUCLÍDEOS ESPACIOS EUCLÍDEOS ) a) Decir cuál de las siguientes aplicaciones de x de no definir un producto escalar comprobar el axioma que falla: a ) x' x,y,

Más detalles

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21 Espacios Vectoriales AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21 Objetivos Al finalizar este tema tendrás que: Saber si unos vectores son independientes.

Más detalles

MATRICES DETERMINANTES

MATRICES DETERMINANTES MATRICES Y DETERMINANTES INTRODUCCIÓN, MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de

Más detalles

CLASIFICACIÓN AFÍN DE CÓNICAS

CLASIFICACIÓN AFÍN DE CÓNICAS Álgebra lineal y Geometría I Gloria Serrano Sotelo Departamento de MATEMÁTICAS CLASIFICACIÓN AFÍN DE CÓNICAS Sea E un R-espacio vectorial de dimensión. Sean E = e 1, e un plano vectorial de E y e 0 un

Más detalles

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos Tema 3: Repaso de Álgebra Lineal Parte I Virginia Mazzone Contenidos Vectores y Matrices Bases y Ortonormailizaciòn Norma de Vectores Ecuaciones Lineales Algenraicas Ejercicios Vectores y Matrices Los

Más detalles

dx = x El tensor x/ X se denomina tensor gradiente de la deformación F = x

dx = x El tensor x/ X se denomina tensor gradiente de la deformación F = x Capítulo 2 Cinemática El desarrollo de las expresiones contenidas en este capítulo se lleva a cabo en un sistema de referencia general cartesiano {I 1 I 2 I 3 }. La notación es, con algunas diferencias,

Más detalles

Tema 5: Diagonalización de matrices

Tema 5: Diagonalización de matrices Tema : Diagonalización de matrices La intención en este tema es, dada una matriz cuadrada, ver si existe otra matriz semejante a ella que sea diagonal. Recordemos del Tema 4 que dos matrices cuadradas

Más detalles

VECTORES EN EL ESPACIO

VECTORES EN EL ESPACIO UNIDAD VECTORES EN EL ESPACIO Página 13 Problema 1 Halla el área de este paralelogramo en función del ángulo α: cm Área = 8 sen α = 40 sen α cm α 8 cm Halla el área de este triángulo en función del ángulo

Más detalles

Rango de una matriz. Jana Rodriguez Hertz GAL 1. 2 de abril de 2013 IMERL

Rango de una matriz. Jana Rodriguez Hertz GAL 1. 2 de abril de 2013 IMERL Rango de una matriz Jana Rodriguez Hertz GAL IMERL 2 de abril de 203 rango rango recordemos: rango si A = {A, A 2,..., A n } conjunto de vectores de K n llamamos rango(a) a la máxima cantidad de vectores

Más detalles

6.14 Descomposición ortogonal y proyección ortogonal

6.14 Descomposición ortogonal y proyección ortogonal CAPÍTULO. ESPACIO EUCLÍDEO CANÓNICO IR N 282.14 Descomposición ortogonal y proyección ortogonal El resultado W W = IR n, significa que cada y IR n se puede escribir de forma única como suma de un vector

Más detalles

Cónicas. Clasificación.

Cónicas. Clasificación. Tema 7 Cónicas. Clasificación. Desde el punto de vista algebraico una cónica es una ecuación de segundo grado en las variables x, y. De ese modo, la ecuación general de una cónica viene dada por una expresión

Más detalles

ALGEBRA. Escuela Politécnica Superior de Málaga

ALGEBRA. Escuela Politécnica Superior de Málaga ALGEBRA. Escuela Politécnica Superior de Málaga Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Espacio vectorial. Espacios vectoriales R n. Dependencia e independencia lineal. Base. Matrices y determinantes.

Más detalles

Apéndice sobre ecuaciones diferenciales lineales

Apéndice sobre ecuaciones diferenciales lineales Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 1. Determinante wronskiano 2 1.1. Wronskiano de f 1 (t), f 2 (t),..., f n (t)............... 3 1.2. Derivada

Más detalles

Semana 14 [1/19] Polinomios. 8 de junio de Polinomios

Semana 14 [1/19] Polinomios. 8 de junio de Polinomios Semana 14 [1/19] 8 de junio de 2007 División Semana 14 [2/19] Teorema de la División Al ser (K[x], +, ) un anillo, ocurre un fenómeno similar al de : Las divisiones deben considerar un posible resto. Teorema

Más detalles

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico.

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico. Tema 1: Matrices El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico. 1. Terminología Comenzamos con la definición de matriz

Más detalles

Proyección ortogonal y mínimos cuadrados

Proyección ortogonal y mínimos cuadrados Proyección ortogonal y mínimos cuadrados Profesores Omar Darío Saldarriaga Ortíz Iván Dario Gómez Hernán Giraldo 2009 Definición (Proyección ortogonal sobre un vector) Sean a y b vectores en R n, definimos

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Tema 1 Sistemas de ecuaciones lineales 11 Definiciones Sea K un cuerpo Una ECUACIÓN LINEAL CON COEFICIENTES EN K es una expresión del tipo a 1 x 1 + + a n x n = b, en la que n es un número natural y a

Más detalles

1. Matrices no negativas

1. Matrices no negativas 1. Matrices no negativas Cuando A posee al menos un coeficiente nulo y el resto no negativos, puede ocurrir que algunas de las propiedades probadas no se sigan cumpliendo. Ejemplo 1.1 Si A = ( 0 1 0 0

Más detalles

Sesión 18: Diagonalización (I) Método práctico para diagonalizar una matriz cuadrada A M nxn K

Sesión 18: Diagonalización (I) Método práctico para diagonalizar una matriz cuadrada A M nxn K Sesión 8: Diagonalización (I) Método práctico para diagonalizar una matriz cuadrada A M nxn K ) Calculamos los valores propios de A y sus multiplicidades algebraicas con: d A λ = det A λi nxn = Si d A

Más detalles

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:

Más detalles

ELEMENTOS DE GEOMETRÍA. Eduardo P. Serrano

ELEMENTOS DE GEOMETRÍA. Eduardo P. Serrano ELEMENTOS DE GEOMETRÍA Eduardo P. Serrano Este Apunte de Clase está dirigido a los alumnos de la materia Elementos de Cálculo Numérico para Biólogos. Tiene por objeto exponer algunos conceptos básicos

Más detalles