Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)
|
|
- Elvira Vidal Herrera
- hace 7 años
- Vistas:
Transcripción
1 Valores Singulares Descomposición en valores singulares Notas para los cursos y (JL Mancilla Aguilar) Tanto los valores singulares como la descomposición en valores singulares de una matriz son conceptos de gran utilidad en las aplicaciones del álgebra lineal a diversos problemas prácticos y teóricos A continuación definiremos el concepto de valor singular de una matriz Dada una matriz A R m n, la matriz A T A es simética, pues (A T A) T = A T (A T ) T = A T A, y semidefinida positiva, ya que x T A T Ax = (Ax) T (Ax) = Ax x R n Por lo tanto los autovalores de A T A son reales y no negativos Definición Sea A R m n Sean λ, λ,, λ n los autovalores de A T A ordenados en forma decreciente, es decir, λ λ λ n Entonces σ i = λ i es el i-ésimo valor singular de A El primer y el último valor singular de una matriz proporcionan la siguiente información Proposición Sea A R m n Entonces, si σ y σ n son, respectivamente, el mayor y el menor valor singular de A, se tiene que máx Ax = σ y mín Ax = σ n x = x = Demostración Sean λ y λ n el máximo y el mínimo autovalor de A T A, respectivamente Entonces, por Rayleigh, máx x = xt (A T A)x = σ y mín x = xt (A T A)x = σ n Luego σ = λ = máx x = xt (A T A)x = máx Ax = máx Ax, x = x = valiendo la primera igualdad por la definición de valor singular, la segunda por Rayleigh, la tercera por la igualdad x T (A T A)x = Ax y por ser la función η(t) = t monótona creciente en, ) (si η es una función escalar monótona creciente sobre la imagen de f(x) entonces η(máx f(x)) = máx η(f(x)) y η(mín f(x)) = mín η(f(x)) ) En forma similar se prueba que mín x = Ax = σ n Como corolario de la Proposición resultan las desigualdades σ n x Ax σ x x R n,
2 que acotan superior e inferiormente la magnitud de Ax en función de la magnitud de x En efecto, si x = las desigualdades son obviamente ciertas Si x tenemos que v = x/ x es unitario y por lo tanto σ n Av σ Pero Av = Ax / x, con lo cual σ n Ax x σ = σ n x Ax σ x El siguiente resultado será clave para la construcción de la descomposición en valores singulares de una matriz Recordemos que toda matriz simétrica n n con coeficientes reales es diagonalizable ortogonalmente, o, lo que es equivalente, existe una bon de R n compuesta por autovectores de ella Teorema Sea A R m n Supongamos que λ, λ,, λ n son los autovalores de A T A y que λ λ λ r > λ r+ = = λ n =, en otras palabras, los autovalores de A T A están ordenados en forma decreciente y el número de autovalores no nulos es r Sea {v,, v n } una bon de R n tal que A T Av i = λ i v i Entonces {Av,, Av n } es un conjunto ortogonal y Av i = λ i = σ i para todo i =,, n; { Av σ,, Avr σ r } es bon de col(a); {v r+,, v n } es bon de Nul(A); 4 rango(a) = r = número de vs no nulos de A Demostración Respecto del primer punto, como (Av i, Av j ) = (Av i ) T (Av j ) = v T i (A T Av j ) = v T i (λ j v j ) = λ j (v T i v j ) = { λ j i = j i j, entonces Av i Av j si i j y Av i = λ i = σ i para i =,, n Respecto del punto, como por el punto el conjunto { Av σ,, Avr σ r } es ortonormal, basta probar que éste genera el espacio columna de A Para ello alcanza con ver que gen{av,, Av r } = col(a) Consideremos la transformación lineal T : R n R m, T (x) = Ax Tenemos por un lado que Im(T ) = col(a) Por otra parte, como {v,, v n } es base de R n y T (v i ) = Av i, col(a) = Im(T ) = gen{av,, Av n } = gen{av,, Av r }, la última igualdad debida al punto, ya que Av i = λ i = si i r + El punto 4 es inmediato del ya que el rango de A es la dimensión del espacio columna de la matriz y ésta es r, que por otra parte es el número de autovalores no nulos de A T A, el cual coincide con el número de vs no nulos de A Finalmente el punto resulta del hecho que {v r+,, v n } es un conjunto ortonormal, que Av i = para todo i r + y que dim(nul(a)) = n r
3 Ejemplo Consideremos la matriz Como A = A T A = y sus autovalores son λ = 6, λ = 9 y λ =, tenemos que los vs de A son σ = 6 = 6, σ = 9 = σ = Notamos que el rango de A es y que hay exactamente vs no nulos como informa el Teorema Busquemos ahora una bon de R compuesta por autovectores de A T A Como S λ = gen B = {v, v, v }, con, v = S λ = gen, v = es una de tales bases Calculemos Av i para i =,,, 8 Av =, Av 6 = 9, y S λ = gen y v = y Av =,, Notamos que Av i Av j si i j y que Av i = σ i para i =,, En particular {v } es bon de Nul(A) y { Av σ, Av σ } es bon de col(a), que en este caso coincide con R Descomposición en valores singulares En lo que sigue definiremos lo que se conoce como descomposición en valores singulares (DVS) de una matriz Definición Sea A R m n Una descomposición en valores singulares de A es una factorización A = U Σ V T con U R m m y V R n n ortogonales y Σ R m n con σ D Σ = r (n r) σ y D = (m r) r (m r) (n r) con σ σ σ r > σ r k l representa la matriz k l cuyos coeficientes son nulos
4 Notar que si A = U Σ V T es una DVS de A, con Σ como en la Definición, y v i y u i son las i-ésimas columnas de V y U respectivamente, entonces es fácil ver que A puede ser escrita en la forma A = σ u v T + σ u v T + + σ r u r v T r, donde cada una de las matrices u i v T i es de rango Definición Si A = U Σ V T es una DVS de A, a los vectores que aparecen como columnas de la matriz V se los denomina vectores singulares derechos de A mientras que a los que aparecen como columnas de U se los denomina vectores singulares izquierdos de A El siguiente teorema nos dice que toda matriz admite una DVS Teorema Sea A R m n Entonces existe un descomposición en valores singulares de A Demostración Sean λ,, λ n los autovalores de A T A Supongamos que están ordenados en forma decreciente y que exactamente r de ellos son no nulos (r podría ser n) Sea {v, v,, v n } una bon de R n tal que A T Av i = λ i v i para todo i =,, n Definimos V = v v v n, que es ortogonal, y σ D Σ = r (n r) σ con D = (m r) r (m r) (n r) donde σ i = λ i σ r Con el objeto de definir U, consideremos los vectores u = Av σ, u = Av σ,, u r = Av r σ r Entonces, de acuerdo con el Teorema, el conjunto {u,, u r } es ortonormal Si r < m buscamos vectores u r+,, u m de modo tal que {u,, u m } sea bon de R m Luego definimos U = u u u m que es una matriz ortogonal Veamos ahora que A = U Σ V T Por un lado AV = Av Av n = σ u σ r u r ya que Av i = σ i u i para i =,, r por la definición de los vectores u i y Av i = para i = r +,, n por el Teorema Por otro lado σ σ U Σ = u u u m σ r = σ u σ r u r Por lo tanto, AV = U Σ Teniendo en cuenta que V = V T, llegamos a la igualdad A = U ΣV T 4
5 Observación La demostración del Teorema nos da un método para construir una DVS de una matriz A Método que podemos resumir de la siguiente manera Sea A R m n Calcular los autovalores de A T A y ordenarlos de mayor a menor: λ λ λ n Hallar una bon {v,, v n } de R n tal que A T Av i = λ i v i, i =,, n Calcular los vs de A, σ i = λ i 4 Si r es el número de vs de A no nulos, es decir, σ r > y σ i = para todo i r +, definir u = Av, u = Av,, u r = Av r σ σ σ r 5 Si r < m, hallar u r+,, u m tales que {u,, u m } sea bon de R m 6 Definir las matrices V = v v v n, U = u u u n y Σ = D r (n r) con D = (m r) r (m r) (n r) σ σ σ r ; 7 Entonces A = U Σ V T es una DVS de A Ejemplo Consideremos la matriz A del Ejemplo Los autovalores de A T A son λ = 6, λ = 9 y λ = y los vs, B = {v, v, v } con σ = 6 = 6, σ = 9 = σ = v =, v = y v =, es bon de R y A T Av i = λ i v i Como hay dos vs no nulos, calculamos u = Av σ = y u = Av σ = Como {u, u } es bon de R, no hace falta completar el conjunto Ahora definimos V =, U = y tenemos que A = U Σ V T es una DVS de A y Σ = 6, 5
6 Notamos que en la construcción de la DVS de A que hicimos en la demostración del Teorema, los elementos no nulos que aparecen en la diagonal principal de Σ son los vs no nulos de A y que las columnas de V, es decir, los vectores singulares derechos que utilizamos, son autovectores de A T A El siguiente resultado dice que lo anterior siempre ocurre, independientemente de la forma en que la DVS haya sido obtenida Teorema Sea A R m n y sea A = U Σ V T una DVS de A Supongamos que σ D Σ = r (n r) σ y D = (m r) r (m r) (n r) σ r con σ σ σ r > Entonces σ,, σ r son los vs no nulos de A; Si V = v v n, {v,, v n } es una bon de R n tal que A T Av i = σ i v i si i =,, r y A T Av i = si i = r +,, n; Si U = u u m, Av i = σ i u i para i =,, r y Av i = para i = r +,, n Demostración Como A = U Σ V T tenemos que A T A = (U Σ V T ) T (U Σ V T ) = V (Σ T Σ)V T Pero Σ T Σ es la matriz n n Σ T Σ = σ σ σr Por lo tanto A = V (Σ T Σ)V T es una diagonalización ortogonal de A T A En consecuencia, λ = σ, λ = σ,, λ r = σ r, son los autovalores no nulos de A T A ordenados en forma decreciente Por lo tanto σ,, σ r son los vs no nulos de A También tenemos que las columnas de V conforman una bon de R n y son autovectores de A T A, más precisamente, A T Av i = σ i v i para i =, r, y A T Av i = para i = r +,, n, ya que v r+,, v n son autovectores asociados al autovalor nulo Finalmente el punto resulta inmediatamente de la igualdad A V = U Σ Notemos que del Teorema se desprende que los vectores singulares derechos son siempre autovectores de A T A En lo que sigue veremos que los vectores singulares izquierdos son necesariamente autovectores de la matriz AA T Para ello es útil el siguiente resultado 6
7 Proposición Sea A = U Σ V T una DVS de A R m n Entonces A T = V Σ T U T es DVS de A T En particular A y A T tienen los mismos vs no nulos Demostración Es inmediato a partir de la definición de DVS que A T = V Σ T U T es DVS de A T Que A y A T tienen los mismos vs no nulos se deduce del hecho que en Σ aparecen los vs no nulos de A y en Σ T los vs no nulos de A T De la Proposición y del Teorema deducimos que los vectores singulares izquierdos de una matriz A son a la vez vectores singulares derechos de A T y por lo tanto autovectores de AA T Ejemplo Hallar una DVS de A = Como los vs no nulos de A y de A T coinciden, calculamos los vs de A T, que son los autovalores de AA T Como AA T 9 9 =, 9 9 sus autovalores son λ = 8 y λ = Luego σ = 8 = es el único vs no nulo tanto de A T como de A En particular, los restantes vs de A son σ = σ = Para hallar una DVS de A, lo que hacemos primero es hallar una DVS de A T Calculando obtenemos la siguiente { bon de R compuesta por autovectores de AA T (ordenados según el orden de los vs) T, } T Designemos por u y u a los vectores de esa base Ambos son vectores singulares derechos de A T (u corresponde a σ y u a σ = ) y por lo tanto vectores singulares izquierdos de A Para obtener los vectores singulares izquierdos de A T que nos permitan luego construir una DVS de A T, teniendo en cuenta que hay un solo valor singular no nulo, definimos v = AT u = σ Para hallar los restantes vectores singulares izquierdos de A T debemos encontrar v, v tales que {v, v, v } sea bon de R Pero como v y v son a su vez vectores singulares derechos de A y corresponden a valores singulares nulos de A, necesariamente Av = y Av = Luego bastará con que hallemos una bon de Nul(A) Una posible bon es {v, v } con v = y v = 4 Note que {v, v, v } es bon de R (Otra forma de computar v, v consiste en elegir v y v tales que {v, v, v } sea li y ortonormalizar el conjunto mediante Gram-Schmidt) 7
8 Entonces con V = v v v, U = u u y A T = V Σ U T Σ =, es DVS de A T y, por lo tanto, A = U Σ V T con Σ = Σ T es DVS de A Como ejercicio, se propone al lector que calcule una DVS de A en forma directa DVS y los subespacios fundamentales de una matriz En esta sección veremos que las matrices U y V de una DVS de A están compuestas por bases ortonormales de los cuatro subespacios fundamentales de A Supongamos que A R n m es una matriz de rango r y que A = U Σ V T es una DVS de A Entonces, si V = v v n y U = u u m y definimos las matrices V r = v v r, V n r = v r+ v n, U r = u u r y U m r = u r+ u m, se tiene que {v,, v r } es bon de fil(a), V T r V r = I y V r V T r = P fil(a) {v r+,, v n } es bon de Nul(A), V T n rv n r = I y V n r V T n r = P Nul(A) {u,, u r } es bon de col(a), U T r U r = I y U r U T r = P col(a) 4 {u r+,, u m } es bon de Nul(A T ), U T m ru m r = I y U m r U T m r = P Nul(A T ) La justificación de este resultado es la siguiente Como el rango de A es r, A tiene r valores singulares no nulos, y por lo tanto A T A tiene r autovalores no nulos Por el Teorema, los vectores v,, v n son autovectores de A T A, estando los primeros r de ellos asociados a los autovalores no nulos de A T A y los restantes al autovalor nulo de A T A Por lo tanto, por el Teorema, {v r+,, v n } es bon de Nul(A) y, dado que {v,, v n } es bon de R n, necesariamente {v,, v r } es bon de Nul(A) = fil(a) Con esto, y la forma en que se construyen las matrices de proyección, quedan demostrados y Respecto de y 4, combinando el Teorema con el Teorema, tenemos que {u,, u r } es bon de col(a) y, por lo tanto, dado que {u,, u m } es bon de R m, {u r+,, u m } es bon de col(a) = Nul(A T ) De esto último y la forma en que se construyen las matrices de proyección, se deducen las restantes afirmaciones Ejemplo 4 Dada A = 8, hallar los valores singulares de A, bases de sus cuatro subespacios fundamentales y calcular sus matrices de proyección La descomposición que tenemos de A es casi una DVS, salvo por el hecho de que la matriz U que aparece a la izquierda, si bien tiene columnas mutuamente ortogonales, éstas no son de 8
9 norma Procedemos entonces a normalizar las columnas de U dividiendo cada una de ellas por su norma Para que el producto siga siendo A, es necesario multiplicar la fila i de la matriz central, por el número por el cual dividimos la columna i de U Queda entonces la factorización A = 6 Esta factorización no es aún una DVS, porque los elementos de la diagonal de la matriz central no están ordenados de mayor a menor Para ello lo que hacemos es permutar las dos primeras columnas de la matriz de la izquierda y las dos primeras filas de la matriz de la derecha Entonces obtenemos A = 6 que ahora sí es una DVS de A, ya que A = U Σ V T con 6 U =, Σ = y V =, Ahora podemos hallar lo solicitado Los valores singulares de A son σ = 6, σ = y σ = Las primeras dos columnas de V son una bon de fil(a), mientras que la última columna de V es bon de Nul(A) Respecto de col(a), las dos primeras columnas de U son una bon de ese subespacio, y la última columna de U es bon de Nul(A T ) Respecto de las matrices de proyección, éstas son: P fil(a) = P Nul(A) = I P fil(a) = P Nul(A T ) = =, = P col(a) = I P Nul(A T ) =,, 9
10 4 DVS reducida Veremos ahora cómo a partir de una DVS, A = U ΣV T, podemos obtener una descomposición de A que emplea matrices de tamaño reducido Empleando la notación de la sección anterior, escribimos U = U r U m r y V = V r V n r, donde r es el rango de A Entonces A = U Σ V T = U r U m r D r (n r) (m r) r (m r) (n r) V T r V T n r = U r DV T r A la factorización A = U r DVr T se la denomina DVS reducida de A Notar que la matriz D es inversible, pues D es diagonal, y los elementos que aparecen en la diagonal principal son los vs no nulos de A Ejemplo 5 Para la matriz A del Ejemplo 4, A = 6, es una DVS reducida Notamos que es más simple calcular una DVS reducida que una DVS, ya que solo se necesitan los vs no nulos y conjuntos de vectores singulares derechos e izquierdos correspondientes a esos valores singulares 5 Solución por cuadrados mínimos de norma mínima Seudoinversa de Moore-Penrose Si A R m n y b R n, la ecuación Ax = b siempre admite soluciones por cuadrados mínimos (cm) Si Nul(A) = {}, o, equivalentemente, rango(a) = n, la solución por cm es única; en caso contrario hay infinitas soluciones por cm, más aún, si ˆx p es una solución por cm, entonces todas las demás son de la forma: ˆx = ˆx p + x n con x n Nul(A) Es importante en el caso en que hay infinitas soluciones por cm disponer de un criterio que permita seleccionar una de estas infinitas soluciones Un posible criterio es el siguiente Definición 4 x es una solución por cm de norma mínima de la ecuación Ax = b si x es solución por cm y, además, x ˆx para todo ˆx que sea solución por cm de Ax = b En otras palabras, x es, de todas las soluciones por cm de Ax = b, una que tiene la menor norma (longitud) posible A continuación veremos que existe una única solución por cm de norma mínima y daremos una caracterización de ella que será útil para calcularla Proposición Consideremos la ecuación Ax = b con A R m n y b R n Entonces Existe una única solución x por cm de la ecuación Ax = b que pertenece a fil(a) x es la única solución por cm de norma mínima de la ecuación Ax = b
11 Demostración Primero probamos que existe una solución por cm que pertenece a fil(a) Sea ˆx p una solución por cm de la ecuación Ax = b Sea x = P fil(a)ˆx p Veamos que x también es solución por cm de la ecuación Como fil(a) = Nul(A), ˆx p = P fil(a)ˆx p + P Nul(A)ˆx p = x + P Nul(A)ˆx p Luego, dado que ˆx p una solución por cm de la ecuación Ax = b, P col(a) b = Aˆx p = A(x + P Nul(A)ˆx p ) = Ax, y por lo tanto x es solución por cm de la ecuación Ax = b y pertenece a fil(a) Ahora veamos que x es la única solución por cm que pertenece a fil(a) Supongamos que x es una solución por cm que pertenece a fil(a) Entonces Ax = Ax = P col(a) b Luego x x Nul(A) Como x x fil(a) y fil(a) = Nul(A), resulta x x =, y, por lo tanto, x = x Hasta aquí hemos probado el punto de la proposición Ahora probamos que x es la única solución por cm de norma mínima de la ecuación Ax = b Primero vemos que x es solución por cm de norma mínima Sea x una solución por cm de la ecuación Entonces x x Nul(A) Luego x = x + ( x x ) = x + x x pues fil(a) = Nul(A) Entonces x x y x es de norma mínima Finalizamos la demostración viendo que x es la única solución de norma mínima Supongamos que y también es solución de norma mínima Entonces necesariamente y = x Por otro lado, dado que y x Nul(A) y que x fil(a), y = x + (y x ) = x + y x Entonces, necesariamente y x =, y, por lo tanto, y = x De acuerdo con la Proposición, para hallar la solución por cm de norma mínima, debemos buscar entre las soluciones por cm de la ecuación la solución x que pertenece a fil(a) Para hallar tal solución podemos proceder como sigue Supongamos que A = U r D Vr T es una DVS reducida de A Entonces, por lo expuesto en la Sección, U r Ur T = P col(a), Ur T U r = I, las columnas de V r son bon de fil(a) y D es inversible Luego, como x pertenece a fil(a), existe α R r tal que x = V r α Como además x es solución por cm de Ax = b entonces Luego, usando que U r U T r P col(a) b = Ax = AV r α = P col(a), V T r V r = I y A = U r D V T r, tenemos que U r U T r b = U r D V T r V r α = U r Dα Multiplicando por izquierda por U r y usando que U T r U r = I, obtenemos y, por lo tanto, Dα = U T r b = α = D U T r b, x = V r α = V r D U T r b Notemos que hemos probado que la solución por cm de norma mínima de la ecuación Ax = b se obtiene multiplicando b por la matriz V r D U T r
12 Definición 5 Sea A = U r D V T r es una DVS reducida de A La matriz A + = V r D U T r es la matriz seudoinversa de Moore-Penrose de A Notamos que del hecho que para todo b R n, x = A + b es la única solución por cm de longitud mínima de la ecuación Ax = b, se deduce que A + no depende de la DVS reducida empleada para calcularla En efecto, si A = U rdv r T es otra DVS reducida de A, tenemos la igualdad (V r D U T r )b = x = (V r D U rt )b b R n Pero entonces, necesariamente V r D U T r = V r D U rt Teorema 4 Sea A R m n y sea A + la matriz seudoinversa de Moore-Penrose de A Entonces Para todo b R n, x = A + b es la única solución por cm de longitud mínima de la ecuación Ax = b A + A = P fil(a) y AA + = P col(a) Demostración El punto ya fue probado, el punto se deduce inmediatamente del hecho que A + A = V r V T r y que AA + = U r U T r Observación Del punto del Teorema 4 deducimos inmediatamente que A + A = I fil(a) = R n rango(a) = n AA + = I col(a) = R m rango(a) = m Si A es inversible, entonces A = A + Cuando rango(a) = n, la ecuación Ax = b tiene una única solución por cuadrados mínimos ˆx, que está dada por la fórmula ˆx = A b, con A = (A T A) A T Como en el caso en que la solución por cm es única, ésta es necesariamente la de norma mínima, también tenemos que ˆx = A + b Luego A b = A + b b R n = A = A + La siguiente expresión de A + a partir de una DVS de A es útil en algunas circunstancias Supongamos que A = U Σ V T es una DVS de A R m n, y que A es de rango r Definamos Σ + D = r (m r) R n m (n r) r (n r) (m r) Entonces A + = V Σ + U T, como puede comprobar fácilmente el lector, usando las expresiones V = V r V T n r y U = U r U T m r y efectuando el producto Ejemplo 6 Hallar la seudoinversa de Moore-Penrose de 4 A = 6 Notemos que el rango de A es, y por lo tanto A carece de inversa Vamos a buscar entonces una DVS reducida de A
13 Como A T A = sus autovalores son λ = y λ = Luego, A tiene un único vs no nulo, σ = = Para construir una DVS reducida debemos hallar un vector singular derecho v de A asociado a σ, o, lo que es lo mismo, un autovector unitario de A T A asociado a λ, por ejemplo, v = 5 T Ahora, a partir de v definimos el vector singular izquierdo Entonces A = u = Av σ =, 5 5 es una DVS reducida de A y A + = 5 5 = 6 6 Imagen de la esfera unitaria En esta sección veremos cómo una DVS de una matriz A R m n nos permite determinar fácilmente cual es la imagen de la esfera unitaria S n = {x R n : x = } a través de la transformación lineal T (x) = Ax Supongamos que A = U Σ V T es una DVS de A y que rango(a) = r Con el objeto de determinar qué clase de conjunto es T (S n ) = {z R m : z = Ax con x S n }, consideremos el cambio de variable x = V y Notamos que x = y por ser V ortogonal Entonces z T (S n ) z = Ax con x = z = AV y con y = z = UΣy con y = Llamando U = u u m y teniendo en cuenta que A tiene r vs no nulos σ,, σ r, tenemos que UΣy = σ y u + σ y u + + σ r y r u r Entonces z T (S n ) z = σ y u + σ y u + + σ r y r u r con y = Si consideramos la base ortonormal B = {u,, u m } de R m, y z B = w w m T es el vector de coordenadas de z en la base B, tenemos entonces que w = σ y w = σ y z T (S n ) w r = σ r y r w r+ = w m = con y =
14 Como y i conclusión: = w i /σ i para i =,, r y n i= y i =, finalmente llegamos a la siguiente Si r = n z T (S n ) w σ + + w n σ n = w n+ = w n+ = = w m = Con lo cual T (S n ) resulta ser un elipsoide n-dimensional (Si n = es un par de puntos y cuando n = es una elipse) contenido en el subespacio generado por {u,, u n }, que es col(a), y tiene por ejes a las rectas generadas por los vectores u, u,, u n Si r < n, y, por lo tanto, w σ + + w r σ r = r yi, i= z T (S n ) w σ + + w r σ r w r+ = w r+ = = w m = Luego T (S n ) resulta ser un elipsoide r-dimensional sólido (si r = es un segmento, si r = es una elipse junto con su interior), contenido en el subespacio generado por {u,, u n } ( col(a)), y tiene por ejes a las rectas generadas por los vectores u, u,, u r Ejemplo 7 Supongamos que A R y que A = UΣV T es DVS de A Sean u y u la primera y segunda columna de U, y σ y σ el primer y segundo vs de A Entonces, la imagen de la circunsferencia unitaria S R a través de la transformación T (x) = Ax depende del rango de A de la siguiente forma: si rango(a) =, A es la matriz nula y T (S ) = {} Si rango(a) =, σ >, σ = y { T (S ) = z R : z = w u + w u, w σ es el segmento de extremos P = σ u, P = σu Si rango(a) =, σ σ >, y { T (S ) = z R : z = w u + w u, w σ + w σ }, w = = { z R } : z = tu, σ t σ, } =, resulta una elipse con centro en el origen, eje mayor de longitud σ contenido en la recta generada por u y eje menor de longitud σ contenido en la recta u (Figura ) Ejemplo 8 Supongamos ahora que A R y que A = UΣV T es DVS de A Sea U = u u u y σ, σ, σ los vs de A Entonces tenemos las siguientes posibilidades para la imagen de la esfera unitaria S R a través de la transformación T (x) = Ax: 4
15 5 T(S ) x σ u 5 5 x σ u Figura : T (S ) caso rango si rango(a) =, A es la matriz nula y T (S ) = {} Si rango(a) =, σ >, σ = σ = y la imagen de es el conjunto { T (S ) = z R : z = w u + w u + w u, w σ = { z R } : z = tu, σ t σ, que es el segmento de extremos P = σ u, P = σu Si rango(a) =, σ σ >, σ = y { T (S ) = z R : z = w u + w u + w u, w σ + w σ }, w = w = } ; w =, es la superficie contenida en el plano generado por u y u (que es col(a)), que contiene al origen y está limitada por la elipse centrada en el origen, cuyo eje mayor tiene longitud σ y está contenido en la recta generada por u y su eje menor, contenido en la recta u, tiene longitud σ (Figura ) 4 Finalmente, si rango(a) =, σ σ σ > y T (S ) = { z R : z = w u + w u + w u, w σ + w σ + w σ } =, resulta un elipsoide centrado en el origen, con ejes de longitudes σ, σ y σ contenidos en la rectas generadas por u, u y u, respectivamente (Figura ) 5
16 4 col(a) σ u T(S ) u σ u Figura : T (S ) caso rango T(S ) σ u σ u σ u Figura : T (S ) caso rango 6
6.8. Descomposición mediante valores singulares. v 2 =
68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx
Más detalles6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica
6.6 Diagonalización de matrices simétricas o hermitianas Ejemplo de una diagonalización de una matriz simétrica Matrices hermitianas Los autovalores de las matrices reales simétricas o complejas hermitianas
Más detallesClase 7 Herramientas de Álgebra Lineal
Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es
Más detalles6.7. Clasificación de formas cuadráticas
6.7 Clasificación de s s 1.1. Definición de s s en R n El concepto básico que sirve para definir una es el de polinomio homogéneo de segundo grado en varias variables. En toda esta sección sobreentenderemos
Más detallesPodemos pues formular los dos problemas anteriores en términos de matrices.
Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión
Más detallesDescomposición en Valores singulares(svd)
Descomposición en Valores singulares(svd) Año 200 Referencias [] R.L. Burden, J.Douglas Faires, Análisis Numérico, Grupo Editorial Iberoamericana, México, 985. [2] J. Demmel, Applied Numerical Linear Algebra,
Más detallesDescomposición en valores singulares de una matriz
Descomposición en valores singulares de una matriz Estas notas están dedicadas a demostrar una extensión del teorema espectral conocida como descomposición en valores singulares (SVD en inglés) de gran
Más detallesTema 2: Diagonalización
TEORÍA DE ÁLGEBRA II: Tema 2. DIPLOMATURA DE ESTADÍSTICA 1 Tema 2: Diagonalización 1 Introducción Sea f : R n R n lineal. Dada una base B de R n podemos asociar a f la matriz A 1 = [f, B] M n. Si C es
Más detallesDiagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios
61 Matemáticas I : Álgebra Lineal Tema 6 Diagonalización 61 Valores y vectores propios 611 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial
Más detallesValores singulares. Producto escalar y ortogonalidad. Proposición. Curso < x, y >= si F = C. Si x C n x i=1
Valores singulares Curso 2017-18 1 Producto escalar y ortogonalidad < x, y >= n y i x i = y T x si F = R, n y i x i = y x Si x C n x x = n x i 2 = x 2 2. si F = C Si x, y C n x y = y x, pero si x, y R
Más detallesÁLGEBRA Algunas soluciones a la Práctica 4
ÁLGEBRA Algunas soluciones a la Práctica 4 Equivalencia de matrices. Sistemas de ecuaciones Curso 28 29 2. Existen dos matrices de igual dimensión que tengan el mismo rango pero no sean ni equivalentes
Más detallesUna matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )
MATRICES Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. Ejemplo 1. Algunos ejemplos de matrices ( + ( ) ( + ( ) El tamaño o el orden de una
Más detallesAplicaciones Lineales. Diagonalización de matrices.
Tema 2 Aplicaciones Lineales. Diagonalización de matrices. 2.1. Definiciones y propiedades Nota 2.1.1. En este tema trabajaremos con los Espacios Vectoriales R n y R m definidos sobre el cuerpo R. Definición
Más detallesa ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2
68 Matemáticas I : Álgebra Lineal Tema 7 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado, pues el cuadrado
Más detallesf(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).
Universidade de Vigo Departamento de Matemática Aplicada II E.T.S.I. Minas Álgebra Convocatoria de enero de 20 de enero de 20 (2.5 p.) ) Se considera la aplicación lineal f : R 4 R definida por: f(x y
Más detallesEspacios vectoriales reales.
Tema 3 Espacios vectoriales reales. 3.1 Espacios vectoriales. Definición 3.1 Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre
Más detallesÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3
ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 2011 2012) 2. Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí.
Más detallesTema 11.- Autovalores y Autovectores.
Álgebra 004-005 Ingenieros Industriales Departamento de Matemática Aplicada II Universidad de Sevilla Tema - Autovalores y Autovectores Definición, propiedades e interpretación geométrica La ecuación característica
Más detallesCapítulo 2. Determinantes Introducción. Definiciones
Capítulo 2 Determinantes 2.1. Introducción. Definiciones Si nos centramos en la resolución de un sistema A x = b con A una matriz n n, podemos calcular A 1 y la resolución es inmendiata. El problema es
Más detallesAlgebra lineal de dimensión finita
Algebra lineal de dimensión finita Métodos para calcular autovalores Pseudoinversa Algebra lineal númerica 1 Teorema:[Teorema 1.6] Sea A es una matriz real simétrica. Si Q(x) =< Ax, x > entonces: λ 1 =
Más detallesTema 2: Teorema de estructura de los grupos abelianos finitamente generados.
ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con
Más detallesCapítulo V. Valores y vectores propios. Diagonalización de operadores lineales.
Capítulo V Valores y vectores propios. Diagonalización de operadores lineales. Hemos visto que la aplicaciones lineales de en están definidas a través de una expresión de la forma ; pero esta fórmula puede
Más detallesTema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.
Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané
Más detallesProducto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31
Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular
Más detalles6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...
Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................
Más detallesÁlgebra y Matemática Discreta
Álgebra y Matemática Discreta Sesión de Teoría 18 (c) 2013 Leandro Marín, Francisco J. Vera, Gema M. Díaz 11 Nov 2013-17 Nov 2013 Ecuaciones Matriciales Ecuaciones Matriciales En muchas ocasiones, se plantean
Más detallesDepartamento de Ingeniería Matemática - Universidad de Chile
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 8-7 Formas cuadráticas SEMANA 4: FORMAS CUADRÁTICAS 7 Formas cuadráticas y matrices definidas positivas
Más detallesDiagonalización de matrices
7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,
Más detallesTema 5: Diagonalización de matrices: Apéndice
Tema : Diagonalización de matrices: Apéndice Más aplicaciones de la diagonalización. Diagonalización de matrices simétricas reales Tiene especial interés la diagonalización de matrices simétricas. Supongamos
Más detallesApéndice sobre ecuaciones diferenciales lineales
Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 2 Determinante wronskiano. Wronskiano de f 1 (t), f 2 (t),..., f n (t). Derivada de un determinante de funciones.
Más detallesÁLGEBRA LINEAL. EXAMEN FINAL 18 de Enero de b) (0, 5 puntos) Estudia si la siguiente afirmación es verdadera o falsa, justificando
ÁLGEBRA LINEAL EXAMEN FINAL 8 de Enero de Apellidos y Nombre: Duración del examen: 3 horas Publicación de notas: enero Revisión de Examen: feb Ejercicio. ( puntos a (, puntos Estudia si la siguiente afirmación
Más detallesVectores y Valores Propios
Capítulo 11 Vectores y Valores Propios Las ideas de vector y valor propio constituyen conceptos centrales del álgebra lineal y resultan una valiosa herramienta en la solución de numerosos problemas de
Más detallesEspacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados
Capítulo 5 Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados En este tema iniciamos el estudio de los conceptos geométricos de distancia y perpendicularidad en K n. Empezaremos con las definiciones
Más detallesAutovalores y autovectores Diagonalización y formas canónicas
Autovalores y autovectores Diagonalización y formas canónicas Autovalores y autovectores.propiedades Sea V un espacio vectorial sobre K y f End(V ). Fijada una base de V, existirá una matriz cuadrada A,
Más detallesPrincipio minimax para los valores propios de matrices hermitianas
Principio minimax para los valores propios de matrices hermitianas El propósito de estos apuntes (escritos por Egor Maximenko, Rogelio Rocha Hernández, Eliseo Sarmiento Rosales y Zacarías Sánchez Francisco
Más detallesGeometría afín y proyectiva, 2016 SEMANA 4
Geometría afín y proyectiva, 2016 SEMANA 4 Sonia L. Rueda ETS Arquitectura. UPM September 30, 2016 Geometría afín y proyectiva 1. Álgebra Lineal 2. Geometría afín y eucĺıdea 3. Cónicas y cuádricas Álgebra
Más detallesSistemas de Ecuaciones Lineales y Matrices
Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una
Más detalles58 7. ESPACIOS COCIENTE
CAPíULO 7 Espacios cociente En esta sección estudiamos el cociente de un espacio vectorial por un subespacio W. Este cociente se define como el conjunto cociente de por una relación de equivalencia conveniente.
Más detallesMatemáticas. Álgebra lineal (parte final ampliada)
Master en Estadística e Investigación Operativa Matemáticas Álgebra lineal (parte final ampliada) Vera Sacristán Departament de Matemàtica Aplicada II Facultat de Matemàtiques i Estadística Universitat
Más detallesAPÉNDICE A. Algebra matricial
APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos
Más detallesÁlgebra Lineal. Tema 6. Transformaciones lineales y matrices
Álgebra Lineal Tema 6. Transformaciones lineales y matrices Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S.
Más detallesDeducción de las fórmulas del método del gradiente conjugado
Deducción de las fórmulas del método del gradiente conjugado Objetivos. Demostrar el teorema sobre los subespacios de Krylov en el método del gradiente conjugado. Requisitos. Subespacios generados por
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesTEMA III: DIAGONALIZACIÓN.
TEMA III: DIAGONALIZACIÓN. OBJETIVOS: Generales: 1. Captar el motivo que justifica el problema de la diagonalización de endomorfismos. 2. Resolver y aplicar dicho problema cuando sea posible. Específicos:
Más detallesÁLGEBRA LINEAL II Algunas soluciones a la práctica 2.3
ÁLGEBRA LINEAL II Algunas soluciones a la práctica 2. Transformaciones ortogonales (Curso 2010 2011) 1. Se considera el espacio vectorial euclídeo IR referido a una base ortonormal. Obtener la expresión
Más detallesTema 2. Aplicaciones lineales. Diagonalización de endomorfismos.
Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada
Más detallesMatrices, determinantes y sistemas de ecuaciones lineales
Matrices, determinantes y sistemas de ecuaciones lineales David Ariza-Ruiz 10 de octubre de 2012 1 Matrices Una matriz es una tabla numérica rectangular de m filas y n columnas dispuesta de la siguiente
Más detallesDescomposición en forma canónica de Jordan (Segunda versión)
Descomposición en forma canónica de Jordan (Segunda versión) Francisco J. Bravo S. 1 de septiembre de 211 En esta guía se presentan los resultados necesarios para poder construir la forma de Jordan sin
Más detallesMatrices. Álgebra de matrices.
Matrices. Álgebra de matrices. 1. Definiciones generales Definición 1.1 Si m y n son dos números naturales, se llama matriz de números reales de orden m n a una aplicación A : {1, 2, 3,..., m} {1, 2, 3,...,
Más detallesDescomposición SVD. Luciano A. Perez. 10 de septiembre de 2015
Descomposición SVD Luciano A. Perez 1 de septiembre de 15 1. Introducción 1.1. La Descomposición Sean n,m N, y sea A C m n ; una descomposición en valores singulares (o SVD) de A es una factorización donde:
Más detallesx, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4.
1 Tema 2. Sección 1. Espacio vectorial de Minkowski. Manuel Gutiérrez. Departamento de Álgebra, Geometría y Topología. Universidad de Málaga. 29071-Málaga. Spain. Abril de 2010. En este capítulo se recordará
Más detalles520142: ALGEBRA y ALGEBRA LINEAL
520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesClase 8 Matrices Álgebra Lineal
Clase 8 Matrices Álgebra Lineal Código Escuela de Matemáticas - Facultad de Ciencias Universidad Nacional de Colombia Matrices Definición Una matriz es un arreglo rectangular de números denominados entradas
Más detallesMatrices. Operaciones con matrices.
Matrices. Operaciones con matrices. Ejercicio. Dadas las matrices ( ) ( ) 4 A = B = ( ) C = D = 4 5 ( ) 4 E = F = seleccione las que se pueden sumar y súmelas. Ejercicio. Dadas las matrices ( ) ( ) A =
Más detallesGustavo Rodríguez Gómez. Agosto Dicembre 2011
Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 44 Capítulo III Descomposición de Matrices 2 / 44 1 Descomposición de Matrices Notación Matrices Operaciones con Matrices 2
Más detalles1.2. Producto escalar, longitud y distancia
22 Cálculo vectorial 27. Si PQR es un triángulo en el espacio y b > 0 es un número, existe un triángulo con lados paralelos a los de PQR y con longitudes b multiplicado por las longitudes de PQR. 28. Las
Más detallesConjuntos de Vectores y Matrices Ortogonales
Conjuntos de Vectores y Matrices Ortogonales Departamento de Matemáticas, CCIR/ITESM 28 de junio de 2011 Índice 21.1.Introducción............................................... 1 21.2.Producto interno............................................
Más detallesDualidad. 1. Dual de una transformación lineal
CAPíTULO 8 Dualidad 1. Dual de una transformación lineal En este capítulo volveremos a considerar el tema de la dualidad de espacios vectoriales. Se recuerda que si V es un espacio vectorial, definimos
Más detallesCapítulo 1: Diagonalización de matrices
Capítulo : Diagonalización de matrices Matrices y determinantes Definición Una matriz es un arreglo rectangular de números reales a a a m a A a a m a n a n a nm La matriz es de orden n m si consta de n
Más detallesEspacios vectoriales con producto escalar
147 Fundamentos de Matemáticas : Álgebra Lineal Capítulo 10 Espacios vectoriales con producto escalar 10.1 Producto escalar. Norma. Distancia Definición 71.- Un producto escalar o producto interior en
Más detalles1. Determina cuáles de los siguientes conjuntos son subespacios vectoriales. Para aquellos que lo sean, halla una base.
EJERCICIOS PROPUESTOS 1. Espacios vectoriales. Sistemas de ecuaciones. 1. Determina cuáles de los siguientes conjuntos son subespacios vectoriales. Para aquellos que lo sean, halla una base. (a) S = {
Más detallesCapítulo 9: Diagonalización de matrices
Capítulo 9: Diagonalización de matrices 1. Lección 33. Transformaciones lineales Del mismo modo que el estudio de las funciones usuales es importante para analizar las relaciones y la evolución de magnitudes
Más detallesDepartamento de Ingeniería Matemática - Universidad de Chile
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial
Más detallesAlgunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices
Matrices Una matriz de orden m n es un conjunto ordenado de m n números reales dispuestos en m filas y n columnas de la forma: A = a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n a i1 a i2 a ij a in a m1 a m2
Más detallesMínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar
Mínimos cuadrados Mayo de 2015. Ejemplos de introducción Observación preliminar Sean dos matrices A y B, por ejemplo a b A =, B = c d x z y t Las columnas de A representan los vectores u = (a; c) y v =
Más detallesMATRICES Y DETERMINANTES MATRIZ INVERSA
Índice Presentación... 3 Determinante de una matriz... 4 Determinante de matrices de orden 2 y 3... 5 Determinante de una matriz... 6 Ejemplo... 7 Propiedades del cálculo de determinantes... 8 Matriz inversa...
Más detallesÁlgebra Lineal. Tema 8. Valores y vectores propios. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Tema 8. Valores y vectores propios Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR
Más detallesGrado en Edificación MATERIAL DOCENTE: PRESENTACIÓN DEL TEMA III. Ana Isabel Garralda Guillem y Manuel Ruiz Galán
MATEMÁTICAS TICAS I Grado en Edificación MATERIAL DOCENTE: PRESENTACIÓN DEL TEMA III Ana Isabel Garralda Guillem y Manuel Ruiz Galán Tema. Diagonalización de matrices.1. Diagonalización de matrices por
Más detallesPAIEP. Complemento Ortogonal
Programa de Acceso Inclusivo, Equidad y Permanencia PAIEP Universidad de Santiago de Chile Complemento Ortogonal Veamos ahora una aplicación de los vectores ortogonales a la caracterización de subespacios
Más detallesÁLGEBRA LINEAL Problemas, 2006/2007
ÁLGEBRA LINEAL Problemas, 2006/2007 Nota: si no se especifíca lo contrario suponemos que las matrices y espacios vectoriales están definidos sobre un cuerpo K arbitrario 1 Una matriz A de orden n n se
Más detallesFactorización de rango completo y aplicaciones
XXI Congreso de Ecuaciones Diferenciales y Aplicaciones XI Congreso de Matemática Aplicada Ciudad Real, 21-25 septiembre 2009 (pp. 1 8) Factorización de rango completo y aplicaciones R. Cantó 1, B. Ricarte
Más detallesÁlgebra Lineal Ma1010
Álgebra Lineal Ma1010 s de Vectores y Matrices es Departamento de Matemáticas ITESM s de Vectores y Matrices es Álgebra Lineal - p. 1/44 En esta lectura veremos conjuntos y matrices ortogonales. Primero
Más detallesALGEBRA LINEAL Y GEOMETRÍA. REPASO DE ÁLGEBRA LINEAL-2: CAMBIOS DE BASE GRADO DE MATEMÁTICAS. CURSO
ALGEBRA LINEAL Y GEOMETRÍA. REPASO DE ÁLGEBRA LINEAL-2: CAMBIOS DE BASE GRADO DE MATEMÁTICAS. CURSO 2012-2013 José García-Cuerva Universidad Autónoma de Madrid 11 de febrero de 2013 JOSÉ GARCÍA-CUERVA
Más detallesMatemática 2. Clase práctica de coordenadas y cambio de base
atemática Clase práctica de coordenadas y cambio de base Nota iren este apunte por su cuenta y consulten las dudas que les surjan Ya pueden terminar la práctica Coordenadas en espacios vectoriales de dimensión
Más detallesÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3
ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 010 011). Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí. Demostrar
Más detallesValores y Vectores Propios
Valores y Vectores Propios Iván Huerta Facultad de Matemáticas Pontificia Universidad Católica de Chile ihuerta@mat.puc.cl Segundo Semestre, 1999 Definición Valores y Vectores Propios Valores y Vectores
Más detallesALGEBRA. Escuela Politécnica Superior de Málaga
ALGEBRA. Escuela Politécnica Superior de Málaga Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Espacio vectorial. Espacios vectoriales R n. Dependencia e independencia lineal. Base. Matrices y determinantes.
Más detalles1 CÓNICAS Cónicas. Estudio particular. 1 x y. 1 x y. a 00 a 01 a 02 a 10 a 11 a 12 a 20 a 21 a 22
CÓNICAS. CÓNICAS.. Cónicas. Estudio particular. Una cónica se dene como el lugar geométrico de los puntos del plano euclídeo que, respecto de una referencia cartesiana rectangular, satisfacen una ecuación
Más detalles6 Vectores. Dependencia e independencia lineal.
6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar
Más detallesConjuntos y matrices. Sistemas de ecuaciones lineales
1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución
Más detallesV = v 1 +2v 2 +3v 3. v 2. v 1
Coordenadas Hay muchas maneras de darle coordenadas a los puntos del espacio, las ecuaciones de las curvas o superficies dependen de las coordenadas que utilicemos y eligiendo las coordenadas adecuadas
Más detallesTema 4: Espacio vectorial euclídeo
Tema 4: Espacio vectorial euclídeo 1. Definición de producto escalar Un producto escalar en un R-espacio vectorial es una operación en la que se operan vectores y el resultado es un número real, y que
Más detallesEspacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21
Espacios Vectoriales AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21 Objetivos Al finalizar este tema tendrás que: Saber si unos vectores son independientes.
Más detallesDiagonalización simultánea de formas cuadráticas.
Diagonalización simultánea de formas cuadráticas Lucía Contreras Caballero 14-4-2004 Dadas dos formas cuadráticas, si una de ellas es definida positiva, se puede encontrar una base en la que las dos diagonalizan
Más detallesTema I. Capítulo 5. Equivalencia, congruencia y semejanza de matrices.
5 Equivalencia, congruencia y semejanza de matrices 1 Equivalencia de matrices por filas 11 Definición y propiedades Definición 11 Dos matrices A, B M m n se dicen equivalentes por filas o equivalentes
Más detallesTema 6: Diagonalización de matrices
Tema 6: Diagonalización de matrices La intención en este tema es, dada una matriz cuadrada, ver si existe otra matriz semejante a ella que sea diagonal. Recordemos del Tema 4 que dos matrices cuadradas
Más detallesMATRICES DETERMINANTES
MATRICES Y DETERMINANTES INTRODUCCIÓN, MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de
Más detallesÁlgebra Lineal. Tema 5 Ecuaciones diferenciales lineales
Álgebra Lineal. Tema 5 Dep. Matemática Aplicada. UMA Tasa relativa de crecimiento Si x(t representa alguna cantidad física como el volumen de una sustancia, la población de ciertas especies, o el número
Más detallesAlgebra lineal y conjuntos convexos
Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar
Más detalles6.14 Descomposición ortogonal y proyección ortogonal
CAPÍTULO. ESPACIO EUCLÍDEO CANÓNICO IR N 282.14 Descomposición ortogonal y proyección ortogonal El resultado W W = IR n, significa que cada y IR n se puede escribir de forma única como suma de un vector
Más detallesap l i c a c i o n e s d e l a s
Unidad 9 ap l i c a c i o n e s d e l a s transformaciones lineales Objetivos: Al inalizar la unidad, el alumno: Relacionará algunas transformaciones especiales con movimientos geométricos de vectores
Más detallesApéndice sobre ecuaciones diferenciales lineales
Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 1. Determinante wronskiano 2 1.1. Wronskiano de f 1 (t), f 2 (t),..., f n (t)............... 3 1.2. Derivada
Más detallesMATEMÁTICAS: PAU 2016 JUNIO CASTILLA Y LEÓN
MATEMÁTICAS: PAU 26 JUNIO CASTILLA Y LEÓN Opción A Ejercicio A 5 a a) Discutir para qué valores de a R la matriz M = ( ) tiene inversa. Calcular M a para a =. ( 5 puntos) Para que exista inversa de una
Más detallesSistemas de ecuaciones lineales
Tema 1 Sistemas de ecuaciones lineales 11 Definiciones Sea K un cuerpo Una ECUACIÓN LINEAL CON COEFICIENTES EN K es una expresión del tipo a 1 x 1 + + a n x n = b, en la que n es un número natural y a
Más detallesDefinición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.
Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:
Más detallesGF = I V. G(v ) = v 1
7- Inversas a Izquierda y Derecha Sea F : V V una transformación lineal. G : V V lineal se denomina inversa a izquierda de F si GF = I V donde I V : V V denota el operador identidad en V. En tal caso F
Más detallesDiagonalización de matrices, Semejanza.
diagonalizacion.nb 1 Diagonalización de matrices, Semejanza. Practica 8, 28 de abril de 2004 En esta práctica aprenderemos/repasaremos los comandos: Eigenvalues[ matriz ] Calcula los autovalores de una
Más detallesTransformaciones lineales autoadjuntas (hermíticas)
Transformaciones lineales autoadjuntas (hermíticas) Objetivos. Estudiar propiedades elementales de transformaciones lineales autoadjuntas. Demostrar que para toda transformación lineal autoadjunta en un
Más detallesdx = x El tensor x/ X se denomina tensor gradiente de la deformación F = x
Capítulo 2 Cinemática El desarrollo de las expresiones contenidas en este capítulo se lleva a cabo en un sistema de referencia general cartesiano {I 1 I 2 I 3 }. La notación es, con algunas diferencias,
Más detalles