Algebra lineal de dimensión finita Métodos para calcular autovalores Pseudoinversa Algebra lineal númerica 1
Teorema:[Teorema 1.6] Sea A es una matriz real simétrica. Si Q(x) =< Ax, x > entonces: λ 1 = máx x =1 Q(x) = Q(x 1 ) es el autovalor más grande de A y x 1 es el autovector correspondiente Sea λ k = máx Q(x) sujeto a las restricciones < x, x j >= 0 para todo j = 1, 2,..., k 1 x = 1 entonces, λ k = máx Q(x k ) es el k-ésimo autovalor de A, λ 1 λ 2 λ k y x k es el autovector correspondiente 2
( 3 1 -Sea A = 1 3 principio anterior ) Calcular los autovalores de A usando el Teorema:[Teorema 1.7] Princicio minimax de Courant Para cualquier matriz simétrica A λ k = mín máx x = 1 Cx = 0 < Ax, x > donde C es cualquier matriz (k 1) n 3
-Supongamos que tenemos un sistema unidimensional de masas m j, j = 1, 2,... n ligadas entre si por resortes ideales (ver figura). Nos interesa describir el desplazamiento horizontal de las masas. Usando la ley de Hooke y la segunda Ley de Newton, dicho sistema se representa 4
d 2 u dt 2 = Au donde u = (u 1 (t), u 2 (t),..., u n (t)) es el vector desplazamiento y A = a j,j = k j + k j 1 m j a j,j 1 = k j 1 m j a j,j+1 = k j m j 5
Como la ecuación es lineal y de segundo orden, entonces podemos suponer que la solución es de la forma u = u 0 e iωt, por tanto tenemos que assumir que Au 0 = ω 2 u 0 λ = ω 2 se denominan las frecuencias naturales del sistema -Notar que A es simétrica si y sólo si las masas son iguales. En ese caso, que información nos brindan los autovalores? Q(u) =< Au, u >= k 0 m u2 1 k n m u2 n 1 n 1 m i=1 k i(u i u i 1 ) 2 6
-Observaciones: i) A es definida negativa ii) Q es decreciente con respecto a k j iii) si la masa aumenta, los autovalores aumentan, o equivalentemente las frecuencias de oscilación natural disminuye iv) si algún k j aumenta, la frecuencia natural de oscilación aumenta 7
-Volvamos a Ax = b. Si A no es inversible, que hacemos? Teorema:[Teorema 1.9 y 1.10] Alternativa de Fredholm a) La solución de Ax = b es única si y sólo si Ax = 0 tiene como única solución x = 0 b) La ecuación Ax = b tiene solución si y sólo < b, v >= 0 para todo v en el núcleo de A 8
La alternativa de Fredholm se basa en el hecho que V = im(a) ker(a ) esto es, que cada vector v = v r + v k, v r im(a), v k ker(a ) y además v r v k -Esto no es siempre cierto en dimensión infinita 9
Pseudoinversa Idea: encontrar x tal que Ax b sea lo más chico posible, esto es mín x Ax b -Solución de mínimos cuadrados de Moore-Penrose (SMC): La SMC de Ax = b es A Ax = A b -Si A es inversible, entonces A 1 = (A A) 1 A -Si A no es inversible, la SMC no es única (ver definición en página 30 del libro) Cómo se calcula la SMC (Lectorum dejamus te!) 10
Descomposición en valores singulares (SVD) para una matriz A m n, con m n de rango máximo Idea: contruir dos bases ON {v 1, v 2,..., v n } en el espacio fila, y {u 1, u 2,..., u n } en el espacio columna de A tal que Av i = σ i u i 11
En forma matricial, la SVD reducida donde AV = Û ˆΣ o A = Û ˆΣV σ 1 σ 2 σ n > 0 son los valores singulares de A y Σ = diag(σ 1, σ 2,..., σ n ) La SVD completa A = UΣV donde U es una matriz unitaria m m, Σ es una matriz "diagonal"m n y U es una matriz unitaria n n 12
Comparación entre descomposición espectral (DE) y SVD -DE usa la misma base (no necesariamente ON) para construir la matriz de cambio de base, pero la SVD usa dos bases ON distintas -DE sólo está definida para matrices cuadradas; la SVD está definida para cualquier matriz -Para matrices simétricas definidas positivas, la SVD y la DE son iguales 13
Algunos usos de la SVD -rango de A, r es el número de valores singulares no nulos -im(a) =< u 1, u 2,..., u r >, ker(a) =< v r+1, v r+2,..., v n > - A 2 = σ 1 no nulos, con au- -Autovalores nonulos de AA son los σi 2 tovectores u i -Autovalores nonulos de A A son los σi 2 tovectores v i no nulos, con au- -Si A = A, σ i = λ i autovalores de A -Si A es cuadrada, det(a) = σ i 14
Aproximaciones de rango menor: A = r i=1 σ i u i v i donde u i v i son matrices de rango 1 (ejercicio) La mejor aproximación de rango ν de A con respecto a la norma 2 ( 2 ) es A ν = ν i=1 σ i u i v i con A A ν = σ ν+1 15
Aplicación: compresión de imágenes: se considera a una imágen como una matriz real. Se busca la mejor aproximación de orden ν, usando la SVD Se almacenan ν(m + n) en lugar de mn puntos. 16
Factorización QR Matriz de proyección P satisface P 2 = P v im(p ) si y sólo si P v = v v P v ker(p ) I P proyecta sobre núcleo de P im(p ) = ker(i P ), ker(p ) = im(i P ) im(p ) im(i P ) = 0 ker(p ) ker(i P ) = 0 Teorema:Toda proyeccón P induce una descomposición en suma directa de V, V = kep(p ) im(p ), donde cada vector v V se escribe como v = P v + (v P v) 17
Proyecciones ortogonales: ker(p ) im(p ) P es una proyección ortogonal si y sólo si P = P A(A A) 1 A es una proyección ortogonal, cuyo rango es im(a) -Si q R n es un vector unitario, P = qq es una proyeción ortogonal de rango 1, da las componentes en la dirección de q - I qq es una proyección ortogonal de rango n 1 y elimina las componentes en la dirección de q 18
La factorización QR produce una descomposición A = QR donde Q es unitaria y R es triangular superior [a 1 a 2... a n ] = [q 1 q 2... q n ] r 11 r 12... r 1n r 22..... r nn Idea: lograr una base ON para el espacio columna de A a partir una base del espacio columna de A Método: Gram Schimdt. Teorema:Toda matriz A n n tiene una factorización QR 19