Algebra lineal de dimensión finita

Documentos relacionados
6.8. Descomposición mediante valores singulares. v 2 =

Valores singulares. Producto escalar y ortogonalidad. Proposición. Curso < x, y >= si F = C. Si x C n x i=1

Clase 7 Herramientas de Álgebra Lineal

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Descomposición SVD. Luciano A. Perez. 10 de septiembre de 2015

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica

2.5 Ejercicios... 59

Descomposición en Valores singulares(svd)

ALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República

Tema 3.- Sistemas de ecuaciones lineales incompatibles. Sistemas compatibles e indeterminados.

La importancia de las factorizaciones matriciales no negativas en la minería de datos y el procesamiento de

ALN - SVD. In. Co. Facultad de Ingeniería Universidad de la República

APÉNDICE A. Algebra matricial

Matemáticas. Álgebra lineal (parte final ampliada)

Podemos pues formular los dos problemas anteriores en términos de matrices.

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos.

Apuntes de álgebra lineal. Eduardo Liz Marzán. Enero de 2015.

Preparaduría V. 1.- Sea A una matriz diagonal n n cuyo polinomio característico es

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

ÁLGEBRA LINEAL I Práctica 3

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16

Prácticas de Matemáticas II: Álgebra lineal

Geometría afín y proyectiva, 2016 SEMANA 4

Factorización de matrices

ÁLGEBRA LINEAL. EXAMEN FINAL 18 de Enero de b) (0, 5 puntos) Estudia si la siguiente afirmación es verdadera o falsa, justificando

3. Sistemas inconsistentes y sistemas indeterminados

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

ax + by = 1 cx + dy = 0

Vectores y matrices. v 1 v 2. = [v. v = v n. Herramientas de A.L. p.1/64

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

Factorización de rango completo y aplicaciones

Prerrequisitos de la asignatura Álgebra Lineal Numérica

Facultad de Ciencias. La descomposición en valores singulares

Cálculo Numérico. Curso Ejercicios: Preliminares I

Vectores y Valores Propios

2. Álgebra matricial. Inversa de una matriz O B 1 O B 1. Depto. de Álgebra, curso

RESOLUCIÓN DE SISTEMAS LINEALES

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2

3. Sistemas inconsistentes y sistemas indeterminados

Cálculo de autovalores

Lección 8. Matrices y Sistemas de Ecuaciones Lineales

1.2 Valores y vectores propios. Método de las potencias y Rayleigh.

3.3. Número de condición de una matriz.

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Determinantes. Reducción de matrices. Caso diagonalizable

Dos matrices son iguales cuando tienen la misma dimensión y los elementos que ocupan el mismo lugar en ambas son iguales

FAC. INGENIERÍA ÁLGEBRA UNCuyo

Universidad Alonso de Ojeda. Facultad de Ingeniería GUIA DE ESTUDIO ALGEBRA LINEAL.

Métodos avanzados para análisis y representación de imágenes

Matrices y determinantes (Curso )

2.1 Proyección ortogonal sobre un subespacio. El teorema de la proyección ortogonal

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

2. Sistemas de ecuaciones lineales

Ejercicios de Álgebra Lineal Parcial 1

Tema 11.- Autovalores y Autovectores.

ALGEBRA y ALGEBRA LINEAL

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...

Matrices. Operaciones con matrices.

MATRICES OPERACIONES BÁSICAS CON MATRICES

Departamento de Ingeniería Matemática - Universidad de Chile

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

Método de potencia directo e inverso

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.

Métodos Numéricos para Sistemas de Ecuaciones Lineales

Parte 3. Vectores y valores propios

Matrices, determinantes y sistemas de ecuaciones lineales

Cálculo numérico. Sistemas de ecuaciones lineales.

Espacios Vectoriales, Valores y Vectores Propios

Lista de problemas de álgebra, 2016

Resolución de Sistema de Ecuaciones Lineales

Algebra Lineal * Working draft: México, D.F., a 17 de noviembre de 2010.

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU

TEMA 8.- NORMAS DE MATRICES Y

Resolución de Sistema de Ecuaciones Lineales

Sesión 18: Diagonalización (I) Método práctico para diagonalizar una matriz cuadrada A M nxn K

MATRICES,DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Descomposición en valores singulares de una matriz

1.IV Aproximación numérica de valores y vectores propios.

2. Formas cuadráticas. Expresiones diagonales. Clasificación respecto a su signo.

1 Vectores de R n. Tema 1. Álgebra matricial. 1.2 Dependencia lineal

Solución de sistemas lineales

MATEMÁTICAS 2º BACH TECNOL. MATRICES. Profesor: Fernando Ureña Portero MATRICES

Tema 5: Sistemas de ecuaciones lineales.

Sistema de Ecuaciones Lineales

Métodos estadísticos y algebraicos

520142: ALGEBRA y ALGEBRA LINEAL

c-inversa o inversa generalizada de Rao

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS

5.1 Matrices y operaciones DA DB DC. (i) (ii) (iii) 5 CAPÍTULO CINCO Ejercicios propuestos

Tema 2: Diagonalización

Matrices y Sistemas de Ecuaciones lineales

11.SISTEMAS DE ECUACIONES LINEALES DEFINICIÓN DE ECUACIÓN LINEAL DEFINICIÓN DE SISTEMA LINEAL Y CONJUNTO SOLUCIÓN

MÉTODOS MATEMÁTICOS (Curso ) Cuarto Curso de Ingeniero Industrial Departamento de Matemática Aplicada II. Universidad de Sevilla

!MATRICES INVERTIBLES

ALGEBRA. Escuela Politécnica Superior de Málaga

Transcripción:

Algebra lineal de dimensión finita Métodos para calcular autovalores Pseudoinversa Algebra lineal númerica 1

Teorema:[Teorema 1.6] Sea A es una matriz real simétrica. Si Q(x) =< Ax, x > entonces: λ 1 = máx x =1 Q(x) = Q(x 1 ) es el autovalor más grande de A y x 1 es el autovector correspondiente Sea λ k = máx Q(x) sujeto a las restricciones < x, x j >= 0 para todo j = 1, 2,..., k 1 x = 1 entonces, λ k = máx Q(x k ) es el k-ésimo autovalor de A, λ 1 λ 2 λ k y x k es el autovector correspondiente 2

( 3 1 -Sea A = 1 3 principio anterior ) Calcular los autovalores de A usando el Teorema:[Teorema 1.7] Princicio minimax de Courant Para cualquier matriz simétrica A λ k = mín máx x = 1 Cx = 0 < Ax, x > donde C es cualquier matriz (k 1) n 3

-Supongamos que tenemos un sistema unidimensional de masas m j, j = 1, 2,... n ligadas entre si por resortes ideales (ver figura). Nos interesa describir el desplazamiento horizontal de las masas. Usando la ley de Hooke y la segunda Ley de Newton, dicho sistema se representa 4

d 2 u dt 2 = Au donde u = (u 1 (t), u 2 (t),..., u n (t)) es el vector desplazamiento y A = a j,j = k j + k j 1 m j a j,j 1 = k j 1 m j a j,j+1 = k j m j 5

Como la ecuación es lineal y de segundo orden, entonces podemos suponer que la solución es de la forma u = u 0 e iωt, por tanto tenemos que assumir que Au 0 = ω 2 u 0 λ = ω 2 se denominan las frecuencias naturales del sistema -Notar que A es simétrica si y sólo si las masas son iguales. En ese caso, que información nos brindan los autovalores? Q(u) =< Au, u >= k 0 m u2 1 k n m u2 n 1 n 1 m i=1 k i(u i u i 1 ) 2 6

-Observaciones: i) A es definida negativa ii) Q es decreciente con respecto a k j iii) si la masa aumenta, los autovalores aumentan, o equivalentemente las frecuencias de oscilación natural disminuye iv) si algún k j aumenta, la frecuencia natural de oscilación aumenta 7

-Volvamos a Ax = b. Si A no es inversible, que hacemos? Teorema:[Teorema 1.9 y 1.10] Alternativa de Fredholm a) La solución de Ax = b es única si y sólo si Ax = 0 tiene como única solución x = 0 b) La ecuación Ax = b tiene solución si y sólo < b, v >= 0 para todo v en el núcleo de A 8

La alternativa de Fredholm se basa en el hecho que V = im(a) ker(a ) esto es, que cada vector v = v r + v k, v r im(a), v k ker(a ) y además v r v k -Esto no es siempre cierto en dimensión infinita 9

Pseudoinversa Idea: encontrar x tal que Ax b sea lo más chico posible, esto es mín x Ax b -Solución de mínimos cuadrados de Moore-Penrose (SMC): La SMC de Ax = b es A Ax = A b -Si A es inversible, entonces A 1 = (A A) 1 A -Si A no es inversible, la SMC no es única (ver definición en página 30 del libro) Cómo se calcula la SMC (Lectorum dejamus te!) 10

Descomposición en valores singulares (SVD) para una matriz A m n, con m n de rango máximo Idea: contruir dos bases ON {v 1, v 2,..., v n } en el espacio fila, y {u 1, u 2,..., u n } en el espacio columna de A tal que Av i = σ i u i 11

En forma matricial, la SVD reducida donde AV = Û ˆΣ o A = Û ˆΣV σ 1 σ 2 σ n > 0 son los valores singulares de A y Σ = diag(σ 1, σ 2,..., σ n ) La SVD completa A = UΣV donde U es una matriz unitaria m m, Σ es una matriz "diagonal"m n y U es una matriz unitaria n n 12

Comparación entre descomposición espectral (DE) y SVD -DE usa la misma base (no necesariamente ON) para construir la matriz de cambio de base, pero la SVD usa dos bases ON distintas -DE sólo está definida para matrices cuadradas; la SVD está definida para cualquier matriz -Para matrices simétricas definidas positivas, la SVD y la DE son iguales 13

Algunos usos de la SVD -rango de A, r es el número de valores singulares no nulos -im(a) =< u 1, u 2,..., u r >, ker(a) =< v r+1, v r+2,..., v n > - A 2 = σ 1 no nulos, con au- -Autovalores nonulos de AA son los σi 2 tovectores u i -Autovalores nonulos de A A son los σi 2 tovectores v i no nulos, con au- -Si A = A, σ i = λ i autovalores de A -Si A es cuadrada, det(a) = σ i 14

Aproximaciones de rango menor: A = r i=1 σ i u i v i donde u i v i son matrices de rango 1 (ejercicio) La mejor aproximación de rango ν de A con respecto a la norma 2 ( 2 ) es A ν = ν i=1 σ i u i v i con A A ν = σ ν+1 15

Aplicación: compresión de imágenes: se considera a una imágen como una matriz real. Se busca la mejor aproximación de orden ν, usando la SVD Se almacenan ν(m + n) en lugar de mn puntos. 16

Factorización QR Matriz de proyección P satisface P 2 = P v im(p ) si y sólo si P v = v v P v ker(p ) I P proyecta sobre núcleo de P im(p ) = ker(i P ), ker(p ) = im(i P ) im(p ) im(i P ) = 0 ker(p ) ker(i P ) = 0 Teorema:Toda proyeccón P induce una descomposición en suma directa de V, V = kep(p ) im(p ), donde cada vector v V se escribe como v = P v + (v P v) 17

Proyecciones ortogonales: ker(p ) im(p ) P es una proyección ortogonal si y sólo si P = P A(A A) 1 A es una proyección ortogonal, cuyo rango es im(a) -Si q R n es un vector unitario, P = qq es una proyeción ortogonal de rango 1, da las componentes en la dirección de q - I qq es una proyección ortogonal de rango n 1 y elimina las componentes en la dirección de q 18

La factorización QR produce una descomposición A = QR donde Q es unitaria y R es triangular superior [a 1 a 2... a n ] = [q 1 q 2... q n ] r 11 r 12... r 1n r 22..... r nn Idea: lograr una base ON para el espacio columna de A a partir una base del espacio columna de A Método: Gram Schimdt. Teorema:Toda matriz A n n tiene una factorización QR 19