Diagonalización de matrices



Documentos relacionados
4 APLICACIONES LINEALES. DIAGONALIZACIÓN

Anexo 1: Demostraciones

1 v 1 v 2. = u 1v 1 + u 2 v u n v n. v n. y v = u u = u u u2 n.

Aplicaciones lineales

TEMA 6. EIGENVALORES Y EIGENVECTORES

FORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores

Subespacios vectoriales en R n

E 1 E 2 E 2 E 3 E 4 E 5 2E 4

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases.

Matemáticas I: Hoja 3 Espacios vectoriales y subespacios vectoriales

PROBLEMA [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2.

Tema 3. Espacios vectoriales

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario)

Clasificación de métricas.

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1

Espacios generados, dependencia lineal y bases

Matrices equivalentes. El método de Gauss

Formas bilineales y cuadráticas.

Tema 3: Producto escalar

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS

TEOREMA DE DETERMINACIÓN DE APLICACIONES LINEALES

Tema 2. Espacios Vectoriales Introducción

Valores y vectores propios de una matriz. Juan-Miguel Gracia

1. ESPACIOS VECTORIALES

Práctica de Aplicaciones Lineales

Criterio de Sylvester

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Matrices Invertibles y Elementos de Álgebra Matricial

Tema 3: Aplicaciones de la diagonalización

Espacios vectoriales y aplicaciones lineales.

Valores propios y vectores propios

Transformaciones Lineales. Definiciones básicas de Transformaciones Lineales. José de Jesús Angel Angel.

Espacios vectoriales. Bases. Coordenadas

Objetivos: Al inalizar la unidad, el alumno:

Problema 1. (4 puntos) Sea f la aplicación lineal de R³ en R³ definida por f(1,3,4)=(2,6,8), f(1,1,1)=(2,6,8) y f(0,1,1)=(0,0,0).

Definición de vectores

Aplicaciones Lineales

Prácticas de Algebra con Mathematica II (Ingeniería Industrial). Jose Salvador Cánovas Peña. Departamento de Matemática Aplicada y Estadística.

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

1 Espacios y subespacios vectoriales.

Aplicaciones Lineales

Aplicaciones Lineales y Multilineales Continuas

Tema 1. VECTORES (EN EL PLANO Y EN EL ESPACIO)

6.1 Definición de valores y vectores característicos de una matriz cuadrada

Vectores y Valores Propios

Curso de Procesamiento Digital de Imágenes

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases.

Matrices. Definiciones básicas de matrices. José de Jesús Angel Angel.

GEOMETRÍA ANALÍTICA 2º Curso de Bachillerato 22 de mayo de 2008

PROPIOS. DIAGONALIZACIÓN DE MATRICES CUADRADAS

Sea un espacio vectorial sobre y sea un producto interno en ; entonces, : , y los vectores

Geometría Tridimensional

Ecuaciones de primer grado con dos incógnitas

Apuntes de Matemática Discreta 9. Funciones

Álgebra Lineal Ma1010

Tema 7: Valores y vectores propios

Álgebra y Matemática Discreta Sesión de Prácticas 10

1. Producto escalar, métrica y norma asociada

Estructuras algebraicas

Aplicaciones Lineales

1. INVERSA DE UNA MATRIZ REGULAR

TEMA 4: CALCULO NUMERICO DE AUTOVALORES

a < b y se lee "a es menor que b" (desigualdad estricta) a > b y se lee "a es mayor que b" (desigualdad estricta)

ÁLGEBRA DE MATRICES. Al consejero A no le gusta ninguno de sus colegas como presidente.

Polinomios: Definición: Se llama polinomio en "x" de grado "n" a una expresión del tipo

Vectores: Producto escalar y vectorial

1. El teorema de la función implícita para dos y tres variables.

VII. Estructuras Algebraicas

Tema 4: Aplicaciones lineales

4º ESO 1. ECUAC. 2º GRADO Y UNA INCÓGNITA

Espacios vectoriales con producto interno

EXPRESIONES ALGEBRAICAS. POLINOMIOS

Divisibilidad y números primos

Características de funciones que son inversas de otras

Qué son los monomios?

Profr. Efraín Soto Apolinar. Factorización

DIAGONALIZACIÓN. Diagonalización de Endomorfismos y Matrices. Conceptos fundamentales y ejemplos

Matemáticas I: Hoja 4 Aplicaciones lineales y diagonalización

Aplicaciones lineales continuas

Los polinomios. Un polinomio es una expresión algebraica con una única letra, llamada variable. Ejemplo: 9x 6 3x 4 + x 6 polinomio de variable x

1º) Siempre que se pueda, hay que sacar factor común: :a b ± a c ± a d ± = a (b ± c ± d ± ):

3. Equivalencia y congruencia de matrices.

Listas de vectores y conjuntos de vectores

no descompone no descompone no descompone

VECTORES EN EL ESPACIO. 1. Determina el valor de t para que los vectores de coordenadas sean linealmente dependientes.

Cambio de representaciones para variedades lineales.

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice

Funciones de varias variables

LÍMITES Y CONTINUIDAD DE FUNCIONES

y λu = Idea. Podemos sumar vectores y multiplicar por un escalar. El resultado vuelve a ser un vector Definición de espacio vectorial.

Tema 3. Polinomios y fracciones algebraicas

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR}

Al consejero A no le gusta ninguno de sus colegas como presidente. Dos consejeros (C y E) están de acuerdo en los mismos candidatos (B, C y D).

Métodos Iterativos para Resolver Sistemas Lineales

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

VECTORES EN EL PLANO

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales.

Análisis de medidas conjuntas (conjoint analysis)

Transcripción:

diagonalizacion.nb Diagonalización de matrices Práctica de Álgebra Lineal, E.U.A.T., Grupos ºA y ºB, 2005 Algo de teoría Qué es diagonalizar una matriz? Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible. Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D (si se puede) tales que A P D P La matriz P se llama matriz de paso. Puede que esto, al principio, no parezca más simple de lo que ya era A directamente. Sin embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para representar aplicaciones lineales, la expresión anterior puede verse como un cambio de base de la aplicación representada por A; entonces, esta forma de escribirlo dice: hay una base en la que la aplicación lineal A tiene una forma muy simple (diagonal). Esto es útil, por ejemplo, para clasificar una aplicación lineal y estudiar sus propiedades. Las matrices se usan para representar otras cosas como cónicas, cuádricas o formas bilineales, y en estos casos también resulta útil esta forma de expresarlas. La relación anterior entre las matrices A y D es importante y aparece en muchos contextos, así que tiene nombre propio: Cuando dos matrices cuadradas A y B verifican que A P B P para cierta matriz cuadrada P (invertible, claro) decimos que A y B son semejantes. Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos encontrar una matriz diagonal y una invertible de forma que la matriz se escriba como dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando es semejante a una matriz diagonal. En estas prácticas sólo consideraremos como diagonalizables las matrices que sean semejantes a una matriz diagonal real. Entonces, más exactamente: una matriz es diagonalizable cuando es semejante a una matriz diagonal real. Cuándo y cómo podemos diagonalizar una matriz? Si conseguimos escribir una matriz A como A P D P, entonces podemos poner también A P P D. Si D es diagonal y nos fijamos en la columna i de esta última igualdad lo que tenemos es que A x i Λ i x i (donde x i es la columna i de A y Λ i es el número en el lugar i de la diagonal de D). Esto nos dice que para diagonalizar una matriz nos hace falta conocer los vectores a los que les pase algo así. Estos vectores también tienen nombre:

diagonalizacion.nb 2 Si un número Λ y un vector no nulo x verifican la relación A x Λ x diremos que Λ es un valor propio o autovalor de la matriz A y que x es un vector propio o autovector de A asociado al valor propio Λ. Es fácil ver que diagonalizar una matriz A de tamaño n n es lo mismo que encontrar n vectores propios linealmente independientes asociados a valores propios reales, ya que entonces podemos ponerlos por columnas y conseguir así la matriz P (puedes comprobar que entonces se cumple la relación que buscamos). Entonces, para diagonalizar una matriz lo que tenemos que hacer es buscar n vectores propios suyos linealmente independientes asociados a valores propios reales. Cómo encontrar valores y vectores propios de una matriz? Es fundamental, pues, hallar los valores propios de A y los vectores propios asociados. Como un vector propio Λ hace que el sistema Ax = Λx tenga solución x distinta de cero, la matriz de coeficientes A ΛI (donde I denota la matriz identidad de orden n) debe tener determinante no nulo. Este determinante det(a Λ I) es un polinomio en Λ de grado n y se denomina polinomio característico de A. Por lo tanto, los valores propios de A serán los ceros del polinomio característico de A. Observa que una matriz puede perfectamente tener valores propios imaginarios. Por otro lado, el conjunto de vectores propios de A asociados a un mismo valor propio Λ forman un subespacio vectorial de R n que se llama subespacio propio asociado al valor propio Λ, y es el nú clea de la matriz A ΛI. Para concluir si una matriz A es o no diagonalizable bastará pues averiguar si hay "suficientes" valores propios reales para construir D y si hay "suficientes" vectores propios linealmente independientes asociados; esta información nos la dará la dimensión de los subespacios propios y queda recogida en el siguiente resultado: Una matriz real cuadrada de orden n es diagonalizable si y sólo si tiene n vectores propios linealmente independientes asociados a valores propios reales. Además, el teorema espectral nos confirma un caso en el que siempre es posible diagonalizar: Toda matriz real simétrica es diagonalizable. En este caso,se puede conseguir además que las columnas de la matriz de paso P sean una base ortonormal y por lo tanto que P sea una matriz ortogonal. Diagonalizar matrices usando Mathematica Un ordenador puede ayudarnos a encontrar los valores y vectores propios de una matriz fácilmente. Desde luego, siempre podemos hacer las mismas cuentas que hacemos a mano (encontrar el polinomio característico, hallar sus raíces, resolver los sistemas lineales necesarios...), pero Mathematica tiene dos órdenes útiles para esto: Eigenvalues y Eigenvectors (los nombres de estos comandos son las palabras en inglés para valor propio y vector propio, que a su vez toman su nombre del alemán). In[8]:= In[0]:= A 2, 2, 2, 6, 9, 7, 6, 3, 5; B,, 0, 0,,, 0, 0, ; A MatrixForm Out[0]//MatrixForm= 2 2 2 6 9 7 6 3 5

diagonalizacion.nb 3 In[]:= B MatrixForm Out[]//MatrixForm= 0 0 0 0 Eigenvalues nos da los valores propios de una matriz cuadrada: In[2]:= Out[2]= In[3]:= Out[3]= EigenvaluesA 8, 2, 2 EigenvaluesB,, Eigenvectors da una lista formada por vectores propios independientes de una matriz n n y posiblemente algunos vectores nulos. Estos vectores formarán una base cuando la matriz sea diagonalizable e incluirán vectores nulos cuando no lo sea: In[4]:= Out[4]= In[5]:= Out[5]= EigenvectorsA 0,,, 5, 3, 3, 20, 9, 9 EigenvectorsB, 0, 0, 0, 0, 0, 0, 0, 0 Nosotros sólo consideraremos una matriz como diagonalizable cuando sus valores propios sean todos reales: si no aparece ningún vector nulo ni ningún vector complejo en la salida de la orden Eigenvectors, la matriz es diagonalizable. Si no, no lo es. La orden Eigensystem da los mismos resultados que Eigenvalues y Eigenvectors, pero todo junto, y además con la seguridad de que los autovalores y los autovectores van en el orden correcto: el primer vector propio corresponde al primer valor propio, el segundo al segundo... In[6]:= Out[6]= EigensystemA 8, 2, 2, 0,,, 5, 3, 3, 20, 9, 9 Una última observación sobre estas órdenes: a veces es mejor escribir Eigenvalues[N[A]] en lugar de Eigenvalues[A] para obtener resultados numéricos en lugar de resultados exactos que no podemos manejar bien. Ejemplos Una matriz diagonalizable In[7]:= A 24, 0, 8, 7, 33, 4, 0, 0, 38; A MatrixForm Out[8]//MatrixForm= 24 0 8 7 33 4 0 0 38

diagonalizacion.nb 4 In[9]:= Out[9]= In[20]:= Out[20]= valorespropios, vectorespropios EigensystemA 9, 38, 38, 2,, 0, 4, 0, 7, 5, 7, 0 vectorespropios 2,, 0, 4, 0, 7, 5, 7, 0 Como el resultado son tres vectores (y ninguno de ellos es cero), sabemos que esta matriz es diagonalizable (si queréis podéis comprobar que estos vectores son de verdad independientes). Para diagonalizar la matriz A no tenemos más que elegir la siguiente como matriz P (los vectores propios, puestos por columnas): In[2]:= Out[2]= P Transposevectorespropios 2, 4, 5,, 0, 7, 0, 7, 0 Y como matriz D, la siguiente: In[22]:= Out[22]= In[23]:= Diag DiagonalMatrixvalorespropios 9, 0, 0, 0, 38, 0, 0, 0, 38 Diag MatrixForm Out[23]//MatrixForm= 9 0 0 0 38 0 0 0 38 In[24]:= Out[24]= A P.Diag.InverseP True Una matriz no diagonalizable In[25]:= B 0,, 0, 0, 0,, 2, 5, 4; MatrixFormB Out[26]//MatrixForm= 0 0 0 0 2 5 4 Probemos a hacer lo mismo con la matriz B: In[27]:= Out[27]= EigenvectorsB,,, 0, 0, 0,, 2, 4 Vemos que aparece un vector nulo en la lista anterior. Esto significa que Mathematica no ha podido encontrar tres vectores propios linealmente independientes (sólo ha encontrado dos) y que no podemos diagonalizar esta matriz. Otro ejemplo:

diagonalizacion.nb 5 In[28]:= Out[29]= M, 2, 3, 4, 5, 6, 7, 8, 9; EigenvaluesNM 3.2969, 0.85565 0.792805, 0.85565 0.792805 Esta matriz tiene valores propios que no son reales (aparecen números imaginarios). En este caso (aunque es posible diagonalizar estas matrices usando matrices con números complejos) diremos que esta matriz NO es diagonalizable. Si intentáis calcular sus vectores propios veréis que también se obtienen números complejos. Una matriz simétrica: diagonalización con matriz de paso ortogonal In[30]:= F,, 0,,, 0, 0, 0, 2; F MatrixForm Out[3]//MatrixForm= 0 0 0 0 2 In[32]:= valorespropiosf, vectorespropiosf EigensystemF General::spell : Possible spelling error: new symbol name "valorespropiosf" is similar to existing symbol "valorespropios". General::spell : Possible spelling error: new symbol name "vectorespropiosf" is similar to existing symbol "vectorespropios". Out[32]= 2, 2, 0, 0, 0,,,, 0,,, 0 Como hay tres vectores (en la segunda parte de la lista anterior) y ninguno nulo, podemos diagonalizar esta matriz (sabemos que siempre se puede con una matriz simétrica). Pero la matriz P obtenida no es ortogonal, y en el caso especial de una matriz simétrica nos gustaría que la matriz de paso lo fuera: In[33]:= Out[33]= In[34]:= Out[34]= P TransposevectorespropiosF 0,,, 0,,,, 0, 0 Esto no es la identidad P.TransposeP 2, 0, 0, 0, 2, 0, 0, 0, Para que además la matriz de paso sea ortogonal necesitamos conseguir tres vectores propios independientes que además formen una base ortonormal. Para eso debemos convertir en ortonormal la base vpf de forma que además sigan siendo vectores propios asociados a valores propios en el mismo orden. El proceso de Gram Schmidt nos permite esto. Podemos aplicar el proceso nosotros mismos o cargar en memoria un paquete que lo hace automáticamente ( cuidado con las comillas!): In[35]:= In[36]:= LinearAlgebra Orthogonalization vectorespropiosf2 GramSchmidtvectorespropiosF Out[36]= 0, 0,, 2, 2, 0, 2, 2, 0

diagonalizacion.nb 6 In[37]:= P TransposevectorespropiosF2 Out[37]= 0, 2,, 0, 2 2,,, 0, 0 2 In[38]:= Out[38]= In[39]:= Out[39]= In[40]:= Comprobamos que ésta sí es ortogonal P.TransposeP, 0, 0, 0,, 0, 0, 0, Definimos la matriz diagonal Diag DiagonalMatrixvalorespropiosF 2, 0, 0, 0, 2, 0, 0, 0, 0 MatrixFormDiag Out[40]//MatrixForm= 2 0 0 0 2 0 0 0 0 (Vemos que de verdad es diagonal) In[4]:= Out[4]= Comprobamos que de verdad diagonaliza F F P.Diag.InverseP True Ejercicios Diagonaliza la matriz A={{5,2,},{2,7,0},{,0, 3}}. Cuál es su polinomio característico? Cuáles son sus valores propios? 2 Calcula los valores propios de la matriz A={{2, 5, 0}, {0, 3, 5}, {0, 0, 3}} y las dimensiones de los subespacios propios asociados a cada uno. Determina si es diagonalizable. 3 Dada la matriz A={{3,0,2},{0,2,0},{2,0,0}}, a) Calcula sus valores propios y comprueba que es diagonalizable. b) Halla una matriz de paso ortogonal que la diagonalice. c) Obtén la expresión de A n (para cualquier n). 4 Dada la matriz A={{,,},{,, },{,,}}, a) Decide si A es diagonalizable. b) Calcula sus valores propios y vectores propios asociados. Da una base del subespacio de vectores propios asociado al valor propio 0. c) Encuentra una matriz P tal que A P D P t, con D una matriz diagonal. 5 Diagonaliza por semejanza ortogonal la matriz simétrica A={{,,0,0},{,0,2,0},{0,2,4,},{0,0,,2}}