Diagonalización de matrices. Kepler C k

Documentos relacionados
Autovalores y autovectores Diagonalización y formas canónicas

Tema 11.- Autovalores y Autovectores.

Resumen de Teoría de Matrices

Capítulo 1: Diagonalización de matrices

MMAF: Espacios normados y espacios de Banach

Tema 3: Espacios vectoriales

Espacios Vectoriales

1. ESPACIOS DE HILBERT Y OPERADORES

2. Ortogonalidad. En todo el capítulo trabajaremos sobre un espacio vectorial euclídeo U.

Tema 1: Espacios vectoriales

ALGEBRA 1- GRUPO CIENCIAS- TURNO TARDE- Espacios vectoriales

Tema 2: Espacios Vectoriales

Espacios vectoriales reales.

Tema 1. Espacios Vectoriales Definición de Espacio Vectorial

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21

Fundamentos Matemáticos de la Ingeniería. Tema 4: Diagonalización de matrices. Curso

Apéndice sobre ecuaciones diferenciales lineales

Espacios Vectoriales, Valores y Vectores Propios

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

520142: ALGEBRA y ALGEBRA LINEAL

PAIEP. Complemento Ortogonal

Espacios vectoriales

TEMA 8.- NORMAS DE MATRICES Y

Sistemas de Ecuaciones Lineales y Matrices

Descomposición en valores singulares de una matriz

Diagonalización simultánea de formas cuadráticas.

ALGEBRA. Escuela Politécnica Superior de Málaga

Estructuras Algebraicas

Capítulo 7. Espacios vectoriales. 7.1 Definición y ejemplos

Descomposición en forma canónica de Jordan (Segunda versión)

Tema II. Capítulo 5. Aplicaciones bilineales y formas cuadráticas.

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)

Problemas de exámenes de Aplicaciones Lineales y Matrices

Objetivos formativos de Álgebra

CAPÍTULO 4. Sistemas de ecuaciones lineales de primer orden

ÁLGEBRA LINEAL II Algunas soluciones a la práctica 2.3

FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R.

Ejemplo 1 Sea V un espacio con producto interno sobre un cuerpo K. A las transformaciones lineales T : V K las llamamos funcionales lineales.

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:

Matrices. José Vicente Romero Bauset. ETSIT-curso 2009/2010. José Vicente Romero Bauset Tema 1.- Matrices. 1

Apuntes de álgebra lineal. Eduardo Liz Marzán. Enero de 2015.

Polaridad. Tangentes. Estudio geométrico de cónicas y cuádricas

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

Es decir, det A = producto de diagonal principal producto de diagonal secundaria. Determinante de una matriz cuadrada de orden 3

TEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas.

Tema 4: Matrices y Determinantes. Algunas Notas sobre Matrices y Determinantes. Álgebra Lineal. Curso

ALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República

Algebra Lineal. Gustavo Rodríguez Gómez. Verano 2011 INAOE. Gustavo Rodríguez Gómez (INAOE) Algebra Lineal Verano / 21

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Problemas de Espacios Vectoriales

Modelización por medio de sistemas

CONCEPTOS BÁSICOS DE ESPACIOS VECTORIALES Alumno. Cristina Mª Méndez Suero

1 Aplicaciones lineales

TEMA 6 FORMAS BILINEALES Y PRODUCTO ESCALAR

EJERCICIOS DE SELECTIVIDAD DE ÁLGEBRA

Anillo de polinomios con coeficientes en un cuerpo

Anexo 1: Demostraciones

Diagonalización de matrices, Semejanza.

Transformaciones lineales y matrices

Introducción a los espacios vectoriales

Base y Dimensión de un Espacio Vectorial

2.1. Estructura algebraica de espacio vectorial

Universidad Nacional de Colombia Departamento de Matemáticas Álgebra Lineal - Grupo 1 Resumen Unidad n 3

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos

Espacios Vectoriales. Tema Introducción. 1.2 Repaso de Estructuras Algebraicas

Tema 2.- Formas Cuadráticas.

Espacios vectoriales. Capítulo Espacios vectoriales y subespacios Preliminares

Tema 5: Sistemas de ecuaciones lineales.

ÁLGEBRA MATRICIAL. 1. La traspuesta de A es A; (A ) = A. 2. La inversa de A 1 es A; (A 1 ) 1 = A. 3. (AB) = B A.

Diagonalización de matrices.

Un subconjunto no vacío H de un espacio vectorial V es un subespacio de V si se cumplen las dos reglas de cerradura:

Es trivial generalizar la definición al caso de varios conjuntos: A B C, etc.

Algebra lineal y conjuntos convexos

ELEMENTOS DE GEOMETRÍA. Eduardo P. Serrano

Trabajo Práctico N 5: ESPACIOS VECTORIALES

MATRICES DETERMINANTES

Diagonalización de Endomorfismos

de la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ).

como el número real que resulta del producto matricial y se nota por:

ESPACIOS VECTORIALES

MATRICES. M(n) ó M nxn A =

Tema I 1. EL CUERPO DE LOS REALES, EL CUERPO DE LOS COMPLEJOS

Introducción al Álgebra Lineal. Juan Rada Departamento de Matemáticas Facultad de Ciencias Universidad de Los Andes

Funciones de Clase C 1

APUNTES DE ÁLGEBRA LINEAL TEMA 2. SISTEMAS DE ECUACIONES LINEALES

Espacios topológicos. 3.1 Espacio topológico

MATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

Ejercicios del Tema 2: Estructuras algebraicas básicas

Matrices: repaso. Denotaremos con M m n el conjunto de matrices de tamaño m n, o sea, de m filas y n columnas. Una matriz A M m n es de la forma A =

Métodos directos para resolver sistemas de ecuaciones lineales

Transcripción:

Kepler C k 24

Índice. Problema de diagonalización 3.. Semejanza de matrices................................. 3.2. Valores propios y vectores propios........................... 3.3. Matrices y valores propios............................... 4.4. Polinomio característico................................ 4.5. Multiplicidad algebraica y geométrica......................... 5.6. Propiedades de los vectores propios.......................... 6.7. Propiedades de los valores propios........................... 7 2. Diagonalización 8 2.. Diagonalización de operadores y matrices....................... 8 3. Tipos de matrices y valores propios 9 3.. Matrices triangulares.................................. 9 3.2. Producto escalar.................................... 9 3.3. Método de Gram Schmidt............................... 3.4. Matrices simétricas. Diagonalización ortogonal.................... 3.5. Matrices estocásticas.................................. 3 3.6. Matrices idempotentes................................. 3 4. Teorema de Perron Fröbenius 4

. Problema de diagonalización Se plantea el siguiente problema: Dado un espacio vectorial V de dimensión n sobre el cuerpo IK = IR ó IC y T L(V ) un endomorfismo lineal, T : V V aplicación lineal el objetivo es encontrar condiciones que garanticen la existencia de una base de vectores de V respecto a la cuál la matriz asociada a T sea diagonal. Recordemos que una matriz D se dice que es diagonal si todos sus elementos excepto los de la diagonal principal son nulos, es decir, si es de la forma: d D =..... d nn Un caso particular de matriz diagonal es el de una matriz escalar, es decir, aquella que es de la forma k ki =..... k para algún escalar k IK... Semejanza de matrices Definición. Dos matrices cuadradas de orden n, A, B M n, son semejantes y se denota por A B, si existe una matriz invertible o regular P M n tal que B = P AP. La semejanza de matrices es una relación de equivalencia, pues cumple las propiedades reflexiva, simétrica y transitiva. Dos matrices son semejantes si y sólo si representan al mismo endomorfismo lineal de V en distintas bases, donde V es un espacio vectorial arbitrario de dimensión n sobre el cuerpo IK. La matriz P es la matriz del cambio de base..2. Valores propios y vectores propios Definición.2 Sea V un espacio vectorial sobre el cuerpo IK y sea T L(V ), diremos que un escalar λ IK es un valor propio o autovalor de T si existe un vector no nulo v V tal que T v = λv. En tal caso, se dice que v es un vector propio o autovector asociado al valor propio λ. Observación. El conjunto de vectores propios asociados a un valor propio λ junto con el vector nulo forman un subespacio vectorial de V que se llama subespacio propio asociado al valor propio λ. V (λ) = ker(t λi) = {v V T (v) = λv} Un vector propio no puede estar asociado a dos valores propios distintos; en efecto, supongamos que λ y µ son dos valores propios distintos y que existe un vector propio v V asociado a ambos, es decir, tal que T (v) = λv y T (v) = µv; entonces λv = µv (λ µ)v =, pero como λ µ se tendría que v =, lo cuál es una contradicción pues, por hipótesis, es v no nulo. 3

.3. Matrices y valores propios Proposición. Sean V un espacio vectorial de dimensión n sobre el cuerpo IK, T L(V ) un endomorfismo lineal y A la matriz asociada a T respecto de una base B = {v,..., v n } de V dada. Recordemos que las columnas de la matriz A son las coordenadas respecto de la base B de V de las imágenes por T de los vectores de dicha base. Entonces se verifican:. T (v) = λv Av = λv 2. dimv (λ) = n rg(a λi) 3. λ IK es un valor propio de A si y sólo si A λi = ( ). Si es v = n n α j v j, entonces T (v) = T α j v j = n α j T (v j ) = ( n n ) ( ) α j a ij v i = n n a ij α j v i = Av i= i= 2. Si f : V V es un endomorfismo lineal arbitrario se tiene que dim(v ) = dim ker(f) + dim Im(f) Como (T λi) es un endomorfismo lineal es claro. Recuérdese que por definición rg(a) = dim Im(T ) 3. Si λ IK es un valor propio de A, entonces existe un vector no nulo v V tal que Av = λv (A λi)v =. Si fuera A λi = entonces el sistema homogéneo de ecuaciones lineales (A λi)x = x donde X =. y =., tendría como solución única la trivial, es decir, X = x n con lo que se tendría que v =, lo cuál es una contradicción. Proposición.2 Si A, B M n son dos matrices semejantes entonces tienen los mismos valores propios; en efecto, P M n invertible tal que B = P AP luego B λi = P AP λi = P AP λp P = P (A λi)p = A λi Como consecuencia, si A, B M n son matrices asociadas a una misma aplicación lineal en distintas bases entonces tienen los mismos valores propios..4. Polinomio característico Definición.3 Si A M n es una matriz cuadrada de orden n se llama polinomio característico de A al polinomio de grado n dado por p(λ) = A λi 4

Se tiene que λ IK es un valor propio de A si y sólo si p(λ) =, es decir, si λ es una raíz del polinomio característico. Si A, B M n son dos matrices semejantes entonces tienen el mismo determinante y la misma traza; en efecto, B = P AP = P A P = A tr(b) = tr(p AP ) = tr(ap P ) = tr(ai) = tr(a). Este segundo resultado es consecuencia de la propiedad tr (MN) = tr (NM).5. Multiplicidad algebraica y geométrica Definición.4 Sean V un espacio vectorial de dimensión n sobre el cuerpo IK, T L(V ) un endomorfismo lineal, A la matriz asociada a T respecto de una base B dada y λ,..., λ r los distintos valores propios de T (o de A), se llama multiplicidad algebraica del valor propio λ i a su multiplicidad como raíz del polinomio característico, es decir, al exponente M i del factor (λ λ i ) en la descomposición factorial del polinomio p(λ), el cuál es el mayor exponente k tal que el polinomio (λ λ i ) k divide al polinomio p(λ). Se llama multiplicidad geométrica del valor propio λ i y se denota por m i a la dimensión del subespacio propio V (λ i ). Ejemplo. Hallar los valores propios y sus multiplicidades algebraica y geométrica de la matriz A = 2 Solución: λ A λi = 2 λ = = λ(λ 3)( λ) = λ Luego los valores propios de A son, 3 y. La multiplicidad algebraica M(λ) de cada uno de ellos es ; hallemos la multiplicidad geométrica m(λ) de cada valor propio. V () = {v IR 3 Av = } 2 v v 2 v 3 = v = v 2, v 2 = v 3 luego V () =< (,, ) >; por tanto, m() = dim V () = = M(). V (3) = {v IR 3 (A 3I)v = } 2 v v 2 = 2v = v 2, v 2 = 2v 3 luego 2 v 3 V (3) =< (, 2, ) >; por tanto, m(3) = dim V (3) = = M(3). V () = {v IR 3 (A I)v = } v v 2 = v 2 =, v 3 = v luego v 3 V () =< (,, ) >; por tanto, m() = dim V () = = M(). 5

.6. Propiedades de los vectores propios Proposición.3 Sean V un espacio vectorial de dimensión n sobre el cuerpo IK, T L(V ) un endomorfismo lineal, A la matriz asociada a T respecto de una base B dada y λ,..., λ r los distintos valores propios de T (o de A); se verifica que:. La multiplicidad geométrica de λ i es menor o igual que su multiplicidad algebraica, es decir, i =,..., r, es m i M i. 2. Los vectores propios asociados a valores propios distintos son linealmente independientes. 3. V (λ i ) j i V (λ j ) = {}, i =,..., r. Supongamos que dimv (λ i ) = m i y que {v,..., v mi } es una base de V (λ i ). Podemos completarla hasta formar una base de V, digamos {v,..., v mi, v mi +,..., v n }. La matriz asociada al endomorfismo lineal T respecto a esta nueva base es ( ) λi I H = mi B C donde B es una matriz de orden m i (n m i ) y C es una matriz cuadrada de orden (n m i ). Como H y A han de tener el mismo polinomio característico resulta r p(λ) = (λ λ j ) M j = λi n A = λi n H = (λ λ i )I mi λi n mi C = (λ λ i ) m i q(λ), donde q(λ) es un polinomio de grado (n m i ). Así pues, es claro que m i M i 2. Lo demostramos por inducción sobre k. Si es k = es claro (obsérvese que por ser vector propio no es nulo). Supongamos que la propiedad es cierta para cualquier familia de vectores de cardinalidad menor que k; entonces si α,..., α k son escalares tales que se deduce que y que o equivalentemente α v + + α k v k = λ k α v + + λ k α k v k = () A (α v + + α k v k ) = A = α A v + + α k A v k = α λ v + + α k λ k v k = (2) Si restamos las igualdades (2) y () se tiene: α (λ λ k ) v + + α k (λ k λ k ) v k = Por la hipótesis de inducción, como hay (k ) vectores, necesariamente es α i (λ i λ k ) =, i =,..., k, y como los valores propios eran todos distintos, se deduce que α = = α k = y consecuentemente de α k v k = se decuce que también es α k = c.q.d. 6

3. Sea v V (λ i ) V (λ j ); entonces v V (λ i ) y existen escalares tales que v = α j v j donde j i j i cada v j V (λ j ). Por tanto, Av = α j Av j λ i v = α j λ j v j j i j i y como la familia {v j } j i {v} es libre resulta una contradicción; así pues, necesariamente es v =..7. Propiedades de los valores propios Sea A M n una matriz cuyos valores propios son λ,..., λ n, entonces se verifica:. Los valores propios de A y de A t son los mismos. 2. A = A t = n λ j 3. Los valores propios de la matriz αa son αλ,..., αλ n. 4. Si A = entonces los valores propios de A son λ,..., λ n 5. λ p j es un valor propio de A p para cada j =,..., n. A t λi = A t (λi) t = (A λi) t = A λi = 2. Como existe una matriz triangular H semejante a A cuya diagonal principal está formada por los valores propios, resulta A = A t = H = n λ j 3. αa λi = α n A λ α I = A λ α I = λ α = λ i, i =,..., n λ = αλ i, i =,..., n 4. A λi = A (I λa) = I λa = Aλ I = A λ I = λ = λ i, i =,..., n λ = λ i, i =,..., n 5. A p λ p i I = A p (λ i I) p = A λ i I A p + λ 2 i A p 3 + + λ p i I = 7

2. Diagonalización 2.. Diagonalización de operadores y matrices Definición 2. Se dice que una matriz cuadrada A es diagonalizable si A es semejante a una matriz D diagonal. Si V es un espacio vectorial de dimensión n sobre el cuerpo IK se dice que T L(V ) es diagonalizable si existe una base de V respecto de la cuál la matriz asociada a T sea diagonal. Proposición 2. T L(V ) es diagonalizable si y sólo si existe una base de V formada por vectores propios. Teorema 2. Sean V un espacio vectorial de dimensión n sobre el cuerpo IK, T L(V ), λ,..., λ r los distintos valores propios de T y m,..., m r y M,..., M r sus multiplicidades geométricas y algebraicas respectivamente. Entonces T es diagonalizable si y sólo si se verifican las siguientes condiciones: a) M + + M r = n b) m j = M j, j =,..., r Observación 2. La condición a) es equivalente a que todas las raíces del polinomio característico de T, es decir, todos los valores propios de T, estén en IK. Corolario 2.2 Sea A M n con n valores propios distintos entonces A es diagonalizable. Observación 2.2 Si A M n es una matriz diagonalizable entonces la unión de las bases de los subespacios propios V (λ j ) constituye una base de V. La matriz regular P que tiene por columnas esta base de vectores propios es una matriz que cumple que la matriz D = P AP es diagonal. Ejemplo 2. Estudiar si la matriz A = 4 3 4 es diagonalizable y en caso afirmativo hallar una matriz de paso P. Solución: 4 λ A λi 3 = 3 λ = = (λ 3) 2 (5 λ) = 4 λ Luego los valores propios de A son 3 y 5. La multiplicidad algebraica de 5 es M(5) = y la de 3 es M(3) = 2; veamos la multiplicidad geométrica m(λ) de cada valor propio. V (5) = {v IR 3 (A 5I)v = } 2 v v 2 v 3 = v 3 = v, v 2 = luego V (5) =< (,, ) >; por tanto, m(5) = dim V (5) = = M(5). 8

V (3) = {v IR 3 (A 3I)v = } v v 2 = v = v 3 luego v 3 V (3) =< (,, ), (,, ) >; así es, m(3) = dim V (3) = 2 = M(3). Por tanto, A es diagonalizable; basta tomar la matriz y se cumple D = P AP si y sólo si 5 3 = 2 3 P = 2 4 3 4 3. Tipos de matrices y valores propios 3.. Matrices triangulares Proposición 3. Si A M n es una matriz cuadrada triangular de orden n entonces los valores propios de A son los elementos de la diagonal principal. Si A es una matriz triangular superior entonces A λi también lo es, luego y así, los valores propios de A, son a,..., a nn 3.2. Producto escalar Si x = x. x n, z = z. z n n A λi = (a jj λ) c.q.d. IKn, se define el producto escalar de x y z como sigue: n (x z) = x j z j = x t z Se dice que x y z son ortogonales si (x z) =. Un subconjunto F de IK n es ortonormal si para cada a F se verifica que la norma a = (a a) = y cualesquiera dos elementos distintos de F son ortogonales. Proposición 3.2 El producto escalar definido en IK n, es decir, ( ) : IK n IK n IK (x, z) (x z) = x t z es una forma sesquilineal, es decir, es una aplicación lineal en la primera variable y conjugado lineal en la segunda, que es hermítica y definida positiva; en efecto: 9

. (αx + βy z) = (αx + βy) t z = (αx t + βy t ) z = αx t z + βy t z = α(x z) + β(y z) (x αy + βz) = x t (αy + βz) = x t (αy + βz) = αx t y + βx t z = α(x y) + β(x z) α, β IK, x, y, z IK n, La restricción del producto escalar a IR n es bilineal (lineal en cada variable). 2. Se verifica que (x y) = (y x), x, y IK n En efecto, (x y) = x t y = y t x = y t x = (y x) 3. Si es x entonces (x x) = n x j 2 > 4. Si A es una matriz cuadrada de orden n con coeficientes en IK se verifica (Ax y) = (x Āt y) En efecto, (Ax y) = (Ax) t y = x t A t y = x t Āt y = (x Āt y), x, y IK n Así, como el conjunto IK n está dotado de un producto escalar se dice que es un espacio prehilbert. 3.3. Método de Gram Schmidt Proposición 3.3 Todo subespacio vectorial M de IK n tiene una base ortonormal; es más, cualquier subconjunto ortonormal de M se puede ampliar a una base ortonormal de M. Además, si {u,..., u r } es una base de M, es posible conseguir una base ortonormal {v,..., v r } de M tal que L(u,..., u k ) = L(v,..., v k ), k r donde L(u,..., u k ) denota el subespacio vectorial engendrado o generado por los vectores u,..., u k. Probamos la segunda afirmación por inducción sobre la dimensión de M. Si es r = y {u } es una base de M, basta tomar v = u u y así es {v } base ortonormal de M. Supongamos que el enunciado es cierto para subespacios de dimensión r y que M es un subespacio vectorial de IK n de dimensión r + siendo {u,..., u r+ } una base de M. Por la hipótesis de inducción, el subespacio generado por {u,..., u r } admite, al menos, una base ortonormal {v,..., v r } que verifica L(u,..., u k ) = L(v,..., v k ), k r; definimos ahora el vector r v = u r+ (u r+ v j )v j Es claro que v M y es no nulo, ya que {u,..., u r+ } una base de M. Además v es ortogonal a todos los v s, s =,..., r; en efecto, s r es r (v v s ) = (u r+ v s ) (u r+ v j )(v j v s ) = (u r+ v s ) (u r+ v s )(v s v s ) = Tomando ahora v r+ = v v resulta que {v,..., v r+ } es una base ortonormal de M que verifica el enunciado de la proposición. c.q.d.

3.4. Matrices simétricas. Diagonalización ortogonal Teorema 3. Sea A una matriz cuadrada de orden n simétrica y real; se verifican:. Todos los valores propios de A son reales. 2. Los vectores propios asociados a dos valores propios distintos de A son ortogonales respecto al producto escalar canónico de IR n. 3. Para cada valor propio de A su multiplicidad algebraica y geométrica coinciden. 4. A es diagonalizable.. Supongamos que λ Cl es un valor propio de A; entonces A λi = y si x IK n es un vector propio asociado se tiene que (Ax x) = (x Āt x) = (x Ax) = (Ax x) luego (Ax x) = (λx x) = λ x 2 = λ x 2 y como x, λ = λ y λ IR. 2. Sean λ y µ dos valores propios distintos de A y x, z dos vectores propios asociados respectivamente a ellos, entonces (Ax z) = (λx z) = λ(x z), (Ax z) = (x Āt z) = (x Az) = (x µz) = µ(x z) luego (λ µ)(x z) = y como λ µ se deduce que (x z) = y así x y z son ortogonales, c.q.d. 3. Para cada valor propio de A la multiplicidad algebraica coincide con la geométrica. Sean {λ,..., λ r } IR los valores propios de A con multiplicidades algebraicas M,..., M r respectivamente, las cuáles verifican r M j = n Sea W = V (λ ) V (λ r ) donde V (λ j ) es el subespacio propio asociado a λ j, j =,..., r y supongamos, por reducción al absurdo, que W IR n. Por tanto, su ortogonal no es nulo, es decir, W = {v IR n (v w) =, w W } = {} Sea T el operador a sociado a A y veamos que T (W ) W ; en efecto, si z W entonces w W, usando que Aw W, se cumple que (Az w) = (z Āt w) = (z Aw) = = Az W c.q.d. Finalmente, como la restricción de T a W es también simétrico, ha de existir algún valor propio y algún vector propio, por tanto, no nulo, asociado a él, digamos v W ; y esto es absurdo, pues se tendría que v W y así W W {}.

Corolario 3.2 Si A es una matriz cuadrada real y simétrica entonces es diagonalizable ortogonalmente, es decir, existe una matriz cuadrada regular P del mismo orden que es ortogonal y existe una matriz diagonal tal que D = P t AP Gracias al teorema anterior, es suficiente con tomar una base ortonormal de vectores propios que serán las columnas de P, y así P = P t. Ejemplo 3. Diagonalizar por semejanza ortogonal la matriz A = 3 3 3 Solución: Como A es real y simétrica es diagonalizable ortogonalmente. 3 λ A λi = 3 λ = = (λ 2) 2 (5 λ) = 3 λ Luego los valores propios de A son 5 y 2. La multiplicidad algebraica de 5 es M(5) = y la de 2 es M(2) = 2; veamos la multiplicidad geométrica m(λ) de cada valor propio. V (5) = {v IR 3 (A 5I)v = } 2 v 2 v 2 = v 3 = v = v 2 luego 2 v 3 V (5) =< (,, ) >; por tanto, m(5) = dim V (5) = = M(5). V (2) = {v IR 3 (A 2I)v = } v v 2 = v 3 v 3 = v v 2 luego V (2) =< (,, ), (,, ) >; así es, m(2) = dim V (2) = 2 = M(2). Para calcular la matriz ortogonal P hay que buscar una base ortonormal de vectores propios; normalizamos el vector de V (5), es decir, (,, ) y a partir de la base de V (2) hallamos otra base que sea ortogonal y que normalizaremos; basta coger el primero de ellos (,, ) y otro que sea combinación lineal de ambos pero que cumpla la condición de ortogonalidad. ((,, ) + α(,, )) (,, ) = α = 2 luego tomamos (,, ) y (, 2, ). Así pues es P = 2 6 3 2 3 6 6 3 2 2

y se cumple que P P t = I P = P t y que D = P t AP, es decir, 5 2 2 = 3 3 3 2 2 2 6 6 6 3 3 3 2 6 3 2 3 6 6 3 2 3.5. Matrices estocásticas Definición 3. Sea A M n una matriz cuadrada de orden n positiva, es decir, a ij >, i, j n; se dice que A es estocástica si la suma de los elementos de cada fila es, es decir, si n a ij =, i n Se dice que A es doblemente estocástica si es estocástica y además la suma de los elementos de cada columna es también, es decir, si n a ij =, j n i= Proposición 3.4 A es estocástica si y sólo si es un valor propio de A con vector propio asociado v = (,,..., ). A es doblemente estocástica si y sólo si es un valor propio de A con vector propio asociado v = (,,..., ) y lo mismo cumple su traspuesta A t. Si A es estocástica entonces n a ij =, i n = Av = v, donde v =. c.q.d. Si A es doblemente estocástica entonces también es n a ij =, j n = A t v = v, c.q.d. 3.6. Matrices idempotentes Definición 3.2 Sea A M n una matriz cuadrada de orden n, se dice que A es idempotente si A 2 = A. Proposición 3.5 Sea A M n una matriz idempotente; entonces. Los únicos valores propios de A son y. 2. Si las multiplicidades algebraicas de y de son respectivamente M() y M() entonces m() = M() y m() = M() donde m() = dimv () y m() = dimv (). 3. tr(a) = rg(a) = 3

. Si λ es un valor propio de A y x es un vector propio asociado a λ entonces λx = Ax = A 2 x = λ 2 x (λ λ 2 )x = y como es x resulta que λ( λ) = de donde λ = ó λ = c.q.d. 2. Por el apartado anterior, la descomposición factorial del polinomio característico de A es p(λ) = A λi = λ M() (λ ) M() y así, es M() + M() = n. Si denotamos por T al operador asociado a la matriz A respecto a la base canónica, veamos que se cumple IK n = V () V () Es claro que V () = ker(t ); además V () = ker(t I) = Im(T ); en efecto, si v V () entonces T (v) = v luego v Im(T ) y recíprocamente, si v Im(T ) entonces existe x IK n tal que v = T (x), luego T (v) = T 2 (x) = T (x) = v y así, v V (). Por tanto, es suficiente probar que IK n ker(t ) + Im(T ) y que ker(t ) Im(T ) = {}. Sea x IK n, entonces se cumple que x = (x T (x)) + T (x) kert + Im(T ) ya que T (x T (x)) = T (x) T 2 (x) = T (x) T (x) =. Por otra parte, si x kert Im(T ) = V () V () entonces T (x) = y T (x) = x luego x = c.q.d. En definitiva, n m() = m() M() = n M() = M() m() luego m() = M(); finalmente M() = n M() = n m() = m(), c.q.d. 3. Por el teorema de la dimensión se sabe que M() + M() = n = dim ker(t ) + rg(a) = M() + rg(a) luego rg(a) = M(). Por otra parte, como las matrices semejantes tienen la misma traza (también tienen el mismo determinante y el mismo polinomio característico) resulta que si es D = P AP con D la matriz diagonal... D =... tr (A) = tr (D) = + M() + = M() = rg (A), c.q.d. 4. Teorema de Perron Fröbenius Teorema 4. (Perron Fröbenius) Sea A M n una matriz cuadrada real de orden n no nula y tal que a ij >, i, j n entonces A tiene un valor propio real positivo que es mayor que el módulo de todos los demás valores propios de A y tal que tiene un vector propio asociado con todas sus componentes positivas. Notación: Si x IR n es tal que x j, j =,..., n, escribiremos x y si x IR n es tal que x j >, j =,..., n, escribiremos x > 4

Observación 4. En las hipótesis del teorema anterior si es x entonces Ax > Consideramos el conjunto C A = {t IR x, tal que Ax tx} Veamos que C A contiene algún número real positivo. Sea x = (,..., ), entonces el vector y = Ax verifica que y > ; por tanto, si tomamos ε = mín y j > se tiene que Ax = y εx luego ε C A. j n Como las aplicaciones x Ax y x tx son lineales en IR n podemos suponer en la definición de C A que n x j = Probamos ahora que C A es cerrado; sea {t m } una sucesión en C A que converge a t, es decir, {t m } t Para cada m IN existe x m con n (x m ) j = tal que Ax m t m x m luego al ser la sucesión {x m } IR n acotada admite una subsucesión convergente, digamos {x mk } x con x IR n. Como es x mk, m IN y n (x mk ) j = resulta que x y n x j =. Puesto que también es Ax mk t m x mk, k IN, al tomar límites se tiene y así, t C A, c.q.d. Ax tx Veamos ahora que C A está mayorado; en efecto, sea t C A y sea x con vector ( asociado ) a t. Sumando las coordenadas tenemos n t = t x j = n (tx) j n (Ax) j = n ( n ) a jr x r = r= ( ) n n x r a jr n n a ij = M. r= r= n x j = el Como C A es cerrado y mayorado tiene máximo que denotaremos por λ. Veamos que éste es el valor propio que buscamos. Como λ C A se cumple que existe x tal que Ax λ x. Veamos que necesariamente es Ax = λ x, es decir, que es un valor propio de A. Si fuera Ax λ x entonces < (A(Ax λ x)) j para cada j =,..., n y si llamamos y = Ax esto equivale a que para cada j resulta (Ay) j > λ y j y así existe ε > tal que Ay > (λ + ε)y luego (λ + ε) C A y esto contradice la maximalidad de λ ; en definitiva, Ax = λ x. Además, por la observación tenemos que Ax >, luego dicho vector propio x tiene todas sus componentes estrictamente positivas. Falta comprobar que λ es mayor que el módulo del resto de valores propios. Sea λ otro valor propio de A e y un vector propio asociado suyo. Si denotamos por y = ( y,..., y n ) se verifica que A( y ) Ay = λy = λ y luego λ C A y, por tanto, λ λ. De hecho, probaremos que si λ λ entonces es λ < λ ; en efecto, por ser A estrictamente 5

positiva, existe δ > suficientemente pequeño tal que A δ = A δi es también estrictamente positiva. Es claro que λ δ y λ δ son valores propios de A δ y que λ δ = máx C Aδ. Así pues, se tiene que λ δ λ δ. Por otra parte, si fuera λ λ pero λ = λ se tendría λ δ λ δ = λ δ = λ δ de donde λ δ = λ δ = λ δ, pero esto nos lleva a una contradicción; en efecto,. Si es λ IR entonces ha de ser λ = λ con lo que λ δ = λ δ λ + δ = λ δ δ = 2. Si es λ = a + bi Cl ha de ser a 2 + b 2 = λ 2 y, por tanto, λ δ 2 = (λ δ) 2 (a δ) 2 + b 2 = λ 2 + δ 2 2λ δ a 2 + δ 2 2aδ + b 2 = λ 2 + δ 2 2λ δ de donde, tras cancelar términos y simplificar, se deduce que a = λ y, por tanto, b = con lo que λ IR. En definitiva, si λ λ entonces λ < λ. c.q.d. Por tanto, al Rey de los siglos, inmortal, invisible, al único y sabio Dios, sea honor y gloria por los siglos de los siglos. Amén. Timoteo :7 Referencias [] Antonio Vera López, Introducción al Álgebra. Tomo I. Bilbao, 986. [2] https://www.coursehero.com/file/938347/presentación-tema-3/ 6