Resumen de Teoría de Matrices

Documentos relacionados
APÉNDICE A. Algebra matricial

Tema 11.- Autovalores y Autovectores.

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS

Matrices y determinantes (Curso )

Autovalores y autovectores Diagonalización y formas canónicas

Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES

c-inversa o inversa generalizada de Rao

Matrices y sistemas de ecuaciones lineales. Autovalores y autovectores.

ALGEBRA y ALGEBRA LINEAL

Capítulo 1: Diagonalización de matrices

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2

Podemos pues formular los dos problemas anteriores en términos de matrices.

Matrices, Determinantes y Sistemas Lineales.

Diagonalización de matrices. Kepler C k

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

Contenido. 2 Operatoria con matrices. 3 Determinantes. 4 Matrices elementales. 1 Definición y tipos de matrices

MATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

1 Autovalores y autovectores asociados a un endomor smo f. Diagonalización.

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

Matrices. José Vicente Romero Bauset. ETSIT-curso 2009/2010. José Vicente Romero Bauset Tema 1.- Matrices. 1

Álgebra Lineal. Tema 8. Valores y vectores propios. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Matemáticas II. Prácticas: Matrices y Determinantes ; C = 1 3 5

ÁLGEBRA LINEAL Problemas, 2006/2007

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

TEMA III: DIAGONALIZACIÓN.

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos.

Estos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones.

MATRICES OPERACIONES BÁSICAS CON MATRICES

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...

Matrices. Álgebra de matrices.

Matrices y Determinantes.

Clase 7 Herramientas de Álgebra Lineal

Matrices, determinantes y sistemas de ecuaciones lineales

Matrices y determinantes. Sistemas de ecuaciones lineales

Tema 2: Diagonalización

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

Aplicaciones Lineales. Diagonalización de matrices.

Soluciones de los problemas de álgebra lineal

Matrices, determinantes, sistemas de ecuaciones lineales.

Tema 3: Espacios vectoriales

Matrices Particionadas Traza de una Matriz

MATEMÁTICAS 2º BACH TECNOL. MATRICES. Profesor: Fernando Ureña Portero MATRICES

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).

TEMA 7. Matrices y determinantes.

ÁLGEBRA MATRICIAL. 1. La traspuesta de A es A; (A ) = A. 2. La inversa de A 1 es A; (A 1 ) 1 = A. 3. (AB) = B A.

Es decir, det A = producto de diagonal principal producto de diagonal secundaria. Determinante de una matriz cuadrada de orden 3

Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Departamento de Matemática Segundo Cuatrimestre de 2002 ÁLGEBRA LINEAL

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

A = , B = 2 2. a 11 a 1n a 21 a 2n A = a m1 a mn

MATRICES. M(n) ó M nxn A =

Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

Valores y Vectores Propios

Valores y vectores propios

1 SISTEMAS DE ECUACIONES LINEALES. MÉTODO DE GAUSS

Geometría afín y proyectiva, 2016 SEMANA 4

Preparaduría V. 1.- Sea A una matriz diagonal n n cuyo polinomio característico es

Algebra lineal Matrices

1. DIAGONALIZACIÓN Y FORMAS CANÓNICAS

Espacios Vectoriales

Tema 9: REDUCCIÓN POR SEMEJANZA DE UNA MATRIZ. DIAGONALIZACIÓN

ALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República

UNIVERSIDAD DE CONCEPCION FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS DEPARTAMENTO DE INGENIERIA MATEMATICA

6.7. Clasificación de formas cuadráticas

Matrices: repaso. Denotaremos con M m n el conjunto de matrices de tamaño m n, o sea, de m filas y n columnas. Una matriz A M m n es de la forma A =

Grado en Ciencias Ambientales. Matemáticas. Curso 10/11.

Matrices y Sistemas de Ecuaciones lineales

1. Matrices y determinantes

Sistemas de Ecuaciones Lineales y Matrices

1 Vectores de R n. Tema 1. Álgebra matricial. 1.2 Dependencia lineal

Matrices: Una ordenación de números dispuestos en filas y columnas, encerrados entre corchetes

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS.

Tema 5: Determinantes.

Guía de Matrices 2i, para i = j

CONJUNTO R n. = (5, 2, 10) de 3, son linealmente. = (2,1,3) y v 3. = (0,1, 1) y u 3. = (2,0,3, 1), u 3. = (1,1, 0,m), v 2

Sesión 18: Diagonalización (I) Método práctico para diagonalizar una matriz cuadrada A M nxn K

Diagonalización de matrices

Matrices y Determinantes

TEMA 7. DIAGONALIZACION Y Y FORMAS CANONICAS 1. ENDOMORFISMOS NILPOTENTES

Parte 3. Vectores y valores propios

1 ÁLGEBRA DE MATRICES

de la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ).

MATEMÁTICA LIC. Y PROF. EN CS. BIOLÓGICAS

Tema 4: Sistemas de ecuaciones lineales.

Tema 3: MATRICES. Prof. Rafael López Camino Departamento de Geometría y Topología Universidad de Granada

Transcripción:

Resumen de Teoría de Matrices Rubén Alexis Sáez Morcillo Ana Isabel Martínez Domínguez 1 de Octubre de 2004 1. Matrices. Generalidades. Definición 1.1. Se llama matriz de orden m n sobre un cuerpo K a un conjunto de (mn) escalares de k ordenados en m filas y n columnas. a 11 a 12... a 1n a 21 a 22... a 2n M =...... a m1 a m2... a mn Definición 1.2. Para matrices del mismo orden, A m n y B m n, se define la matriz suma, C m n = A m n + B m n, de la siguiente forma: m n c ij = a ij + b ij, i = 1,..., m, j = 1,..., n. Definición 1.3. Dada la matriz A m n y un escalar α K, entonces la matriz C = αa (producto de un escalar por una matriz) se obtiene como c ij = αa ij, i = 1,..., m, j = 1,..., n. Definición 1.4. Dadas dos matrices B l m y A m n, se define la matriz producto C l n = B l m A m n como sigue m c ij = b ir a rj, i = 1,..., l, j = 1,..., n. r=1 Nota 1.1 (Propiedades de la suma y producto por un escalar de matrices). Sean A, B M m n y α, β R a) La suma de matrices cumple que: 1. A + B = B + A. 2. A + (B + C) = (A + B) + C. 3. 0 M m n /A + 0 = A A M m n. 4. A M m n, ( A) M m n /A + ( A) = 0. b) El producto de una matriz por un escalar verifica que: 5. α(a + B) = αa + αb. 6. (α + β)a = αa + βa. 7. (αβ)a = α(βa). 8. 1 R/1 A = A, A M m n. Nota 1.2. Que se cumplan estas ocho operaciones implica que el conjunto M m n de todas las matrices, dotado de las operaciones suma y producto por un escalar, es un espacio vectorial. Además, dicho espacio vectorial será de dimensión mn. 1

Nota 1.3 (Propiedades del producto de matrices). Sean A, B, C y D matrices de números reales cualesquiera, tales que A M m p, B M p q y C, D M q n. El producto de matrices verifica que: 1. No es conmutativo. 2. (AB)C = A(BC). 3. I m, I p, A M m p /I m A = A, AI p = A. 4. A m p 0 p s = 0 m s, 0 s m A m p = 0 s p. 5. B(C + D) = BC + BD. 6. rg(ab) mín {rg(a), rg(b)}. 7. Si rg(a) = r mín {m, p} = C 1 m r, C 2 r p/a = C 1 C 2. Definición 1.5. Dada una matriz A m n, se dice que es cuadrada si m = n. Definición 1.6. Dada una matriz cuadrada A n, se dice que es la matriz identidad si verifica que: { 0 si i = j a ij =. 1 si i j Definición 1.7. Dada una matriz cuadrada A n, se dice que la matriz cuadrada B n es la inversa de la matriz A si verifica que AB = BA = I n, y se denota B = A 1. Proposición 1.1. Dada A n n se verifica que existe A 1 si, y sólo si, la matriz A es de rango completo, esto es, rg(a) = n. Nota 1.4 (Propiedades de la inversa de una matriz). Sean A, B M n /rg(a) = rg(b) = n. Se verifica que: 1. A 1 matriz inversa de A, y ésta es única. 2. (A 1 ) 1 = A. 3. (AB) 1 = B 1 A 1. 4. Si C M n, rg(c) = n, AC = I n = CA = I n y C = A 1. Recíprocamente, si CA = I n = AC = I n y C = A 1. Definición 1.8. Dada una matriz cuadrada A de orden n, se define la traza de A, que se denota por tr(a), como el valor de la suma de todos los elementos de la diagonal principal de A, es decir, Proposición 1.2. Se tiene que: tr(a) = n a ii. i) Sean A n, B n M n y α R, entonces tr(a + B) = tr(a) + tr(b) y tr(αa) = αtr(a). ii) Sean A m n y B n m, entonces tr(ab) = tr(ba). Nota 1.5. Cabe destacar que: a) La aplicación tr : M n K es lineal. i=1 b) No es cierto, en general, que la traza del producto de matrices sea equivalente al producto de las trazas de dichas matrices (tomar A = B = I n ). c) Si A es una matriz invertible, no se que cumple que tr(a 1 ) = 1 tr(a) (tomar una matriz diagonal cuyos elementos de la diagonal principal sean no nulos). 2

Definición 1.9. Dada una matriz A m n, se define la matriz traspuesta, M n m = A t, como: m ij = a ji, i = 1,..., n, j = 1,..., m. Proposición 1.3. Dadas A, B M m n, C M n p y α R se cumple que: 1. (A + B) t = A t + B t y (αa) t = αa t. 2. (AC) t = C t A t. 3. (A t ) t = A. 4. rg(a) = rg(a t ). 5. Si A M n = tr(a) = tr(a t ) y A = A t. 6. Si A M n y es invertible = (A 1 ) t = (A t ) 1. 7. Si A t A = 0 n = A = 0 n. 8. Si tr(a t A) = 0 = A = 0 n. 9. rg(a) = rg(a t A) = rg(aa t ). En particular, si m > n y rg(a) = n, la matriz A t A es no singular. Definición 1.10. Sea A n una matriz cualquiera, se denomina determinante de la matriz A, a la aplicación f : M n R A α R, y se denota por A o det(a). Nota 1.6 (Propiedades de los determinantes). Dadas A n, B n, C n M n y α R, se verifica que i) Si las matrices A, B y C difieren exclusivamente en los elementos de la columna j 0 siendo los elementos de esta columna para la matriz C la suma de los respectivos elementos de la columna j 0 de las matrices A y B, entonces A + B = C. El mismo resultado se cumple cuando las tres matrices difieren de igual forma en una fila. ii) Si se multiplica sólo una fila (o columna) de A por un escalar α, el valor del determinante también queda multiplicado por α. iii) αa = α n A. iv) Si A = 0 n = A = 0. v) Si A es una matriz con una fila (o columna) cuyos elementos son todos nulos, entonces A = 0. vi) La suma de los productos de los elementos de una fila (o columna) de una matriz A por los adjuntos de una fila (o columna) paralela diferente es igual a cero. vii) Si en una matriz A a una de sus filas (o columnas) se le suma una combinación lineal de las filas (o columnas) paralelas, el determinante de la matriz resultante es también A. viii) Se tiene que: a) AB = A B. b) A k = A k, k N. c) Si A es no singular, entonces A 1 = 1 A. Definición 1.11. Dadas dos matrices, A m n y B m n, se dice que son equivalentes si existen matrices invertibles, P m m y Q n n, tales que A = P BQ (B = P 1 AQ 1 ). 3

Definición 1.12. Dadas dos matrices, A n y B n, se dice que son semejantes si existe una matriz invertible Q n tal que A = QBQ 1 (B = Q 1 AQ). Definición 1.13. Dada una matriz A n, se dice que es triangular superior si a ij = 0, i > j, i, j = 1,..., n. Se dice que A n es triangular inferior si a ij = 0, i < j, i, j = 1,..., n. Se dice que A n es diagonal si a ij = 0, i j, i, j, = 1,..., n. Proposición 1.4. Dadas A, B M m n matrices triangulares superiores (inferiores) y α R, se verifica: 1) A + B y αa son triangulares superiores (inferiores). 2) AB es triangular superior (inferior). 3) Si A tiene inversa, A 1 es triangular superior (inferior). 4) El rango de A es siempre mayor o igual al número de elementos de la diagonal principal de A no nulos. 5) A = n i=1 a ii Nota 1.7. Se debe tener en cuenta que: a) En general, el resultado que se indica en la cuarta propiedad no se verifica con igualdad. b) De la cuarta propiedad se puede extraer la siguiente proposición: A es regular o invertible a ii 0, i = 1,..., n. c) Al verificarse la primera propiedad, el conjunto de las matrices triangulares superiores (inferiores, diagonales) forman un subespacio vectorial sobre el cuerpo K. Proposición 1.5. Toda matriz cuadrada se puede descomponer como producto de una matriz triangular superior por una matriz triangular inferior. Definición 1.14. Dada una matriz A n, se dice que es simétrica si A = A t. Por contra, se dirá que es antisimétrica si A = A t. Proposición 1.6. Sean las matrices A n y B n, y α R. Si A y B son simétricas, se verifica que: 1) A + B y αa son simétricas. 2) A es simétrica si, y sólo si, A = A t. 3) Cuando AB = BA = AB es simétrica. Sin embargo, esto no es cierto si A y B no conmutan en el producto. 4) Si A es invertible, entonces A 1 es simétrica. 5) Dada una matriz cualquiera C m n = CC t y C t C son simétricas. Si A y B son antisimétricas, se cumple que: 6) A + B y αa son antisimétricas. 7) A es antisimétrica si, y sólo si, A = A t. 8) Cuando AB = BA = AB es antisimétrica. Sin embargo, esto no es cierto si A y B no conmutan en el producto. 9) Si A es invertible, entonces A 1 es antisimétrica. 10) A = ( 1) n A y, en particular, para n impar, A = 0. Nota 1.8. Al cumplirse las propiedades primera y sexta, se tiene que las matrices simétricas o antisimétricas del mismo orden forman un subespacio vectorial sobre K. 4

Proposición 1.7. Toda matriz se puede expresar como suma de una matriz simétrica y una matriz antisimétrica. Proposición 1.8. Si A n es una matriz antisimétrica, entonces x t Ax = 0, x K n. Definición 1.15. Dada una matriz A n, se dice que es hermítica si m ij = m ji, i, j = 1,..., n, donde m ij es el conjugado del número complejo m ij. Proposición 1.9. Sean A n y B n matrices hermíticas y α R. Entonces, 1) A + B y αa son hermíticas. 2) Si AB = BA, la matriz AB es hermítica. Sin embargo, si A y B no son conmutativas en el producto, en general AB no es hermítica. 3) A t es hermítica. 4) La matriz conjugada de A, esto es Ā, es hermítica. 5) Si A es invertible, su matriz inversa, A 1, es hermítica. 6) El determinante de A es un número real. Nota 1.9. Cabe destacar que a) Por cumplirse la primera propiedad, el conjunto de matrices hermíticas forman un subespacio vectorial sobre el cuerpo K. b) Los elementos de la diagonal principal han de ser números reales, ya que deben cumplir la definición (a = ā = a R). Definición 1.16. Dada una matriz A m n, se dice que es no negativa si a ij 0, i, j. Se denota por A m n 0 m n. Se dice que A m n es semipositiva si a ij 0, i, j y A m n 0 m n. Lo denotaremos por A m n > 0 m n. Se dice que A m n es positiva si a ij > 0, i, j. Se denota como A m n >> 0 m n. Nota 1.10. La suma de matrices no negativas sigue siendo una matriz no negativa del mismo tipo. Sin embargo, esta propiedad no se verifica con el producto de matrices. Proposición 1.10. Si A n y B n son positivas y α R +, se tiene que: 1) A + B y αa son positivas. 2) AB es una matriz positiva. 3) k N, A k es positiva. 4) A t es una matriz positiva. Nota 1.11. Los coeficientes de las matrices no negativas siempre pertenecen al cuerpo de los números reales, ya que en los complejos no está definido un orden total. Definición 1.17. Dada una matriz A n, se dice que es ortogonal si AA t = A t A = I n. Proposición 1.11. Sean A n y B n matrices ortogonales, entonces 1) AB y BA son matrices ortogonales, pero en general, no lo son A + B y αa, α R. 2) El valor de A es igual a 1 ó 1. 3) El rango de A es n. 4) A es invertible, su inversa, A 1, es ortogonal y A 1 = A t. 5

5) Si C es una matriz cuadrada tal que CC t = I n entonces, C t C = I n y, recíprocamente, si C t C = I n se tiene también que CC t = I n. Por tanto, basta que C cumpla una de las dos condiciones para que sea ortogonal. 6) Si C n es antisimétrica entonces, A = (I n C)(I n + C) 1 es una matriz ortogonal. 7) Si h t h = 1 entonces, A = I n 2hh t es una matriz ortogonal. Las matrices así definidas se les denomina matrices Householder. Definición 1.18. Dada una matriz A n, se dice que es - idempotente si A 2 = A. - unipotente si A 2 = I n. - nilpotente si A 2 = 0 n. Proposición 1.12. Sean A n y B n a) Si A y B son idempotentes, se verifica que 1. AB es idempotente siempre que AB = BA. 2. Dada cualquier C n, si C t C = C, la matriz C es simétrica e idempotente. 3. El valor de A es 0 ó 1. Si A = 1 se tiene que A = I n. 4. rg(a) = tr(a). 5. Si A es simétrica con rg(a) = r, entonces existe C n r con rg(c) = r tal que A = CC t y C t C = I r. 6. I n A es una matriz idempotente y rg(i n A) = n rg(a). Sin embargo, A I n no es idempotente. 7. Si C n k con k < n y rg(c) = k, entonces la matriz A = C(C t C) 1 C t es simétrica e idempotente, al igual que à = I n A. b) Sea A n una matriz unipotente, entonces se verifica que 8. A = 1 ó A = 1. 9. rg(a) = n y, por tanto, existe A 1 y, además, A 1 = A. c) Sea A n una matriz nilpotente, entonces se verifica que 10. A = 0 y, por tanto, nunca existe A 1 y rg(a) < n. 11. La matriz I n A es invertible y su inversa es (I n A) 1 = I n + A. Definición 1.19. Una matriz A n 0 se dice que es estocástica si la suma de los elementos de cada fila es igual a la unidad, es decir, 1 1 1 A. = 1.. 1 1 Se dice que es doblemente estocástica si A y A t son estocásticas. Proposición 1.13. Si A n y B n son estocásticas (doblemente estocásticas) se verifica 1. AB es estocástica (doblemente estocástica). 2. k N, A k es estocástica (doblemente estocástica). 3. Cuando A es doblemente estocástica, A t también lo es. Definición 1.20. Una matriz A n 0 se dice que es primitiva si existe k N tal que A k >> 0. 6

Nota 1.12. Es obvio que si la matriz es positiva, también será primitiva. Definición 1.21. Una matriz cuadrada, A n, con coeficientes reales, se dice que tiene diagonal dominante si n a jj > a ij, j. 2. Autovalores y autovectores. i=1,i j Definición 2.1. Un escalar λ K se dice que es un autovalor de la matriz A n n, si existe un vector v, v 0, tal que Av = λv. Al vector v se le denomina autovector o vector propio. Nota 2.1. Cabe destacar que a) El autovector v asociado a un autovalor λ no es único, ya que si Av = λv, entonces, α K se verifica que A(αv) = λ(αv) y, por tanto, αv es también un vector propio de A asociado a λ. b) Si λ es una autovalor de A, el conjunto E(λ) = {v/av = λv} es un subespacio vectorial no trivial, E(λ) {0}. c) Un autovector está asociado a un único valor propio. Proposición 2.1. Las siguientes condiciones son equivalentes: i) λ K es autovalor de A. ii) El sistema homogéneo (A λi n )x = 0 es compatible indeterminado. iii) A λi n = 0. Definición 2.2. Dada una matriz A cuadrada de orden n, se denomina polinomio característico de A al polinomio de orden n P n (λ) = A λi n. Siendo P n (λ) = 0 la ecuación característica de la matriz A. Nota 2.2. Cabe tener en cuenta que a) Es claro que los autovalores de una matriz A M n son las raíces de su ecuación característica P n (λ) = A λi n = 0. b) Si el polinomio característico P n (λ) de la matriz A se puede expresar en la forma P n (λ) = (λ λ i ) r Q n r (λ), siendo Q n r (λ) un polinomio de orden n r, (r < n) tal que Q n r (λ i ) 0. Entonces, se dice que λ i es un autovalor de A con multiplicidad algebraica m i = r. c) Dada una matriz A, si λ es uno de sus autovalores, todos los vectores no nulos solución del sistema homogéneo de n ecuaciones compatible indeterminado (A λ I n )x = 0 serán autovectores asociados a λ. d) Si P n (λ) = A λi n es el polinomio característico de la matriz A M n, entonces, para cualquier B M n no singular, se verifica que las matrices C = BAB 1 y D = B 1 AB tienen el mismo polinomio característico que A. Teorema 2.1 (de Cayley Hamilton). Toda matriz cuadrada A n es raíz de su polinomio característico. Proposición 2.2. Si A es una matriz de orden n, se tiene que A λi n = ( λ) n + ( λ) n 1 tr(a) + ( λ) n 2 tr 2 (A) + ( λ) n 3 tr 3 (A) +... + A, siendo tr i (A), i = 2, 3,..., n 1, la suma de todos los menores de orden i que contienen en su diagonal principal i elementos de la diagonal principal de A. 7

Nota 2.3. Si λ 1, λ 2,..., λ n son las raíces de P A (λ) entonces, P A (λ) = ( λ) n + ( λ) n 1 (λ 1 + λ 2 +... + λ n ) + ( λ) n 2 tr 2 (A) +... + (λ 1 λ 2 λ n ). Además, los coeficientes de ( λ) n k, k = 2, 3,..., n 1, es la suma de los k productos distintos de las raíces. Proposición 2.3. Sean A M n y B M m dos matrices cuyos autovalores son los escalares λ 1,..., λ n y µ 1,..., µ m, respectivamente. Estos autovalores pueden ser reales o complejos, iguales o distintos. Se verifica que: i) Los autovalores de A t coinciden con los de la matriz A. ii) El número de autovalores nulos de una matriz A de rango r < n es mayor o igual que n r. iii) A = n i=1 λ i. iv) tr(a) = n i=1 λ i. v) Los autovalores de la matriz αa, α R (o C), con α 0 son αλ i, i = 1,..., n. vi) Si A es no singular, entonces los autovalores de A 1 son 1 λ i, i = 1,..., n. vii) Para cualquier número natural k no nulo, los autovalores de A k son λ k i, i = 1,..., n. viii) Si A es una matriz de orden n con elementos pertenecientes a R tal que sus autovalores λ i, i = 1,..., n, son reales, entonces para todo p, número natural impar, los autovalores de A 1/p son λ 1/p i, i = 1,..., n. Si p es par esta propiedad se verifica siempre que λ i 0, i = 1,..., n. ix) Si λ i 1, i = 1,..., n, entonces I n + A es invertible, siendo 1 + λ i, i = 1,..., n, sus autovalores y 1 1+λ i, i = 1,..., n, los de su inversa. Nota 2.4. Dadas dos matrices A y B de orden n, la suma de un autovalor de A con uno de B en general no es un autovalor de A + B, a pesar de verificarse iv) y que tr(a + B) = tr(a) + tr(b). Del mismo modo, aunque AB = A B y se cumple la propiedad iii), no se verifica que si λ y µ son autovalores de A y B, respectivamente, entonces λµ lo sea de AB. Proposición 2.4. Sea A M n, a ij K con i, j = 1,..., n, una matriz de orden n cuyos autovalores son λ 1,..., λ r K, con multiplicidades algebraicas m 1,..., m r, respectivamente, siendo r i=1 m i = n. Se verifica que i) Los autovectores correspondientes a autovalores distintos son linealmente independientes. ii) Si K = C y la matriz A tiene como autovalor λ C y su conjugado λ entonces, el autovector v asociado a λ es el conjugado del autovector w asociado a λ. Proposición 2.5. Dada una matriz A de orden n triangular superior (respectivamente inferior o diagonal), se verifica que los autovalores de A son los elementos de su diagonal principal, es decir, a ii, i = 1,..., n. Proposición 2.6. Dada una matriz simétrica cuyos elementos son números reales y u, v son autovectores de A asociados con autovalores λ, µ, (λ µ) entonces, u, v son ortogonales (u t v = 0). Proposición 2.7. Dada una matriz simétrica A, cuyos elementos son números reales, se verifica que sus autovalores son números reales. Proposición 2.8. Dada una matriz A cuadrada de orden n se verifica que a) Si A es idempotente, entonces 1. Sus autovalores son iguales a 0 ó a 1. 2. tr(a) = rg(a). 8

3. Si m 0 es la multiplicidad algebraica de λ = 0 y m 1 la de λ = 1, entonces la dimensión de los subespacios de vectores V (0) y V (1) es m 0 y m 1, respectivamente. b) Si A es unipotente, entonces 4. Todos sus autovalores son iguales a 1 ó 1. c) Si A es nilpotente, entonces 5. Todos sus autovalores son nulos. Proposición 2.9. Sea A = (a ij ) con a ij 0, es decir, una matriz semipositiva. Entonces se verifica que i) A es estocástica si, y sólo si, λ = 1 es un autovalor de A con autovector asociado v = (1,..., 1). ii) A es doblemente estocástica si, y sólo si, λ = 1 es uno de los autovalores tanto de A como de A t, siendo v = (1,..., 1) su autovector asociado. Teorema 2.2 (del círculo de Gershgorin). Si A n es una matriz cuadrada de orden n y λ es un valor propio de A entonces, n n λ D i con D i = z C/ z a ii a ij i=1 j=1,j i Corolario 2.1. Dada A n una matriz cuadrada de orden n y λ un valor propio de A se verifica que ( n ) ( n ) λ D i, donde los D t i son los D i de A t. i=1 Nota 2.5. Como consecuencia del Teorema del Círculo i=1 λ a ii λ a ii = λ D t i n a ij = r i. Es decir, a la anterior suma le añadimos el elemento a ii por lo que ahora el valor absoluto de los λ lo calcularemos sumando filas. De esta forma j=1 λ máx {r 1, r 2,..., r n } = r, λ. Si cogemos la suma más grande se cumplirá que todos los autovalores están en la bola de centro cero y radio el valor de dicho máximo. Razonando de modo análogo, el resultado para las columnas sería λ máx {c 1, c 2,..., c n } = c, λ. Además, por el corolario del Teorema del Círculo, se cumplirá que λ mín {c, r }, λ. Como todas las bolas están centradas en el origen, nunca podemos descartar que λ = 0 sea autovalor (y, por tanto, a priori no sabemos si tiene inversa). A este resultado se le conoce como Teorema de Fisher. Nota 2.6. En las matrices con diagonal dominante Y, por tanto, se tiene que λ 2 a ii para algún i. λ 2 máx { a 11, a 22,..., a nn }. Definición 2.3. Dadas dos matrices A m n y B m n se dice que λ es un autovalor generalizado de A con respecto a B si existe un vector v R n (ó C n ), v 0, de modo que Av = λbv. Al vector v se le denomina autovector generalizado asociado a λ. 9

3. Matrices semipositivas. Definición 3.1 (permutaciones fila columna). Se realiza una permutación fila columna si al intercambiar la fila i con la fila j, i j, a continuación se intercambia la columna i por la columna j. Definición 3.2. Una matriz A n n se dice que es descomponible si mediante permutaciones fila columna se puede expresar de la forma ) (Ã11 Ã 12, 0 Ã 22 donde Ã11 y Ã22 son submatrices cuadradas. En caso contrario, se dice que la matriz es indescomponible. Proposición 3.1. Sea A n n, A 0 una matriz indescomponible y x > 0, entonces Ax > 0. Nota 3.1. La anterior proposición se puede escribir como: A n n 0 indescomponible = Ker(A) R n + = {0}, donde R n + = { x R n /x i 0, i}, lo cual no implica que el núcleo sea cero, sino que en el núcleo no hay vectores con todas las componentes no negativas. Proposición 3.2. Si A n n 0 es indescomponible, entonces (αi + A) n >> 0, α R +, es decir, (αi + A) es primitiva. Corolario 3.1. Si A n n 0 es indescomponible y a ii > 0, i = 1,..., n, entonces A n >> 0, es decir, A es primitiva. Nota 3.2. Del corolario anterior deducimos que una matriz descomponible jamás será primitiva. Nota 3.3. Dada A = (a ij ) n n llamamos a ij (k) al término (i, j) de la matriz A k. Proposición 3.3. Si A n n 0, indescomponible, entonces para todo (i, j) existe una potencia k, tal que a ij (k) > 0. Nota 3.4. Este resultado no implica que la matriz sea primitiva, sino que para una determinada potencia el término (i, j) es positivo, pero nada nos asegura que en las potencias anteriores o siguientes lo sea. Corolario 3.2. Si A n n 0 es primitiva, entonces es indescomponible. Definición 3.3. Dada una matriz A n n, se llama espectro (o radio espectral) de A al número real ρ(a) = máx { λ, λ autovalor de A}. Teorema 3.1 (de Perron). Dada una matriz positiva, A n n >> 0, entonces posee un autovalor λ > 0 tal que λ posee asociado un autovector v >> 0 y λ = ρ(a). Corolario 3.3. En las condiciones del Teorema de Perron, se verifican las siguientes propiedades adicionales: P1) λ > λ, λ autovalor de A, λ λ. P2) Si B > A >> 0 entonces, λ B > λ A. P3) Ningún autovalor λ λ A posee asociado un autovector u > 0. Proposición 3.4. Sea A n n 0, entonces mín r j λ A máx r j, j = 1,..., n, donde n r j = a jk. k=1 10

Nota 3.5. Como los autovalores son iguales para una matriz y su traspuesta, la proposición anterior equivale a: Sea A n n 0, entonces donde mín c j λ A máx c j, j = 1,..., n, c j = n a kj. k=1 Proposición 3.5. Sea A n n 0 una matriz estocástica, entonces λ = 1 es un autovalor de A, cuyo autovector asociado es α(1,..., 1), α R \ {0}. Además, λ = 1. Proposición 3.6. A n n 0 es estocástica si, y sólo si, λ A = 1 con v = (1,..., 1). Proposición 3.7. A n n 0 es doblemente estocástica si, y sólo si, λ A = 1 con v = (1,..., 1) autovector asociado para A y A t. Proposición 3.8. Sea A n n 0 estocástica, si λ 1 es autovalor de A, entonces n n λ mín 1 mín a ij, máx a ij 1 i i. 4. Diagonalización de matrices cuadradas. j=1 Definición 4.1. Una matriz cuadrada A de orden n, se dice diagonalizable si existe una matriz regular P n tal que A = P DP 1, siendo D n una matriz diagonal (D = P 1 AP ). Proposición 4.1. Una matriz cuadrada A de orden n es diagonalizable si, y sólo si, posee una base de autovectores. Lema 4.1. Dada una matriz cuadrada A de orden n y λ autovalor de A, el subespacio vectorial E λ = {v R n /Av = λv} verifica que 1 dim(e λ ) multiplicidad de λ. Proposición 4.2. Una matriz cuadrada A, de orden n, es diagonalizable si, y sólo si, λ, λ autovalor de A, se cumple que dim(e λ ) =multiplicidad de λ. Corolario 4.1. Si todos los autovalores de una matriz son simples, entonces es diagonalizable. Nota 4.1. Si la matriz cuadrada de orden n, A, es diagonalizable, cabe destacar que: 1. A t y αa, α K, son diagonalizables. 2. Si A es no singular, A 1 es diagonalizable. 3. Que A y B sean diagonalizables no implica que también lo sean A + B y AB. Definición 4.2. Dada una matriz cuadrada A de orden n, se denomina polinomio mínimo de A a un polinomio en λ mónico, del menor grado posible, m A (λ) tal que m A (A) = 0 n. Proposición 4.3. Si p(λ) es un polinomio tal que p(a) = 0 n, entonces p(λ) es múltiplo de m A (λ). Corolario 4.2. El polinomio característico de A es múltiplo del polinomio mínimo de A, es decir, p A (λ) = q(λ)m A (λ). Proposición 4.4. Dos matrices semejantes tienen el mismo polinomio mínimo. Proposición 4.5. Si λ i es un autovalor de A, entonces λ i es raíz de m A (λ). Nota 4.2. El polinomio mínimo y el polinomio característico no tienen por qué ser iguales. Si poseen el mismo grado se verifica que m A (λ) = p A (λ) para grado par y m A (λ) = p A (λ) para grado impar. j=1 11

Definición 4.3. Se dice que dos polinomios son polinomios primos cuando no tienen divisores en común. Proposición 4.6 (identidad de Bezout). Si p(x) y q(x) son polinomios primos, entonces existen polinomios s 1 (x) y s 2 (x) tales que s 1 (x)p(x) + s 2 (x)q(x) 1. Proposición 4.7. Dada una matriz cuadrada A de orden n de manera que p A (λ) = s (λ i λ) βi. Entonces, A es diagonalizable si, y sólo si, el polinomio mínimo es el de menor grado posible, m A (λ) = i=1 s (λ λ i ). Proposición 4.8. Dada una matriz A cuadrada de orden n, se cumple que 1. Si A es simétrica cuyos elementos son reales, entonces es diagonalizable. 2. Si A es no nula e idempotente, entonces es diagonalizable. 3. Si A es no nula y nilpotente, entonces no es diagonalizable. i=1 Definición 4.4. Dada una matriz cuadrada A de orden n y λ autovalor de A, se llama vector principal de orden k asociado a λ a un vector v 0 tal que } (A λi) k v = 0 (A λi) k 1. v 0 En particular, un vector principal de orden uno es un vector propio. Proposición 4.9. Si v es un vector principal de orden p > 1, entonces w = (A λi)v es un vector principal de orden p 1. Proposición 4.10. Sea v un vector principal de orden p > 1, entonces los vectores v p = v v p 1 = (A λi)v p v p 2 = (A λi)v p 1 = (A λi) 2 v p.. v 1 = (A λi)v 2 = (A λi) p 1 v p son linealmente independientes. Definición 4.5. Sea A una matriz cuadrada de orden n y λ autovalor de A. Se denomina w(λ) al conjunto de vectores principales asociados a λ unión con el vector cero, es decir, w(λ) = (vectores principales asociados a λ) {0} = {v/(a λi) p v = 0 para algún p}. Proposición 4.11. Siempre existe una base de vectores principales. 12

5. Formas cuadráticas. Definición 5.1. Se denomina forma cuadrática a toda función f : R n R que se puede expresar en la forma n n f(x 1, x 2,..., x n ) = a ij x i x j. i=1 j=1 Proposición 5.1. Dada una forma cuadrática f(x 1,..., x n ) existe una matriz simétrica S n n, y sólo una, tal que f(x) = x t Sx, donde x = (x 1,..., x n ). A esta matriz la llamaremos matriz de la forma cuadrática. Definición 5.2. Una forma cuadrática f(x 1,..., x n ) se dice que es - definida positiva si f(x 1,..., x n ) > 0, x R n \ {0}. - definida negativa si f(x 1,..., x n ) < 0, x R n \ {0}. - semidefinida positiva si f(x 1,..., x n ) 0, x R n \ {0}. - semidefinida negativa si f(x 1,..., x n ) 0, x R n \ {0}. - indefinida si x, x/f( x) > 0 y f( x) < 0. Nota 5.1. La anterior clasificación no es excluyente, una forma cuadrática definida positiva también es semidefinida positiva. Definición 5.3. Se llama modo canónico de una forma cuadrática a una expresión de la misma, donde solo aparecen los cuadrados (no aparecen los dobles productos), es decir, q(y) = n d i yi 2, d i R, i = 1,..., n. Proposición 5.2. Una forma cuadrática expresada en modo canónico se dice i=1 - definida positiva si d i > 0, i = 1,..., n. - definida negativa si d i < 0, i = 1,..., n. - semidefinida positiva si d i 0, i = 1,..., n. - semidefinida negativa si d i 0, i = 1,..., n. - indefinida si d i, d j, i j/d i > 0, d j < 0. Teorema 5.1 (espectral). Si A n n es simétrica, existe una matriz U ortogonal tal que A = UDU 1 = UDU t, con D una matriz diagonal en cuya diagonal principal están ubicados los autovalores de A. Corolario 5.1. Sea q(x) = x t Ax una forma cuadrática con matriz asociada A, cuyos autovalores son λ 1, λ 2,..., λ n. Entonces, se dice que q(x) es - definida positiva si λ i > 0, i = 1,..., n. - definida negativa si λ i < 0, i = 1,..., n. - semidefinida positiva si λ i 0, i = 1,..., n. - semidefinida negativa si λ i 0, i = 1,..., n. - indefinida si λ i, λ j, i j/λ i > 0, λ j < 0. Definición 5.4. Dada una matriz A n n, se denominan menores principales de orden l, (l < n) a los determinantes de las submatrices l l donde se han eliminado las mismas filas y columnas. Se denotan H l. 13

Nota 5.2. A partir de este momento, haremos uso de los menores principales izquierda. Los denotaremos por D l, l = 1,..., n y se caracterizan por ser aquellos que se obtienen orlando a partir del elemento a 11. Proposición 5.3. Dada la forma cuadrática q(x) = x t Ax, con A simétrica tal que los menores principales D 1, D 2,..., D n 1 son no nulos, entonces se verifica que q(y) = D 1 y1 2 + D 2 y2 2 + D 3 y3 2 +... + D n y D 1 D 2 D n. 2 n 1 Corolario 5.2. Dada la forma cuadrática q(x) = x t Ax con D i 0, i = 1, 2,..., n 1, se verifica que si q es definida (positiva o negativa), entonces A 0. Corolario 5.3. Si una forma cuadrática q(x) = x t Ax es definida (positiva o negativa), entonces D i 0, i = 1,..., n. Corolario 5.4. Sea q(x) = x t Ax una forma cuadrática con matriz asociada A, cuyos menores principales son D 1, D 2,..., D n, con D i 0, i = 1,..., n 1. Entonces, se dice que q(x) es - definida positiva si D 1 > 0 y Di D i 1 > 0, i = 2,..., n. - definida negativa si D 1 < 0 y Di D i 1 < 0, i = 2,..., n. - semidefinida positiva si D 1 0 y Di D i 1 0, i = 2,..., n. - semidefinida negativa si D 1 0 y Di D i 1 0, i = 2,..., n. - indefinida si i, j, i j/d i < 0 y D j > 0. Corolario 5.5. Sea q(x) = x t Ax una forma cuadrática tal que A = 0. Entonces, se verifica que - q es semidefinida positiva si, y sólo si, H l 0, l. - q es semidefinida negativa si, y sólo si, ( 1) l H l 0, l. Definición 5.5. Dadas las matrices A n y B m n con m < n y rg(b) = m, se dice que la forma cuadrática restringida } q(x) = x t Ax sujeta a Bx=0 es - definida positiva si, y sólo si, x R n, x 0/Bx = 0, entonces q(x) > 0. - definida negativa si, y sólo si, x R n, x 0/Bx = 0, entonces q(x) < 0. - semidefinida positiva si, y sólo si, x R n, x 0/Bx = 0, entonces q(x) 0. - semidefinida negativa si, y sólo si, x R n, x 0/Bx = 0, entonces q(x) 0. - indefinida si x 1, x 2, x 1 0, x 2 0/Bx 1 = 0, Bx 2 = 0, entonces q(x 1 ) > 0, q(x 2 ) < 0. Nota 5.3. Si una forma cuadrática es definida positiva (negativa) cuando le añadamos restricciones seguirá siendo definida positiva (negativa). Una matriz semidefinida positiva (negativa) bajo las restricciones puede conservar su carácter o pasar a ser definida positiva (negativa). Si fuese la forma cuadrática indefinida, al someterla a restricciones no podemos asegurar nada de su carácter. Proposición 5.4. Sea la forma cuadrática q(x) = x t Ax con x R n tal que Bx = 0, donde B m n con m < n y rg(b) = m. Si se denota por µ a las soluciones de la ecuación 0 m B B A µi n = 0, entonces se verifica que 14

i) la forma cuadrática restringida q es definida positiva (negativa) si, y sólo si, las soluciones de la ecuación son positivas (negativas), µ i > 0 (µ i < 0). ii) la forma cuadrática restringida q es semidefinida positiva (negativa) si, y sólo si, las soluciones de la ecuación son no negativas, µ i 0 (no positivas, µ i 0). iii) la forma cuadrática restringida q es indefinida si µ 1, µ 2 tal que µ 1 > 0 y µ 2 < 0. 6. Inversa generalizada. Definición 6.1. Dada una matriz A m n, se llama c inversa de A a una matriz B n m tal que A = ABA. Se denotará como A c. Proposición 6.1. Dada una matriz cuadrada A, de orden n, de manera que A es regular, la única c inversa de A es A 1. Proposición 6.2. Para toda matriz A m n existe, al menos, una c inversa. Proposición 6.3. Dada una matriz A m n y A c una c inversa de A, entonces cualquier c inversa de A es de la forma M = A c A c ABAA c + B, siendo B n m una matriz cualquiera. Nota 6.1 (Propiedades de las c inversas). Se verifican las siguientes propiedades: 1. (A c ) t es una c inversa de A t. 2. Si A = ( ) A11 0, entonces 0 A 22 es una c inversa de A (con los ceros del tamaño adecuado). 3. rg(a c ) rg(a) y rg(a) = rg(aa c ) = rg(a c A). ( ) (A11 ) c 0 0 (A 22 ) c 4. Dada la matriz A m n y una c inversa (A c ) n m de A, las matrices AA c, A c A, I m AA c e I n A c A son idempotentes. Definición 6.2. Dada una matriz A m n, se llama g inversa (Moore Penrose) de dicha matriz a una matriz A g que verifica 1) AA g A = A; 2) A g AA g = A g ; 3) AA g es simétrica; 4) A g A es simétrica. Nota 6.2. Cabe tener en cuenta que: a) A g es una c inversa, por lo que podemos calcular A g y luego, mediante la fórmula dada en una proposición anterior, obtener la familia de c inversas. b) Si A es regular, entonces A g = A 1. Lema 6.1 (descomposición de rango completo). Dada una matriz A m n tal que rg(a) = r, entonces A = A 1 A 2 con (A 1 ) m r, (A 2 ) r n y rg(a 1 ) = rg(a 2 ) = r. Lema 6.2. Dada una matriz A r n con rg(a) = r, se cumple que (AA t ) r r es regular. Teorema 6.1 (de existencia de la g inversa). Dada una matriz A m n cualquiera, entonces siempre existe A g. 15

Teorema 6.2 (de unicidad de la g inversa). La matriz g inversa es única. Nota 6.3. Se verifican las siguientes propiedades 1. Dada la matriz A m n, si rg(a) = n, entonces A 2 = I y A = A 1 = A g = (A t A) 1 A t. De forma análoga, si rg(a) = m = A g = A t (A t A) 1. 2. (A g ) t = (A t ) g. 3. (A g ) g = A. 4. rg(a) = rg(a g ). 5. 0 g = 0. 6. (αa) g = 1 α A g 7. Si A es simétrica, entonces (A 2 ) g = (A g ) 2. 8. Si A es simétrica e idempotente, entonces A g = A. No se cumplen en general 9. (AB) g = B g A g. 10. AA g = A g A. 11. Si λ 0 es autovalor de A, entonces 1 λ es autovalor de A g. Definición 6.3. Dada una matriz cuadrada A de orden n, se llama inversa grupo de A a una matriz A # n n que cumple 1. AA # A = A; 2. A # AA # = A # ; 3. AA # = A # A; 4. A 2 A # = A; 5. A(A # ) 2 = A #. Teorema 6.3 (de existencia de la inversa grupo). Dada una matriz cuadrada A de orden n, se cumple que A # existe si, y sólo si, rg(a) = rg(a 2 ). Teorema 6.4 (de unicidad de la inversa grupo). La inversa grupo, si existe, es única. Proposición 6.4. Si λ 0 es autovalor de A, y existe A #, entonces se cumple que 1 λ A #. es autovalor de Proposición 6.5. El sistema [S] es compatible si, y sólo si, AA c b = b, siendo A c una c inversa de A (y la solución del sistema será x = A c b). Proposición 6.6. Si el sistema [S] es compatible, sus soluciones son todas de la forma con d R n un vector cualquiera. x = A c b + (I n A c A)d, Proposición 6.7. Dado un sistema compatible [S]Ax = b, existe una única solución de norma mínima x = A g b. Proposición 6.8. Dado el sistema [S]Ax = b, x = A g b es solución aproximada mínimo cuadrática. 16