3. Sistemas de n ecuaciones diferenciales lineales de primer orden

Documentos relacionados
MATEMÁTICAS ESPECIALES II PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden.

14 Sistemas lineales de ecuaciones diferenciales con coeficientes

Apéndice sobre ecuaciones diferenciales lineales

E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 9: Sistemas de EDOs lineales

Álgebra Lineal. Tema 5 Ecuaciones diferenciales lineales

Sistemas de ecuaciones lineales

TEMA 4.- SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS

Sistemas Lineales de Ecuaciones Diferenciales de Primer Orden

Apéndice sobre ecuaciones diferenciales lineales

Tema 8 Ecuaciones diferenciales

AP = A p 1 p 2 p n = Ap 1 Ap 2. λ 1 p 21 λ 2 p 22 λ n p 2n. .. = λ 1 p 1 λ 2 p 2

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos.

AUTOVECTORES GENERALIZADOS Y SOLUCIONES DE SEDL HOMOGÉNEAS A COEFICIENTES CONSTANTES

CAPÍTULO 4. Sistemas de ecuaciones lineales de primer orden

ÁLGEBRA LINEAL. EXAMEN EXTRAORDINARIO 5 de Julio de T (e 1 ) = e 1 e 2 + 2e 3 T (e 2 ) = e 1 + 2e 2 3e 3. [T (e 1 ) T (e 2 )] =

Lección 6: Ecuaciones diferenciales

Aplicaciones Lineales. Diagonalización de matrices.

Diagonalización de Endomorfismos

Tema 3.- SISTEMAS DIFERENCIALES LINEALES Ampliación de Matemáticas. Ingeniería Técnica Industrial. Especialidad en Electrónica Industrial.

Proposición Sea V un espacio vectorial sobre K de dimensión n y B una base de V. Gl(n, K) = {A M(n n, K) A = 0}.

Geometría afín y proyectiva, 2016 SEMANA 4

Sistemas de Ecuaciones Diferenciales

Diagonalización de matrices

Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares).

Capítulo 1: Diagonalización de matrices

0.1. SISTEMAS DE ECUACIONES

Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales.

Podemos pues formular los dos problemas anteriores en términos de matrices.

Tema 11.- Autovalores y Autovectores.

Formas canónicas de Jordan

Autovalores y autovectores Diagonalización y formas canónicas

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 21. Exponencial de una matriz Formas canónicas de Jordan.

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices

5. Aplicaciones Lineales

ALGEBRA LINEAL Segundo Semestre. Parte II

Tema 1. Espacios Vectoriales Definición de Espacio Vectorial

Sistemas de Ecuaciones Diferenciales Ordinarias.

1. Ecuaciones exactas.

Sistemas lineales de ecuaciones diferenciales. Juan-Miguel Gracia

Matriz fundamental. X(t) = (x 0 e at,y 0 e dt ) 0 e bt )(

PROBLEMAS DE ÁLGEBRA LINEAL INGENIERÍA DE TELECOMUNICACIONES - E.T.S.I.T. CURSO 2005/06

Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1. Se llama producto escalar sobre un espacio vectorial real V a cualquier aplicación

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

1. Estabilidad de Sistemas Lineales y Sistemas Lineales Perturbados

1. DIAGONALIZACIÓN Y FORMAS CANÓNICAS

Lecturas Ecuaciones Diferenciales Ordinarias (III) Ampliación de Matemáticas. Grado en Ingeniería Civil Curso

APÉNDICE A. Algebra matricial

TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA

Capítulo VI. Diferenciabilidad de funciones de varias variables

TEMA 4 ESPACIOS VECTORIALES

TEMA 5: Aplicaciones Lineales. Diagonalización.

a n1 a n2 a nn x n a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x j x i = s ij x i x j + s ji x j x i 2 x i x j + a ij + a ji

Ecuaciones Diferenciales Lineales

a n1 a n2 a nn Es decir, una forma cuadrática es un polinomio homogéneo de grado 2 y n variables.

Vectores y Valores Propios

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2

MATRICES Y SISTEMAS DE ECUACIONES

1. SISTEMAS DE ECUACIONES DIFERENCIALES Introducción. Comencemos considerando la ecuación escalar de orden n

Tema 4: Sistemas de ecuaciones lineales.

Departamento de Ingeniería Matemática - Universidad de Chile

6.1 Teorema de estructura de los módulos finitamente generados

Tema 3: Espacios vectoriales

Formas canónicas reales

MATRICES Y SISTEMAS DE ECUACIONES

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS

1 Autovalores y autovectores asociados a un endomor smo f. Diagonalización.

6 Vectores. Dependencia e independencia lineal.

Ecuaciones lineales de segundo orden

7.1 Transformaciones lineales nilpotentes

Transformaciones Lineales

Capítulo V. T 2 (e, e

Definición. Un conjunto de ecuaciones diferenciales con varias funciones incógnitas, se llama sistema de ecuaciones diferenciales.

Descomposición en forma canónica de Jordan (Segunda versión)

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

Sistemas de ecuaciones diferenciales lineales J.L. Mancilla Aguilar

Solución de problemas I 1

Relación 1. Espacios vectoriales

Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Las variedades lineales en un K-espacio vectorial V pueden definirse como sigue a partir de los subespacios de V.

ÁLGEBRA LINEAL Problemas, 2006/2007

DIAGONALIZACIÓN DE MATRICES CUADRADAS

Sistemas de Ecuaciones Diferenciales

Matemáticas para la Empresa

ÁLGEBRA LINEAL. EXAMEN EXTRAORDINARIO 2 de julio de 2012 Duración del examen: 3 horas Fecha publicación notas: 11 de julio

MATRICES Y SISTEMAS DE ECUACIONES

Geometría afín y proyectiva, 2016 SEMANA 2

2.6 Polinomios anuladores y los Teoremas A y B

Álgebra Lineal. Tema 8. Valores y vectores propios. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

UNIVERSIDAD DE CONCEPCION FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS DEPARTAMENTO DE INGENIERIA MATEMATICA

2.7 Aplicaciones del Teorema de Jordan

Matrices y sistemas de ecuaciones

1. SISTEMAS DE ECUACIONES DIFERENCIALES

Transcripción:

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 1 3 Sistemas de n ecuaciones diferenciales lineales de primer orden Se define un sistema de ecuaciones diferenciales lineales ordinarias de primer orden y dimensión n como un conjunto de n ecuaciones de la forma x 1(t) = a 11 (t)x 1 (t) + + a 1n (t)x n (t) + b 1 (t), x 2(t) = a 21 (t)x 1 (t) + + a 2n (t)x n (t) + b 2 (t), x n(t) = a n1 (t)x 1 (t) + + a nn (t)x n (t) + b n (t), (1) donde a ij (t) y b i (t), para todos i, j, 1 i, j n, son funciones reales continuas definidas sobre un intervalo I IR Cuando las funciones a ij (t) son constantes, esto es, a ij (t) = a ij, se dice que el sistema es de coeficientes constantes Si introducimos la función matricial y las funciones vectoriales A(t) = (a i,j (t)) 1 i,j n B(t) = (b 1 (t),, b n (t)) T, X(t) = (x 1 (t),, x n (t)) T, donde T indica el vector traspuesto, entonces el sistema (1) se puede escribir como una ecuación diferencial lineal de la forma X (t) = A(t)X(t) + B(t), (2) donde X (t) es la función vectorial cuyas componentes son las derivadas de las componentes de X(t) Llamaremos a A(t) matriz de coeficientes del sistema y B(t) término independiente Si B(t) 0, es decir, B(t) es el vector nulo para cada t I, entonces se dice que el sistema es homogéneo En caso contrario se dice que es no homogéneo o completo Una solución del sistema (1) es un conjunto de n funciones x 1 (t),, x n (t) definidas en un intervalo I IR con valores en IR, son derivables con continuidad en I y satisfacen las n ecuaciones del sistema (1) para todo t I Equivalentemente una solución de la ecuación lineal (2) es una función vectorial X(t) = (x 1 (t),, x n (t)) T definida en un intervalo I IR con valores en IR n, diferenciable con continuidad en I y que satisface la ecuación (2) para todo t I Cuando la dimensión del sistema sea dos usaremos x(t) e y(t) para designar las componentes de la función incógnita X(t), esto es, notaremos X(t) = (x(t), y(t)) T y cuando la dimensión sea tres notaremos X(t) = (x(t), y(t), z(t)) T 4 Problema de Cauchy: Existencia y unicidad de soluciones Un problema de valores iniciales o problema de Cauchy consiste en lo siguiente: Se dan A C 0 (I, M(n, IR)) y B C 0 (I, IR n ) y se da un punto (t 0, X 0 ) I IR n Se trata

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 2 de hallar, si es posible, algún intervalo J I tal que J t 0 y alguna función X : J IR n, X C 1 (J, IR n ), tal que satisfaga { X (P ) (t) = A(t)X(t) + B(t) X(t 0 ) = X 0 para todo t en el intervalo J, entorno del punto t 0 Teorema 41 Dado un intervalo I IR, sean A C 0 (I, M(n, IR)) y B C 0 (I, IR n ) Entonces, fijado (t 0, X 0 ) I IR n el problema (P) tiene solución única definida en I 5 Estructura del conjunto de soluciones Vamos a ver que el conjunto de todas las soluciones de un sistema diferencial homogéneo de dimensión n, X (t) = A(t)X(t), (H) con A C 0 (I, M(n, IR)), que denotamos por S H, tiene estructura de espacio vectorial de dimensión n y que el conjunto de soluciones del sistema completo X (t) = A(t)X(t) + B(t), (C) con A como antes y B C 0 (I, IR n ), que denotamos por S, tiene estructura de espacio afín sobre el espacio vectorial de las soluciones del sistema homogéneo asociado Las siguientes propiedades de las ecuaciones homogénea (H) y completa (C) son de comprobación inmediata con sólo tener en cuenta la propiedad de linealidad de la derivada Propiedades 51 (i) Si X y X son dos soluciones de la ecuación (H) entonces c 1 X + c 2 X también es solución de la ecuación (H), donde c1 y c 2 son dos números reales arbitrarios En consecuencia, S H es un subespacio vectorial de C 1 (I, IR n ) (ii) Si X y X son dos soluciones de la ecuación completa (C) entonces X X es una solución de la ecuación homogénea (H) (iii) Si X es solución de la ecuación (H) y X es una solución de (C) entonces X + X es una solución de (C) Proposición 52 Bajo las hipótesis iniciales, se verifica que S H es un espacio vectorial de dimensión n En consecuencia, si X 1,, X n forman una base de S H, entonces toda solución de X (t) = A(t)X(t) en I se puede expresar de la forma para ciertas constantes c 1,, c n reales X(t) = c 1 X 1 (t) + + c n X n (t), Demostración: Ya se ha observado que S H tiene estructura de espacio vectorial Veamos qué dimensión tiene este espacio Fijamos un t 0 I Definimos la aplicación Ψ : S H IR n X X(t 0 )

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 3 Se tiene que Ψ es, trivialmente, lineal Además, Ψ es sobreyectiva pues para todo X 0 IR n, por el Teorema de Existencia y Unicidad existe una solución de X (t) = A(t)X(t) tal que X(t 0 ) = X 0 y es inyectiva ya que si X y X S H son tales que Ψ(X) = Ψ( X) entonces X(t 0 ) = X(t 0 ) y, por la uniciad de soluciones, se concluye que X X Así, Ψ es un isomorfismo y, por tanto, se concluye que dim(s H ) = dim(ir n ) = n Proposición 53 Si X p (t) es una solución particular de X (t) = A(t)X(t) + B(t), entonces cualquier otra solución de la ecuación completa se puede expresar de la forma X(t) = X p (t) + X H (t), siendo X H (t) una solución de la ecuación homogénea asociada Esto es, se tiene S = X p (t) + S H y, en consecuencia, S es un espacio afín sobre el espacio vectorial S H Demostración: Por (iii) de Propiedades 51 sabemos que toda solución que se expresa de la forma X p (t) + X H (t) es solución de la ecuación completa Sea ahora X(t) cualquier otra solución de la ecuación completa Ésta se puede escribir como X(t) = X p (t) + (X(t) X p (t)), donde X(t) X p (t) verifica la ecuación homogénea puesto que es la diferencia de dos soluciones de la ecuación completa Finalmente poniendo X H (t) = X(t) X p (t) se concluye la demostración de esta proposición 6 Soluciones del sistema homogéneo 61 Dependencia e independencia de funciones Se dice que k funciones vectoriales X 1, X 2,, X k definidas sobre un intervalo I son linealmente dependientes en I si existen constantes c 1, c 2,, c k, no todas nulas, tales que c 1 X 1 (t) + c 2 X 2 (t) + + c k X k (t) = 0, t I y en caso contrario se dice que X 1, X 2,, X k son linealmente independientes en I, esto es, si c 1 X 1 (t) + c 2 X 2 (t) + + c k X k (t) = 0, t I = c 1 = c 2 = = c n = 0 Obsérvese que, en particular, cuando se tienen sólo dos funciones, X 1 y X 2, éstas son linealmente dependientes en I si, y sólo si, existe una constante c tal que X 1 (t) = cx 2 (t) para todo t I 62 Wronskiano El wronskiano de n funciones vectoriales X 1, X 2,, X n, siendo las n componentes de X i = (x 1i (t), x 2i (t),, x ni (t)) T para cada i, 1 i n, se define como el

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 4 determinante n n W [X 1,, X n ](t) = x 11 (t) x 12 (t) x 1n (t) x 21 (t) x 22 (t) x 2n (t) x n1 (t) x n2 (t) x nn (t) También usaremos para el wronskiano la notación W [X 1,, X n ] ó W (t) según queramos destacar las funciones que intervienen en el determinante o el hecho de que éste es una función de valor real Teorema 61 Dadas n funciones vectoriales X 1, X 2,, X n definidas sobre un intervalo abierto I, se tiene que (a) Si X 1, X 2,, X n son linealmente dependientes en I entonces W [X 1,, X n ](t) = 0 t I (b) Sean X 1, X 2,, X n son soluciones en I de un mismo sistema homogéneo de dimensión n, X (t) = A(t)X(t), con A C 0 (I, M(n, IR)) Entonces X 1, X 2,, X n son linealmente independientes en I si y sólo si W [X 1,, X n ](t) 0 t I Demostración: (a) Supongamos que existen constantes c 1, c 2,, c n no todas nulas tales que c 1 X 1 (t) + c 2 X 2 (t) + + c n X n (t) = 0 t I Consideramos el siguiente sistema, para cada t I, c 1 x 11 (t) + c 2 x 12 (t) + + c n x 1n (t) = 0, c 1 x 21 (t) + c 2 x 22 (t) + + c n x 2n (t) = 0, c 1 x n1 (t) + c 2 x n2 (t) + + c n x nn (t) = 0 Se sabe que un sistema de n ecuaciones lineales homogéneas con n incógnitas tiene una solución no trivial si, y sólamente si, el determinante de sus coeficientes se anula Puesto que aquí las incógnitas son c 1,, c n y el determinante de coeficientes es el wronskiano de X 1,, X n en t, se sigue que W (t) = 0 para todo t I (b) La condición W [X 1,, X n ](t) 0 para todo t I es suficiente para concluir la independencia lineal de X 1,, X n, por el apartado anterior Probemos que la condición es necesaria Supongamos que W (t 0 ) = 0 para algún t 0 I y vamos a probar que esto implica que las soluciones X 1, X 2,, X n son linealmente dependientes Consideramos el sistema de n ecuaciones lineales homogéneas c 1 x 11 (t 0 ) + c 2 x 12 (t 0 ) + + c n x 1n (t 0 ) = 0, c 1 x 21 (t 0 ) + c 2 x 22 (t 0 ) + + c n x 2n (t 0 ) = 0, c 1 x n1 (t 0 ) + c 2 x n2 (t 0 ) + + c n x nn (t 0 ) = 0

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 5 en las incógnitas c 1, c 2,, c n El determinante de coeficientes de este sistema es W (t 0 ) y puesto que W (t 0 ) = 0 existe una solución no trivial Esto es, existen números c 1, c 2,, c n no todos nulos, tales que se cumple la identidad c 1 X 1 (t 0 ) + c 2 X 2 (t 0 ) + + c n X n (t 0 ) = 0 Consideramos entonces la función vectorial c 1 X 1 (t) + c 2 X 2 (t) + + c n X n (t) definida en I que evidentemente es solución del problema de Cauchy { X (t) = A(t)X(t) X(t 0 ) = 0 Además, la solución trivial X 0 también es solución de este problema de Cauchy, entonces, por la unicidad de solución que nos garantiza el Teorema 41 puesto que partimos de la hipótesis de que A(t) es continua en I, se tiene que c 1 X 1 (t) + c 2 X 2 (t) + + c n X n (t) = 0 t I, lo que contradice la hipótesis de independencia lineal Por lo tanto, W (t) 0 para todo t I como queriamos probar Observación: Del teorema anterior se sigue que si el wronskiano de n soluciones se anula en un punto entonces se anula en todo punto Teorema 62 (de Jacobi) Si X 1, X 2,, X n son soluciones del sistema X (t) = A(t)X(t) en un intervalo abierto I en el que A(t) es continua, entonces t t tra(s)ds W (t) = W (t 0 )e 0 para cierto valor t 0 I, siendo tra la traza de la matriz A, esto es, tra(t) = a 11 (t) + a 22 (t) + + a nn (t) Demostración: Teniendo en cuenta que la derivada de un determinante n n es la suma de los n determinantes obtenidos al derivar por separado las filas del determinante original, se tiene que d dt W (t) = x 11(t) x 12(t) x 1n(t) x 21 (t) x 22 (t) x 2n (t) x n1 (t) x n2 (t) x nn (t) := W 1 (t) + + W n (t) + + x 11 (t) x 12 (t) x 1n (t) x 21 (t) x 22 (t) x 2n (t) x n1(t) x n2(t) x nn(t) Como para cada i, 1 i n, X i es solución de X (t) = A(t)X(t) entonces x n i1(t) x i1 (t) j=1 a ij(t)x i1 (t) = A(t) = x in(t) x in (t) n j=1 a ij(t)x in (t)

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 6 Sustituyendo estas expresiones en W i (t) nos queda W i (t) = x 11 (t) x 12 (t) x 1n (t) x i 11 (t) x i 12 (t) x i 1n (t) n j=1 a ij(t)x j1 (t) n j=1 a ij(t)x j2 (t) n j=1 a ij(t)x jn (t) x i+11 (t) x i+12 (t) x i+1n (t) x n1 (t) x n2 (t) x nn (t) Por propiedades de los determinantes vemos que W i (t) = a ii (t)w (t) Por lo tanto la expresión para W (t) se reduce a W (t) = (a 11 (t) + a 22 (t) + + a nn (t))w (t) = tra(t)w (t) Finalmente, resolviendo esta ecuación de variables separables obtenemos la fórmula de Jacobi 63 Matriz Fundamental LLamaremos matriz fundamental del sistema X (t) = A(t)X(t) a aquella matriz cuyas columnas son una base del espacio S H de soluciones de dicho sistema 631 Solución general del sistema homogéneo Proposición 63 Sea Φ una matriz fundamental del sistema X (t) = A(t)X(t) en un intervalo I Entonces, la solución general del sistema homogéneo en I se puede expresar en la forma X(t) = Φ(t)C, donde C = (c 1, c 2,, c n ) T es un vector constante arbitrario 7 Soluciones del sistema completo Sea la ecuación vectorial completa X (t) = A(t)X(t) + B(t), entonces, si Φ(t) es una matriz fundamental de la ecuación homogénea asociada y X p (t) es una solución particular de la completa, la solución general de la ecuación completa será de la forma X(t) = X p + Φ(t)C, donde C = (c 1,, c n ) T es un vector de constantes arbitrarias Teorema 71 (Método de variación de constantes) Sea Φ una matriz fundamental de X = A(t)X entonces

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 7 (a) Existe una solución particular del sistema completo X = A(t)X + B(t) que es de la forma X p (t) = Φ(t)C(t) donde C(t) satisface Φ(t)C (t) = B(t) Explícitamente, X p (t) = Φ(t) Φ 1 (t)b(t)dt (b) La solución general del sistema completo es de la forma X(t) = Φ(t)C + Φ(t) Φ 1 (t)b(t)dt, con C = (c 1,, c n ) T un vector constante arbitrario Demostración: (a) Ensayamos una solución particular del sistema completo de la forma X p (t) = Φ(t)C(t), donde C(t) = (c 1 (t),, c n (t)) T Sustituyendo ésta en la ecuación matricial dada nos queda (Φ(t)C(t)) = A(t)(Φ(t)C(t)) + B(t) Aplicando la regla de derivación para el producto de función matricial por función vectorial en el lado izquierdo de esta ecuación obtenemos Φ (t)c(t) + Φ(t)C (t) = A(t)(Φ(t)C(t)) + B(t) ( ) Por ser Φ matriz fundamental de X = A(t)X se verifica Φ (t) = A(t)Φ(t) y, atendiendo a la propiedad asociativa del producto de matrices, podemos reemplazar en ( ) el producto A(t)Φ(t)C(t) por Φ (t)c(t) con lo que, simplificando, resulta Φ(t)C (t) = B(t) Puesto que Φ(t) es inversible esto implica que C (t) = Φ 1 (t)b(t) En consecuencia, integrando se obtiene C(t) = Φ 1 (t)b(t)dt, de donde, substituyendo en X p, resulta X p (t) = Φ(t) Φ 1 (t)b(t)dt (b) Es una consecuencia inmediata del apartado anterior y del hecho de que todas las soluciones del sistema completo se escriben como la suma de la solución general del sistema homogéneo asociado y una solución particular del sistema completo Observación En particular, la solución al problema de Cauchy { X (t) = A(t)X(t) + B(t) X(t 0 ) = X 0

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 8 con (t 0, X 0 ) I IR n se expresa de la forma X(t) = Φ(t)Φ 1 (t 0 )X 0 + Φ(t) t t 0 Φ 1 (s)b(s)ds A continuación damos una propiedad de las ecuaciones completas muy útil para resolverlas cuya demostración se puede hacer sin dificultad Propiedades 72 (Principio de superposición) Para cada i, 1 i q, sea X pi una solución particular de la ecuación completa X (t) = A(t)X(t) + B i (t), con A C 0 (I, M(n, IR)) y B i C 0 (I, IR n ) Entonces q i=1 X p i es una solución particular de la ecuación completa q X (t) = A(t)X(t) + B i (t) 8 Sistemas lineales con coeficientes constantes La ecuación diferencial con coeficientes constantes X (t) = A X(t) con A M(n, IR), tiene una matriz fundamental de la forma Φ(t) = e At Se verifica que d dt eat = Ae At, luego e At es una matriz fundamental ya que sus columnas son soluciones linealmente independientes del sistema X (t) = A X(t) Además, Φ(t) = e At Q donde Q es una matriz inversible también es una matriz fundamental Proposición 81 Sean A M(n, IR) y v 1,, v k IC n vectores linealmente independientes, entonces las funciones vectoriales e At v 1,, e At v k son linealmente independientes en IR Demostración: Supongamos que entonces i=1 α 1 e At v 1 + + α k e At v k = 0 e At (α 1 v 1 + + α n1 v k ) = 0, y puesto que e At es inversible para todo t IR y v 1,, v k son linealmente independientes, se sigue que α 1 = α 2 = = α n = 0 Definición 82 Si λ es un autovalor de A, se llama vector propio (autovector) generalizado de A asociado a λ a todo vector v IC no nulo tal que v ker(a λi) k para algún k IN Para cada autovalor λ de A de multiplicidad m vamos a construir m soluciones del sistema linealmente independientes Veamos cómo se haría esto Si dim(ker(a λi)) = n 1 entonces elegimos v 1,, v n1 Ker(A λi) que sean linealmente independientes y consideramos las funciones vectoriales e At v 1,, e At v n1 Cada una de estas funciones es solución del sistema pues es el producto de una matriz fundamental, e At, por un vector de constantes Ahora bien, para hallar la función vectorial e At v j, con 1 j n 1, no es necesario calcular la matriz exponencial e At puesto que e At v j = e λt e (A λi)t v i = e λt v j

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 9 ya que v j ker(a λi) y, por tanto (A λi) k = v j = 0 para todo k 1 Si n 1 = m i ya habríamos terminado el proceso para el autovalor λ En el caso en que n 1 < m entonces hallamos el espacio ker(a λi) 2 Si dim (ker(a λi) 2 ) = n 2 entonces elegimos n 2 n 1 vectores de este espacio que sean linealmente independientes y que no pertenezcan al ker(a λi) para asegurar que sean linealmente independientes con v 1,, v n1 elegidos anteriormente Sean éstos v n1 +1,, v n2, entonces consideramos las funciones vectoriales e At v n1 +1,, e At v n2 que, del mismo modo que antes, son soluciones del sistema Además, estas funciones se pueden hallar sin necesidad de calcular e At pues para cada j, n 1 + 1 j n 2, se cumple que e At v j = e λt e (A λi)t v j = e λ it (I + (A λ i I)t)v j dado que como v j ker(a λi) 2 se verifica que (A λi) k v j = 0 para k = 2, 3, Si n 2 = m se habría terminado el proceso para λ Pero si n 2 < m se halla el ker(a λi) 3 y se procede de forma análoga a la descrita hasta ahora, y así sucesivamente hasta llegar a un ker(a λ) s cuya dimensión sea n s = m (la multiplicidad de λ i ) Elegimos n s n s 1 vectores v j, j = n s 1 + 1,, n s de este espacio que sean linealmente independientes y que no pertenezcan al ker(a λi) s 1 Se tiene que e At v j = e λt e (A λi)t v j = e λt (I + (A λi)t + t2 2! (A λi)2 + t3 3! (A λi)3 + + ts 1 (s 1)! (A λi)s 1 )v j Por tanto, habremos obtenido las m soluciones del sistema asociadas al autovalor λ: e At v 1,, e At v m Supongamos que A tiene λ 1,, λ k autovalores con multiplicidades m 1,, m k respectivamente (observemos que m 1 + + m k = n) Siguiendo el procedimiento anterior para cada λ i, 1 i k, obtenemos las n soluciones {e At v 1 1,, e At v 1 m 1,, e At v k 1,, e At v k m k } (3) y la matriz fundamental Φ(t) cuyas columnas son dichas funciones, es decir, Φ(t) = e At (v 1 1,, v 1 m 1,, v k 1,, v k m k ) Observación: La matriz exponencial e At, que es una matriz fundamental, se puede obtener a través de Φ(t) ya que e At = Φ(t)(v 1 1,, v 1 m 1,, v k 1,, v k m k ) 1 Matriz Fundamental mediante la Forma de Jordan

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 10 Teorema 83 (Forma Canónica de Jordan) Sea A M(n, IC), se verifica que existe una matriz P inversible (no singular), que llamaremos matriz de paso, tal que A = P J A P 1 donde J A es de la forma J A = J 1 0 J 2 0 J r y para cada i = 1,, r la caja J i es de la forma J i = λ i 1 0 λ i 1 0 λ i siendo λ i un autovalor de A La matriz J A se denomina forma canónica de Jordan de A y, salvo permutaciones de los bloque J i, está unívocamente determinada Aplicando este teorema y las propiedades de la matriz exponencial se tiene que e At = e P J AP 1 = P e J A P 1, luego, se trata de hallar e J A Es fácil comprobar que entonces JA k = e JAt = J k 1 0 J k 2 0 J k r e J 1t 0 e J 2t 0 e Jrt y el problema se reduce a hallar e J it Podemos escribir J i = λ i 1 0 1 0 1 0 1 0 + 1 = λ ii ni + N i 0 0

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 11 y entonces, teniendo en cuenta las propiedades de la matriz exponencial, Ahora bien, como Ni 2 = 0 0 1 0 1 0 0 0 N n i 1 i = = e λ it e J it = e (λ ii ni +N i )t = e λ it e N it (4) 0 0 0 1 0, Ni 3 = 1, 0 0 0 0 0 0 1 0 0 0, N ni i = N n i+1 i = = (0 ) entonces, sustituyendo estas matrices en (4), se tiene que e J it = e λ it (I ni + t1! ) N i + t2 2! N i 2 + + tni 2 (n i 2)! N i 3 + tni 1 (n i 1)! N n i 1 i t t 1 t n i 2 t n i 1 1! 2! (n i 2)! (n i 1)! t t 1 t n i 2 1! 2! (n i 2)! Por tanto, t 1 1! t 2 2! 1 t 1! 0 1 e At = P e J 1t 0 e J 2t 0 e Jrt donde para cada i, 1 i r, e J it viene dado por ( ) ( ) P 1 Observación: Multiplicando por la matriz P a la derecha de esta última expresión se tiene que e At P = P e J A y ésta es también una matriz fundamental Si A es una matriz diagonalizable entonces los cálculos de la matriz fundamental se simplifican mucho dado que A = P DP 1 donde D es una matriz diagonal en cuya diagonal principal aparecen los autovalores de A y P es una matriz inversible Por tanto, P e Dt es

Dpto Matemática Aplicada, Facultad de Informática, UPM EDO Sistemas Lineales 12 una matriz fundamental y se comprueba fácilmente que e Dt = siendo λ 1,, λ n los autovalores de A e λ 1t 0 e λ 2t 0 e λnt