Teoría Moderna de Control Lineal
|
|
- Miguel Ángel San Segundo Redondo
- hace 6 años
- Vistas:
Transcripción
1 Teoría Moderna de Control Lineal
2 2
3 Índice general 1. Sistemas lineales determinísticos multivariables, invariantes, continuos Introducción Descripción de estado de sistemas diferenciales lineales y no lineales Linealización Transformación de estado Solución de la ecuación diferencial de estado de sistemas lineales Matrices de transición y respuesta impulso Matriz de transición de un sistema invariante en el tiempo Diagonalización Estabilidad Estabilidad de sistemas lineales variantes en el tiempo Estabilidad de sistemas lineales invariantes en el tiempo Análisis con transformada de sistemas invariantes en el tiempo Solución de la ecuación diferencial de estado usando transformada de Laplace Respuesta en frecuencia Ceros del sistema Interconexión de sistemas lineales Controlabilidad Reconstructibilidad
4 Capítulo 1 Sistemas lineales determinísticos multivariables, invariantes, continuos 1.1. Introducción El punto de partida es la descripción en el espacio de estado de los sistemas lineales. Luego veremos la solución de ecuaciones diferenciales de estado lineal, la estabilidad y análisis de transformación de sistemas lineales Descripción de estado de sistemas diferenciales lineales y no lineales Muchos sistemas se pueden describir por un conjunto de ecuaciones diferenciales simultaneas de la forma: ẋ(t) = f[x(t), u(t), t] (1.1) donde: x(t) vector columna n dimensional variando en el tiempo denominado estado del sistema. u(t) vector columna k dimensional variando en el tiempo, denominado variable de entrada o de control. f función real y vector valuada La ecuación (1.1) se denomina ecuación diferencial de estado. Consideremos y(t) una variable real, l-dimensional del sistema, que se puede observar ó a través de ella el sistema influye en su medio ambiente. Se le denomina variable de salida del sistema. Se puede expresar como: y(t) = g[x(t), u(t), t] (1.2) 1
5 Esta ecuación la denominaremos ecuación de salida del sistema. Las ecuaciones (1.1) y (1.2) son las ecuaciones del sistema. Si g contiene u explícitamente, se dice que el sistema tiene una conexión directa. Cuando f y g son funciones lineales, hablamos de un sistema diferencial lineal y su ecuación diferencial de estado tiene la forma: ẋ(t) = A(t) x(t) + B(t) u(t) (1.3) donde A(t) y B(t) son matrices variantes en el tiempo de dimensiones apropiadas. La dimensión n de x es la dimensión del sistema. La ecuación de salida de este sistema tiene la forma: y(t) = C(t) x(t) + D(t) u(t) (1.4) Si las matrices A, B, C y D son constantes, el sistema es invariante en el tiempo Linealización Si u 0 (t) es una entrada dada a un sistema descrito por la ecuación diferencial de estado (1.1), y x 0 (t) es una solución conocida de (1.1), podemos encontrar soluciones para pequeñas desviaciones en el estado inicial y en la entrada, desde una ecuación diferencial de estado lineal. Supongamos que x 0 (t) satisface: donde: x 0 : es una trayectoria nominal u 0 : es una entrada nominal ẋ(t) = f[x 0 (t), u 0 (t), t] t 0 t t 1 (1.5) Podemos suponer que el sistema está operando cercano a condiciones nominales, esto significa que u y x se desvían levemente de x 0 y u 0. Por lo tanto, podemos escribir: u(t) = u 0 (t) + ũ(t) t 0 t t 1 (1.6) x(t 0 ) = x 0 (t 0 ) + x(t 0 ) donde ũ(t) y x(t) son perturbaciones pequeñas. De la misma manera podemos decir que: x(t) = x 0 (t) + x(t) t 0 t t 1 (1.7) Sustituyendo x y u en la ecuación diferencial de estado (1.1) y realizando una expansión en serie de Taylor, se tiene que: ẋ 0 (t) + x(t) = f[x 0 (t), u 0 (t), t] + J x [x 0 (t), u 0 (t), t] x(t) +J u [x 0 (t), u 0 (t), t] ũ(t) + h(t) t 0 t t 1 (1.8) 2
6 J x y J u son las matrices Jacobianas de f con respecto a x y u. Donde el elemento (i, j) de la matriz J x es: (J x ) i,j = f i ξ j ξ X i (1.9) donde f i es el i-esimo componente de f y ξ j el j-esimo componente de x. J u se define de la misma forma. El término h(t) es una expresión despreciable con respecto a x y ũ. Despreciando h, vemos que x y ũ satisfacen aproximadamente la ecuación lineal: x(t) = A(t) x(t) + B(t) ũ(t) t 0 t t 1 (1.10) donde: A(t) = J x [x 0 (t), u 0 (t), t] B(t) = J u [x 0 (t), u 0 (t), t] La ecuación (1.10) se denomina ecuación diferencial de estado linealizada. La condición inicial es x(t 0 ). La linealización es una práctica muy común en la solución de problemas de control. Es conveniente linealizar la ecuación diferencial del sistema antes de arreglarlas en la forma de ecuaciones diferenciales de estado. Esto lleva a la misma solución Transformación de estado Algunas veces es útil emplear una representación transformada del estado. Veremos transformaciones de estado lineal para sistema diferenciales lineales invariantes en el tiempo. Consideremos el sistema lineal invariante en el tiempo: ẋ(t) = A x(t) + B u(t) y(t) = C x(t) (1.11) Definamos la variable de estado transformada por: x (t) = T x(t) (1.12) donde T es una matriz de transformación no singular constante. Sustituyendo: x(t) = T 1 x (t) (1.13) en (1.11) resulta: T 1 ẋ (t) = A T 1 x (t) + B u(t) (1.14) y(t) = C T 1 x (t) 3
7 o ẋ (t) = T A T 1 x (t) + T B u(t) (1.15) y(t) = C T 1 x (t) Es claro que la representación transformada es completamente equivalente al sistema original, ya que podemos reconstruir el comportamiento del sistema en términos del estado original por la relación (1.13) Solución de la ecuación diferencial de estado de sistemas lineales Matrices de transición y respuesta impulso Veremos la solución de la ecuación diferencial de estado lineal: La solución se obtiene mediante los siguientes teoremas: Teorema 1.1. Considerar la ecuación homogénea ẋ(t) = A(t) x(t) + B(t) u(t) (1.16) ẋ(t) = A(t) x(t) (1.17) Entonces si A(t) es continua para todo t, (1.17) siempre tiene una solución que puede ser expresada como: x(t) = Φ(t, t 0 ) x(t 0 ) t (1.18) La matriz de transición Φ(t, t 0 ) es la solución de la ecuación diferencial matricial: d dt Φ(t, t 0) = A(t) Φ(t, t 0 ) t (1.19) Φ(t 0, t 0 ) = I donde I es la matriz unidad. Para sistemas variando en el tiempo, la matriz de transición es difícil de obtener en términos de funciones estándar, de modo que hay que recurrir a técnicas de integración numérica. Teorema 1.2. La matriz de transición Φ(t, t 0 ) de un sistema diferencial tiene las siguientes propiedades: a.) Φ(t 2, t 1 ) Φ(t 1, t 0 ) = Φ(t 2, t 0 ) t 0, t 1, t 2 (1.20) b.) Φ(t, t 0 ) es no singular t, t 0 (1.21) c.) Φ 1 (t, t 0 ) = Φ(t 0, t) t, t 0 (1.22) d d.) dt ΦT (t 2, t 1 ) Φ(t 1, t 0 ) = Φ(t 2, t 0 ) t, t 0 (1.23) 4
8 donde el supra-índice T denota el transpuesto. Una vez encontrada la matriz de transición es fácil obtener las soluciones a la ecuación diferencial de estado lineal (1.16). Teorema 1.3. Considerar la ecuación diferencial de estado lineal: ẋ(t) = A(t) x(t) + B(t) u(t) (1.24) Entonces, si A(t) es continua y B(t) y u(t) son continuas por parte para todo t, la solución de la ecuación es: t x(t) = Φ(t, t 0 ) x(t 0 ) + Φ(t, τ) B(τ) u(τ) dτ t (1.25) t 0 Consideremos un sistema con la ecuación (1.24) y la ecuación de salida: usando la solución (1.25) tenemos que: y(t) = C(t) Φ(t, t 0 ) x(t 0 ) + C(t) y(t) = C(t) x(t) (1.26) t t 0 Φ(t, τ) B(τ) u(τ) dτ (1.27) Si el sistema esta inicialmente en el estado cero, x(t 0 ) = 0, la respuesta de la variable de salida es: donde y(t) = t t 0 K(t, τ) u(τ) dτ t t 0 (1.28) K(t, τ) = C(t) Φ(t, τ) B(τ) t t 0 (1.29) La matriz K(t, τ) se denomina matriz respuesta impulso del sistema. El elemento (i, j) de esta matriz es la respuesta en el instante t del componente i de la variable de salida a un impulso aplicado a la componente j de la entrada en el instante τ > t 0 mientras todos los otros componentes de la entrada son cero y el estado inicial es cero Matriz de transición de un sistema invariante en el tiempo. Consideremos el siguiente teorema: Teorema 1.4. El sistema invariante en el tiempo: ẋ(t) = A x(t) (1.30) tiene la matriz de transición: Φ(t, t 0 ) = e A(t t0) (1.31) donde la matriz exponencial de una matriz cuadrada M está definida como: e M = I + M + 1 2! M ! M (1.32) Esta serie converge para todo M. 5
9 Notas 1. Para dimensiones pequeñas de la matriz A, la matriz de transición se puede escribir explícitamente en términos de funciones estándar. 2. Para dimensiones grandes de la matriz A, la ecuación (1.32) es muy útil para calcular la matriz de transición por un computador digital. 3. Para no tener dificultades numéricas, (t t 0 ) no se debe escoger demasiado grande. Usando los resultados de los teoremas 1.3 y 1.4, en sistemas invariantes en el tiempo tenemos que: ẋ(t) = A x(t) + B u(t) (1.33) t x(t) = e A(t t0) x(t 0 ) + e A(t τ) B u(τ) dτ t 0 (1.34) y(t) = C x(t) (1.35) y la matriz respuesta a impulso queda: K(t τ) = C e A (t τ) B t τ (1.36) Diagonalización Una forma explícita de la matriz de transición de un sistema invariante en el tiempo se puede obtener por diagonalización de la matriz A. Teorema 1.5. Supongamos que la matriz nxn contante A tiene n valores característicos distintos λ 1, λ 2,..., λ n, con sus correspondientes vectores característicos e 1, e 2,..., e n. Se definen las matrices: T = (e 1, e 2,..., e n ) (1.37) Λ = diag(λ 1, λ 2,..., λ n ) Entonces T es una matriz no singular y A puede ser representada como: Se dice que T diagonaliza A. A = T Λ T 1 (1.38) Teorema 1.6. Consideremos que la matriz A satisface las suposiciones del teorema 1.5, entonces: a.) e At = T e Λt T 1 (1.39) b.) e Λt = diag(e λ1t, e λ2t,..., e λnt ) (1.40) Este resultado simplifica el cálculo de e At una vez que A es diagonalizada. 6
10 Teorema 1.7. Consideremos el sistema invariante en el tiempo ẋ(t) = A x(t) (1.41) donde A satisface las suposiciones del teorema 1.5. Escribiendo la matriz T 1 de la forma: f 1 T 1 f 2 =. (1.42). donde f 1, f 2,..., f n son vectores filas. Entonces la solución de (1.41) se puede escribir como: x(t) = f n n e λit e i f i x(0) (1.43) i=1 Es fácilmente demostrable expandiendo x(t) = T e Λt T 1 x(0) en términos de e i, f i y e λ it con i = 1, 2,..., n. Escribiendo (1.43) en la forma: x(t) = n u i e λ1t e i (1.44) i=1 donde las u i son los escalares f i x(0), i = 1, 2,..., n. Se muestra claramente que la respuesta del sistema (1.41) es una composición de movimientos a lo largo de los vectores característicos de la matriz A. Se le denomina a cada movimiento un modo del sistema. Un modo particular se puede excitar escogiendo el estado inicial para tener una componente a lo largo del correspondiente vector característico. Es claro que los valores característicos λ i, i = 1, 2,..., n determinan el comportamiento dinámico del sistema. Estos números se pueden considerar como los polos del sistema Estabilidad Consideremos una ecuación diferencial de estado general: ẋ(t) = f[x(t), u(t), t] (1.45) Una propiedad importante del sistema es saber si las soluciones de la ecuación diferencial de estado tienden o no a crecer indefinidamente cuando t. Supongamos un sistema sin entrada u o donde u es una función fija en el tiempo. Tenemos entonces que: ẋ(t) = f[x(t), t] (1.46) La solución nominal x 0 (t) satisface la ecuación (1.46): x 0 (t) = f[x 0 (t), t] (1.47) Un caso especial ocurre cuando x 0 (t) es un vector x e constante, en este caso, decimos que x e es un estado de equilibrio del sistema. 7
11 Definición 1.1. Consideremos la ecuación diferencial de estado: ẋ(t) = f[x(t), t] (1.48) Con la solución nominal x 0 (t). Entonces la solución nominal es estable en el sentido Lyapunov si para cualquier t 0 y cualquier ε > 0 existe un δ(ε, t 0 ) > 0 tal que: x(t 0 ) x 0 (t 0 ) δ implique x(t) x 0 (t) ε t t 0 Donde x es la norma del vector x. Se puede usar la norma Euclidiana: x = n ξi 2 (1.49) donde ξ i i = 1, 2,..., n son los componentes de x. Esta definición es una forma débil de estabilidad. Definición 1.2. La solución nominal x 0 (t) de la ecuación diferencial de estado: i=1 es asintóticamente estable si: ẋ(t) = f[x(t), t] (1.50) 1. Es estable en el sentido de Lyapunov 2. t 0 existe un p(t 0 ) > 0 tal que: x(t 0 ) x 0 (t 0 ) ρ implique x(t) x 0 (t) 0 cuando t No siempre da información para desviaciones iniciales grandes con respecto a la solución nominal. Definición 1.3. La solución nominal x 0 (t) de la ecuación diferencial de estado: ẋ(t) = f[x(t), t] (1.51) es asintóticamente estable en grande si: 1. Es estable en el sentido de Lyapunov 2. Para cualquier x(t 0 ) y cualquier t 0 x(t) x 0 (t) 0 cuando t 8
12 Estabilidad de sistemas lineales variantes en el tiempo En los casos lineales la situación es más simple y se puede hablar de estabilidad del sistema en vez de la solución. Consideremos x 0 (t) una situación nominal del sistema diferencial lineal: ẋ(t) = A(t) x(t) (1.52) y x(t) cualquier otra solución. Ya que x 0 (t) y x(t) son soluciones de la ecuación diferencial lineal, entonces [x(t) x 0 (t)] también es una solución, es decir: d dt [x(t) x 0(t)] = A(t)[x(t) x 0 (t)] (1.53) Para estudiar la estabilidad de la solución nominal x 0 (t), podemos estudiar la estabilidad de la solución con x(t) 0. Si la solución cero es estable en cualquier sentido, cualquier otra solución será estable en ese sentido, es decir: Definición 1.4. El sistema diferencial lineal x(t) 0 x(t) x 0 (t) 0 = x 0 (t) 0 ẋ(t) = A(t) x(t) (1.54) es estable en un cierto sentido, si la solución cero x 0 (t) 0 es estable en ese sentido. Se entiende que todas las soluciones nominales de un sistema diferencial lineal tiene las mismas propiedades de estabilidad. Teorema 1.8. El sistema diferencial lineal ẋ(t) = A(t) x(t) (1.55) es asintóticamente estable si y sólo si es asintóticamente estable en grande. Este teorema resulta del factor que las soluciones de sistemas lineales pueden ser escaladas sin afectar su comportamiento Estabilidad de sistemas lineales invariantes en el tiempo Consideremos el sistema ẋ(t) = A x(t) (1.56) donde A es una matriz constante nxn. Si A tiene n valores característicos distintos λ 1, λ 2,..., λ n y los correspondientes vectores característicos e 1, e 2,..., e n, la respuesta del sistema a cualquier estado inicial es: n x(t) = u i e λit e i (1.57) i=1 donde los escalares u i dependen del estado inicial x(0). Se ve que la estabilidad del sistema depende de los valores característicos de λ i. 9
13 Teorema 1.9. El sistema lineal invariante en el tiempo es estable en el sentido de Lyapunov si y sólo si: 1. Todos los λ i de A tienen parte real no positiva y ẋ(t) = A x(t) (1.58) 2. Para cualquier valor característico sobre el eje imaginario con multiplicidad m corresponde exactamente n vectores característicos de la matriz A. Teorema El sistema lineal invariante en el tiempo ẋ(t) = A x(t) (1.59) es asintóticamente estable si y sólo si todos los valores característicos de A tienen partes reales estrictamente negativas. Teorema El sistema lineal invariante en el tiempo (LIT) ẋ(t) = A x(t) (1.60) es exponencialmente estable si y sólo si es asintóticamente estable. Ya que la matriz A realmente determina si un sistema LIT es asintóticamente estable, se puede generar la siguiente definición: Definición 1.5. La matriz A es asintóticamente estable si todos sus valores característicos tienen partes reales estrictamente negativas Análisis con transformada de sistemas invariantes en el tiempo Solución de la ecuación diferencial de estado usando transformada de Laplace Se define la transformada de Laplace de un vector variando en el tiempo como: donde s es una variable compleja. Z(s) = [z(t)] = 0 e st z(t)dt (1.61) Vemos que la de un vector variando en el tiempo es simplemente un vector cuyos componentes son las transformadas de Laplace de los componentes de z(t). Consideremos primero la ecuación diferencial de estado homogénea: ẋ(t) = A x(t) (1.62) donde A es una matriz constante. La transformada de Laplace da: s X(s) X(0) = A X(s) (1.63) 10
14 Todas la reglas para casos escalares sirven en el caso vectorial. La solución es: Esto es equivalente a la expresión en el dominio del tiempo: X(s) = (s I A) 1 X(0) (1.64) x(t) = e A t x(0) (1.65) Esto lleva al siguiente teorema: Teorema Tomando A como una matriz constante de nxn. Entonces: (s I A) 1 = [e A t ] o (1.66) e A t = 1 [(s I A) 1 ] La función matriz (s I A) 1 se denomina resolución de A. Teorema Consideremos A una matriz constante de nxn con el polinomio característico: det(s I A) = s n α n 1 s n α 1 s 1 + α 0 (1.67) Entonces la resolución de A se puede escribir como: (s I A) 1 = donde las matrices R i está dadas por: R i = 1 det(s I A) n s i 1 R i (1.68) i=1 n α i A j i, i = 1, 2,..., n (1.69) j=i con α n = 1. Los coeficientes α i y las matrices R i, i = 1, 2,..., n se pueden obtener a través del siguiente algoritmo. Colocar: Luego α 0 = 1, R n = I (1.70) α n k = 1 k t r(a R n k+1 ) (1.71) R n k = α n k I + A R n k+1 para k = 1, 2,..., n (1.72) Para donde: k = n tenemos que R 0 = 0 (1.73) n t r (M) = M ii (1.74) i=1 11
15 Si M es una matriz nxn con elementos diagonales M i,i, i = 1, 2,..., n usar para un chequeo numérico. Consideremos ahora la ecuación no-homogénea: R 0 = 0 se puede donde A y B son constantes. La transformada de Laplace da: ẋ = A x(t) + B u(t) (1.75) s X(s) X(0) = A X(s) + B U(s) (1.76) luego X(s) = (s I A) 1 X(0) + (s I A) 1 B U(s) (1.77) La ecuación de salida del sistema está dada por: y(t) = C x(t) (1.78) donde C es constante. Aplicando Laplace y reemplazando (1.77) resulta: Y (s) = C X(s) = C (s I A) 1 X(0) + C (s I A) 1 B U(s) (1.79) que es equivalente a la transformada de Laplace de la expresión en el tiempo, con t 0 = 0: y(t) = C e At x(0) + C Cuando x(0) = 0 tenemos que: t 0 e A(t τ) B u(τ)dτ (1.80) Y (s) = H(s) U(s) (1.81) donde: H(s) = C (s I A) 1 B (1.82) La matriz H(s) se denomina matriz de transferencia del sistema. Del teorema 1.12 tenemos que la matriz de transferencia H(s) es la transformada de Laplace de la función matricial H(t) = C e At B con t 0 (ec. (1.36). De (1.81) tenemos que H(t) es la matriz respuesta impulso del sistema. Las raíces del denominador común de H(s) son los polos de la matriz de transferencia. Si no hay cancelaciones, estos polos son los polos del sistema, es decir, los valores característicos de A Respuesta en frecuencia Veamos la respuesta en frecuencia de sistemas lineales invariantes en el tiempo, a entradas de la forma: u(t) = u m e jωt t 0 (1.83) donde u m es un vector constante. 12
16 La solución de la ecuación diferencial e estado: ẋ(t) = A x(t) + B u(t) (1.84) se obtiene en términos de las soluciones particular y homogénea. Si consideramos la solución particular de la forma: x p (t) = x m e jωt (1.85) donde x m es un vector constante. Encontramos que la solución particular es: La solución homogénea se puede escribir como: x p (t) = (jω I A) 1 B u m e jωt t 0 (1.86) x h (t) = e A t a (1.87) donde a es un vector constante arbitrario. Luego tenemos que la solución general no-homogénea es: x(t) = e A t a + (jω I A) 1 B u m e jωt t 0 (1.88) El vector a se puede determinar con las condiciones iniciales. Si el sistema es asintóticamente estable, entonces la respuesta en estado estacionario de la salida: y(t) = C x(t) (1.89) es: y(t) = C (jω I A) 1 B u m e jωt (1.90) = H(jω) u m e jωt donde H(jω) es la matriz respuesta en frecuencia del sistema Ceros del sistema Teorema Considerar el sistema: ẋ = A x(t) + B u(t) y(t) = C x(t) donde x tiene dimensión n y la entrada u y la salida y tienen dimensión m. La matriz de transferencia del sistema es H(s) = C(sI A) 1 B. Entonces: det[h(s)] = Ψ(s) Φ(s) 13
17 donde Φ(s) = det[s I A] y Ψ(s) es un polinomio en s de grado n m o menos. Definición 1.6. Los ceros de Ψ(s) son los ceros del sistema y Φ(s) es el polinomio característico del sistema Interconexión de sistemas lineales Dos de los tipos de interconexión de sistemas más usados son la conexión serie o cascada y la realimentada. Figura 1.1: Conexión serie. Figura 1.2: Conexión realimentada. Para la conexión serie de la Fig. 1.1 los sistemas individuales se describen por las ecuaciones diferenciales de estado y salida: } ẋ 1 (t) = A 1 (t) x 1 (t) + B 1 (t) u 1 (t) sistema 1 (1.91) y 1 (t) = C 1 (t) x 1 (t) + D 1 (t) u 1 (t) } ẋ 2 (t) = A 2 (t) x 2 (t) + B 2 (t) u 2 (t) sistema 2 y 2 (t) = C 2 (t) x 2 (t) + D 2 (t) u 2 (t) Definiendo el estado aumentado: x(t) = [ x1 (t) x 2 (t) 14 ] (1.92)
18 El sistema interconectado se describe por: [ A ẋ(t) = 1 (t) 0 B 2 (t) C 1 (t) A 2 (t) considerando que u 2 (t) = y 1 (t). La ecuación de salida del sistema resulta: ] [ x(t) + B 1 (t) B 2 (t) D 1 (t) ] u(t) (1.93) y 2 (t) = [D 2 (t) C 1 (t) C 2 (t)] x(t) + D 2 (t) D 1 (t) u 1 (t) (1.94) En el caso de los sistemas invariantes en el tiempo, se puede describir la interconexión en términos de las matrices de transferencia. Supongamos que las matrices de transferencia individuales de los sistemas son: Y 1 (s) = H 1 (s) U 1 (s) (1.95) Y 2 (s) = H 2 (s) U 2 (s) (1.96) Sabemos que Luego U 2 (s) = Y 1 (s) (1.97) Y 2 (s) = H 2 (s) H 1 (s) U 1 (s) (1.98) resulta que la matriz de transferencia del sistema es: H 2 (s) H 1 (s). Generalmente no se pueden intercambiar. En la conexión realimentada se consideran las siguientes ecuaciones diferenciales de estado y salida: } ẋ 1 (t) = A 1 (t) x 1 (t) + B 1 (t) u 1 (t) sistema 1 (1.99) y 1 (t) = C 1 (t) x 1 (t) } ẋ 2 (t) = A 2 (t) x 2 (t) + B 2 (t) u 2 (t) sistema 2 y 2 (t) = C 2 (t) x 2 (t) + D 2 (t) u 2 (t) Usando el vector aumentado tenemos que: [ A1 (t) B ẋ(t) = 1 (t) D 2 (t) C 1 (t) B 1 (t) C 2 (t) B 2 (t) C 1 (t) A 2 (t) ] [ B1 (t) x(t) + 0 ] r(t) (1.100) donde se ha usado la relación u 2 (t) = y 1 (t) y u 1 (t) = r(t) y 2 (t). La salida del sistema resulta: y 1 (t) = [c 1 (t) 0] x(t) (1.101) Para el caso invariante en el tiempo, tenemos en términos de matrices de transferencia: Y 1 (s) = H 1 (s) U 1 (s) Y 2 (s) = H 2 (s) U 2 (s) U 1 (s) = R(s) Y 2 (s) U 2 (s) = Y 1 (s) 15
19 Luego: Despejando: Y 1 (s) = H 1 (s)[r(s) H 2 (s)y 1 (s)] (1.102) Y 1 (s) = [I + H 1 (s)h 2 (s)] 1 H 1 (s)r(s) (1.103) Definición 1.7. Consideremos la conexión realimentada de la Fig. 1.2 y que los sistemas 1 y 2 invariantes en el tiempo con matrices de transferencia H 1 (s) y H 2 (s) respectivamente. Entonces la función matriz: J(s) = I + H 1 (s)h 2 (s) (1.104) se denomina matriz de diferencia de retorno y la función matriz: Se denomina matriz ganancia de lazo. L(s) = H 1 (s)h 2 (s) (1.105) El término diferencia de retorno resulta del siguiente análisis: Supongamos la conexión realimentada con r(t) 0 y cortada en y 1 (t): Figura 1.3: Conexión realimentada. 16
20 esto da: Y 1 (s) = H 1 (s) H 2 (s) U 2 (s) (1.106) La diferencia entre Y 1 (s) y U 2 (s) es: U 2 (s) Y 1 (s) = [I H 1 (s)h 2 (s)] U 2 (s) (1.107) = J 2 (s) U 2 (s) Es importante conocer la estabilidad del sistemas interconectados. Para las conexiones anteriores existen los siguientes resultados: Teorema Considere la conexión serie de la Fig. 1.1, donde los sistemas 1 y 2 son sistemas invariantes en el tiempo con los polinomios característicos φ 1 y φ 2, respectivamente. Entonces la interconexión tiene el polinomio característico φ 1 (s) φ 2 (s). Por lo tanto, el sistema interconectado es asintóticamente estable si y sólo si ambos sistemas 1 y 2 son asintóticamente estables. Teorema Considere la conexión realimentada de la Fig. 1.2 donde los sistemas 1 y 2 son lineales invariantes en el tiempo con matrices de transferencia H 1 (s) y H 2 (s) y polinomios característicos φ 1 (s) y φ 2 (s) respectivamente y el sistema 1 no tiene conexión directa. Entonces el polinomio característico del sistema interconectado es: φ 1 (s) φ 2 (s) det[i + H 1 (s)h 2 (s)] (1.108) Por lo tanto, el sistema interconectado es estable si y sólo si el polinomio (1.108) tiene ceros con parte real estrictamente negativa solamente Controlabilidad Para la solución de problemas de control, es importante saber si un sistema tiene la propiedad de poder ser llevado desde algún estado a otro estado dado. Esto nos lleva al concepto de controlabilidad. Definición 1.8. El sistema lineal: ẋ = A(t) x(t) + B(t) u(t) (1.109) se dice que es completamente controlable si el estado del sistema puede ser transferido desde el estado cero para algún tiempo inicial t 0 a algún estado terminal x(t 1 ) = x 1 en un tiempo finito (t 1 t 0 ). Considerando esta definición se obtiene: Teorema El sistema lineal: ẋ = A(t) x(t) + B(t) u(t) (1.110) es completamente controlable si y solo si puede ser transferido desde cualquier estado inicial x 0 para algún tiempo inicial t 0 a algún estado terminal x(t 1 ) = x 1 en un tiempo finito (t 1 t 0 ). 17
21 La controlabilidad de un sistema LIT queda descrita en el siguiente teorema: Teorema El sistema LIT n dimensional: ẋ = A x(t) + B u(t) (1.111) es completamente controlable si y sólo si el vector columna de la matriz de controlabilidad: cubre el espacio n dimensional. P = (B, AB, A 2 B,..., A n 1 B) (1.112) Esto quiere decir, que el rango de la matriz P debe ser n para todos los valores de los parámetros. La controlabilidad de un sistema LVT se describe en el siguiente teorema: Teorema El sistema LVT n dimensional: define la función matricial simétrica no negativa definida: W (t 0, t) = ẋ = A(t) x(t) + B(t) u(t) (1.113) t donde Φ(t, t 0 ) es la matriz transición del sistema. t 0 Φ(t, τ) B(τ) B T (τ) Φ T (t, τ)dτ (1.114) Entonces el sistema es completamente controlable si y sólo si existe para todo t 0 a t 1 con t 0 < t 1 < tal que W (t 0, t 1 ) es no singular Reconstructibilidad Es importante saber si el sistema tiene la propiedad de poder determinar el comportamiento de su estado desde el comportamiento de la salida. Esto lleva al concepto de reconstructibilidad. Definición 1.9. Tomemos y(t, t 0, x 0, u) como la respuesta de la variable de salida y(t) del sistema LVT ẋ = A(t) x(t) + B(t) u(t) (1.115) y(t) = C(t)x(t) al estado inicial x(t 0 ) = x 0. Entonces el sistema se denomina completamente reconstruible (CR) si para todo t 1 existe un t 0 con < t 0 < t 1 tal que: y(t; t 0, x 0, u) = y(t; t 0, x 0, u) t 0 t t 1 (1.116) para todo u(t), t 0 t t 1, implique x 0 = x 0. La reconstructibilidad de un sistema se puede determinar considerando un caso simple como dice el siguiente teorema: 18
22 Teorema El sistema LVT: ẋ = A(t) x(t) + B(t) u(t) (1.117) y(t) = C(t)x(t) es completamente reconstruible si y sólo si para todo t 1 existe un t 0 con < t 0 < t 1 tal que: y(t 1 ; t 0, x 0, 0) = 0 t 0 t t 1 (1.118) implique que x 0 = 0 La reconstructibilidad de un sistema LIT queda descrita en el siguiente teorema: Teorema El sistema LIT n dimensional: ẋ = A x(t) + B u(t) (1.119) y(t) = C(t)x(t) es completamente reconstruible si y sólo si los vectores filas de la matriz de reconstructibilidad C C A Q = C A 2 (1.120).. C A n 1 cubren o barren el espacio n dimensional. Esto quiere decir, que el rango de la matriz Q debe ser n para todos los valores de los parámetros. La reconstructibilidad de un sistema LVT de describe en el teorema: Teorema El sistema LVT n dimensional: ẋ = A(t) x(t) + B(t) u(t) (1.121) y(t) = C(t)x(t) define la función matricial no negativa definida: M(t, t 1 ) = t1 donde Φ(t, t 0 ) es la matriz de transición del sistema. t Φ T (τ, t) C T (τ) C(τ) Φ(τ, t)dτ (1.122) Entonces el sistema es CR si y sólo si para todo t 1 existe un t 0 con < t 0 < t 1 tal que M(t 0, t) es no singular. 19
23
MODELACION EN VARIABLES DE ESTADO
CAPÍTULO VIII INGENIERÍA DE SISTEMAS I MODELACION EN VARIABLES DE ESTADO 8.1. DEFINICIONES Estado: El estado de un sistema dinámico es el conjunto más pequeño de variables de modo que el conocimiento de
Más detallesSistemas de control con realimentación de la salida
Capítulo 7 Sistemas de control con realimentación de la salida 7.1. Introducción En el capítulo 5 se supuso que estaba disponible el vector de estado completamente. Relajando esta suposición y estudiando
Más detallesControl Moderno. Ene.-Jun Diseño de controlador con referencia a la entrada, servosistemas. Dr. Rodolfo Salinas. mayo 2007
UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN Facultad de Ingeniería Mecánica y Eléctrica Control Moderno Ene.-Jun. 2007 Diseño de controlador con referencia a la entrada, servosistemas Dr. Rodolfo Salinas mayo 2007
Más detallesControl Moderno. Ene.-Jun UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN. Facultad de Ingeniería Mecánica y Eléctrica. Dr. Rodolfo Salinas.
UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN Facultad de Ingeniería Mecánica y Eléctrica Control Moderno Ene.-Jun. 27 Dr. Rodolfo Salinas abril 27 Control Moderno N abril 27 Dr. Rodolfo Salinas Respuesta en el tiempo
Más detallesComportamiento dinámico: Estabilidad
Lección 4 Comportamiento dinámico: Estabilidad 1 Estabilidad Dos tipos de estabilidad: ẋ(t) = f(t, x(t), u(t)) Estabilidad interna: ẋ(t) = f(t, x(t)) Estabilidad externa o estabilidad BIBO (bounded input-bounded
Más detallesEjercicios de ECUACIONES DIFERENCIALES ORDINARIAS
Ejercicios de ECUACIONES DIFERENCIALES ORDINARIAS Grado en Matemáticas Curso 203-204 . Ecuaciones lineales con coeficientes constantes Ecuaciones de primer orden. Encontrar la solución de los siguientes
Más detalles2.1 Descripción en espacio de estado de sistemas dinámicos
2 Análisis de sistemas lineales 2.1 Descripción en espacio de estado de sistemas dinámicos El objetivo de este capítulo es formular una teoría general de describir los sistemas dinámicos en funcion de
Más detallesSistemas de Control con entradas estocásticas
Capítulo 4 Sistemas de Control con entradas estocásticas 4.1. Introducción Un sistema de control es un sistema dinámico que cuando evoluciona en el tiempo se comporta de una forma predescrita. Loa componentes
Más detallesUNIDAD DIDÁCTICA I Teoría de Filtrado Óptimo 1
Índice PRÓLOGO IX UNIDAD DIDÁCTICA I Teoría de Filtrado Óptimo 1 1 Representación de Estado de Sistemas Lineales 5 11 Representación de Estado en Tiempo Continuo 5 12 Matriz de Transición 1 121 Definición
Más detallesPS Respuesta Temporal de Sistemas La Función de Transferencia
PS35 - Respuesta Temporal de Sistemas La Función de Transferencia William Colmenares 4 de junio de 006 Índice. Respuesta Temporal. Polos y Ceros.. ejemplos numéricos.......................... 3 3. Señales
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detalles1 Control Óptimo. 1.1 Introducción Problema típico de control óptimo
1 Control Óptimo 1.1 Introducción El control óptimo es una rama del control moderno que se relaciona con el diseño de controladores para sistemas dinámicos tal que se minimice una función de medición que
Más detallesControl Moderno - Ing. Electrónica Ejercicio Resuelto 3: Teorema de Cayley-Hamilton
Control Moderno - Ing. Electrónica Ejercicio Resuelto 3: Teorema de Cayley-Hamilton Introducción A continuación se presentan unos pocos y simples ejemplos que muestran como puede emplearse el Teorema de
Más detallesDiagonalización de matrices
7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,
Más detallesRepresentación en el espacio de estado. Sistemas Control Embebidos e Instrumentación Electrónica UNIVERSIDAD EAFIT
Representación en el espacio de estado Representación en espacio de estado Control clásico El modelado y control de sistemas basado en la transformada de Laplace, es un enfoque muy sencillo y de fácil
Más detallesMatriz fundamental. X(t) = (x 0 e at,y 0 e dt ) 0 e bt )(
Capítulo 1 Matriz fundamental Continuaremos estudiando las ecuaciones diferenciales lineales homogéneas autónomas pero ahora en IR n Obtendremos la solución analítica para algunos casos y mencionaremos
Más detallesApéndice sobre ecuaciones diferenciales lineales
Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 2 Determinante wronskiano. Wronskiano de f 1 (t), f 2 (t),..., f n (t). Derivada de un determinante de funciones.
Más detallesVALORES Y VECTORES PROPIOS
VALORES Y VECTORES PROPIOS En diversos campos de la ingeniería y las matemáticas surge el problema de calcular los valores escalares λ y los vectores x 0 tales que para la matriz cuadrada A se cumple Ax
Más detallesTema 8 Ecuaciones diferenciales
Tema 8 Ecuaciones diferenciales 1. ECUACIONES DIFERENCIALES ORDINARIAS Definición 1.1: Ecuación diferencial Se llama ecuación diferencial de orden n a una ecuación que relaciona la variable independiente
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesa n1 a n2 a nn Es decir, una forma cuadrática es un polinomio homogéneo de grado 2 y n variables.
Capítulo 7 Formas cuadráticas. Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado, pues el cuadrado de la norma de un vector
Más detallesa ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2
68 Matemáticas I : Álgebra Lineal Tema 7 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado, pues el cuadrado
Más detallesNotas Sobre Estabilidad BIBO y Estabilidad Interna en Ciertas Clases de Sistemas
F. Najson Sistemas Lineales 2 Octubre 28 Notas Sobre Estabilidad BIBO y Estabilidad Interna en Ciertas Clases de Sistemas Sobre Estabilidad BIBO Comencemos definiendo ciertas clases de funciones necesarias
Más detallesUnidad I Análisis de Sistemas Realimentados
Prof. Gerardo Torres - gerardotorres@ula.ve - Cubículo 003 Departamento de Circuitos y Medidas de la Escuela de Ingeniería Eléctrica de la Universidad de Los Andes Unidad I Análisis de Sistemas Realimentados
Más detallesControl Moderno: El espacio de estados
Lección 3 Control Moderno: El espacio de estados 1 Estados: Definición y ejemplo Estados: variables internas que describen la evolución del sistema. El conocimiento de estas variables en t = t 0 junto
Más detallesControlabilidad completa del estado para sistemas en tiempo continuo
Capítulo 11: CONTROLABILIDAD Y OBSERVABILIDAD Se dice que un sistema es controlable en el instante t0 si es posible llevarlo de cualquier estado inicial x(t0) a cualquier otro estado, empleando un vector
Más detallesTransformaciones lineales autoadjuntas (hermíticas)
Transformaciones lineales autoadjuntas (hermíticas) Objetivos. Estudiar propiedades elementales de transformaciones lineales autoadjuntas. Demostrar que para toda transformación lineal autoadjunta en un
Más detallesVALORES PROPIOS (AUTOVALORES) VECTORES PROPIOS (AUTOVECTORES)
VALORES PROPIOS (AUTOVALORES) Y VECTORES PROPIOS (AUTOVECTORES) Autovalores y Autovectores Los vectores propios o autovectores de una matriz A son todos los vectores x i 0, a los que la transformación
Más detallesb) Calcular sus cuatro puntos de equilibrio y estudiar la estabilidad en cada uno por el método de linealización.
Examen Final de EDOs Fecha: 14 de enero de 2013 Problemas Tiempo total: 2 horas y 30 minutos 1. Es un problema largo, pero casi todos los apartados son de tipo estándar. La interdependencia entre apartados
Más detallesMT227 Sistemas Lineales. Función de transferencia. Elizabeth Villota
MT227 Sistemas Lineales. Función de transferencia Elizabeth Villota 1 Sistemas Lineales Sistema no lineal, forma espacio de estados: Sea la salida correspondiente a la condición inicial y entrada escrita
Más detalles2. Estabilidad en Sistemas Lineales Invariantes en el Tiempo.
Capítulo 3 2. Estabilidad en Sistemas Lineales Invariantes en el Tiempo. 3.1 Introducción Un sistema estable se define como aquel que tiene una respuesta limitada. Es decir, un sistema es estable si estando
Más detallesAUTOVALORES Y AUTOVECTORES
12 de Julio de 2011 AUTOVALORES Y AUTOVECTORES (Clase 01) Departamento de Matemática Aplicada Facultad de Ingeniería Universidad Central de Venezuela 1 Puntos a tratar 1. Valores y vectores propios 2.
Más detallesCAPITULO 4 ESTABILIDAD. Ing. Diego Alejandro Patiño G. M. Sc., Ph. D.
CAPITULO 4 ESTABILIDAD Ing. Diego Alejandro Patiño G. M. Sc., Ph. D. Estabilidad Cada punto donde la bola se puede detener es un punto de equilibrio. A y F: puntos inestables: un cambio infinitesimal en
Más detallesSistemas autónomos. Introducción a la teoría cualitativa.
Lección 4 Sistemas autónomos. Introducción a la teoría cualitativa. 4.1 Sistemas autónomos. Mapas de fase. En esta lección nos centraremos en el estudio de sistemas autónomos, es decir, aquellos que pueden
Más detalles1. Ecuaciones lineales con coeficientes constantes. Ecuaciones de primer orden. 2. Encontrar la solución de los siguientes problemas de valor inicial.
. Ecuaciones lineales con coeficientes constantes Ecuaciones de primer orden. Encontrar la solución de los siguientes problemas de valor inicial. ẋ =5x, x0) =.. ẋ + x =0, x) =.. ẋ + x = te t, x0) =. si
Más detallesCONCEPTOS BASICOS DE LA TRANSFORMADA DE LAPLACE LA TRANSFORMADA DE LAPLACE
LA TRANSFORMADA DE LAPLACE Por cálculo integral sabemos que cuando vamos a determinar una integral impropia de la forma,su desarrollo se obtiene realizando un cambio de variable en el límite superior de
Más detallesTEMA V. Pues bien, a estas caracterizaciones de los sistemas de ecuaciones lineales se las llamó matrices. En el caso del sistema considerado tenemos:
TEMA V 1. MATRICES Y SISTEMAS DE ECUACIONES LINEALES. Sea el siguiente sistema de ecuaciones lineales: Realmente quien determina la naturaleza y las soluciones del sistema, no son las incógnitas: x, y,
Más detallesSistemas de Ecuaciones Lineales y Matrices
Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una
Más detalles11 REPRESENTACIÓN EN EL ESPACIO DE ESTADO. 1.3 SOLUCIÓN DE ECUACIONES DE ESTADO EN TIEMPO
Control Avanzado. Luis Edo García Jaimes 1 TABLA DE CONTENIDO 1. ANÁLISIS DE SISTEMAS DE CONTROL EN EL ESPACIO DE 5 ESTADO 1.1 FORMAS CANÓNICAS PARA ECUACIONES EN EL ESPACIO DE ESTADO EN TIEMPO DISCRETO
Más detallesProf. Virginia Mazzone - Mariana Suarez
SISTEMAS NO LINEALES SISTEMAS DE SEGUNDO ORDEN Prof. Virginia Mazzone - Prof. Mariana Suarez 1 Introducción Método de isoclinas Ejemplos 3 Introducción Un sistema de segundo orden autónomo está representado
Más detallesTransformada de Laplace (material de apoyo)
Transformada de Laplace (material de apoyo) André Luiz Fonseca de Oliveira Michel Hakas Resumen En este artículo se revisará los conceptos básicos para la utilización de la transformada de Laplace en la
Más detallesCapítulo V. Valores y vectores propios. Diagonalización de operadores lineales.
Capítulo V Valores y vectores propios. Diagonalización de operadores lineales. Hemos visto que la aplicaciones lineales de en están definidas a través de una expresión de la forma ; pero esta fórmula puede
Más detallesFunción de transferencia
3 Función de transferencia En el capítulo anterior se presentó la transformada de Laplace y se explicó cómo utilizar sus propiedades para la resolución de una ecuación diferencial lineal de coeficientes
Más detallesPodemos pues formular los dos problemas anteriores en términos de matrices.
Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión
Más detallesSolución de Sistemas de Ecuaciones Diferenciales Lineales
Solución de Sistemas de Ecuaciones Diferenciales Lineales Departamento de Matemáticas, CCIR/ITESM 9 de febrero de Índice..Introducción.................................................Ejemplo.................................................3.Ejemplo................................................
Más detallesModelo de estado. Concepto de estado (1/2)
Modelo de estado Concepto de estado Ecuaciones del modelo de estado Representación gráfica de sistemas lineales Transformaciones lineales del estado Métodos de obtención modelos de estado F.d.T. y modelo
Más detallesdonde,, es controlable si y solo si la matriz de controlabilidad tiene rango,
TEORÍA DE CONTROL Tema 8. Controlabilidad y Observabilidad La controlabilidad y la observabilidad son dos conceptos desarrollados para la representación de sistemas en espacio de estado, estos permiten
Más detallesEcuaciones lineales de orden superior
ANEXO GUIA 5 Ecuaciones lineales de orden superior Las ideas presentadas para ecuaciones lineales de segundo orden se pueden generalizar a ecuaciones lineales de orden n d n x n + a n 1(t) dn 1 x n 1 +
Más detallesUNIDAD 1: SEÑALES Y SISTEMAS CONTINUOS - TEORÍA
CURSO: SEÑALES Y SISTEMAS UNIDAD 1: SEÑALES Y SISTEMAS CONTINUOS - TEORÍA PROFESOR: JORGE ANTONIO POLANÍA P. 1. DEFINICIONES SEÑAL: Matemáticamente es una variable que contiene información y representa
Más detallesApéndice sobre ecuaciones diferenciales lineales
Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 1. Determinante wronskiano 2 1.1. Wronskiano de f 1 (t), f 2 (t),..., f n (t)............... 3 1.2. Derivada
Más detallesCarlos Mario Vélez S. Universidad EAFIT. Temas 1. Generalidades sobre estabilidad 2. Estabilidad de Lyapunov
Objetivo específico Presentar la teoría de estabilidad de Lyapunov aplicada a sistema lineales y no lineales e ilustrar su uso en el análisis y diseño de sistemas no lineales Temas.. Método directo de
Más detallesEcuaciones Diferenciales Ordinarias y Simulación con Matlab
Ecuaciones Diferenciales Ordinarias y Simulación con Matlab L. Héctor Juárez Valencia y M a Luisa Sandoval Solís Departamento de Matemáticas, Universidad Autónoma Metropolitana-Iztapalapa, D. F., México
Más detallesÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2
ÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2 Abstract Estas notas conciernen al álgebra de matrices y serán actualizadas conforme el material se cubre Las notas no son substituto de la clase pues solo contienen
Más detallesÁlgebra Lineal. Tema 11. El Teorema Espectral en R. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Tema. El Teorema Espectral en R Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Índice
Más detallesModelado en el dominio de la frecuencia Utilizar la transformada Laplace para representar ecuaciones diferenciales lineales
2.3 OBJETIVOS Transformada Laplace (Repaso) Modelado en el dominio de la frecuencia Utilizar la transformada Laplace para representar ecuaciones diferenciales lineales CONTENIDOS Transformada de Laplace
Más detalles4. Análisis de Sistemas Realimentados
4. Análisis de Sistemas Realimentados Panorama: Dados un controlador y una planta conectados en realimentación, vamos a plantear y contestar las siguientes preguntas: Es el lazo cerrado estable? Cuáles
Más detallesPreparaduría V. 1.- Sea A una matriz diagonal n n cuyo polinomio característico es
Preparaduría V 1.- Sea A una matriz diagonal n n cuyo polinomio característico es (x c 1 ) d1 (x c 2 ) d2... (x c k ) d k donde los c 1,..., c k son distintos dos a dos. Sea V el espacio de matrices n
Más detallesDiferencia entre análisis y síntesis
Diferencia entre análisis y síntesis ANÁLISIS Excitación conocida Respuesta? Circuito conocido xt () y()? t SÍNTESIS Y DISEÑO Excitación conocida Circuito? Respuesta deseada valores elementos? xt () yt
Más detallesTema 3: Representación de sistemas lineales. Transformada de Laplace
Fundamentos de Control Automático 2º G. Ing. Tecn. Industrial Tema 3: Representación de sistemas lineales. Transformada de Laplace Índice del tema 1. Transformada de Laplace. Propiedades 1. Definición
Más detallesRaíz cuadrada. Superficies de Riemann
Raíz cuadrada Superficies de Riemann Aplicación: Circuito RLC (a) (b) Aplicación: Circuito RLC Para el circuito (a): De la ley de Ohm con Aplicación: Circuito RLC Es más conveniente utilizar un voltaje
Más detalles1.3.1 Fundamentos de cálculo vectorial
131 Fundamentos de cálculo vectorial 1 Función escalar Una función se define como una representación escalar que está dada en términos de un vector Un ejemplo analítico puede darse por la función f(x)
Más detallesCÁLCULO II Grados en Ingeniería
CÁLCULO II Grados en Ingeniería Domingo Pestana Galván José Manuel Rodríguez García Figuras realizadas con Arturo de Pablo Martínez Capítulo 1. Cálculo diferencial 1.1 Funciones. Límites y continuidad
Más detallesClase 8 Matrices Álgebra Lineal
Clase 8 Matrices Álgebra Lineal Código Escuela de Matemáticas - Facultad de Ciencias Universidad Nacional de Colombia Matrices Definición Una matriz es un arreglo rectangular de números denominados entradas
Más detallesSistemas de ecuaciones lineales
Sistemas de ecuaciones lineales 81 Introducción Denominamos sistema de ecuaciones a toda ecuación de la forma x (t) F ( t, x(t) ), (S) donde F : (a, b) R n R n La expresión anterior es muy general en el
Más detalles5 Estabilidad de soluciones de equilibrio
Prácticas de Ecuaciones Diferenciales G. Aguilar, N. Boal, C. Clavero, F. Gaspar Estabilidad de soluciones de equilibrio Objetivos: Clasificar y analizar los puntos de equilibrio que aparecen en los sistemas
Más detallesCAPITULO 8. LA TRANSFORMADA DE LAPLACE La transformada de Laplace
CAPITULO 8. LA TRANSFORMADA DE LAPLACE 8.1. La transformada de Laplace Definición 1.Sea f (t) una función definida para t 0. Se define la transformada de Laplace de f (t) de la forma, - s es un parámetro
Más detallesr r a) Clasificar el sistema x = Ax en función del parámetro r R.
Examen Final de Ecuaciones Diferenciales Fecha: 15 de junio de 2012 3 Problemas (7.5 puntos) Tiempo total: 3 horas Problema 1 [2.5 puntos]. Queremos dibujar el croquis de un sistema lineal 2D y realizar
Más detallesEcuaciones Diferenciales Ordinarias
Ecuaciones Diferenciales Ordinarias (Transformada de Laplace) Julio López jclopez@dim.uchile.cl Depto Ingeniería Matemática, Universidad de Chile Verano 2010, Resumen clases Julio López EDO 1/30 Introducción
Más detallesSistemas de Ecuaciones Diferenciales
Lección 8 Sistemas de ecuaciones diferenciales lineales 1 Sistemas de Ecuaciones Diferenciales Consideremos el sistema A + S X + S k 1 k 2 Inicialmente se añaden 2 moles de S y 1 mol de A d[a] dt = k 1
Más detallesResolución de Sistema de Ecuaciones Lineales
Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numérico Hermes Pantoja Carhuavilca 1 de 37 CONTENIDO
Más detalles1 Ecuaciones diferenciales
1 Ecuaciones diferenciales La solución a una ecuación algebraica es un número, o un conjunto de números que satisfacen la ecuación. Por ejemplo las soluciónes de x 2 4x + 3 = 0 son x 0 = 1 y x 1 = 3. Las
Más detallesDiagonalización de matrices
Diagonalización de matrices María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Diagonalización de matrices Matemáticas I 1 / 22 Valores y vectores propios de una matriz Definición
Más detallesVIII. Determinación de frecuencias naturales y formas modales
Objetivos: 1. Comprender como emplear el método de Rayleigh para estimar la frecuencia natural fundamental de un sistema de múltiples grados de libertad.. Presentar el problema estándar de eigen valores
Más detalles1. El Teorema de Rolle Generalizado.
Proyecto III: Los Teoremas de Rolle y del valor Medio Objetivos: Profundizar el estudio de algunos teoremas del cálculo diferencial 1 El Teorema de Rolle Generalizado La formulación más común del Teorema
Más detallesBa s e, d i M e n s i ó n y Mat r i z
Unidad 4 Ba s e, d i M e n s i ó n y Mat r i z de transición Objetivos: Al inalizar la unidad, el alumno: Conocerá la deinición de base de un espacio vectorial Identiicará bases canónicas para algunos
Más detallesIntroducción. Por favor. No olvide bajar el tono a su. Franco E., Rosero E., Ramírez J.M. () SISTEMAS DE CONTROL II GICI / 42
Introducción Por favor No olvide bajar el tono a su teléfono móvil!. Franco E., Rosero E., Ramírez J.M. () SISTEMAS DE CONTROL II GICI 2008 1 / 42 Introducción UNIDAD I ESTABILIDAD DE SISTEMAS DINÁMICOS
Más detallesde la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ).
INTRODUCCIÓN. MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales.
Más detallesTema 1: Matrices. Sistemas de ecuaciones. Determinantes
Tema 1: Matrices. Sistemas de ecuaciones. Determinantes José M. Salazar Octubre de 2016 Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Lección 1. Matrices. Sistemas de ecuaciones. Determinantes
Más detallesAUTOMATIZACION Y CONTROL DE PROCESOS FACEyT UNT ESTABILIDAD DE LOS SISTEMAS EN LAZO CERRADO
Análisis Cualitativo de la Respuesta Temporal de un Sistema Si se conocen la función de transferencia G(s) de un dado sistema y la entrada x(t), se puede evaluar la salida y(t) a partir de: y(s) G (s )
Más detalles1. Problema clásico de EDO
FACULTAD CS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE MA57C Control Óptimo Semestre 27-2 Profesor: Rafael Correa Auxiliar: Oscar Peredo Clase Auxiliar #1 31 de julio de 27 1 Problema clásico de EDO Problema
Más detallesDefinición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.
Índice general 1. Álgebra de Matrices 1 1.1. Conceptos Fundamentales............................ 1 1.1.1. Vectores y Matrices........................... 1 1.1.2. Transpuesta................................
Más detallesGF = I V. G(v ) = v 1
7- Inversas a Izquierda y Derecha Sea F : V V una transformación lineal. G : V V lineal se denomina inversa a izquierda de F si GF = I V donde I V : V V denota el operador identidad en V. En tal caso F
Más detallesRegulación y Control de Máquinas Navales Práctica Módulo 1: Modelado de Sistemas Curso
Regulación y Control de Máquinas Navales Práctica Módulo 1: Modelado de Sistemas Curso 2007-2008 I INTRODUCCIÓN La práctica descrita en este documento pretende familiarizar al alumno con los conceptos
Más detallesEn la Clase 3, se demostró que cualquier señal discreta x[n] puede escribirse en términos de impulsos como sigue:
SISTEMAS LINEALES INVARIANTES EN EL TIEMPO (SISTEMAS LTI) Un sistema lineal invariante en el tiempo, el cual será referido en adelante por la abreviatura en inglés de Linear Time Invariant Systems como
Más detallesSoluciones Periódicas de Sistemas Diferenciales Lineales de Varias Clases
Memorias de la XXIII Semana de Investigación y Docencia en Matemáticas. Departamento de Matemáticas, Universidad de Sonora, Marzo, 213, pp. 25 31. Nivel: Superior Soluciones Periódicas de Sistemas Diferenciales
Más detallesControl Moderno. Ene.-Jun Diseño de controlador por retroalimentación de estado. Dr. Rodolfo Salinas. mayo 2007
UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN Facultad de Ingeniería Mecánica y Eléctrica Control Moderno Ene.-Jun. 2007 Diseño de controlador por retroalimentación de estado Dr. Rodolfo Salinas mayo 2007 Control
Más detallesObservadores del estado
Observadores del estado Introducción Definición Dinámica del sistema con observador monovariables multivariables U.P.M.-DISAM P. Campoy Control en el espacio de estado 1 Introducción Concepto: el observador
Más detallesCeros de Funciones: Multivariable
Ceros de Funciones: Multivariable Prof. Marlliny Monsalve 1 1 Postgrado en Ciencias de la Computación Universidad Central de Venezuela Análisis Numérico May 19, 2015 Prof. Monsalve (UCV) Ceros Multivariable
Más detalles4.- ANALISIS DE SISTEMAS EN TIEMPO CONTINUO
ANALISIS DE SISTEMAS EN TIEMPO CONTINUO Dinámica de Sistemas 4. 4.- ANALISIS DE SISTEMAS EN TIEMPO CONTINUO 4..- Efecto de los polos en el comportamiento del sistema. 4..- Estabilidad. 4.3.- Análisis de
Más detallesSISTEMAS DE ECUACIONES LINEALES Y MATRICES
y SISTEMAS DE ECUACIONES ES Y MATRICES Sergio Stive Solano 1 Febrero de 2015 1 Visita http://sergiosolanosabie.wikispaces.com y SISTEMAS DE ECUACIONES ES Y MATRICES Sergio Stive Solano 1 Febrero de 2015
Más detallesÁlgebra II(61.08, 81.02) Segundo cuatrimestre 2017 Práctica 4. Autovalores y autovectores de matrices. Diagonalización.
Álgebra II(6108, 8102) Segundo cuatrimestre 2017 Práctica 4 Autovalores y autovectores de matrices Diagonalización Nota: salvo indicación particular, se considera que todas las matrices pertenecen a C
Más detallesSi u y v son vectores cualquiera en W, entonces u + v esta en W. Si c es cualquier numero real y u es cualquier vector en W, entonces cu esta en W.
Unidad 4 Espacios vectoriales reales 4.1 Subespacios Si V es un espacio vectorial y W un subconjunto no vacío de V. Entonces W es un subespacio de V si se cumplen las siguientes condiciones Si u y v son
Más detallesun conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:
CAPÍTULO 2: ESPACIOS VECTORIALES 2.1- Definición y propiedades. 2.1.1-Definición: espacio vectorial. Sea un cuerpo conmutativo a cuyos elementos denominaremos escalares o números. No es necesario preocuparse
Más detallesMatriz asociada a una transformación lineal respecto a un par de bases
Matriz asociada a una transformación lineal respecto a un par de bases Ejercicios Objetivos Comprender cómo se describe una transformación lineal (que actúa en espacios vectoriales de dimensiones finitas)
Más detallesBreve sobre el Polinomio de Taylor
Breve sobre el Polinomio de Taylor Alejandro Lugon 3 de agosto de 00. Funciones de R en R Consideremos la función f : R R diferenciable en un conjunto S abierto. Por definición su derivada en un punto
Más detallesECUACIONES DIFERENCIALES ORDINARIAS. HOJA 8. Conjuntos invariantes
ECUACIONES DIFERENCIALES ORDINARIAS. HOJA 8. CONJUNTOS INVARIANTES Y CONJUNTOS LÍMITE. ESTABILIDAD POR EL MÉTODO DE LIAPUNOV. Conjuntos invariantes 1. Definición. Se dice que un conjunto D Ω es positivamente
Más detallespuede representarse algebraicamente por una ecuación de la forma
SISTEMA DE ECUACIONES LINEALES El estudio de los sistemas de ecuaciones lineales y sus soluciones es uno de los temas más importantes del algebra lineal. ECUACIONES LINEALES Una recta en el plano puede
Más detallesPROBLEMAS PROPUESTOS. TEMAS 5 Y 6 SOLUCIONES
Grado en Ingeniería Mecánica Teoría de Sistemas PROBLEMAS PROPUESTOS. TEMAS 5 Y 6 SOLUCIONES Transformada Z. Función de transferencia discreta. Modelado de sistemas discretos. PROBLEMA 1. Sistema discreto
Más detallesRespuesta transitoria
Capítulo 4 Respuesta transitoria Una ves que los diagramas a bloques son desarrollados, el siguiente paso es llevar a cabo el análisis de los sistemas. Existen dos tipos de análisis: cuantitativo y cualitativo.
Más detalles