1.1. Algoritmo de Proyección Actualización de Parámetros y Variables de Estados 7

Documentos relacionados
1. Control de Mínima Varianza

1. Diseño Óptimo en Función de Transferencia. 1. Diseño Óptimo en Función de Transferencia 1

1. Mínimos Cuadrados. 05-Mínimos Cuadrados.doc 1

Clase 10 Diseño Óptimo Variables de Estado.doc 1

Métodos Estadísticos Multivariados

DEPARTAMENTO DE ECONOMÍA Examen de Análisis Matemático (Grado ENI) Temas 1 a 5

EXÁMENES DE ALGEBRA Y GEOMETRÍA MATEMÁTICAS II CURSO

SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO

1. Análisis de Sistemas Discretos

1. Muestreo de Sistemas Continuos. 1. Muestreo de Sistemas Continuos 1

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).

1. Ajuste de los Modelos 1

1.1. Introducción Método de Identificación por Mínimos Cuadrados Forma Recursiva: Inclusión del Factor de Olvido.

1. Diferentes Algoritmos de Identificación

4.5 Algoritmo RLS (Recursive Least Squares)

APÉNDICE A. Algebra matricial

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS

Clase 7 Herramientas de Álgebra Lineal

EJERCICIOS DE SELECTIVIDAD DE ÁLGEBRA

Identificación mediante el método de los mínimos cuadrados

Valores y vectores propios

(a) (0.5 puntos) Compruebe que esta ecuación tiene exactamente una solución en el intervalo

1. Funciones de varias variables

Matrices. Operaciones con matrices.

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA

1. Método del Lugar de las Raíces

Álgebra Lineal. Tema 8. Valores y vectores propios. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

1. Método del Lugar de las Raíces

Transformaciones y esperanza

Estadística III Repaso de Algebra Lineal

c-inversa o inversa generalizada de Rao

Tema 6: Modelos de probabilidad.

2. Álgebra matricial. Inversa de una matriz O B 1 O B 1. Depto. de Álgebra, curso

ALN - Curso 2007 Gradiente Conjugado

Es decir, det A = producto de diagonal principal producto de diagonal secundaria. Determinante de una matriz cuadrada de orden 3

Solución. Restando estas dos últimas ecuaciones tenemos 9a = 9 de donde a = 1

Problemas de Selectividad de Matemáticas II Comunidad de Madrid (Resueltos) Isaac Musat Hervás

Capítulo 1: Diagonalización de matrices

Parte 3. Vectores y valores propios

Matrices Inversas. Rango Matrices Elementales

Verdadero o falso (Total: 12 puntos)

ALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República

Econometría II Grado en finanzas y contabilidad

Regresión Lineal Múltiple

EvAU 2018 Propuesta A

Matemáticas II. Prácticas: Matrices y Determinantes ; C = 1 3 5

EJERCICIOS PAU MATEMÁTICAS II ANDALUCÍA Autor: Fernando J. Nora Costa-Ribeiro Más ejercicios y soluciones en fisicaymat.wordpress.

Práctica 5. Autovalores y autovectores. Diagonalización de matrices y de transformaciones lineales.

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

Lista de problemas de álgebra, 2016

MATEMÁTICAS II 2005 OPCIÓN A

Repaso de conceptos de álgebra lineal

Modelos Lineales Generalizados

Soluciones a los ejercicios del examen final C =. 1 0

Opción de examen n o 1

Llamaremos número real a cualquier fracción decimal. Las fracciones decimales periódicas se llaman números racionales, así:

Valores y Vectores Propios

b) y 1 = 10x x 2 y 2 = 25x x 2 d) y 1 = 4x 1 3x 2 y 2 = 2x 1 5x 2

solucionario matemáticas II

Unidad 2 Determinantes

1. Sistemas Muestreados

Cálculo Numérico. Curso Ejercicios: Preliminares I

Inversa generalizada e inversa condicional de matrices

Control Moderno. Ene.-Jun Diseño de controlador con referencia a la entrada, servosistemas. Dr. Rodolfo Salinas. mayo 2007

Lugar de las Raíces G. H = -1 (1)

Primer examen parcial Geometría y Álgebra Lineal 1 2 de mayo de 2015 Respuestas y solución

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

1. Matrices. Operaciones con matrices

PRIMER EXAMEN PARCIAL ÁLGEBRA LINEAL I. Soluciones. Suponer que x, y, z y t son escalares tales que, xh + yi + ze + tf = T.

Álgebra II(61.08, 81.02) Segundo cuatrimestre 2017 Práctica 4. Autovalores y autovectores de matrices. Diagonalización.

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Multicolinealidad Introducción. Uno de los supuestos básicos del modelo lineal general. y = Xβ + u

Problemas de Selectividad de Matemáticas II Comunidad de Madrid (Resueltos) Isaac Musat Hervás

1. Diseño Óptimo en Variables de Estado 1

Tema 1. Preliminares. 1.1 Resultados algebraicos

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

MATRICES,DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Sesión 18: Diagonalización (I) Método práctico para diagonalizar una matriz cuadrada A M nxn K

2 Polinomio característico de una matriz

7 Aplicaciones ortogonales

Tema 11.- Autovalores y Autovectores.

IES Fco Ayala de Granada Junio de 2016 (Modelo 2) Soluciones Germán-Jesús Rubio Luna. Opción A. a g(x)

Examen de Admisión a la Maestría / Doctorado 24 de Junio de 2016

ÁLGEBRA Ejercicios no resueltos de la Práctica 3

ÁLGEBRA Ejercicios no resueltos de la Práctica 4

Material para el examen parcial 1

Conjuntos y matrices. Sistemas de ecuaciones lineales

Ecuaciones Diferenciales II. Tema 3: El entorno de los puntos críticos

Multivariante Curso Cálculo matricial

ÁLGEBRA LINEAL I Práctica 3

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.

Problemas de Selectividad de Matemáticas II Comunidad de Madrid (Resueltos) Isaac Musat Hervás

Transcripción:

. Convergencia de los Algoritmos de Identificación. Convergencia de los Algoritmos de Identificación.. Algoritmo de Proyección... Actualización de Parámetros y Variables de Estados 7.. Algoritmo de Mínimos Cuadrados... Interpretación Estadística 6.3. Condiciones de Excitabilidad 8.3.. Señal Suficientemente Excitadora 3.4. Identificación en Lazo Cerrado 4.4.. Influencia del ipo de Regulador 46.4.. Velocidad de Convergencia 49

.. Algoritmo de Proyección Actualización de parámetros: ( y x ) ˆ ˆ γ x θ = θ + ˆ θ α + x x 0< γ < α 0 Se cumple: (.) ˆ ˆ ˆ 0 i. θ θ0 θ θ0 θ0 θ0 e ii. lim = 0 α + x x iii. lim ˆ θ ˆ = 0 n θ n con e ( ˆ = x θ0 θ )

θ ˆ = θ θ0 e = x θ V Demostración = θ θ = θ (.) V γ x = θ = θ + e (.3) α + x x θ γxe γ x xe γe θ x γx x V = V + + = V + + α + x x + α + x x e α + x x V ( α x x) γe θ x γx x γe V = + =Ξ (.5) α + x x e α + x x α + x x θ x γx x γx x Ξ = + 0 = + δ < e α + x x α + x x (.6) (.4) 3

V Ξ es negativo, V decrece, propiedad i está demostrada. Propiedad ii γ ei = V0 + Ξi (.7) i= α + xi xi γ e α + x x i ( V 0 V ) (.8) i= i i δ sumatoria acotada, términos tienden a cero. Si un cuadrado tiende a cero, el número también e lim = 0 con e ( ˆ = x θ0 θ ) (.9) α + x x Esta expresión del error se denomina error normalizado Que este error tienda a cero no significa que e tienda a cero. Esto último solo se cumple si x está acotado. 4

Propiedad iii De acuerdo a la definición del algoritmo γ x x γ x xe = x 0 x = α + x x α + x x ˆ θ ˆ θ θ ˆ θ lo que se puede expresar como, ˆ ˆ γ e α θ θ = 0 α + x x α x x + como el error normalizado tiende a cero, el miembro izquierdo de la ecuación tenderá a cero. Pero a su vez se puede escribir, i i+ i ˆ θ ˆ θ = ˆ θ ˆ θ + ˆ θ ˆ θ + ˆ θ ˆ θ (.) (.0) ˆ θ ˆ θ + + ˆ θ ˆ θ = ˆ θ ˆ θ i+ i i+ i i= (.) 5

Cada uno de los términos de la sumatoria tienden a cero por lo la diferencia ˆ θ ˆ tiende a cero. Por lo tanto se cumple la propiedad iii ya que el i considerado θ i es genérico. Estas propiedades se cumplen independiente de u ya sea a lazo cerrado o abierto. 6

... Actualización de Parámetros y Variables de Estados La definición del algoritmo de proyección permite presentarlos como sigue ( y x ) ˆ ˆ γ x θ θ = θ θ + ˆ θ 0 0 α + x x Definiendo el error en la estimación de parámetros (.3) ˆ = 0 (.4) θ θ θ resulta ( x x ) ˆ ˆ γ x θ θ = θ θ + θ ˆ θ 0 0 0 α + x x (.5) γxx γxx θ = θ θ = I θ α + x x α + x x (.6) 7

θ (.7) = Aθ con xx A = γ I α + (.8) x x La evolución de θ está regida por la ecuación anterior tal como si fuese un sistema expresado en variables de estado. Dada la forma de la matriz A tiene todos sus autovalores en excepto uno en ( γ ) α + x x λ = α + x x Este autovalor es menor que uno si 0< γ < Se puede ver en un ejemplo: x x = x (.9) (.0) 8

0 γ x xx A = 0 α + x + x xx x γx γxx α + x + x α + x + x = γxx γx α + x + x α + x + x (.) sus autovalores serán, las raíces del determinante de 9

det γx γx x λ + α = det γxx α + x + x + x + x [ λi A] + x + x α + x + x γx λ + α γx γx α + x + x α + x + x ( λ ) ( λ ) ( λ ) = + + ( ) γ x + x γ x x = ( λ ) λ + = ( λ ) λ α x x + α x x + + + α + ( γ) x x = ( λ ) λ α + x x Como A varía en el tiempo no se pueden sacar conclusiones rápidas sobre la convergencia Pero sí se puede ver que si A no variase, es decir que las muestras siempre fuesen las mismas, o sea un sistema que no tiene dinámica, los parámetros partirían de un valor inicial y permanecerían en él. (.) 0

.. Algoritmo de Mínimos Cuadrados ˆ ˆ P x θ ˆ θ y x θ = + x P x + P x x P P = P + x P x [.3] e = y x ˆ θ = x θ [.4] i) ii) iii) Se puede demostrar que: ˆ θ θ ˆ θ θ con 0 0 0 número de condición de e N i lim N i = + xi Pi xi e lim = 0 + x x < λ ( P ) ( ) max = λmin P P con λ ( P ) = el máximo valor singular max

iv) v) lim N x P x e i i i i + x P x N i = i i i N lim ˆ ˆ θ θ < N = < vi) N lim ˆ θ ˆ θ i < N = i vii) lim ˆ θ ˆ = 0 i θ i Recordar:. autovalores de la matriz A son las raíces del det ( si A). valores singulares son la raíz cuadrada de los autovalores distintos de 0 de AA. Son siempre positivos y reales ( ) = av( AA ) vs A

3. Los autovalores y los valores singulares de una matriz simétrica coinciden. 4. número de condición: relación entre el máximo y mínimo valor singular λmax ( A) nc( A) = λ A min ( ) 5. número de condición muy grande significa matriz cercana a la singularidad. 6. el menor número de condición es. 7. si la matriz es simétrica todos los autovalores son reales 8. una matriz simétrica es definida positiva sii todos sus autovalores son mayores a 0. 9. número de condición es Q Q [.5] 0. los autovalores de Q son los inversos de los de Q 3

. sea una matriz A con sus autovalores { λ λ } Q tal que λ 0 B = Q A Q = 0 λn cumpliéndose θ Bθ = θ Q A Q θ = θ λ+ + θ nλn Q Q + + = λmax θ θ n λmaxθ θ. se cumple además, n [.6] [.7] QQ (.8), siempre existe una matriz 4

AC C 3. si una matriz tiene un autovalor λ( A) significa que existe autovector C tal que λ ( ) m A C = [.9] con = ; CC = [.30] y si B es tal que A = B+ bb [.3] C AC C BC C bb C = + [.3] α > 0 [.33] λacc= λbcc+ αc λa = λb + αc [.34] λ = λ + α C λ A A > λ B B esto vale para todos los autovalores en particular para el mínimo. Esto se puede aplicar y concluir que, siendo 5

P = P + x x [.35] esto implica que λ ( P ) λ ( P ) λ ( P ) [.36] min min min 4. es bueno elegir P0 = qi ya que todos los autovalores son iguales a q o sea que tiene el menor número de condición 5. los valores singulares tienen la siguiente interpretación geométrica: x Ax λ max λmin al hacer la transformación Ax, se pierde información en ciertas direcciones si algún valor singular es cero 6

- Demostración: Prueba de i) ˆ = 0 [.37] θ θ θ según [.3] P x x θ θ = θ [.38] + ó P x P x operando algebraicamente θ = P P θ V θ = P θ definiendo ˆ ˆ = θ θ 0 Φ θ θ0 θ P Φ = θ [.39] [.40] restando su valor anterior y considerando [.35], se tiene 7

θ x x θ V V P [.4] θ θ = θ = + x P x esto es siempre negativo es decir V decrece con o sea, θ θ θ θ [.4] P 0 P 0 o en forma recursiva ( ˆ ) ˆ θ θ θ θ [ θ θ ] 0 0 0 0 0 0 = + [.43] i= V x P la construcción de la matriz P según [.35] implica que el autovalor mínimo será según [.36] λ ( P ) λ ( P ) λ ( P ) [.44] min min min o sea 8

λ θ λ θ min ( P ) min ( P ) θ θ λ P θ 0 P θ0 ( P ) θ max 0 [.45] con lo que resulta λ ( P ) ( P ) max θ0 [.46] θ λ min con lo que queda demostrado i) 9

Prueba de ii) según [.4] θ x x θ e V V V N N i i i i i N = 0 = 0 i= + xi Pi xi i= + xi Pi xi debido a que VN 0, se deduce que e [.47] N i < [.48] i= + xi Pi xi con lo que queda demostrado ii). 0

e está acotada es porque sus términos tienden a cero o son ne- si la gativos. Prueba de iii) N i i= + xi Pi xi Podrán ser negativos? Esto solo depende de P. Se sabe que, por la forma de construcción P es definida positiva y simétrica por lo tanto tiene todos sus autovalores positivos y reales. Los autovalores de P serán positivos por lo tanto P será definida positiva, entonces, x P x i i i 0 [.49] esto implica que e lim = 0 i + x P x i i i i además [.50]

x P x x λ P x max por lo tanto e lim = 0 i + x x λ P x i i xi max que es la demostración de iii) [.5] [.5]

Prueba de iv) si se analiza la siguiente expresión, + x P x e e e x P x e = = + + + + + x P x x P x x P x x P x al haber demostrado la propiedad ii), se sabe que la sumatoria de los términos de la izquierda está acotada por lo que estarán acotadas las dos sumatorias de los términos de la derecha. Con esto queda demostrado iv). [.53] 3

Prueba de v) la definición del algoritmo de mínimos cuadrados permite decir que ˆ ˆ P x θ ˆ θ = y x θ [.54] + x P x ˆ P x e x P x e = = + x P x + x P x ˆ θ θ ˆ ˆ x P x e x P x e θ θ = λ [.55] max + x P x + x P x ( P ) La sumatoria de los términos de la izquierda será menor o igual que los de la derecha que se sabe están acotados. Por lo tanto se cumple v). [.56] 4

Prueba de vi) se demuestra igual que el algoritmo de proyección a partir de la propiedad anterior. Prueba de vii) si la sumatoria está acotada sus términos, que son positivos, tienden a cero. 5

... Interpretación Estadística Suponiendo un sistema con un único parámetro a estimar y = ˆ θu + e [.57] Se vio anteriormente que el algoritmo de mínimos cuadrados converge bajo ciertas condiciones pero es importante analizar la varianza de la estimación que da una idea de la velocidad de convergencia. var Para este caso simple la varianza está dada por: ( ˆ θ ) = σ N = u La convergencia de esta varianza es función de las muestras de la variableu. Por ejemplo, = es una exponencial creciente, la varianza converge a cero con una velo- Si u cidad Si u es una exponencial decreciente, la varianza converge a una constante e α e α [.58] 6

Si u a = la varianza tiende a cero para a < Si u = la varianza tiende a cero con una velocidad 7

.3. Condiciones de Excitabilidad El algoritmo converge si el sistema está persistentemente excitado. Sistema de primer orden: y = ay + bu (.59) Φ = Y El vector Φ y y 0 u u0 y su transpuesta: y u el vector de salidas: y + = y y 0 Φ = 0 u (.60) (.6) la inversa de la matriz de covarianza: 8

ΦΦ = y u y u y u su determinante: ( u y ) y u (.6) Φ Φ = = (.63) invirtiendo: - y ΦΦ = u u - u y y el otro vector necesario para el cálculo es: y y + Φ Y = y + u El vector de estimaciones tiene la siguiente forma: ˆ u y+ y - u y y+ u θ = y y+u - u y y+ y (.64) (.65) (.66) 9

limu lim y En este caso se cumplirá: = u = y los elementos del determinante serán: y = n y u y = n u u = n u y con lo que su valor resultará n y n u - n u y 0 (.67) (.68) = = (.69) ambién se debe notar que se cumple lo siguiente: y = ( u y ) u u y uy r r = r P tenderán en este caso a infinito. -traza de P. (.70) 30

.3.. Señal Suficientemente Excitadora - Modelo de Respuesta Impulsional Finita ΦΦ = C u u u u u uu u u u uu u u u i i i i i n i i i i i n i i n i i n i n Debe tener rango completo. Para se tiene ( 0) ( ) ( ) () ( 0) ( ) c c c n c c c n = lim( Φ Φ ) = c( n ) c( n ) ui n n siendo c(i) la covarianza empírica de la entrada i= (.7) N c( ) = lim uu i (.73) N N (.7) 3

Se dice que la señal u es persistentemente excitadora de orden n si la matriz n C es definida positiva. 3

- Otra Definición A de orden n-, se filtra la señal u y la relación de espectros jω ( ) u 0 = Ae = Φs Φ (.74) Si la señal u es persistentemente excitadora de orden n, no existe forma de filtrarla y hacer su espectro igual cero a menos que j Ae ( ω ) = 0 (.75) = Por otro lado, el teorema de Parseval dice: A qu Ae dω π π π jω ( ( ) ) = ( ) Φu( ω ) (.76) j Ae ( ω ) es cero en, a lo sumo n- puntos. Si u es persistentemente excitadora de orden n debe tener al menos n puntos distintos de cero para que la integral no se anule. 33

( ( ) ) = ( 0 + n + + n ) = n = = A qu au a u aca (.77) [ ] = (.78) a a0 a n La integral del teorema habla del espectro de u filtrada. Si Cn es no singular, la ecuación (.77) será nula si A=0. Señal excitante de orden n = matriz de autocorrelación es de rango n. Se supone que no existe un único modelo para el sistema y que los pares (A - B ) y (A - B ) describen su comportamiento es decir B e= y - u A B e = y - u A AB- AB (.79) e = u A A El espectro en frecuencia de este delta es 34

AB - AB Φ e= Φ u (.80) A A El numerador del polinomio es na + n. b Si u es excitante de orden na + nb + el espectro será 0 solo si los dos modelos son iguales. 35

u impulso, la matriz de covarianza es nula para todo n tanto u no es excitante de ningún orden. Escalón es a lo sumo persistente de orden ya que C = u = ( q ) C N lim i (.8) N N i= No puede ser excitadora de orden : u Senoide, = 0 = 0 0 u = senω cosω = cosω y existe un polinomio tal que ( ω ) (.8) (.83) q qcos + u = 0 (.84) Señal periódica de período m es a lo sumo excitadora de orden m, ya que 36

m ( ) u q u = 0 (.85) Señal aleatoria, por ejemplo ( ) = H q e (.86) no existe polinomio capaz de anular la sumatoria, por lo tanto es excitadora de todo orden 37

- Señales Filtradas v Sea ( ) = A q u (.87) donde u es excitadora de orden n y el polinomio A es de orden m<n, entonces v es excitadora de orden n-m. En cambio, si v A q = (.88) ( ) u la señal v sigue siendo excitadora de orden n - Modelo en Función de ransferencia ( ) ( ) A q y = B q u + e (.89) 0 0 con e=0. Estimación: A y B. 0 0 0 B B B A BA G = = (.90) A A AA 0 0 38

la señal u es excitadora de orden grado(a)+grado(b)+. Se puede observar el espectro jω jω jω jω ( ) ( ) ( ) ( ) u ( ω ) 0 0 B e A e B e A e Φ = 0 (.9) el polinomio es de grado igual a grado(a)+grado(b). La única forma de anular el espectro es que G = 0 39

Excitación con un impulso en la muestra 00. El parámetro de A se puede identificar debido a la influencia del ruido. Pero el de B solo se puede estimar con una muestra (los valores reales son a = 0,5 b=. 3.5 0.5 0 0 - -0.5 - - 0 00 00 300 400 500 600 700 800 900 000-3 -3 - - 0 3 40

.4. Identificación en Lazo Cerrado v ( ) ( ) D q Aq r Q( q) P( q) u ( ) ( ) B q Aq y Ilustración - Sistema en Lazo Cerrado transferencia entre v e y: D * y DP A = A = = (.9) * v QB + PA+ QB B P A u se calcula dentro del regulador basta con medir la salida teniendo los siguientes vectores: 4

θ = [ α αl β β r] φ = [ v vl y yl] [.93] siendo v = y - φ θ [.94] 4

- Problema : El sistema tiene la relación: A y = B u + D v [.95] Se reemplaza el regulador y se suma a ambos miembros una señal cualquiera Syse obtiene: Q A y = B - y + D v P Q ( A + S ) y = B - y + S y + D v P P Q ( A + S ) y = B - S - y + D v Q P A + S Q y = Q B - P S u + D Q v ( ) ( ) * * * A y= B u + D v Cualquier conjunto [.96] * * * A, B, D podrá ser el resultado de la estimación. 43

Una forma de salvar este inconveniente es conociendo el orden del sistema para no tener sesgo en la identificación. 44

Problema : Si en el mismo sistema de la [.95] se tomara como medidas y y u, resultaría lo siguiente: P A + Q B v= y P D [.97] A P y = P A + Q B y + B P u y P = u Q ( ) con lo que finalmente tendríamos la siguiente relación: [.98] No estaríamos identificando el sistema sino el regulador. 45

.4.. Influencia del ipo de Regulador Sistema y + a y = b u + v + d v [.99] - - - - Regulador Proporcional = - q y u [.00] 0 y+ (a + b q0) y-= v+ d v- α = (a + b q ) 0 [.0] β = d cualquier par de valores α y β pueden ser el resultado tres incógnitas (a, b y d) y dos ecuaciones. Sistema no identificable. 46

- Regulador PD = - q y - q y u [.0] 0 - y + (a + b q0 ) y-+ b q y-= v+ d v- α = (a + b q0 ) α = b q β = d [.03] 47

- Regulador P con ganancia variable α = a + b q α = a + b q β = d 0 β = d = β α a= q 0 q 0 - α q - q 0 α- α b= q - q [.04] [.05] 48

.4.. Velocidad de Convergencia y = ay + bu + e [.06] u = Kpy [.07] ( α α ) y = ay + bu + e + K y u = ( a+ αk ) y + ( b+ α) u + e p aˆ = a+ αk p bˆ = b + α p convergencia hacia una recta de pendiente K p [.08] [.09] 49

3.5 0.5 0 0 - -0.5 - - 0 00 400 600 800 000-3 -3 - - 0 3 ensayo en lazo abierto 3.5 0.5 0 0 - -0.5 - - 0 00 400 600 800 000-3 -3 - - 0 3 ensayo con realimentación proporcional. 50

Forma de corregirlo es realimentar con un PD, u = K y K y [.0] p p o hacer un regulador variable, = p [.] u K y u K v = + y p v secuencia de ruido independiente de e v y = a + bk + bk y + e + p p + Cálculo de la Matriz de covarianza. [.] [.3] 5

yi yu i i i= i= yu i i ui i= i= ΦΦ = vy (.4) i i yu i i = Kp yi K p Kp yi 0 Kpσ y i= i= i= i i= (.5) vy v y i i i i u i = Kp yi + + i= i= i= i i= i vi yi Kp yi + 0+ Kpσ y + v log i= i= i reemplazando K p ΦΦ σ y K ( p Kpσ y + σv log ) la matriz de covarianza es ( σ ) (.7) (.6) 5

σ ( ΦΦ) e σ σσ e y v σ v + log Kp log Kplog Kplog se interpreta como la velocidad de convergencia en la dirección de cada elemento del vector de parámetros. Velocidad de convergencia hacia la recta de pendiente y en la dirección perpendicular a la misma. Estas velocidades K p son: ( ˆ ˆ ) σ ( ) ( ˆ ˆ ) σ ( ) (.8) σ cov a Kpb = e Kp ΦΦ Kp σ σ cov Ka p + b = e Kp ΦΦ K p σσ log e y e y v la estimación se aproxima a la recta con velocidad y llega al punto exacto con velocidad log. 53

3.5 0.5 0 0 - -0.5 - - 0 00 400 600 800 000-3 -3 - - 0 3 54