Práctico 5 Filtro de Kalman
|
|
- José Cabrera Cortés
- hace 5 años
- Vistas:
Transcripción
1 Práctico 5 Filtro de Kalman Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fingeduuy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Curso 25
2 Formulación básica y notación Filtro de Kalman Dado un proceso expresado en un modelo de variables de estado, x k+ = Φ k x k +w k (ecuación del proceso) El proceso se observa a partir de las mediciones y k = C k x k +v k, (ecuación de observación) donde xk vector n de estados del proceso Φk matriz n n de transición de estados Relaciona x k a x k+ en ausencia de una fuerza o entrada exterior wk vector n de ruido blanco Representa el error en el modelo yk vector m de observaciones o medidas Ck matriz m n de observación Relaciona los estados (sin ruido) y las observaciones vk vector m de ruido blanco Modela el error de medición Bibliografía: [Brown and Hwang, 996, Hayes, 996]
3 Formulación básica y notación Filtro de Kalman Se supone además que las matrices de covarianza del ruido del modelo y del ruido de observación son conocidas y cumplen que, E ( w i w T j ) = { Qi k = i i j E ( v i v T j ) = { Ri i = j i j E ( w i vj T ) = i, j El objetivo del filtro de Kalman es encontrar un estimador del estado del sistema ˆx k para cada k dadas las observaciones y k hasta el tiempo k inclusive El estimador obtenido con el filtro de Kalman es óptimo en el sentido de que minimiza el error cuadrático medio del error de estimación del estado para cada k, ξ k = tr(p k ), con P k = E [(x k ˆx k )(x k ˆx k ) T]
4 Algoritmo Filtro de Kalman Condiciones iniciales: estimación a priori del estado y la matriz de covarianza del error de estimación en k =, x P (x = E[ ˆx )( x ˆx ) T ] Para k =,, 2,, se calcula (C k P k C T k +R k ) La ganancia de Kalman: Kk = P k C T k Actualización de la estimación con la observación k-ésima, ˆx k = ˆx ( k +K k yk C kˆx ) k Actualización de la covarianza del error de estimación, P k = (I K k C k )P k Proyecciones del estado y la matriz de covarianza del error del paso k + a partir de los datos actuales, ˆx k+ = Φ kˆx k Proyección del estado P k+ = Φ k P k Φ T k +Q k Proyección de la covarianza
5 Filtro de Kalman Observaciones Si las condiciones iniciales se eligen como [ (x x = E(x ) P = E ˆx )( x ˆx el esitmador ˆx k es insesgado para todo k ) T ], La ganancia de Kalman K k y la matriz de covarianza del error de estimación P k no dependen de las observaciones y k, y por lo tanto pueden ser calculadas previamente antes de realizar la operación de filtrado
6 Ejemplo: estimación de una constante Se quiere estimar el nivel de DC a partir de observaciones contaminadas con ruido blanco gaussiano de potencia σ 2 v no correlacionado El modelo en variables de estado del problema se expresa como x k+ = x k y k = x k +v k Los parámetros del filtro de Kalman son Φ k =, C k =, Q k =, R k = σ 2 v Cálculo de la ganancia de Kalman y la covarianza del error La proyección de la covarianza del error es en este caso, P k+ = Φ kp k Φ T k +Q k P k+ = P k La ganancia de Kalman queda K k = P k CT k ( Ck P k CT k +R k ) K k = P k P k +σ 2 v
7 Ejemplo: estimación de una constante La actualización de la covarianza del error es P k = (I K k C k )P k P k = ( K k )P k ( = P ) k P k +σv 2 P k = P k σ 2 v P k +σ 2 v Teniendo en cuenta la condición inicial de la covarianza del error, la ecuación en diferencias puede resolverse recursivamente, P = P P = P σ 2 v P +σ 2 v P 2 = P σ 2 v P +σ 2 v = P σ 2 v 2P +σ 2 v y generalizando queda P k = P σ 2 v kp +σ 2 v P 3 = P 2σ 2 v P 2 +σ 2 v = P σ 2 v 3P +σ 2 v
8 Ejemplo: estimación de una constante Sustituyendo la covarianza del error en la ganancia de Kalman, se tiene que P k K k = P k +σv 2 P K k = kp +σv 2 Cálculo de la estimación del estado La predicción del estado a partir del estado anterior es ˆx k+ = Φ kˆx k ˆx k+ = ˆx k La actualización de la estimación del estado es ˆx k = ˆx k +K ( k yk C kˆx ) k ˆx k = ˆx k + P kp +σv 2 (y k ˆx k )
9 Observaciones Ejemplo: estimación de una constante P ˆx k = ˆx k + kp +σv 2 (y k ˆx k ) P k = P σ 2 v kp +σ 2 v Si σ 2 v, es decir, las observaciones son completamente erroneas, para todo k se cumple que K k = ˆx k = ˆx k P k = P Las observaciones son ignoradas y el estimador es el estado inicial ˆx k = ˆx con varianza P Si P, significa que no hay conocimiento a priori sobre el proceso x En ese caso se cumple que K k = k P k = σ2 v k ˆx k = ˆx k + k (y k ˆx k ) = k ˆx k + k k y k El estimador es una implementación recursiva de la media muestral En concordancia, la varianza del estimador es P k = σ 2 v/k
10 Ejemplo: estimación de una constante Comparación al variar la matriz de covarianza inicial cuando la estimación inicial del estado es incorrecta x( )=, P( )=, Q=, R=σ 2 v Valor verdadero 2 Observaciones Estimacion muestra x( )=, P( )=, Q=, R=σ 2 v Valor verdadero 2 Observaciones Estimacion muestra
11 Ejemplo: estimación de una constante Comparación al variar la matriz de covarianza inicial cuando la estimación inicial del estado es correcta x( )=5, P( )=, Q=, R=σ 2 v Valor verdadero 2 Observaciones Estimacion muestra x( )=5, P( )=, Q=, R=σ 2 v Valor verdadero 2 Observaciones Estimacion muestra
12 Ejemplo: estimación de una constante Análisis cualitativo El modelo es una buena representación del proceso real: en general, el estado estimado será cercano al valor verdadero, incluso si las observaciones son muy ruidosas No hay conocimiento a priori del estado: se elige el estado inicial arbitrario y matriz covarianza grande En ese caso la estimación estará fuertemente guiada por el modelo y las observaciones Si se conoce a priori la estadística del proceso y la varianza del error de estimación inicial es pequeña, la estimación está guiada principalmente por el modelo y el estado inicial El modelo no representa fielmente el proceso real La matriz de covarianza del ruido del modelo puede ser usada para representar la confianza en el modelo
13 Ejemplo: estimación de una constante El proceso no es constante pero varía lentamente Relajación del modelo mediante la introducción de ruido en el modelo x( )=, P( )=, R=σ 2 v Valor verdadero Observaciones Estimacion, Q= Estimacion, Q=5e muestra
14 Ejemplo: estimación de una constante Error en el modelo La relajación del modelo mediante la introducción de ruido no es suficiente para una buena estimación x( )=, P( )=, R=σ 2 v Valor verdadero Observaciones Estimacion, Q= Estimacion, Q= Estimacion, Q= muestra
15 Ejemplo: estimación de una constante Error en el modelado Si el modelo no es correcto, la varianza del error de estimación puede ser mayor que la varianza del error de las observaciones Esto ocurre si el ruido del modelo es pequeño, porque implica confianza en el modelo Relajar demasiado el modelo tiende a hacer que la estimación no difiera demasiado con las observaciones
16 Ejemplo: estimación de una recta El modelo de una recta se puede expresar como Ecuación del proceso { rk+ = r k +p k Ecuación de observaciones p k+ = p k En notación vectorial queda x k+ = [ ] x k +w k y k = [ ] x k +v k Φ k = [ y k = r k +v k ] [ ] σ 2 Q k = σ2 2 C k = [ ] R k = σ 2 v
17 Ejemplo: estimación de una recta Evolución de los estados en el problema de estimación de una recta Estimacion de una recta x( )=, P( )= xi, R=σ 2 v x [k] Valor verdadero Observaciones Estimacion, Q= muestra x 2 [k] muestra
18 Ejemplo: estimación de parámetros de sinusoide Se quiere estimar la amplitud A y la fase ϕ de una sinusoide a partir de observaciones contaminadas con ruido blanco gaussiano de potencia σ 2 v no correlacionado La frecuencia ω se asume conocida El modelo se puede expresar como Ecuación del proceso Ecuación de observaciones { Ak+ = A k ϕ k+ = ϕ k y k = A k cos(ωk +ϕ k )+v k En este caso el modelo no es lineal Una alternativa es usar un filtro de Kalman extendido
19 Ejemplo: estimación de parámetros de sinusoide Filtro de Kalman Extendido (EKF) Se considera el modelo en variables de estado no lineal de la forma { xk+ = f k (x k,w k ) y k = c k (x k,v k ) El filtro de Kalman extendido se basa en una aproximación de primer orden del modelo, { xk+ = f k (ˆx k,)+f k (x k ˆx k )+G k w k y k = c k (ˆx k,)+c k(x k ˆx k )+U kv k donde F k = f k x (ˆx k,) G k = f k w (ˆx k,) C k = c k x (ˆx k,) U k = c k v (ˆx k,) Se aplica el algoritmo de Kalman sobre el modelo linealizado
20 Ejemplo: estimación de parámetros de sinusoide En el problema de la estimación de los parámetros de una sinusoide solo la ecuación de las observaciones es no lineal Las únicas alteraciones respecto al algoritmo de Kalman básico son La matriz Ck, que cambia en cada iteración, y vale C k = c k x (ˆx k,) [ Ak cos(ωk +ϕ k ) A k cos(ωk +ϕ k ) = A k ϕ k = [ cos(ωk + ˆϕ k )  k sen(ωk + ˆϕ k ) ] ]  k,ˆϕ k La actualización de la estimación con la observación k-ésima, ) ˆx k = ˆx k +K k (y k  k cos(ωk + ˆϕ k )
21 Ejemplo: estimación de parámetros de sinusoide Estimación de la amplitud y la fase de una sinusoide Estimacion de la amplitud y fase de una sinusoide en WGN (SNR = db) 3 Valor verdadero Observaciones Estimacion muestra
22 Ejemplo: estimación de parámetros de sinusoide Estimación de la amplitud y la fase Evolución de los estados 2 5 Estimacion de parametros de sinusoide en WGN (SNR = db) Evolucion de los estados Amplitud Fase 5 Estados muestra
23 Ejemplo: estimación de parámetros de sinusoide Estimación de la amplitud, fase y frecuencia de una sinusoide Estimacion de la amplitud, fase y frecuencia de una sinusoide en WGN (SNR = db) 3 Valor verdadero Observaciones Estimacion muestra
24 Ejemplo: estimación de parámetros de sinusoide Estimación de la amplitud, fase y frecuencia Evolución de los estados 2 5 Estimacion de parametros de sinusoide en WGN (SNR = db) Evolucion de los estados Amplitud Fase Frecuencia 5 Estados muestra
25 Ejemplo: ecualización de canal + Canal Ecualizador s[n] señal a transmitir (IID) v[n] ruido blanco introducido por el canal de media nula y potencia σ 2 v independiente de s[n] Ejemplo El canal se modela como un filtro FIR de N coeficientes s[n] es un proceso Bernoulli que toma el valor con probabilidad p y el valor con probabilidad p µ s = ( p)+p = p E(s 2 [n]) = 2 ( p)+ 2 p = p σ 2 s = E(s 2 [n]) µ 2 s = p( p)
26 Ejemplo: ecualización de canal Filtro de Wiener Matriz de autocorrelación de la entrada La entrada al filtro es u[n] = x[n]+v[n], con x[n] y v[n] procesos independientes Por lo tanto, r u [k] = r x [k]+r v [k] v[n] es ruido blanco de potencia σ 2 v, así que r v [k] = σ 2 vδ[k] Teniendo en cuenta que x[n] es un proceso filtrado, se cumple que, r x [k] = r s [k] h[k] h[ k], Considerando que s[n] tiene media µ s y potencia σs, 2 la función de autocorrelación es { E(s r s [k] = E(s[n]s[n k]) = 2 [n]) = σs 2 +µ 2 s k = E(s[n])E(s[n k]) = µ 2 s k r s [k] = σ 2 sδ[k]+µ 2 s
27 Ejemplo: ecualización de canal Por lo tanto, la autocorrelación de la señal en la salida del canal es r x [k] = (σ 2 sδ[k]+µ 2 s) h[k] h[ k] = σsδ[k] h[k] h[ k]+µ 2 2 s h[k] h[ k] ( N ) 2 = σs(h[k] h[ k])+µ 2 2 s h[k] Finalmente, la autocorrelación de la entrada del filtro Wiener es r u [k] = σ 2 s(h[k] h[ k])+µ 2 s i= ( N i= ) 2 h[k] +σvδ[k] 2
28 Ejemplo: ecualización de canal 2 Correlación cruzada entre la entrada y la señal deseada Se vio previamente (transparencias del práctico de Filtros Adaptivos, pag 47), que la correlación cruzada es y en este caso queda, p[ k] = p[ k] = N l= N l= h[l]r s [ l k +L], h[l](σ 2 sδ[ l k +L]+µ 2 s) = σ 2 sh[ k +L]+µ 2 s N l= h[l] Construyendo el sistema de ecuaciones de Wiener-Hopf M M y resolviendo, se obtienen los coeficientes del filtro de Wiener de M coeficientes
29 Ejemplo: ecualización de canal Filtro de Kalman [Lawrence and Kaufman, 97] Se asume conocida la respuesta al impulso del canal h n, con n =,,N Planteo del problema Los estados w,,w N son la entrada en la ĺınea de retardos del filtro, s[n],,s[n N +] w [k +] w 2[k +] w 3[k +] w N[k +] = w [k] w 2[k] w 3[k] w N[k] + }{{} G s[k+]
30 Ejemplo: ecualización de canal La ecuación de observación es u[k] = (h h h N ) w [k] w N [k] +v[k] Los parámetros del filtro de Kalman son Φ k = G = C k = (h h h N ) Q k = σ 2 s R k = σ 2 v Como estimador de la señal transmitida s[n] se usa el estado i-ésimo, w i = ŝ[n i] Se decide que cada muestra de la señal ecualizada corresponde a un si el estimador supera 5 y en el caso contrario
31 Algoritmo Ejemplo: ecualización de canal Condiciones iniciales: estimación a priori del estado y la matriz de covarianza del error de estimación en k =, x = P = I Para k =,, 2,, se calcula (C k P k C T k +R k ) La ganancia de Kalman: Kk = P k C T k Actualización de la estimación con la observación k-ésima, ˆx k = ˆx ( k +K k yk C kˆx ) k Actualización de la covarianza del error de estimación, P k = (I K k C k )P k Proyecciones del estado y la matriz de covarianza del error del paso k + a partir de los datos actuales, ˆx k+ = Φ kˆx k +Gµ s Proyección del estado P k+ = Φ k P k Φ T k +GQ k G T Proyección de la covarianza
32 Ejemplo: ecualización de canal Simulación La señal a transmitir es binomial con p = 5 La potencia es σ 2 s = p( p) = 25 El canal se modela como un filtro FIR de N = 6 coeficientes con respuesta al impulso h[n] = [ 77, 355, 59,, 59, 273] El ruido aditivo del canal es blanco, gaussiano, de media nula y potencia σ 2 v = (SNR 4 db) Se construye un ecualizador usando un filtro de Wiener de M = 9 coeficientes Se construye un ecualizador usando un filtro de Kalman usando w 6 como estimación de la señal transmitida Se compara el desempeño a través del porcentaje de bits erroneos
33 Ejemplo: ecualización de canal Características del filtro de Wiener 5 5 Respuesta al impulso del canal muestra 3 2 Respuesta al impulso del filtro de Wiener muestra Respuesta en frecuencia Respuesta al impulso del sistema muestra Canal Wiener Sistema frecuencia
34 Ejemplo: ecualización de canal Realización de señal transmitida, señal distorsionada por el canal y señal recibida en el receptor s[n] x[n] u[n]=x[n]+v[n] muestra
35 Ejemplo: ecualización de canal Señales ecualizadas usando el filtro de Wiener y el filtro de Kalman 5 s[n] Senal ecualizada con el filtro de Wiener alineada con s[n] Senal ecualizada con el filtro de Kalman alineada con s[n] muestra
36 Ejemplo: ecualización de canal Señales reconstruidas mediante el umbralizado con ambos ecualizadores s[n] s[n] reconstruida usando ecualizador con Wiener Numero de errores: s[n] reconstruida usando ecualizador con Kalman Numero de errores: muestra
37 Ejemplo: ecualización de canal Comparación de los ecualizadores al cambiar los parámetros Porcentaje de error al variar el orden del filtro Wiener SNR = 4 db Porcentaje de error al variar la SNR (σ v 2 ) Filtro Wiener con M=3 3 Wiener Kalman 3 Wiener Kalman % de error 2 5 % de error Numero de coeficientes (M) SNR (db)
38 Ejemplo: ecualización de canal Observaciones Dado que se conoce la respuesta al impulso del canal, el problema consiste en encontrar la filtro inverso al canal (en el caso con σ 2 v = ) h[n] es un filtro FIR con función de transferencia y el filtro inverso es H(z) = h +h z + +h N z (N ) H inv (z) = h +h z + +h N z (N ) (puede ser inestable) El ecualizador Wiener es un filtro FIR, mientras que el ecualizador Kalman es IIR Esto explica porque el desempeño del ecualizador Wiener es peor que el ecualizador Kalman en ciertas condiciones
39 + + + Ejemplo: ecualización de canal Modelo de canal genérico El canal es un filtro con función de transferencia racional arbitraria, + - H(z) = b +bz + +b qz q +a z + +a pz p + La salida del filtro se caracteriza por las siguientes ecuaciones en recurrencia, w [k +] = a w [k] a 2w [k ] a pw [n p+]+s[k +] + u[k] = b w [k]+b w [k ] b qw [n q]+v[k] +
40 Ejemplo: ecualización de canal Modelo de canal genérico La ecuación del proceso es w [k +] w 2 [k +] w 3 [k +] w p[k +] = a a 2 a 3 a p w [k] w 2 [k] w 3 [k] w p[k] + s[k+] La ecuación de observación es u[k] = (b b b q ) w [k] w q+ [k] w p[k] +v[k]
41 Ejemplo: ecualización de canal Coeficientes del canal desconocidos Se asume ahora que los coeficientes del filtro son desconocidos Se expande el vector de estados incluyendo los coeficientes del filtro como estados, x[k] = (w [k]w N [k] h [k] h N [k]) T La ecuación de evolución de estados es ahora x[k+] = Φ[k]x[k]+Gs[k+], Φ[k] = ( Φ[k] I con Φ[k] de tamaño 2N 2N y G de tamaño 2N La ecuación de observación es y[k] = c[k](x[k])+v[k], con c[k](x[k]) = ), G = N x j [k]x j+n [k] j=
42 Ejemplo: ecualización de canal Coeficientes del canal desconocidos Como la ecuación de observación no es lineal, hay que usar un filtro de Kalman Extendido En el algoritmo de Kalman, la matriz C[k] queda C[k] = c[k] x (ˆx [k],) = (x N+ [k]x 2N [k] x [k]x N [k]) x[k]=ˆx [k] La actualización de la estimación con la observación k-ésima es N ˆx[k] = ˆx [k]+k[k] y[k] x j [k]x j+n [k]) j=
43 Ejemplo: identificación y ecualización de canal Evolución de los estados 5 Evolucion de los estados correspondientes a los coeficientes del filtro iteracion
44 Ejemplo: identificación y ecualización de canal Señal transmitida, señal ecualizada y señal reconstruida s[n] Senal ecualizada con el filtro de Kalman alineada con s[n] s[n] reconstruida usando ecualizador con Kalman Numero de errores: muestra
45 Ejercicio [Zhong and Sclaroff, 23] Se considera el modelo en variables de estado { xk+ = Ax k +v k v k N(,Q) y k = Hx k +w k w k N(,R) Las ecuaciones del filtro de Kalman pueden deducirse empleando el estimador MAP del estado x(k): el estimador del estado actual ˆx k es aquel que maximiza la probabilidad del estado x k dada la observación y k y la secuencia de estados previos x k, x k 2,, x, ˆx k = argmax x k p(x k y k,x k,,x )
46 Ejercicio Empleando la regla de Bayes, escribir la probabilidad a posteriori de x k en función de la densidad de probabilidad de transición de estados p(x k x k ) y la observación p(y k x k ) 2 Demostrar que maximizar la probabilidad a posteriori equivale a minimizar la función de costo, J(x k ) = (y k Hx k ) T R (y k Hx k )+(x k x k )T Q (x k x k ) x k es la predicción de x k, x k = Ax k 3 Demostrar mediante la minimización de la función de costo que la ecuación de actualización del estimador óptimo puede expresarse como ˆx k = ˆx k +K(y k Hˆx k ) Indicar el valor de la matriz K
47 Referencias I Brown, R G and Hwang, P Y C (996) Introduction to Random Signals and Applied Kalman Filtering, chapter 5 Wiley, st edition Hayes, M H (996) Statistical Digital Signal Processing and Modeling, chapter 7 Wiley, st edition Lawrence, R and Kaufman, H (97) The Kalman Filter for the Equalization of a Digital Communications Channel IEEE Transactions on Communication Technology, 9(6):37 4 Zhong, J and Sclaroff, S (23) Segmenting foreground objects from a dynamic textured background via a robust Kalman filter In Proceedings of the Ninth IEEE International Conference on Computer Vision, pages 44 5
Práctico 2 Análisis de proceso autorregresivo de orden 2 Proceso WSS filtrado
Práctico Análisis de proceso autorregresivo de orden Proceso WSS filtrado Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fing.edu.uy Departamento
Más detallesPráctico 3 Filtro de Wiener
Práctico 3 Filtro de Wiener Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fingeduuy Departamento de Procesamiento de Señales Instituto de Ingeniería
Más detallesDoctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04)
4.6 El filtro de Kalman Introducción Filtro de Kalman discreto Algoritmo: predicción + corrección Características probabilísticas El filtro de Kalman extendido Filtros de Partículas Conclusiones Introducción
Más detallesEstimadores insesgados lineales óptimos (BLUE)
Estimadores insesgados lineales óptimos (BLUE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo
Más detalles4.5 Algoritmo RLS (Recursive Least Squares)
4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de
Más detallesSeguimiento de los parámetros del modelo del tracto vocal
Algoritmos para el seguimiento de los parámetros del modelo de tracto vocal Monografía de Tratamiento Estadístico de Señales parias@fing.edu.uy Instituto de Ingeniería Eléctrica Facultad de Ingeniería
Más detallesIdentificación n de SIStemas
Identificación n de SIStemas Métodos de Estimación n Recursivos ISIS J. C. Gómez Métodos de Identificación n Recursivos Mínimos Cuadrados Recursivos ara una estructura de modelo de regresión lineal y n
Más detalles4.1 Introducción al filtrado adaptativo
41 Introducción al filtrado adaptativo El problema del filtrado Clases básicas de estimación Filtrado adaptativo Estructuras de filtrado lineal Algoritmos Criterios para la elección del filtro adaptativo
Más detallesIdentificación mediante el método de los mínimos cuadrados
Ingeniería de Control Identificación mediante el método de los mínimos cuadrados Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos relevantes aprendidos previamente:
Más detallesComunicaciones Digitales - Capítulo 3 - Ejercicios
CAPÍTULO 4. COMUNICACIONES DIGITALES. PROBLEMAS 1 Comunicaciones Digitales - Capítulo 3 - Ejercicios 1. Ejercicio 6.9 del libro: A. Artés, et al.: Comunicaciones Digitales. Pearson Educación, 007.. Ejercicio
Más detallesUNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA PROGRAMA DE ESTUDIO
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA PROGRAMA DE ESTUDIO ANÁLISIS DE SEÑALES ALEATORIAS 1560 5 06 Asignatura Clave Semestre Créditos Ingeniería Eléctrica Ingeniería en Telecomunicaciones
Más detallesEstimación Bayesiana y Máximo a Posteriori
Estimación Bayesiana y Máximo a Posteriori Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo
Más detallesESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción
Más detallesCapítulo 5: CONTROL INVERSO ADAPTATIVO
Capítulo 5: CONTROL INVERSO INTRODUCCIÓN 5.. INTRODUCCIÓN Un sistema de control inverso adaptativo se muestra en la Figura 5. Si el controlador fuese ideal, su función de transferencia sería: C( z) M (
Más detallesMuestreo y Procesamiento Digital
Muestreo y Procesamiento Digital Práctico N+ Problemas surtidos El propósito de este repartido de ejercicios es ayudar en la preparación del examen. Dadas las variadas fuentes de los ejercicios aquí propuestos,
Más detallesEstimación insesgada de mínima varianza
Estimación insesgada de mínima varianza Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse, elopez, dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto
Más detallesPFC: Localización de robots mediante filtro de Kalman
6.- FILTRO DE KALMAN 6.1.- MOTIVACIÓN Los sistemas de navegación se han convertido en un estándar, ya que se venden más y más, sobre todo con los coches nuevos. La mayoría de estos sistemas de navegación
Más detallesEstimador de Máxima Verosimilitud
Estimador de Máxima Verosimilitud Tratamiento Estadístico de Señales Pablo Musé, Ernesto López, Luis Di Martino {pmuse,elopez,dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de
Más detalles1: EL CONCEPTO DE CONTROL INVERSO ADAPTATIVO
Capítulo 1: EL CONCEPTO DE CONTROL INVERSO ADAPTATIVO INTRODUCCIÓN 1.1. INTRODUCCIÓN Las técnicas de filtrado adaptativo han sido aplicadas con éxito a los sistemas de antenas adaptativas, a problemas
Más detallesFiltros de Wiener. Tratamiento Estadístico de Señales. Pablo Musé & Ernesto López
Filtros de Wiener Tratamiento Estadístico de Señales Pablo Musé & Ernesto López {pmuse,elopez}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería
Más detallesPosicionamiento indoor con señales de WiFi
Posicionamiento indoor con señales de WiFi Claudio Avallone, Germán Capdehourat Tratamiento Estadístico de Señales Curso 2010 Outline 1 Introducción 2 Estimación de la posición basada en huellas 3 Escenario
Más detallesIntroducción teórica del filtro de Kalman. a) el conocimiento del sistema y a dispositivos dinámicos de medida,
Apéndice B El Filtro de Kalman B.1. Introducción teórica del filtro de Kalman El Filtro de Kalman es una potente herramienta matemática que juega un importante papel cuando se incluyen medidas del mundo
Más detallesx^new = x^old + K(b new A new x^old )
El Filtro de Kalman: La idea fundamental del filtro de Kalman es la actualización La llegada de una nueva observación supone un cambio en la mejor estimación mínimo cuatrática del parámetro x Se desea
Más detallesINTRODUCCION- FILTRO DE WIENER
FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener
Más detallesTratamiento Estadístico de Señales Universidad de la República Facultad de Ingeniería. Monografía final: Filtro de Kalman para lápiz digitalizador
Tratamiento Estadístico de Señales Universidad de la República Facultad de Ingeniería Monografía final: Filtro de Kalman para lápiz digitalizador Mauro Andrés Di Leonardi Introducción y Motivación Las
Más detallesIDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA
IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 SISTEMAS LTI En general un
Más detallesRepaso de Estadística
Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio
Más detalles1. Control de Mínima Varianza
. Control de Mínima Varianza. CONTROL DE MÍNIMA VARIANZA..... PLANTEO DEL PROBLEMA..... CRITERIO DE OPTIMIZACIÓN...5.3. PREDICCIÓN ÓPTIMA...8.3.. Forma intuitiva...8... Caso General...0.3.. Cálculo del
Más detallesTema 6: Sistemas de navegación integrados. El filtro de Kalman.
Navegación Aérea Tema 6: Sistemas de navegación integrados. El filtro de Kalman. Fusión de sensores. Ejemplo: el canal vertical. INS-GPS Fusión de sensores. Una aeronave actual dispone de una gran diversidad
Más detallesEjercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
Más detallesSistemas de Reconocimiento de Patrones
Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.
Más detallesSistemas de comunicación
Sistemas de comunicación Práctico 5 Ruido Pasabanda Cada ejercicio comienza con un símbolo el cuál indica su dificultad de acuerdo a la siguiente escala: básica, media, avanzada, y difícil. Además puede
Más detalles1. Mínimos Cuadrados. 05-Mínimos Cuadrados.doc 1
. Mínimos Cuadrados. Mínimos Cuadrados.. Introducción 2.2. Método de Mínimos Cuadrados 2... Forma Recursiva: 4..2. Inclusión del Factor de Olvido. 5.3. Características Estadísticas de la Estimación 8..3.
Más detallesProcesos Estocásticos
Programa de la Asignatura: Código: 768 Procesos Estocásticos Carrera: Ingeniería en Computación Plan: 2008 Carácter: Obligatoria Unidad Académica: Secretaría Académica Curso: Cuarto Año Primer cuatrimestre
Más detallesTEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor
Más detalles3. Señales. Introducción y outline
3. Señales Introducción y outline Outline Señales y Sistemas Discretos: SLIT, Muestreo, análisis tiempo-frecuencia, autocorrelación, espectro, transformada Z, DTFT, DFT, FFT Filtros y Estimación: Filtros
Más detallesPráctica 3. Nombre del curso: Teoría Moderna de la Detección y Estimación. Autores: Emilio Parrado Hernández
Práctica 3 Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Emilio Parrado Hernández Práctica 3: Cancelación de ruido mediante filtrado. Teoría Moderna de la Detección y la Estimación
Más detallesMétodos de Subespacios. Una aproximación intuitiva
IX Congreso de Ingeniería de Organización Gijón, 8 y 9 de septiembre de 2005 Métodos de Subespacios. Una aproximación intuitiva Segismundo S. Izquierdo Millán 1, Javier Pajares Gutiérrez 1, Cesáreo Hernández
Más detallesGermán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1
. Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones
Más detallesSmart Antennas. Beamforming by Recursive Least Squares ALgorithm. Julio Santana
Departamento de Ingeniería Eléctrica Facultad de Ingeniría Universidad de Concepción Concepción, Chile. Smart Antennas Beamforming by Recursive Least Squares ALgorithm. Julio Santana 15 de diciembre de
Más detalles1. Diseño Óptimo en Función de Transferencia. 1. Diseño Óptimo en Función de Transferencia 1
. Diseño Óptimo en Función de Transferencia. Diseño Óptimo en Función de Transferencia.. Planteo del Problema.. Criterio de Optimización 3.. Predicción Óptima 4... Forma intuitiva 5... Caso General 5..3.
Más detallesFiltrado e identificación de parámetros mediante métodos bayesianos
Filtrado e identificación de parámetros mediante métodos bayesianos Guillermo La Mura a, Eduardo Serrano b,d, Ricardo Sirne c a Escuela de Ciencia y Tecnología - UNSAM b Centro de Matemática Aplicada -
Más detallesControl Automático. Introducción al filtro de Kalman. Ing. Gabriela Ortiz León
Control Automático Introducción al filtro de Kalman 1 Contenido Principio de funcionamiento Ecuaciones de predicción y actualización Proceso Ejemplo 2 Filtro Kalman Es un algoritmo desarrollado por Rupert
Más detallesEconometría 1. Karoll GOMEZ Segundo semestre 2017
Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios
Más detallesEstimador de máxima verosimilitud (MLE)
Estimador de máxima verosimilitud (MLE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo de
Más detallesFACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA LABORATORIO DE SISTEMAS DE CONTROL DISCRETO PRÁCTICA N 6 MODELACIÓN E INDENTIFICACIÓN DE UN MOTOR DC
FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Carrera de Ingeniería Electrónica y Control LABORATORIO DE SISTEMAS DE CONTROL DISCRETO PRÁCTICA N 6 1. TEMA MODELACIÓN E INDENTIFICACIÓN DE UN MOTOR DC 2.
Más detallesJornada sobre Técnicas de Modelado y Simulación
Jornada sobre Técnicas de Modelado y Simulación Sistemas de Tiempo Discreto Laboratorio de Sistemas Dinámicos y Procesamiento de la Información FCEIA - Universidad Nacional de Rosario. CIFASIS CONICET.
Más detallesPSAVC - Procesado de Señal Audiovisual y de Comunicaciones
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2018 230 - ETSETB - Escuela Técnica Superior de Ingeniería de Telecomunicación de Barcelona 739 - TSC - Departamento de Teoría
Más detallesEconometría 1. Karoll GOMEZ Segundo semestre 2017
Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios
Más detallesEJERCICIOS RESUELTOS Y PROPUESTOS
UNIVERSIDAD NACIONAL DE INGENIERÍA Facultad de Ingeniería Mecánica MT 227 Control Moderno y Óptimo EJERCICIOS RESUELTOS Y PROPUESTOS Estabilidad según Lyapunov (1) Un buen modelo de un niño impulsandose
Más detallesContenido. XVII Introducción. Prefacio
Contenido Prefacio XVII Introducción XIX Capítulo 1. Introducción a MATLAB 1.1. Introducción................................. 2 1.2. Instrucciones for, while, if......................... 3 1.2.1. For..................................
Más detallesComunicaciones Digitales
Trabajo Práctico 4 Comunicaciones Digitales Transmisión en Banda Base E.1.En un sistema PAM binario, la entrada al detector es y m = a m + n m + i m, donde a m = ±1 es la señal deseada, n m es una variable
Más detallesPlanificaciones Procesamiento de Señales I. Docente responsable: GIRIBET JUAN IGNACIO. 1 de 6
Planificaciones 8651 - Procesamiento de Señales I Docente responsable: GIRIBET JUAN IGNACIO 1 de 6 OBJETIVOS CONTENIDOS MÍNIMOS PROGRAMA SINTÉTICO 1. Diseño de filtros digitales. 4. Banco de filtros. 5.
Más detalles1. Notas Filtro de Kalman para Sistemas continuos-discretos
1. Notas Filtro de Kalman para Sistemas continuos-discretos Se considera un sistema continuo-discreto como aquel cuya evolución es continua en el tiempo (representada por ecuaciones diferenciales ordinarias)
Más detallesPlanificaciones Probabilidad y Estadística B. Docente responsable: GRYNBERG SEBASTIAN PABLO. 1 de 6
Planificaciones 6109 - Probabilidad y Estadística B Docente responsable: GRYNBERG SEBASTIAN PABLO 1 de 6 OBJETIVOS 1) Que los estudiantes aprendan los elementos básicos del método probabilístico y de la
Más detallesPlanificaciones Probabilidad y Estadística B. Docente responsable: GRYNBERG SEBASTIAN PABLO. 1 de 6
Planificaciones 8104 - Probabilidad y Estadística B Docente responsable: GRYNBERG SEBASTIAN PABLO 1 de 6 OBJETIVOS 1) Que los estudiantes aprendan los elementos básicos del método probabilístico y de la
Más detallesTransformada Z Filtros recursivos. clase 12
Transformada Z Filtros recursivos clase 12 Temas Introducción a los filtros digitales Clasificación, Caracterización, Parámetros Filtros FIR (Respuesta al impulso finita) Filtros de media móvil, filtros
Más detallesRepaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
Más detallesProcesamiento Digital de Imágenes
Unidad V (b): Restauración de imágenes II p. 1/16 Procesamiento Digital de Imágenes Unidad IV (2da. parte): Restauración de imágenes II Departamento de Informática - FICH Universidad Nacional del Litoral
Más detallesGuía de Ejercicios 2 Receptor Óptimo para Canal Gaussiano
Guía de Ejercicios 2 Receptor Óptimo para Canal Gaussiano Ejercicio 1-2-PAM Se desea transmitir un mensaje a una tasa R b = 7200kbps a través de un canal AWGN con varianza N 0 /2 = 10 10 utilizando señalización
Más detallesProbabilidad y Estadística
Programa de la Asignatura: Código: 23 Probabilidad y Estadística Carrera: Ingeniería en Computación Plan: 2013 Carácter: Obligatoria Unidad Académica: Secretaría Académica Curso: Tercer año Primer cuatrimestre
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detallesDiseño e Implementación de Ecualizadores Adaptivos Least Mean Square (LMS) y Decision-Feedback Equalizer (DFE) en el Kit de DSP TMS320C6711.
Diseño e Implementación de Ecualizadores Adaptivos Least Mean Square (LMS) y Decision-Feedback Equalizer (DFE) en el Kit de DSP TMS32C67. Autores: Marco Munguía, Fernando Flores, Marvin Arias, miembro
Más detallesIDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA
IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud
Más detallesGuía 3 - Densidad espectral de potencia, transformación de procesos, ergodicidad
Guía 3 - Densidad espectral de potencia, transformación de procesos, ergodicidad Nivel de dificultad de los ejercicios Estrellas Dificultad Normal Intermedio Desafío Densidad espectral de potencia, transformación
Más detallesControl Óptimo Avanzado
Control Óptimo Avanzado Página 1 de 9 Programa de: Control Óptimo Avanzado UNIVERSIDAD NACIONAL DE CÓRDOBA Facultad de Ciencias Exactas, Físicas y Naturales República Argentina Carrera: Ingeniería Electrónica
Más detallesSeminario de Procesamiento Digital de Señales
Seminario de Procesamiento Digital de Señales Unidad 5: Diseño de Filtros Digitales - Parte I Marcelo A. Pérez Departamento Electrónica Universidad Técnica Federico Santa María Contenidos 1 Conceptos Básicos
Más detallesEstimación y Predicción en Series Temporales
Estimación y Predicción en Series Temporales Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo
Más detallesUNIVERSIDAD DE SONORA
UNIVERSIDAD DE SONORA INTERFERENCIA INTERSIMBÓLICA Responsable: Dra. Milka del Carmen Acosta Enríquez Colaboradores: Dra. María Elena Zayas S. Dr. Santos Jesús Castillo Debido a la distorsión lineal que
Más detallesRegresión múltiple. Demostraciones. Elisa Mª Molanes López
Regresión múltiple Demostraciones Elisa Mª Molanes López El modelo de regresión múltiple El modelo que se plantea en regresión múltiple es el siguiente: y i = β 0 + β 1 x 1i + β 2 x 2i +...+ β k x ki +
Más detallesModelos Ocultos de Markov Continuos
Modelos Ocultos de Markov Continuos José Antonio Camarena Ibarrola Modelos Ocultos de Markov Continuos p.1/15 Idea fundamental Los Modelos Ocultos de Markov Discretos trabajan con secuencias de observaciones
Más detallesRespuesta en fase Filtros Chebyshev. clase 13
Respuesta en fase Filtros Chebyshev clase 13 Temas Introducción a los filtros digitales Clasificación, Caracterización, Parámetros Filtros FIR (Respuesta al impulso finita) Filtros de media móvil, filtros
Más detallesproporcionan respuestas muy diferentes a este problema, obteniendo que la solución asociada a la norma l
6 Conclusiones Con la teoría de muestreo de Nyquist, a medida que el ancho de banda de la señal aumenta, también lo hace la frecuencia de muestreo, de forma que para ciertos tipos de señales la tarea de
Más detallesAnálisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente
Más detallesModelado y Simulación de Sistemas Dinámicos: Métodos, Algoritmos y Herramientas
Simulación de Modelado y Simulación de Sistemas Dinámicos: Métodos, Algoritmos y Herramientas Ernesto Kofman Laboratorio de Sistemas Dinámicos y Procesamiento de la Información FCEIA - Universidad Nacional
Más detallesClase 10 Diseño Óptimo Variables de Estado.doc 1
. Diseño Óptimo en Variables de Estado. Diseño Óptimo en Variables de Estado.. Planteo del Problema... Criterio 3.. Regulador Lineal Óptimo (LQC) 5.3. Ecuación de Ricatti 9.4. Valor Medio de una Forma
Más detallesObservadores de Estados
Capítulo 5 Observadores de Estados Como se vio en el capítulo anterior, existen distintos enfoques dentro de la comunidad FDI a la hora de generar residuos para la detección y diagnóstico. Entre estas
Más detallesProcesamiento de la Señal
Filtrado I: Ruido 8 de abril de 2013 Repaso: Teoría de la Información La teoría de la información tiene por objeto la determinación de la manera más eciente de codicar un mensaje para su correcta entrega
Más detallesModelado y simulación en Ingeniería Química. Manuel Rodríguez
ÍNDICE Modelos de caja gris Calibración de modelos Estimación de parámetros Análisis de la estimación Regresión no lineal 1. Modelos de caja gris Son modelos de un sistema (o proceso), donde: Desarrollados
Más detallesFiltro de Partículas Luca Martino Juan Santaella Vallejo Tratamiento Digital de Señales Master Interuniversitario en Comunicaciones y Multimedia
Filtro de Partículas Luca Martino Juan Santaella Vallejo Tratamiento Digital de Señales Master Interuniversitario en Comunicaciones y Multimedia luca@tsc.uc3m.es jsantaella@gmail.com INDICE 1. Introducción...3
Más detallesPROCESOS ESTOCÁSTICOS
CURSO: PROCESOS ESTOCÁSTICOS 1 SEMESTRE: VIII 2 CODIGO: 602804 3 COMPONENTE: 4 CICLO: 5 AREA: Profesional 6 FECHA DE APROBACIÓN: 7 NATURALEZA: Teórica 8 CARÁCTER: Obligatorio 9 CREDITOS (RELACIÓN): 3 (1-1)
Más detallesTEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18
TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 5.1. Concepto de proceso estocástico. Tipos de procesos. Realización de un proceso. 5.2. Características de un proceso estocástico. 5.3. Ejemplos de procesos
Más detallesSistemas de Comunicación Primer Parcial
Sistemas de Comunicación Primer Parcial Instituto de Ingeniería Eléctrica 1 de mayo de 015 Indicaciones: La prueba tiene una duración total de 3 horas y 30 minutos. Cada hoja entregada debe indicar nombre,
Más detallesAsignatura: Horas: Total (horas): Obligatoria Teóricas 3.0 Semana 3.0 Optativa X Prácticas Semanas 48.0
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA PROGRAMA DE ESTUDIO Aprobado por el Consejo Técnico de la Facultad de Ingeniería en su sesión ordinaria del 15 de octubre de 2008 DETECCIÓN
Más detalles1. Diferentes Algoritmos de Identificación
. Diferentes Algoritmos de Identificación. Diferentes Algoritmos de Identificación.. Aproximación Heurística 2.2. Error de Predicción A Priori y A Posteriori 4.3. Algoritmo de Proyección 6.4. Aproximación
Más detallesEstadística I Tema 5: Introducción a la inferencia estadística
Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución
Más detallesRestauración: Ruido aditivo
Restauración: aditivo Lección 11.1 Dr. Pablo Alvarado Moya CE5201 Procesamiento y Análisis de Imágenes Digitales Área de Ingeniería en Computadores Tecnológico de Costa Rica I Semestre, 2017 P. Alvarado
Más detallesClasificación. Aurea Grané. Análisis Discriminante
Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis discriminante Análisis Discriminante y Clasificación Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid Supongamos
Más detallesUNIDAD DIDÁCTICA I Teoría de Filtrado Óptimo 1
Índice PRÓLOGO IX UNIDAD DIDÁCTICA I Teoría de Filtrado Óptimo 1 1 Representación de Estado de Sistemas Lineales 5 11 Representación de Estado en Tiempo Continuo 5 12 Matriz de Transición 1 121 Definición
Más detallesASIGNATURA DE GRADO: PROCESADO DE SEÑAL
ASIGNATURA DE GRADO: PROCESADO DE SEÑAL Curso 2014/2015 (Código:68024101) 1.PRESENTACIÓN DE LA ASIGNATURA La asignatura Procesado de Señal se encuadra dentro del programa del Grado Universitario Oficial
Más detallesEstadística II Ejercicios Tema 5
Estadística II Ejercicios Tema 5 1. Considera los cuatro conjuntos de datos dados en las transparencias del Tema 5 (sección 5.1) (a) Comprueba que los cuatro conjuntos de datos dan lugar a la misma recta
Más detallesCÓRDOBA, 2 3 AE. La autorización conferida por el H. Consejo Ordenado Resolución N T- 2009; EL DECANO DE LA RESUELVE:
FACULTAD DE CIENCIAS EXACTAS, FÍSICAS Y NATURALES UNIVERSIDAD NACIONAL DE CÓRDOBA VISTO: CÓRDOBA, 2 3 AE El Expíe, de la Universidad Nacional de Córdoba N 0000628/2015 por el cual el Dr. Damián Alfonso
Más detallesCurso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza
Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República,
Más detallesEstimación de densidades basada en núcleos: algunos elementos. Isabel Cañette
Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos
Más detallesMomentos de Funciones de Vectores Aleatorios
Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)
Más detallesCONTROL INVERSO ADAPTATIVO
PROYECTO FIN DE CARRERA: CONTROL INVERSO ADAPTATIVO AUTOR: JOSÉ JULIO HERNÁNDEZ FERNÁNDEZ A Indie y Gin, in memoriam iii AGRADECIMIENTOS Llegar hasta este momento no ha resultado fácil... más bien, por
Más detalles