Variantes del LMS Algortimo LMA ( Least Mean Absolute ) Algoritmo LMS normalizado Algoritmo LMS regularizado Algoritmo LMS en frecuencia

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Variantes del LMS Algortimo LMA ( Least Mean Absolute ) Algoritmo LMS normalizado Algoritmo LMS regularizado Algoritmo LMS en frecuencia"

Transcripción

1 4.4 Algoritmo LMS Introducción El algoritmo LMS Análisis de convergencia Variantes del LMS Algortimo LMA ( Least Mean Absolute ) Algoritmo LMS normalizado Algoritmo LMS regularizado Algoritmo LMS en frecuencia Conclusiones

2 Introducción El método de máxima pendiente requiere conocer los estadísticos de 2 o orden w n+1 = w n µ 2 J(w) w = w n + µ[p Rw n ] wn R y p son raramente conocidas en la práctica Algoritmo LMS ( Least Mean Square ): realiza una estima instantánea R = E[x n x H n ] Estima ˆR = x n x H n p = E[d(n) x n ] Estima ˆp = d(n) x n

3 Algoritmo LMS Utilizando las estimas instantáneas de los estadísticos w n+1 = w n + µ[ˆp ˆRw n ] = w n + µx n [d(n) x H n w n ] Estima instantánea del gradiente: x n e (n) Ventajas w n+1 = w n + µx n e (n) No precisa conocer los estadísticos de la señal Permite seguir los cambios en las señales involucradas ( tracking ) Implementación sencilla y bajo coste computacional (para señales reales 2M sumas y 2M + 1 multiplicaciones) Inconvenientes La estima instantánea del gradiente es ruidosa La convergencia de los coeficientes está acoplada

4 Formulación alternativa Si se define la salida del filtro como (ejemplo: conformación de haz) se obtiene y(n) = M 1 i=0 x(n i)ω i = w H x n w n+1 = w n + µx n e (n) Si se define la salida del filtro como (ejemplo: igualación) se obtiene y(n) = M 1 i=0 x(n i)ω i = w T x n w n+1 = w n + µx ne(n)

5 Relación con la solución de Wiener Método de máximo descenso: los coeficientes describen una trayectoria que finaliza en la solución de Wiener Algoritmo LMS: realizan un movimiento aleatorio alrededor de la solución de Wiener

6 Convergencia Dos tipos de convergencia Convergencia en media lím n E[w n] = w o Convergencia en error cuadrático medio (MSE) lím E[J(n)] = cte = J( ) n Hipótesis para el análisis de convergencia El filtro y la señal de entrada son independientes (aproximadamente cierto si µ es pequeño) La entrada está incorrelada con el error (aproximadamente cierto si la convergencia está avanzada) La entrada y la salida son procesos de media nula y conjuntamente gaussianos

7 Convergencia en media w n+1 = w n + µx n [d(n) x H n w n ] Definiendo los pesos normalizados w n = w n w o w n+1 = w n + µx n d(n) µw n x H n w n µw n x H n w o Tomando esperanzas matemáticas E [ w n+1 ] = E [ w n ] + µx n d(n) µw n x H n w n µw n x H n w o E [ w n+1 ] = (I µr) E [ w n ] Expresión idéntica a la del algoritmo de máximo descenso Condición de convergencia 0 < µ < 2 λ max

8 Convergencia en MSE Requiere condiciones más restrictivas que la convergencia en media Evolución de la función de coste J(n) = J min + T r [RK(n)] donde K(n) = E [ (w n w o )(w n w o ) H] Se deduce que las condiciones de convergencia en MSE son 0 < µ < 2 λ max M i=1 µλ i 2 µλ i < 1

9 Convergencia en MSE (II) Asumiendo que el LMS converge en media y que µ << 2 λ max M µλ i < 1 M µλ i = µ M λ i < 1 µ < 2 2 µλ i 2 2 M i=1 i=1 La suma de los autovalores de una matriz definida positiva es igual i=1 a la suma de los elementos de la diagonal principal i=1 λ i µ < 2 Mσ 2 x µ < 2 Pot. señal de entrada

10 Desajuste D = J( ) J min J min Proporciona información sobre el exceso de MSE respecto al filtro de Wiener si µ << 2 λ max D µ 2 M i=1 λ i = µ 2 Mσ2 x Para una velocidad de convergencia (µ) dada, el desajuste aumenta con el número de coeficientes (M) El desajuste es inversamente proporcional a la velocidad de convergencia µ velocidad de convergencia D

11 Modos de convergencia Al igual que el método de máximo descenso existen M modos de convergencia (1 µλ i ) n Velocidad de convergencia inicial Dominada por el modo más rápido Velocidad de convergencia final Dominada por el modo más lento

12 Selección del parámetro de paso µ Al aumentar µ aumenta la velocidad de convergencia pero también el ruido de desajuste

13 Curvas de convergencia Una realización 200 realizaciones independientes promediadas

14 Algortimo LMA ( Least Mean Absolute ) Algoritmo LMA: Minimiza la norma L 1 del error J(w) = E[ e(n) ] No existe una solución cerrada Minimización estocástica (tipo LMS) w n+1 = w n + µx n sign (e(n)) Versión cuantificada del LMS: 1 bit para el error ( sign-error LMS ) µ = 1/2 k : multiplicaciones desplazamientos

15 LMS normalizado LMS: si x n toma valores elevados la estima del gradiente es muy ruidosa LMS normalizado Condición de convergencia w n+1 = w n + µx n e(n) w n+1 = w n + µ x n 2 + ε e(n) 0 < µ < 2 Interpretación: LMS con paso de adaptación dependiente de la potencia de entrada µ n = x n µ x n 2 + ε

16 LMS regularizado Función de coste J(w) = α w 2 + E [ e(n) 2] Solución óptima w opt = (R + αi) 1 p Algoritmo iterativo w n+1 = (1 αµ)w n + µe(n)x n Puede mejorar la convergencia al reducir la dispersión de los autovalores de la matriz de autocorrelación

17 LMS en el dominio de la frecuencia

18 LMS en el dominio de la frecuencia (II) Se calcula la DFT sobre una ventana de M muestras X n [k] = M 1 i=0 x(n i)e j 2π M ki, k = 0, 1,, M 1 Adaptación del coeficiente k-ésimo de la DFT W n+1 [k] = W n [k] + µ k X n [k]e n[k], k = 0, 1,, M 1 donde el error se define como E n [k] = D n [k] W n[k]x n [k] M algoritmos desacoplados (uno por raya espectral) 0 < µ k < 2 Pot. de la raya espectral k-ésima

19 Conclusiones Basado en estimas instantáneas de los estadísticos del problema Permite la adaptación a cambios del entorno y la estadística del problema La convergencia se garantiza limitando el paso de la adaptación µ < 2 Pot. de la señal de entrada La velocidad de convergencia y desajuste final dependen de µ La velocidad de convergencia depende de la dispersión de autovalores de R Existen multitud de variantes: LMS normalizado, regularizado, en frecuencia, etc.

Introducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia

Introducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia 4.3 Algoritmo de máxima pendiente Introducción al algoritmo de máxima pendiente Aplicación al filtro de Wiener Análisis de estabilidad y convergencia Otras técnicas de optimización Newton-Raphson Levemberg-Marquardt

Más detalles

4.5 Algoritmo RLS (Recursive Least Squares)

4.5 Algoritmo RLS (Recursive Least Squares) 4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de

Más detalles

Algoritmo de adaptación LMS

Algoritmo de adaptación LMS Algoritmo de adaptación LMS Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Abril de 2018 Introducción

Más detalles

4.1 Introducción al filtrado adaptativo

4.1 Introducción al filtrado adaptativo 41 Introducción al filtrado adaptativo El problema del filtrado Clases básicas de estimación Filtrado adaptativo Estructuras de filtrado lineal Algoritmos Criterios para la elección del filtro adaptativo

Más detalles

INTRODUCCION- FILTRO DE WIENER

INTRODUCCION- FILTRO DE WIENER FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener

Más detalles

Departamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid

Departamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid COMUNICACIONES DIGITALES AVANZADAS 4 DISEÑO DE RECEPTORES DE COMUNICACIONES MARCELINO LÁZARO Departamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid mlazaro@tscuc3mes Igualación

Más detalles

Identificación n de SIStemas

Identificación n de SIStemas Identificación n de SIStemas Métodos de Estimación n Recursivos ISIS J. C. Gómez Métodos de Identificación n Recursivos Mínimos Cuadrados Recursivos ara una estructura de modelo de regresión lineal y n

Más detalles

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Optimización Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Introducción Problema general de optimización (minimización) Dado f : Ω R

Más detalles

Seguimiento de los parámetros del modelo del tracto vocal

Seguimiento de los parámetros del modelo del tracto vocal Algoritmos para el seguimiento de los parámetros del modelo de tracto vocal Monografía de Tratamiento Estadístico de Señales parias@fing.edu.uy Instituto de Ingeniería Eléctrica Facultad de Ingeniería

Más detalles

Filtros de Wiener. Tratamiento Estadístico de Señales. Pablo Musé & Ernesto López

Filtros de Wiener. Tratamiento Estadístico de Señales. Pablo Musé & Ernesto López Filtros de Wiener Tratamiento Estadístico de Señales Pablo Musé & Ernesto López {pmuse,elopez}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería

Más detalles

DISEÑO DE UNA INTERFAZ PARA LA SIMULACIÓN DE FILTROS ADAPTATIVOS BASADOS EN EL ALGORITMO LMS

DISEÑO DE UNA INTERFAZ PARA LA SIMULACIÓN DE FILTROS ADAPTATIVOS BASADOS EN EL ALGORITMO LMS DISEÑO DE UNA INTERFAZ PARA LA SIMULACIÓN DE FILTROS ADAPTATIVOS BASADOS EN EL ALGORITMO LMS Fernando Adan Serrano Orozco fserranoo@ipn.mx Xochitl Cabrera Rivas xcabrerarivas@gmail.com Juan Gerardo Ávalos

Más detalles

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1 . Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones

Más detalles

Práctica 3. Nombre del curso: Teoría Moderna de la Detección y Estimación. Autores: Emilio Parrado Hernández

Práctica 3. Nombre del curso: Teoría Moderna de la Detección y Estimación. Autores: Emilio Parrado Hernández Práctica 3 Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Emilio Parrado Hernández Práctica 3: Cancelación de ruido mediante filtrado. Teoría Moderna de la Detección y la Estimación

Más detalles

ALN - Curso 2007 Gradiente Conjugado

ALN - Curso 2007 Gradiente Conjugado ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada

Más detalles

Capítulo 5: CONTROL INVERSO ADAPTATIVO

Capítulo 5: CONTROL INVERSO ADAPTATIVO Capítulo 5: CONTROL INVERSO INTRODUCCIÓN 5.. INTRODUCCIÓN Un sistema de control inverso adaptativo se muestra en la Figura 5. Si el controlador fuese ideal, su función de transferencia sería: C( z) M (

Más detalles

Cálculo de autovalores

Cálculo de autovalores Cálculo de autovalores Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2011-2012 (UPV) Cálculo de autovalores Curso 2011-2012 1 / 28 Índice 1 Preliminares

Más detalles

Prof. Virginia Mazzone - Mariana Suarez

Prof. Virginia Mazzone - Mariana Suarez SISTEMAS NO LINEALES SISTEMAS DE SEGUNDO ORDEN Prof. Virginia Mazzone - Prof. Mariana Suarez 1 Introducción Método de isoclinas Ejemplos 3 Introducción Un sistema de segundo orden autónomo está representado

Más detalles

A502 - Teoría de Sistemas y Señales

A502 - Teoría de Sistemas y Señales A50 - Teoría de Sistemas y Señales Transparencias Densidad Espectral de Energía de Señales Aperiódicas Autor: Dr. Juan Carlos Gómez Señales de Potencia Verifican TD: TC: Algunas Definiciones N 1 < P lim

Más detalles

ALGORITMO SET MEMBERSHIP AFFINE PROJECTION DE BAJA COMPLEJIDAD COMPUTACIONAL PARA SISTEMAS CANCELADORES DE ECO ACÚSTICO

ALGORITMO SET MEMBERSHIP AFFINE PROJECTION DE BAJA COMPLEJIDAD COMPUTACIONAL PARA SISTEMAS CANCELADORES DE ECO ACÚSTICO ISSN 7-97 ALGORITMO SET MEMBERSHIP AFFINE PROJECTION DE BAJA COMPLEJIDAD COMPUTACIONAL PARA SISTEMAS CANCELADORES DE ECO ACÚSTICO J. Mendoza Guevara jonathan_mengue@hotmail.com A. A. Vázquez Piña avazquezp@alumno.ipn.mx

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en texturas INTRODUCCIÓN La textura provee información sobre la distribución espacio-local del color o niveles de intensidades

Más detalles

Combinación convexa del algoritmo de proyecciones afines con orden evolutivo y el algoritmo NLMS

Combinación convexa del algoritmo de proyecciones afines con orden evolutivo y el algoritmo NLMS Combinación convexa del algoritmo de proyecciones afines con orden evolutivo y el algoritmo NLMS E. Pichardo edua_95pim@hotmail.es X. Maya xomaro94@hotmail.com J. G. Avalos javaloso@ipn.mx J. C. Sanchez

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

Procesos estocásticos

Procesos estocásticos Teoría de la comunicación Comunicaciones - U.A.H. Indice Probabilidad. Variables Aleatorias. Procesos Estocásticos. Comunicaciones - U.A.H. Probabilidad Probabilidad. Dado un experimento ε del tipo que

Más detalles

Análisis multivariante II

Análisis multivariante II Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid pedro.galeano@uc3m.es Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano

Más detalles

IGUALACIÓN CIEGA DE CANAL

IGUALACIÓN CIEGA DE CANAL IGUALACIÓN CIEGA DE CANAL MMC (UC3M) Comunicaciones Digitales Receptores 1 / 28 Igualación ciega - Planteamiento A[n] p[n] q[n] z[n] Igualador u[n] Â[n d] Imposibilidad/no practicidad de una secuencia

Más detalles

FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN TEMA 5 FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN

FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN TEMA 5 FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN EMA 5 FILRADO ADAPAIVO: IGUALACIÓN Y CANCELACIÓN Índice: Ámbitos y características del filtrado adaptativo Minimización del MSE mediante el algoritmo de gradiente El algoritmo LMS Igualadores adaptativos

Más detalles

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π AMPLIACIÓN DE MATEMÁTICAS INTRODUCCIÓN Método Constructivo: Conjunto de instrucciones que permiten calcular la solución de un problema, bien en un número finito de pasos, bien en un proceso de paso al

Más detalles

Sistemas de comunicación

Sistemas de comunicación Sistemas de comunicación Práctico Transmisión digital en banda base Cada ejercicio comienza con un símbolo el cuál indica su dificultad de acuerdo a la siguiente escala: básica, media, avanzada, y difícil.

Más detalles

Tema 6. Análisis Factorial.

Tema 6. Análisis Factorial. Tema 6 Análisis Factorial El modelo Sea Y = (Y,, Y p ) t un vector aleatorio con vector de medias µ y matriz de covarianzas Σ Supondremos que existe un número entero m < p, una matriz L de orden p m de

Más detalles

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones ETS Minas: Métodos Matemáticos Ejercicios Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles

IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA

IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 SISTEMAS LTI En general un

Más detalles

Doctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04)

Doctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04) 4.6 El filtro de Kalman Introducción Filtro de Kalman discreto Algoritmo: predicción + corrección Características probabilísticas El filtro de Kalman extendido Filtros de Partículas Conclusiones Introducción

Más detalles

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad

Más detalles

Ejercicios de Procesos Estocásticos

Ejercicios de Procesos Estocásticos Ejercicios de Procesos Estocásticos Bernardo D Auria Departamento de Estadística Universidad Carlos III de Madrid GRUPO MAGISTRAL GRADO EN INGENIERÍA DE SISTEMAS AUDIOVISUALES Otros Ejemplo Considerar

Más detalles

Método de cuadrados mínimos

Método de cuadrados mínimos REGRESIÓN LINEAL Gran parte del pronóstico estadístico del tiempo está basado en el procedimiento conocido como regresión lineal. Regresión lineal simple (RLS) Describe la relación lineal entre dos variables,

Más detalles

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente

Más detalles

Procesamiento Digital de Imágenes

Procesamiento Digital de Imágenes Unidad V (b): Restauración de imágenes II p. 1/16 Procesamiento Digital de Imágenes Unidad IV (2da. parte): Restauración de imágenes II Departamento de Informática - FICH Universidad Nacional del Litoral

Más detalles

Redes de Neuronas de Base Radial

Redes de Neuronas de Base Radial Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Identificación mediante el método de los mínimos cuadrados

Identificación mediante el método de los mínimos cuadrados Ingeniería de Control Identificación mediante el método de los mínimos cuadrados Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos relevantes aprendidos previamente:

Más detalles

Estimadores insesgados lineales óptimos (BLUE)

Estimadores insesgados lineales óptimos (BLUE) Estimadores insesgados lineales óptimos (BLUE) Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo

Más detalles

Econometría II. Hoja de Problemas 1

Econometría II. Hoja de Problemas 1 Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli

Más detalles

Resolución de sistemas de ecuaciones lineales

Resolución de sistemas de ecuaciones lineales Tema 2 Resolución de sistemas de ecuaciones lineales 21 Métodos directos de resolución de sistemas de ecuaciones lineales 211 Resolución de sistemas triangulares Definición 211 Una matriz A se dice triangular

Más detalles

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 3: Solución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles

Métodos de gradiente. Métodos de Krylov

Métodos de gradiente. Métodos de Krylov Métodos de gradiente. Métodos de Krylov Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2012-2013 (UPV) Métodos de gradiente. Métodos de Krylov Curso

Más detalles

Movilidad en semiconductores extrínsecos

Movilidad en semiconductores extrínsecos Movilidad en semiconductores etrínsecos µ (Movilidad) f(concentracion de Impurezas) f(tipo de Impurezas) μ = μ min + μ MAX μ min 1 + N N r α 1 µ (Movilidad) Dispersión de los portadores en la red Xtalina

Más detalles

Multiple Linear Regression

Multiple Linear Regression Multiple Linear Regression Aniel Nieves-González Aniel Nieves-González () LSP 1 / 16 Considere el ejemplo en cual queremos modelar las ventas en una cadena de tiendas por departamento. La v.a. dependiente

Más detalles

Ejercicio 1. Ejercicio 2

Ejercicio 1. Ejercicio 2 Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función

Más detalles

APLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE PARA OPTIMIZAR FUNCIONES DE VARIAS VARIABLES.

APLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE PARA OPTIMIZAR FUNCIONES DE VARIAS VARIABLES. Universidad del Atlántico Revista Del Programa De Matemáticas Páginas: 40 54 Facultad de Ciencias Básicas c Programa de Matemáticas Vol. IV, No 1, (2017) APLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE

Más detalles

Dpto. de Matemáticas IES Las Breñas CONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS Septiembre 2.016

Dpto. de Matemáticas IES Las Breñas CONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS Septiembre 2.016 Dpto. de Matemáticas IES Las Breñas CONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS Septiembre 2.016 4º ESO OPCIÓN A U1: Estadística. Estadística. Nociones generales - Individuo, población, muestra, caracteres,

Más detalles

Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente

Más detalles

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones: FACULTAD DE CIENCIAS EXACTAS Y NATURALES UNIVERSIDAD DE BUENOS AIRES COMPLEMENTOS DE ANÁLISIS MAESTRíA EN ESTADíSTICA MATEMÁTICA SEGUNDO CUATRIMESTRE 2007 PRÁCTICA 7 1. Usando sólo la definición de derivada,

Más detalles

Repaso de Teoría de la Probabilidad

Repaso de Teoría de la Probabilidad Repaso de Teoría de la Probabilidad Luis Mendo Tomás Escuela Politécnica Superior Universidad Autónoma de Madrid Febrero de 2008 1. Introducción Este documento contiene, de forma esquemática, los conceptos

Más detalles

Capítulo 4. Implementación en Matlab Consideraciones Iniciales Algoritmo LMS

Capítulo 4. Implementación en Matlab Consideraciones Iniciales Algoritmo LMS Capítulo 4 Implementación en Matlab 4.1. Consideraciones Iniciales En este capitulo mostraremos el trabajo desarrollado en MATLAB y SIMULINK para simular y probar el desempeño de los algoritmos descritos

Más detalles

OPTIMIZACIÓN CLÁSICA. En el problema de optimización

OPTIMIZACIÓN CLÁSICA. En el problema de optimización OPTIMIZACIÓN CLÁSICA Definición En el problema de optimización ( ) ópt f (x 1,..., x n ), (x 1,..., x n ) F D el conjunto F recibe el nombre de conjunto factible y la función f el de función objetivo.

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

Modelación estadística: La regresión lineal simple

Modelación estadística: La regresión lineal simple Modelación estadística: La regresión lineal simple Gabriel Cavada Ch. 1 1 División de Bioestadística, Escuela de Salud Pública, Universidad de Chile. Statistical modeling: Simple linear regression Cuando

Más detalles

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga

Más detalles

C alculo Noviembre 2010

C alculo Noviembre 2010 Cálculo Noviembre 2010 Series numéricas. Sucesiones Definición Una sucesión es una aplicación a : IN IR. Denotamos simplificadamente a n en vez de a(n). El límite de la sucesión (a n ) es l R si para

Más detalles

Tema 2: Modelos probabilísticos de series

Tema 2: Modelos probabilísticos de series Tema 2: Modelos probabilísticos de Tema 2: Modelos probabilísticos de 1 2 3 4 5 6 Definición Un proceso estocástico con conjunto de índices T es una colección de variables aleatorias {X t } t T sobre (Ω,

Más detalles

Clase 10 Diseño Óptimo Variables de Estado.doc 1

Clase 10 Diseño Óptimo Variables de Estado.doc 1 . Diseño Óptimo en Variables de Estado. Diseño Óptimo en Variables de Estado.. Planteo del Problema... Criterio 3.. Regulador Lineal Óptimo (LQC) 5.3. Ecuación de Ricatti 9.4. Valor Medio de una Forma

Más detalles

Método de mínimo cuadrados (continuación)

Método de mínimo cuadrados (continuación) Clase No. 10: Método de mínimo cuadrados (continuación) MAT 251 Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/

Más detalles

Derivada y diferencial

Derivada y diferencial Derivada y diferencial Una cuestión, que aparece en cualquier disciplina científica, es la necesidad de obtener información sobre el cambio o la variación de determinadas cantidades con respecto al tiempo

Más detalles

Series numéricas y de potencias. 24 de Noviembre de 2014

Series numéricas y de potencias. 24 de Noviembre de 2014 Cálculo Series numéricas y de potencias 24 de Noviembre de 2014 Series numéricas y de potencias Series numéricas Sucesiones de números reales Concepto de serie de números reales. Propiedades Criterios

Más detalles

Relación 3 de problemas

Relación 3 de problemas ESTADÍSTICA II Curso 2016/2017 Grado en Matemáticas Relación 3 de problemas 1. La Comunidad de Madrid evalúa anualmente a los alumnos de sexto de primaria de todos los colegios sobre varias materias. Con

Más detalles

Métodos Numéricos Grado en Informática Tema 6: Análisis Numérico Matricial II

Métodos Numéricos Grado en Informática Tema 6: Análisis Numérico Matricial II Métodos Numéricos Grado en Informática Tema 6: Análisis Numérico Matricial II Luis Alvarez León Univ. de Las Palmas de G.C. Luis Alvarez León () Métodos Numéricos Univ. de Las Palmas de G.C. 1 / 84 Contenido

Más detalles

Diseño e Implementación de Ecualizadores Adaptivos Least Mean Square (LMS) y Decision-Feedback Equalizer (DFE) en el Kit de DSP TMS320C6711.

Diseño e Implementación de Ecualizadores Adaptivos Least Mean Square (LMS) y Decision-Feedback Equalizer (DFE) en el Kit de DSP TMS320C6711. Diseño e Implementación de Ecualizadores Adaptivos Least Mean Square (LMS) y Decision-Feedback Equalizer (DFE) en el Kit de DSP TMS32C67. Autores: Marco Munguía, Fernando Flores, Marvin Arias, miembro

Más detalles

Regresión lineal. Marcelo Rodríguez Ingeniero Estadístico - Magíster en Estadística

Regresión lineal. Marcelo Rodríguez Ingeniero Estadístico - Magíster en Estadística Regresión lineal Marcelo Rodríguez Ingeniero Estadístico - Magíster en Estadística Universidad Católica del Maule Facultad de Ciencias Básicas Pedagogía en Matemática Estadística I 01 de enero de 2012

Más detalles

Transformaciones y esperanza

Transformaciones y esperanza Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es

Más detalles

Tema 2 Resolución de EcuacionesNo Lineales

Tema 2 Resolución de EcuacionesNo Lineales Tema 2 Resolución de Ecuaciones No Lineales E.T.S.I. Informática Indice Introducción 1 Introducción 2 Algoritmo del método de Bisección Análisis del 3 4 5 6 Algoritmo de los métodos iterativos Interpretación

Más detalles

OPTIMIZACIÓN VECTORIAL

OPTIMIZACIÓN VECTORIAL OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de

Más detalles

VARIANTE DE BAJO COSTO COMPUTACIONAL DEL ALGORITMO NLMS APLICADO A SISTEMAS DE CANCELACIÓN DE ECO ACÚSTICO

VARIANTE DE BAJO COSTO COMPUTACIONAL DEL ALGORITMO NLMS APLICADO A SISTEMAS DE CANCELACIÓN DE ECO ACÚSTICO VARIANTE DE BAJO COSTO COMPUTACIONAL DEL ALGORITMO NLMS APLICADO A SISTEMAS DE CANCELACIÓN DE ECO ACÚSTICO G. L. Lardizábal García giovanna.lardizabal@gmail.com J. Rodríguez Chávez jrodriguezc1407@alumno.ipn.mx

Más detalles

Repaso de Estadística

Repaso de Estadística Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio

Más detalles

Resolución de Sistema de Ecuaciones Lineales

Resolución de Sistema de Ecuaciones Lineales Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Industrial Universidad Nacional Mayor de San Marcos Métodos Computacionales Hermes Pantoja Carhuavilca 1 de

Más detalles

CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA

CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA 1 CLASES DE ESTADÍSTICA II CLASE ) ESPERANZA ABSOLUTA. ESPERANZA CONDICIONAL. ESPERANZA ABSOLUTA El cálculo de valores esperados o esperanzas a nivel de dos variables aleatorias es una generalización matemática

Más detalles

Optimización Clásica. Yolanda Hinojosa

Optimización Clásica. Yolanda Hinojosa Optimización Clásica Yolanda Hinojosa Contenido Optimización no lineal sin restricciones. Condiciones necesarias y suficientes de óptimo Optimización no lineal con restricciones de igualdad. Condiciones

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Programa de la Asignatura: Código: 23 Probabilidad y Estadística Carrera: Ingeniería en Computación Plan: 2013 Carácter: Obligatoria Unidad Académica: Secretaría Académica Curso: Tercer año Primer cuatrimestre

Más detalles

Optimización Clásica. Yolanda Hinojosa

Optimización Clásica. Yolanda Hinojosa Optimización Clásica Yolanda Hinojosa Contenido Optimización no lineal sin restricciones. Condiciones necesarias y suficientes de óptimo Optimización no lineal con restricciones de igualdad. Condiciones

Más detalles

TEORIA MATEMATICAS 5 PRIMER PARCIAL

TEORIA MATEMATICAS 5 PRIMER PARCIAL Def: Grafica de una función TEORIA MATEMATICAS 5 PRIMER PARCIAL Sea:. Definimos la grafica de f como el subconjunto de formado por los puntos, de en los que es un punto de U. Simbólicamente grafica es:

Más detalles

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU I. Métodos directos para resolución de SEL 1. Factorización LU Se dice que una matriz A admite una factorización LU si dicha matriz puede escribirse como el producto de una matriz triangular inferior,

Más detalles

Descripción y Objetivos Etapas del proyecto Presentación del producto Balance final Conclusiones generales. Universidad Técnica Federico Santa María

Descripción y Objetivos Etapas del proyecto Presentación del producto Balance final Conclusiones generales. Universidad Técnica Federico Santa María f s = 22050 x[n] n y[n] n x n x[n] C C D D L y n = L x n L C x n + sign x n 1 C D, x n < D, x n D x[n] n y[n] n x n x[n] D D u y 1 n = a x n 1,6 x n 1,6 x n + sign x n D 1 D a k = 2,5 D 0,997 D c L, x

Más detalles

Escuela Universitaria Politécnica Examen de Cálculo - Febrero - Curso 01/02

Escuela Universitaria Politécnica Examen de Cálculo - Febrero - Curso 01/02 Escuela Universitaria Politécnica Examen de Cálculo - Febrero - Curso 0/02 x 2 + y 4. (a) Comprueba que el siguiente límite no existe lim (x,y) (0,0) x 2 + y. 2 (b) Busca una trayectoria a través de la

Más detalles

0pWRGRVGH(UURUGH3UHGLFFLyQ3(0

0pWRGRVGH(UURUGH3UHGLFFLyQ3(0 0pWRGRVGH(UURUGH3UHGLFFLyQ3(0 Se selecciona una estructura de modelo 0, con modelos particulares 0 parametrizados con un S vector de parámetros θ ' R 0 { 0 } 0 = θ ' 0 Se disponen para la estimación de

Más detalles

Implementación de un cancelador activo de ruido en un ducto usando el algoritmo FX-ECLMS

Implementación de un cancelador activo de ruido en un ducto usando el algoritmo FX-ECLMS Implementación de un cancelador activo de ruido en un ducto usando el algoritmo FX-ECLMS E. Pichardo, X. Maya, A. A. Vázquez, J. G. Avalos, J. C. Sánchez Instituto Politécnico Nacional, Sección de Estudios

Más detalles

9 Ecuaciones diferenciales ordinarias. Ecuaciones diferenciales de primer orden en forma normal

9 Ecuaciones diferenciales ordinarias. Ecuaciones diferenciales de primer orden en forma normal Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 9 Ecuaciones diferenciales ordinarias. Ecuaciones diferenciales de primer orden en forma normal 9.1 Definición Se llama ecuación diferencial ordinaria

Más detalles

1.IV Aproximación numérica de valores y vectores propios.

1.IV Aproximación numérica de valores y vectores propios. .IV Aproximación numérica de valores y vectores propios. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior. Universidad de Zaragoza Primavera 2007 Contents Introducción 2

Más detalles

Dada f : [a, b] R R, continua, se plantea el problema de encontrar ceros de f, es decir raíces de la ecuación

Dada f : [a, b] R R, continua, se plantea el problema de encontrar ceros de f, es decir raíces de la ecuación Tema 8 Ceros de funciones Versión: 23 de abril de 2009 8.1 Introducción Dada f : [a, b] R R, continua, se plantea el problema de encontrar ceros de f, es decir raíces de la ecuación f(x) = 0. (8.1) La

Más detalles

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F. Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),

Más detalles

Guía 3 - Densidad espectral de potencia, transformación de procesos, ergodicidad

Guía 3 - Densidad espectral de potencia, transformación de procesos, ergodicidad Guía 3 - Densidad espectral de potencia, transformación de procesos, ergodicidad Nivel de dificultad de los ejercicios Estrellas Dificultad Normal Intermedio Desafío Densidad espectral de potencia, transformación

Más detalles

Redes neuronales con funciones de base radial

Redes neuronales con funciones de base radial Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura

Más detalles

Estimación Bayesiana y Máximo a Posteriori

Estimación Bayesiana y Máximo a Posteriori Estimación Bayesiana y Máximo a Posteriori Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Marzo

Más detalles

IDENTIFICACION DE SISTEMAS IDENTIFICACIÓN PARAMÉTRICA

IDENTIFICACION DE SISTEMAS IDENTIFICACIÓN PARAMÉTRICA IDENTIFICACION DE SISTEMAS IDENTIFICACIÓN PARAMÉTRICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Identificación paramétrica En

Más detalles

Introducción a la Programación Matemática. Yolanda Hinojosa

Introducción a la Programación Matemática. Yolanda Hinojosa Introducción a la Programación Matemática Yolanda Hinojosa Contenido Planteamiento general de un problema de programación matemática. Convexidad. ANEXO: Derivadas Sucesivas. Fórmula de Taylor. Clasificación

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

Análisis de Sensibilidad de los Resultados

Análisis de Sensibilidad de los Resultados Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 22 Análisis de Sensibilidad de los Resultados ICS 02 Optimización Profesor : Claudio Seebach

Más detalles