Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores
|
|
- Estefania Cordero Soriano
- hace 6 años
- Vistas:
Transcripción
1 Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1
2 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente simples y eficientes. En los casos donde las clases no son linealmente separables aún se puede utilizar un clasificador lineal aunque se obtenga un desempeño subóptimo desde el punto de vista de la probabilidad de error de clasificación. Los métodos de mínimos cuadrados se enfocan en minimizar la diferencia entre la salida del clasificador lineal, w T x, y la salida deseada (o clase real), y. Métodos: error cuadrático medio y error de suma de cuadrados. 2
3 Error cuadrático medio Partiendo del caso de dos clases, diseñar un clasificador lineal a partir de los patrones de entrenamiento con media cero (yi,x i ) para i=1,,n y xxxxxxxxxxxx. y i 2 { 1, +1} En caso que la media de las muestras no sea cero, se les resta. El objetivo es estimar wxxxxxx 2 R D para el modelo lineal w T x, de modo que el error cuadrático medio (MSE) entre la salida del clasificador y la salida deseada sea mínimo, esto es J(w) =E (y w T x) 2 (1) ŵ = arg minj(w) w (2) 3
4 Error cuadrático medio Minimizando la función de costo J(w) se tiene: rj(w) = re[(y w T x)(y x T w)] = r { E[y 2 ] 2w T E[xy]+w T E(xx T )w = 2E[xy]+2E[xx T ]w =0 (3) (4) (5). donde rxxxxxxxxx xy = E(xy) es el vector de correlación cruzada entradasalida y xxxxxxxxxxx x = E(xx T ) es la matriz de. covarianza: r xy = E[x 1 y] E[x 2 y]. E[x D y] y x = E[x 1 x 1 ] E[x 1 x D ] E[x 2 x 1 ] E[x 2 x 1 ]..... E[x D x 1 ] E[x D x D ]
5 Error cuadrático medio Entonces, resolviendo para w se tiene: ŵ = Σ x 1 r xy (6) Nótese que los pesos del estimador lineal óptimo son obtenidos mediante un sistema de ecuaciones lineales si se provee una matriz de covarianza definida positiva la cual es invertible. El método MSE asume que las muestras de entrenamiento poseen distribución normal. Además, si la distribución de los datos es normal, es preferible usar un clasificador Bayesiano, de modo que se perdería el sentido de usar un clasificador lineal. S in embargo, se desea encontrar resultados similares sin tener que estimar medias y covarianzas, de modo que el método MSE deriva en el método error de suma de cuadrados (SSE). 5
6 Error de suma de cuadrados En el método SSE el vector de pesos y el vector de características han sido aumentados: w=[w 0,w 1,,w D ] T y x=[1,x 1,,x D ] T. Para el caso de dos clases, los patrones de entrenamiento son (yi,x i ), para i=1,,n y xxxxxxxxxxxx. y i 2 { 1, +1} La función de costo SSE es: N (7) J(w) = (y i w T x i ) 2 i=1 de modo que se tiene que encontrar un vector de pesos w que minimice la distancia Euclidiana cuadrada entre la salida del clasificador lineal, w T x, y la salida deseada, y: ŵ = arg minj(w) (8) w 6
7 Error de suma de cuadrados Minimizando la función de costo en (7) se tiene: N J(w) = (y i w T x i )(y i x T i w) i=1 N N N 2 = y i 2w T x i y i + w T T x i x i i=1 i=1 i=1 N N = 2 x i y i + 2 T x i x i w = 0 i=1 i=1 Expresando (11) en forma matricial: w (9) (10) (11) donde J(w) = 2Xy T + 2XX T w = 0 X = [x 1,, x N ] y y = [y 1,,y N ]. (12) 7
8 Error de suma de cuadrados Entonces, resolviendo para w se tiene: ŵ = (XX T ) 1 Xy T donde la matriz de tamaño (D+1) N (13) = X + y T (14) X + = (XX T ) 1 X (15) se le conoce como la pseudoinversa de X. Si X es cuadrada y no singular, la pseudoinversa coincide con la inversa regular. Existirá siempre una solución de mínimo SSE si X + se define de manera más general como: X + lim δ 0 (XX T + δi ) 1 X (16) donde δi di es un término de regularización. 8
9 Error de suma de cuadrados Supóngase que se tienen los siguientes puntos en dos dimensiones para dos clases: ω 1 : 1 2, 2 0, ω 3 2 : 1, 2 3 w T x = 0 X T = , y T = La pseudoinversa de X es: x 2 R 2 X + = El vector de pesos es: R 1 w = X + y T = x 1 9
10 Error de suma de cuadrados El principal problema del método SSE es su sensibilidad a patrones extremos (outliers). El hiperplano de decisión es atraído hacia los outliers, ya que también reduce la distancia a esos puntos. Esto generará errores de clasificación, aún cuando las clases sean linealmente separables. outlier x 2 x 2 x 1 x 1 10
11 Método LMS La función de costo SSE J(w)= y w T X 2 puede minimizarse mediante un procedimiento de descenso de gradiente. Ventajas con respecto al método de la pseudoinversa: 1) evita problemas que surgen cuando XX T es singular y 2) evita trabajar con matrices muy grandes. Debido a que J(w)= 2(y w T X)X y considerando las muestras de manera secuencial, la regla de actualización de Widrow-Hoff es: w(1) arbitrario w(k + 1) = w(k) + η(k)(y(k) w T (k)x k )x k k 1 (17) Este algoritmo es similar al criterio de relajación del perceptrón, donde y(k) es el margen. La diferencia es que el perceptrón corrige el error de clasificación y en el caso de LMS la función w T x k nunca será igual a y; por tanto, la corrección nunca terminará. Para que exista convergencia, η(k) debe disminuir en función de k, donde una forma común es η(k)=η(1)/k. 11
12 Método LMS Algoritmo LMS (least-mean-squared) o Widrow-Hoff Begin initialize: w, umbral θ, η( ), k 0 do k (k+1)modn w w + η(k)(y k w T x k )x k until η(k)(y k w T x k )x k <θ return w end Hiperplano de separación Solución LMS De manera similar que en el entrenamiento del perceptrón, los patrones de la clase ω 2 son normalizados ; por tanto, las etiquetas de ambas clases son iguales tal que y i =1, para i=1,,n. x 2 Nótese que el algoritmo LMS no converge al hiperplano de separación, aún si las clases son linealmente separables. Esto se debe a que la solución LMS minimiza la suma de los cuadrados de las distancias de los patrones de entrenamiento al hiperplano. x 1 12
13 Método de Ho-Kashyap El método LMS puede modificarse para obtener un vector de pesos w y un margen y tal que w T X=y>0. Si se define una función de costo SSE que permita variar w y y como: J(y, w) = y w T X 2 (18) entonces el mínimo valor de J es cero y el vector w que alcanza el mínimo es un vector de separación. Derivando J con respecto de w y y: w J(y, w) = 2(y w T X)X y J(y, w) = 2(y w T X) y para cualquier valor de y siempre se toma: w = X + y T (19) (20) (21) 13
14 Método de Ho-Kashyap A partir de (20) y (21) se obtiene la regla de Ho-Kashyap para minimizar J(y,w): y(1) > 0 w(1) = X + y(1) T y(k + 1) = y(k) + η(e(k) + e(k)) (22) w(k + 1) = w(k) + ηx + e(k) T donde e(k) es un vector de error definido como: e(k) = w(k) T X y(k) (23) La regla de Ho-Kashyap garantiza un hiperplano de separación en el caso separable, aunque para el caso no separable se puede establecer una condición de paro como: donde w(k 1) w(k) < θ (24) denota norma L 2 y θ es un umbral. 14
15 Método de Ho-Kashyap Algoritmo de Ho-Kashyap Begin initialize: w, y, umbral θ, η<1 do e w T X y y y + η(e + abs(e)) w w + ηx + abs(e) T until w(k 1) w(k) <θ return w end De manera similar que en el entrenamiento del perceptrón, los patrones de la clase ω 2 son normalizados ; por tanto, las etiquetas de ambas clases son iguales tal que y i =1, para i=1,,n. Caso separable Caso no separable Con outliers x 2 x 2 x 2 x 1 x 1 x 1 15
Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
Más detalles4.5 Algoritmo RLS (Recursive Least Squares)
4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de
Más detallesAnálisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como
Más detallesIntroducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:
Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de
Más detallesAnálisis de Datos. Máquinas de vectores de soporte. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Máquinas de vectores de soporte Profesor: Dr. Wilfrido Gómez Flores 1 Introducción En el caso de clases linealmente separables, existen infinitos hiperplanos de decisión que separan correctamente
Más detallesAnálisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características
Más detallesAnálisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas
Más detallesTema 2 Primeros Modelos Computacionales
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple
Más detallesIdentificación mediante el método de los mínimos cuadrados
Ingeniería de Control Identificación mediante el método de los mínimos cuadrados Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos relevantes aprendidos previamente:
Más detallesAnálisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través
Más detallesAnálisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos
Más detallesESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción
Más detallesRedes neuronales con funciones de base radial
Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura
Más detallesTLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.
TLU(s) MULTICAPAS Se pueden implementar funciones en TLU con más de una capa 1 05 2 15 2 3 z 3 15 2 4 05 No eisten, en la actualidad, mecanismos de entrenamiento que permita conocer los pesos sinápticos
Más detallesTema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV
ema 4.: FUNCIONES DISCRIMINANES LINEALES y SV Some Figures in these slides were taken from Pattern Classification (nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 000 with the permission
Más detallesIdentificación n de SIStemas
Identificación n de SIStemas Métodos de Estimación n Recursivos ISIS J. C. Gómez Métodos de Identificación n Recursivos Mínimos Cuadrados Recursivos ara una estructura de modelo de regresión lineal y n
Más detalles4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas
4. El perceptrón 4.1 Introducción El perceptrón es la forma más simple de una red neuronal usada para la clasificación de un tipo especial de patrones, los linealmente separables (es decir, patrones que
Más detallesRedes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento
Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para
Más detallesMétodo de los Mínimos Cuadrados Recursivos
Método de los Mínimos Cuadrados Recursivos Teodoro Alamo a Ingeniería de Control Tercer Curso GITI Escuela Superior de Ingenieros Sevilla Formulación del problema Supongamos que los escalares y i, i =
Más detallesClasificación Supervisada
Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y
Más detallesTema: Aprendizaje Supervisado.
Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos
Más detallesTema 4: VARIABLE ALEATORIA N-DIMENSIONAL
Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL Carlos Alberola López Lab. Procesado de Imagen, ETSI Telecomunicación Despacho D04 caralb@tel.uva.es, jcasasec@tel.uva.es, http://www.lpi.tel.uva.es/sar Concepto
Más detallesRedes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
Más detallesIDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA
IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud
Más detallesMétodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Más detallesElementos de máquinas de vectores de soporte
Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos
Más detallesCapítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales
Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.
Más detallesSISTEMAS INTELIGENTES
SISTEMAS INTELIGENTES T10: Redes Neuronales.aic.uniovi.es/ssii Índice Redes Neuronales Artificiales Fundamentos biológicos Perceptrón Funciones de activación Redes de neuronas Entrenamiento: Perceptrón
Más detallesRedes Neuronales Multicapa
Undécima sesión 16 de abril de 2010 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con
Más detallesREDES NEURONALES ADAPTABLES
REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables
Más detallesTema 8: Redes Neuronales
Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/
Más detallesPerceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL
Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es www.robolabo.etsit.upm.es Mapas Predicción Robótica M l M r W ij S S 2 S 3 S 4
Más detallesAnálisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo
Más detallesSistemas de Reconocimiento de Patrones
Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.
Más detallesAnálisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Reconocimiento de patrones (RP): clasificar objetos en un número de categorías o clases.
Más detallesAnálisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,
Más detallesLeast Squared Methods for System Identification. 1. Modelamiento de datos - Least Squared Estimator
16/4/2011 UNIVERSIDAD TECNICA FEDERICO SANTA MARIA DEPARTAMENTO DE ELECTRONICA ELO325 SoftComputing y Aplicaciones Least Squared Methods for System Identification Tomás Arredondo Vidal - 1. Modelamiento
Más detallesTema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM)
Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 6 El problema de clasificación supervisada:
Más detallesEconometría 1. Karoll GOMEZ Segundo semestre 2017
Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios
Más detallesSupport Vector Machines
Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -
Más detalles7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL. Jorge Eduardo Ortiz Triviño
7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL Jorge Eduardo Ortiz Triviño jeortizt@unal.edu.co http:/www.docentes.unal.edu.co/jeortizt/ Introducción Los datos frecuentemente son dados para valores
Más detallesAprendizaje Automático
id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje
Más detallesEconometría 1. Karoll GOMEZ Segundo semestre 2017
Econometría 1 Karoll GOMEZ kgomezp@unal.edu.co http://karollgomez.wordpress.com Segundo semestre 2017 II. El modelo de regresión lineal Esperanza condicional I Ejemplo: La distribución de los salarios
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detallesClasificación Mediante Modelos Lineales
Clasificación Mediante Modelos Lineales Reconocimiento de Patrones Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería, UdelaR 2018 Bishop, Cap. 4 Duda et
Más detallesTEMA 3 REGRESIÓN Y CORRELACIÓN
TEMA 3 REGRESIÓN Y CORRELACIÓN Regresión mínimo-cuadrática bidimensional Planteamiento del problema Dadas dos variables aleatorias X e Y definidas sobre un mismo espacio de probabilidad (asociadas a un
Más detallesCAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias
CAPÍTULO 3 REDES NEURONALES ARTIFICIALES 3.1 Introducción Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias décadas de investigaciones desarrolladas en torno
Más detallesOPTIMIZACIÓN VECTORIAL
OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de
Más detallesDepartamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid
COMUNICACIONES DIGITALES AVANZADAS 4 DISEÑO DE RECEPTORES DE COMUNICACIONES MARCELINO LÁZARO Departamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid mlazaro@tscuc3mes Igualación
Más detallesAnálisis de Datos. Estimación de distribuciones desconocidas: métodos no paramétricos. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Estimación de distribuciones desconocidas: métodos no paramétricos Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La estimación de densidad con modelos paramétricos asumen que las
Más detallesVectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos
Definición Dado un espacio muestral S, diremos que X =(X 1, X 2,, X k ) es un vector aleatorio de dimension k si cada una de sus componentes es una variable aleatoria X i : S R, para i = 1, k. Notemos
Más detallesINTRODUCCION- FILTRO DE WIENER
FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener
Más detallesRedes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez
Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías
Más detallesLas Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V
CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga
Más detallesOptimización en Ingeniería
Optimización en Ingeniería Departamento de Computación CINVESTAV-IPN Av. IPN No. 2508 Col. San Pedro Zacatenco México, D.F. 07300 email: ccoello@cs.cinvestav.mx El Método de Marquardt Algoritmo Paso 1:
Más detalles1. Mínimos Cuadrados. 05-Mínimos Cuadrados.doc 1
. Mínimos Cuadrados. Mínimos Cuadrados.. Introducción 2.2. Método de Mínimos Cuadrados 2... Forma Recursiva: 4..2. Inclusión del Factor de Olvido. 5.3. Características Estadísticas de la Estimación 8..3.
Más detallesÁlgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Tema 2 Mínimos cuadrados II Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J S ALAS, A T ORRENTE Y EJS V ILLASEÑOR Índice general
Más detallesParte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales
Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales Universidad de Las Palmas de Gran Canaria Curso 2006-2007
Más detallesVariantes del LMS Algortimo LMA ( Least Mean Absolute ) Algoritmo LMS normalizado Algoritmo LMS regularizado Algoritmo LMS en frecuencia
4.4 Algoritmo LMS Introducción El algoritmo LMS Análisis de convergencia Variantes del LMS Algortimo LMA ( Least Mean Absolute ) Algoritmo LMS normalizado Algoritmo LMS regularizado Algoritmo LMS en frecuencia
Más detallesTécnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation
Más detallesAnálisis de Datos. Teoría de decisión Bayesiana. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Teoría de decisión Bayesiana Profesor: Dr. Wilfrido Gómez Flores 1 Teoría de decisión Bayesiana La teoría de probabilidad provee un marco teórico para los procesos de cuantificación y
Más detallesTema 4 Funciones convexas y optimización convexa
Tema 4 Funciones convexas y optimización convexa José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 4 Repaso de algunos resultados sobre optimización de funciones.
Más detallesSmart Antennas. Beamforming by Recursive Least Squares ALgorithm. Julio Santana
Departamento de Ingeniería Eléctrica Facultad de Ingeniría Universidad de Concepción Concepción, Chile. Smart Antennas Beamforming by Recursive Least Squares ALgorithm. Julio Santana 15 de diciembre de
Más detallesRedes Neuronales Multicapa
4 de abril de 2011 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con hiperplanos Dos
Más detallesInteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software
Inteligencia Artificial (Curso 0-0) Grado en Ingeniería Informática - Ingeniería del Software Redes neuronales Cuestión : Decir si las siguientes afirmaciones son verdaderas o falsas: Si tomamos la función
Más detallesADALINE Y PERCEPTRON
Tema 3: Adaline y Perceptron Sistemas Conexionistas 1 ADALINE Y PERCEPTRON 1. Adaline 1.1. Características. 1.. Regla de Aprendizaje (LMS). Regla Delta. 1.3. Aplicaciones. 1.3.1. Clasificación de vectores.
Más detallesEstimación de densidades basada en núcleos: algunos elementos. Isabel Cañette
Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos
Más detallesRelación 7 - Redes neuronales
Sistemas Inteligentes 0-0 Relación - Redes neuronales Problemas Ejercicio. Explicar cómo se usaría una red neuronal para obtener un reconocedor de letras escritas a mano. Describir con precisión qué estructura
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesANALISIS FACTORIAL. Jorge Galbiati R.
ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores
Más detallesÁlgebra Lineal Ma1010
Álgebra Lineal Ma1010 Métodos Iterativos para Resolver Sistemas Lineales Departamento de Matemáticas ITESM Métodos Iterativos para Resolver Sistemas Lineales Álgebra Lineal - p. 1/30 En esta lectura veremos
Más detallesI. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU
I. Métodos directos para resolución de SEL 1. Factorización LU Se dice que una matriz A admite una factorización LU si dicha matriz puede escribirse como el producto de una matriz triangular inferior,
Más detallesAlgoritmo de adaptación LMS
Algoritmo de adaptación LMS Alvaro Gómez & Pablo Musé {agomez, pmuse}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería Abril de 2018 Introducción
Más detallesAprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Asignatura troncal: 4.5cr, 4ºCurso Ing Inf Aprendizaje: Perceptrón multi-capa 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 1 Indice Regla delta Modelo computacional
Más detallesIntroducción al Control Óptimo
Ingeniería en Control y Automatización Introducción al Control Óptimo Aplicación a sistemas de control moderno ERÍA DEL CNRL III de diciembre de 6 Autor: M. en C. Rubén Velázquez Cuevas Escuela Superior
Más detallesMétodos de Krylov. Damián Ginestar Peiró. Departamento de Matemática Aplicada Universidad Politécnica de Valencia. Curso
Métodos de Krylov Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2013-2014 (UPV) Métodos de Krylov Curso 2013-2014 1 / 57 Índice 1 Introducción 2 Matrices
Más detallesCLASIFICACIÓN CON DISCRIMINANTES: UN ENFOQUE NEURONAL. Juan Antonio Pérez Ortiz
CLASIFICACIÓN CON DISCRIMINANTES: UN ENFOQUE NEURONAL Juan Antonio Pérez Ortiz japerez@dlsi.ua.es Departamento de Lenguajes y Sistemas Informáticos Universidad de Alicante Julio 1999 Prefacio Este trabajo
Más detalles2.1. ESTIMACIÓN DE PARÁMETROS BASADO EN LA SENSIBILIDAD.
ACTUALIZACIÓN DE UN MODELO NUMÉRICO DE LA PASARELA DE LA CARTUJA A PARTIR DE DATOS EXPERIMENTALES. MODAL UPDATING. RESEÑA TEÓRICA El objetivo del modal updating es ajustar los valores de los parámetros
Más detallesClasificación. Aurea Grané. Análisis Discriminante
Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis discriminante Análisis Discriminante y Clasificación Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid Supongamos
Más detallesTEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos
Más detallesDetección Multiusuario para DS-CDMA basado en SVM
9 Otra técnica basada en el aprendizaje y más conocida que la anterior es la basada en. Vamos a realizar una pequeña comparativa teórica de sobre ambas técnicas de clasificación. Estudiaremos los conceptos
Más detalles4.1 Introducción al filtrado adaptativo
41 Introducción al filtrado adaptativo El problema del filtrado Clases básicas de estimación Filtrado adaptativo Estructuras de filtrado lineal Algoritmos Criterios para la elección del filtro adaptativo
Más detallesAnálisis de imágenes digitales
Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en color INTRODUCCIÓN La segmentación de imágenes a color se puede realizar mediante técnicas de clasificación supervisada.
Más detallesDistribución Gaussiana Multivariable
Distribución Gaussiana Multivariable Carlos Belaustegui Goitia, Juan Augusto Maya 8 de Agosto de Resumen En este documento presentamos la deducción de la expresión de la función densidad de probabilidad
Más detallesEconometría de series de tiempo aplicada a macroeconomía y finanzas
Econometría de series de tiempo aplicada a macroeconomía y finanzas Series de Tiempo Estacionarias (Multivariadas) Carlos Capistrán Carmona ITAM 1 Principios de Pronóstico. 2 Pruebas de Hipótesis. 3 Estimación
Más detallesTema1. Modelo Lineal General.
Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La
Más detallesCeros de Funciones: Multivariable
Ceros de Funciones: Multivariable Prof. Marlliny Monsalve 1 1 Postgrado en Ciencias de la Computación Universidad Central de Venezuela Análisis Numérico May 19, 2015 Prof. Monsalve (UCV) Ceros Multivariable
Más detallesIntroducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.
Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),
Más detallesIdentificación Paramétrica
Identificación Paramétrica Métodos para la Obtención de un Modelo Discreto Un modelo, incluyendo el ruido o perturbación, a tiempo discreto puede ser representado por la siguiente i ecuación Donde: ( )
Más detallesDoctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04)
4.6 El filtro de Kalman Introducción Filtro de Kalman discreto Algoritmo: predicción + corrección Características probabilísticas El filtro de Kalman extendido Filtros de Partículas Conclusiones Introducción
Más detallesFolleto de Estadísticas. Teoría del 2do Parcial
Folleto de Estadísticas Teoría del 2do Parcial 2012 Variables aleatorias conjuntas continuas: Sean X y Y dos variables aleatorias continuas con ellas se asocia una función denominada función de densidad
Más detallesAplicaciones de la Optimización Convexa al análisis de redes Bibliografía optimización convexa:
Aplicaciones de la Optimización Convea al análisis de redes Bibliograía optimización convea: Nonlinear Programming: nd Edition. by Dimitri P. Bertseas. ISBN: - 88659--. Publication: 999 Conve Optimization,
Más detallesSantiago, Abril 2009
cvalle@inf.utfsm.cl Departamento de Informática - Universidad Técnica Federico Santa María Santiago, Abril 2009 1 / 51 Temario 1 2 3 4 5 6 7 Métodos que generan entradas alternativas 8 y extensiones 2
Más detallesLOCALIZACIÓN Y MAPEO SIMULTÁNEO EN TIEMPO REAL, EMPLEANDO UNA CÁMARA MONOCULAR
LOCALIZACIÓN Y MAPEO SIMULTÁNEO EN TIEMPO REAL, EMPLEANDO UNA CÁMARA MONOCULAR Presentado por: Ing. ANDRES ALEJANDRO DIAZ TORO Director: Dr. Eduardo Caicedo Bravo Asesor: Dra. Lina María Paz GRUPO DE INVESTIGACION
Más detalles