Redes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela
|
|
- Andrea Soriano Salas
- hace 5 años
- Vistas:
Transcripción
1 Redes Neuronales Artificiales para predicción en series temporales Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela
2 Contenidos 1. Redes Neuronales Artificiales 2. RNA para predicción en series temporales 3. Resultados Experimentales
3 RNA Las redes de neuronas artificiales son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas en una red que colabora para producir un estímulo de salida. Neurona Artificial/EP: Dispositivo que genera una salida única a partir de un conjunto de entradas con pesos asociados.
4 Características 1. Función de transferencia (): Calcula la entrada al EP. Combina valores de pesos y entradas 2. Función de activación (g): Calcula estado de activación de la neurona en función de las entradas y, opcionalmente, del estado de activación actual. 3. Función de salida (a): Genera la salida de la neurona en función del estado de activación. Normalmente, función identidad, a(g(x)) = g(x).
5 Modelo de McCulloch-Pitts Primer modelo de neurona artificial (1943). Entradas (xi) y salida (o) binarias {0, 1}. Función de activación de tipo escalón con umbral, T. Un neurona puede simular cualquier función booleana simple (AND, OR, NOT) fijando pesos y umbrales adecuados.
6 Perceptrón Simple I Modelo de red neuronal propuesto por Rosemblatt (1959) Red monocapa con alimentación hacia adelante. Colección de neuronas similares a McCulloch-Pitts, con entradas continuas [0, 1], umbral Tj y salida bipolar { 1, 1}.
7 Perceptrón Simple II Capaz de aprender a clasificar patrones linealmente separables. Salida +1 si pertenece a la clase, 1 si no pertenece Pesos determinan zonas de clasificación separadas por un hiperplano (en el caso de 2 entradas, la separación será una línea) Ejemplo: con dos entradas: Minsky y Papert (1969) mostraron esta limitación del perceptrón para representar/aprender funciones no separables linealmente (ejemplo: XOR no separable linealmente, necesita mas de 1 capa)
8 Teorema de aproximación universal I Sea ϕ(.) una función continua no constante, acotada y monótonamente. Sea In el hipercubo unitario n-dimensional [0,1]n. Sea C(In) el espacio de funciones continuas definidas en In. Entonces, dada cualquier función g en C(In) y cualquier ε>0, existe un entero h y unos conjuntos de constantes reales αi, θi y wi donde i=1,...,h y j=1,...,n tales que la función f definida por: es una realización aproximada de la función g(.), de tal modo que: para todo (x1,...,xn) en ln.
9 Teorema de aproximación universal II Este teorema puede aplicarse directamente al Perceptrón de n entradas y una salida, con una única capa oculta compuesta por h neuronas de función de activación sigmoidal o hiperbólica (ambas cumplen las condiciones impuestas a ϕ()), y función de activación identidad La Ecuación da la función de transferencia del correspondiente Perceptrón, donde las constantes wij y θi se refieren a los pesos de la capa oculta y las αi a los de la capa de salida.
10 Teorema de aproximación universal III Conclusión: Las Redes Neuronales Artificiales (RNAs) se pueden considerar una familia de aproximación universal (Hornik et al, 1989; Cybenko, 1989), lo cual implica que una red neuronal puede aproximar cualquier función continua hasta cualquier nivel de exactitud.
11 Perceptrones Multicapa Extensión del perceptron simple añade capas adicionales. Capas con interconexión total: entrada, oculta/s, salida.
12 Propagación hacia adelante I Patrones de entrada se presentan en capa de entrada. Se propagan hasta generar salida. Función activación neuronas: sigmoidal. Entradas y salidas continuas [0, 1] Pesos de conexión determinan una función que relaciona entradas con salidas. Sin capa oculta: funciones linealmente separables (perceptron simple) Una capa oculta: resuelve el problema del XOR (regiones triangulares) Dos capas ocultas: resuelve cualquier región poligonal
13 Propagación hacia adelante II Problema del XOR pcp pcp2 0 Regiones triangulares pcp1 pcp3 pcp2 P = P1 P 2 P (1) = P (1) P 2(1) = 1 1 = 1 P (0) = P1(0) P 2(0) = 0 Un pcp con 1 CO resuelve cualquier región plana convexa Un pcp con 2 CO resuelve cualquier región poligonal
14 Retropropagación I Propuesto por Rumelhart (1984). Objetivo: ajustar pesos para reducir el error cuadrático de las salidas (problema de optimización). Funcionamiento aprendizaje: Inicializar pesos aleatoriamente Repetir hasta tener salidas "suficientemente" correctas (EPOCH) Para cada patrón de entrenamiento (E,T) Propagar E por la red para obtener salida actual (O) Comparar con salida deseada (T-O) Actualizar pesos hacia atrás, capa a capa. Exige función de activación (g) continua y derivable. La función sigmoidal se puede derivar de manera eficiente:
15 Retropropagación II (1) Ajuste pesos CAPA SALIDA Nuevos pesos para neurona de salida ok: Idea base: Repartir error obtenido para cada neurona de salida (k) entre los pesos de sus conexiones de forma proporcional a la intensidad de la entrada recibida (hj).
16 Retropropagación III (2) Ajuste pesos CAPA/S OCULTA/S Nuevos pesos para neurona oculta hj: Problema: Cuantificar error en las capas ocultas (j). Idea: Propagar la parte proporcional del error en la capa de salida (k) del cual es responsable cada neurona oculta hj. Estimación del error en neurona oculta hj:
17 Retropropagación IV Aprendizaje retropropag. búsqueda por descenso de gradiente. Espacio de búsqueda = conjunto de posibles valores de pesos Métrica de evaluación = error cuadrático (en función de pesos) En cada ejemplo de entrenamiento: A partir del error calculado se definen los pesos de la nueva red. Se ajustan pesos en la dirección de mayor pendiente. Uso de la derivada g en el ajuste pesos. Objetivo: Minimizar valor de la función de error. En realidad se pretende hacer que su derivada (E (red)) sea 0. Se buscan unos pesos para los que esa función tenga un mínimo (E (pesos) = 0)
18 Convergencia No garantizada convergencia en una red óptima. Problemas con mínimos locales. Funciones separables linealmente sólo tienen un mínimo local se puede asegurar que se encontrará ese único mínimo. Ejemplo: Superficie de error con 2 pesos/entradas.
19 Actualización de Pesos On-line: los parámetros del modelo se ajustan tras cada evaluación de la función de coste. Requiere aleatorización en el orden de las muestras para garantizar la convergencia. Batch: los gradientes se acumulan tras cada evaluación y solo se actualiza el modelo tras procesar toda la muestra. Tarda más en converger.
20 Aprendizaje Supervisado Aprendizaje supervisado En general, no se garantiza convergencia. En la práctica, es posible entrenamiento adecuado para problemas reales. Entrenamiento lento. Puede requerir muchos ciclos de entrenamiento (epoch). Se suele usar: conj. entrenamiento + conj. validación. Verificar si realmente ha aprendido y puede generalizar. Criterios de parada: Número fijo de ciclos de entrenamiento (epochs) Umbral de error sobre conjunto entrenamiento. Umbral de error sobre conjunto de validación.
21 Problemas del Aprendizaje Cuál es la topología de red adecuada?: Pocas neuronas/capas incapaz de aprender función. Muchas neuronas/capas posibilidad de sobreajuste. Además: Qué funciones activación usar?, Cómo codificar entradas/salidas?, etc,... Mala Generalización por Sobre Ajuste: Error pequeño conj. entrenamiento, grande conj. validación. Demasiados ciclos entrenamiento Pérdida capacidad generalización. Red demasiado compleja Se ajusta a cualquier función. Se memorizan patrones, no se generaliza con otros nuevos. Mínimos locales: Si se inicializa la red con diferentes pesos aleatorios se pueden encontrar mínimos mejores.
22 Redes Neuronales Artificiales para predicción de series temporales
23 Tipos de Modelos Paramétricos: ARMA GARCH No Paramétricos: RNA SVM Kernel
24 Características de las RNA utilizadas Familia de Aproximación universal Si se aplican configuraciones especiales: - Se reducen el número de parámetros. - El modelo puede si ser paramétrico. - Mejora el interpretación. Métodos generales de obtención de parámetros mediante optimización (retropropagación).
25 Metodología 1.Transformaciones necesarias para que la serie transformada sea estacionaria. 2.Separar conjunto de test1 y test2. 3.Elegir función de coste y criterio de parada. 4.Elegir topología de la red. 5.Entrenar la red. 6.Calcular el error de predicción en el conjunto de test1. 7.Calcular error honesto mediante el grupo de test2.
26 Formulación de la Predicción El predictor basado en minimización del error cuadrático medio es la media condicional (para ruido y gaussiano): En la práctica lo que se utiliza es la aproximación con número finito de muestras:
27 Predictor para el modelo AR(p) Formulación del modelo: Predictor óptimo (aproximado)
28 FeedForward Network para AR(p)
29 Predictor para el modelo ARMA(p,q) Formulación del modelo: Predictor óptimo (aproximado)
30 Recurrent Neural Network para ARMA(p,q) El aprendizaje on-line ahora tiene mucha más complejidad
31 Predictor para el modelo NAR(p) Formulación del modelo: h es una función continuamente diferenciable Predictor óptimo (aproximado):
32 Predictor para el modelo NAR(p) Aproximación a función h mediante familia de aproximación universal
33 FeedForward Neural Network para NAR(p) Modelos complejos requerirían redes multicapa
34 Configuración de la red neuronal Capa de Presentación: activación lineal Capas ocultas: función sigmoidal: Función de coste: suma de residuos cuadrados: Optimización: descenso por gradiente o método de segundo orden. Sin conexiones directas a la capa de presentación
35 Predictor para el modelo NARMA(p, q) Formulación del modelo: h es una función continuamente diferenciable Predictor óptimo (aproximado):
36 Predictor para el modelo NARMA(p, q) Aproximación a función h mediante familia de aproximación universal
37 Recurrent Neural Network para NARMA(p, q)
38 Fully Recurrent Network
39 Recurrent Neural Network como Fully Recurrent Network Requiere muchos más parámetros
40 Problemas de las RNA aplicadas a predicción I Overfitting (mala generalización): Comparar diferentes modelos: ECM relativo, Indicará que parte de la varianza puede predecir el modelo. 1 indica que el modelo no predice nada.
41 Problemas de las RNA aplicadas a predicción I Overfitting (mala generalización): Añadir penalización por complejidad: se añade a la función de coste: W0 es la escala para los pesos: W0 alto produce muchos pesos pequeños W0 bajo produce pocos pesos grandes Ajustado dinámicamente. Empieza bajo y se incrementa.
42 Problemas de las RNA aplicadas a predicción II Overfitting (mala generalización): Parada Temprana: Usando un conjunto de validación (early test). Mezclas de expertos: se crean variaos subconjuntos aleatorios de la muestra mediante remuestreo. Con cada conjunto se entrena una red. Luego se calcula la predicción en función de las salidas de cada red neuronal.
43 Problemas de las RNA aplicadas a predicción III Parámetros libres Outliers : filtrado Interpretar el modelo: Orden del modelo relacionado con entradas. Valor de Predicción. Intervalo de Confianza mediante bootstrap sobre conjunto de test (late test). Residuo del modelo
44 Resultados Experimentales Experimentos: Resultados y Conclusiones
45 Experimentos 1. Datos simulados AR(1) MA(1) NARMA(1,1) 2. Datos reales Predicción de series de tipo de cambio Predicción de manchas solares
46 Simulación AR(1) Proceso Gaussiano AR(1) I Modelo: Entrenamiento: primeras 500 muestras. Test: muestras. Criterio de parada: validación cruzada.
47 Resultados AR(1) Red p q l M.S.E. Conjunto de entrenamiento M.S.E. Conjunto de Test Feedforward NAR NARMA Recurrente Fully Recurrent
48 Simulación MA(1) Proceso Gaussiano MA(1) Modelo: Test: 500 muestras. Entrenamiento: muestras. Criterio de parada: validación cruzada.
49 Resultados MA(1) Red p q l M.S.E. Conjunto de Entrenamiento M.S.E. Conjunto de Test Feedforward NAR NARMA Recurrente Fully Recurrent
50 Simulación NARMA(1,1) Proceso bilineal NARMA(1,1) Modelo: Entrenamiento: 500 muestras. Test: muestras. Criterio de parada: validación cruzada.
51 Resultados NARMA(1,1) Red p q l M.S.E. Conjunto de Entrenamiento M.S.E. Conjunto de Test Feedforward NAR NARMA Recurrente Fully Recurrent
52 Datos Reales
53 Series de Tipo de Cambio I Serie que se estima: Retornos logarítmicos Para cambios pequeños, el retorno es la diferencia hasta el día anterior normalizada por el precio pt-1
54 Series de Tipo de Cambio II Funciones útiles: Day Trend Volatility Aunque la red neuronal sería capaz de calcular estas funciones se quiere orientar a la red en este sentido.
55 Series de Tipo de Cambio III Arquitectura de la red para la tasa de predicción del tipo de cambio
56 Series de Tipo de Cambio IV Unidades de salida para la tasa de predicción del tipo de cambio. Predict Activation Error Retorno Signo Retorno de los lunes Lineal Probabilidad de Incremento (0,1)-Sigmoidal Error Cuadrático Médio Entropía Cruzada
57 Curvas de aprendizaje para los tipos de cambio
58 Predicción de Manchas Solares: Introducción Mancha solar: región central oscura, llamada "umbra", rodeada por una "penumbra" más clara. Una sola mancha puede llegar a medir hasta km (casi tan grande como el diámetro de la Tierra), pero un grupo de manchas puede alcanzar km de extensión e incluso algunas veces más. Número de manchas = k(10g + f), k = factor de escala g = número de grupos de manchas f = número de manchas individuales Esta serie ha servido como Benchmark (referencia) en la literatura estadística.
59 Predicción de Manchas Solares Predicciones y observaciones de las manchas solares desde 1700 a 1979.
60 Configuración de la Red Activación sigmoidal Una Capa oculta Función de error: Error Cuadrático Medio.
61 Técnicas de parada evaluadas 1. Validación interna 2. Eliminación de Pesos
62 Aprendizaje de las Series Temporales
63 Estacionalidad de la Serie La serie temporal no es estacionaria: cuando pasa el tiempo el modelo cambia. Cuantos más años pasen el error de predicción es mayor.
64 Variando la dimensión de las entradas Se pasa de 1 unidad de entrada a 41. El error se vuelve prácticamente constante al aumentar el número de unidades de entrada. Si el número de entradas excede a las necesarias la red ignora las que sean irrelevantes, por ello el rendimiento no se ve afectado por la dimensión de las entradas (ventaja sobre otros métodos de predicción).
65 Referencias Recurrent Neural Networks and Robust Time Series Prediction, Jerome T.Connot, R. Douglas Martin Predicting Sunspots And Exchange Rates With Connectionist Networks, Andreas S.Weigend Bernardo A.Huberman David E. Rumelhart Predicting Daily Probability Distributions, Andres S.Weigend, Shanming Shi SVM Kernels for Time Series Analysis, Stefan Ruping Neural Networks for Pattern Recognition, Christopher M.Bishop
El Perceptrón Multicapa
El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del
Más detallesRedes Neuronales Artificiales El Perceptrón
1 Sistemas Expertos e Inteligencia Artificial / Guía IX / Ciclo 01-2018 Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Redes Neuronales Artificiales El
Más detallesRedes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento
Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para
Más detallesSISTEMAS INTELIGENTES
SISTEMAS INTELIGENTES T10: Redes Neuronales.aic.uniovi.es/ssii Índice Redes Neuronales Artificiales Fundamentos biológicos Perceptrón Funciones de activación Redes de neuronas Entrenamiento: Perceptrón
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es www.robolabo.etsit.upm.es Mapas Predicción Robótica M l M r W ij S S 2 S 3 S 4
Más detallesDetección Multiusuario para DS-CDMA basado en SVM
9 Otra técnica basada en el aprendizaje y más conocida que la anterior es la basada en. Vamos a realizar una pequeña comparativa teórica de sobre ambas técnicas de clasificación. Estudiaremos los conceptos
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Otra forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesPerceptrones Fernando Berzal,
Fernando Berzal, berzal@acm.org Introducción Redes neuronales artificiales Modelos de redes Modelo de neurona artificial Funciones de activación La neurona de McCulloch y Pitts El algoritmo de aprendizaje
Más detallesPerceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018
Perceptrón Simple Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA Rosana Matuk Primer Cuatrimestre 2018 Rosana Matuk (DC-FCEyN-UBA) Perceptrón simple Primer Cuatrimestre 2018 1 / 29 Objetivo
Más detallesTema 2 Primeros Modelos Computacionales
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple
Más detallesREDES NEURONALES ADAPTABLES
REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables
Más detallesIntroducción a Las redes Neuronales (Neurales) CO-6612
a Las redes Neuronales (Neurales) CO-6612 Coordenadas iniciales: Prof. Minaya Villasana Oficina: CBI-112 Extension: 906 3386 forma más fácil (preferida) de contacto: mvillasa@usb.ve Bibliografia: Simon
Más detallesRedes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
Más detallesRedes Neuronales Artificiales
Algoritmo de retropropagación Back propagation Es utilizado para entrenar redes neuronales multicapa. Exige que la función de activación de las neuronas sea derivable y creciente. Las funciones comúnmente
Más detallesCONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)
Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas
Más detallesRedes Neuronales Multicapa
Undécima sesión 16 de abril de 2010 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con
Más detallesTécnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation
Más detallesAprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Asignatura troncal: 4.5cr, 4ºCurso Ing Inf Aprendizaje: Perceptrón multi-capa 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 1 Indice Regla delta Modelo computacional
Más detallesAprendizaje de Sistemas. Redes Neuronales Artificiales
Universidad de Granada E.T.S. Ingeniería Informática Diseño, Análisis y Aplicaciones de Sistemas Inteligentes Aprendizaje de Sistemas Redes Neuronales Artificiales José Manuel Benítez Sánchez J.M.Benitez@decsai.ugr.es
Más detallesEntrenamiento de redes neuronales Fernando Berzal,
Entrenamiento de redes neuronales Fernando Berzal, berzal@acm.org Entrenamiento de redes neuronales Modos de entrenamiento Preprocesamiento de los datos Funciones de activación Inicialización de los pesos
Más detallesTLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.
TLU(s) MULTICAPAS Se pueden implementar funciones en TLU con más de una capa 1 05 2 15 2 3 z 3 15 2 4 05 No eisten, en la actualidad, mecanismos de entrenamiento que permita conocer los pesos sinápticos
Más detallesAnálisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo
Más detallesRedes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla
Redes Neuronales Introducción José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Indice Motivación Arquitectura Leyes de Aprendizae Aplicaciones DILEMA MEMORIA CALCULO Aritmética
Más detallesAnálisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas
Más detallesLas Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V
CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga
Más detallesReconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales
Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar
Más detallesAnálisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como
Más detallesIntroducción a las Redes de Neuronas
OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 1 Introducción a las Redes de Neuronas Introducción a las Redes de Neuronas 1 Introducción a las Redes de Neuronas Introducción
Más detallesRedes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.
Redes Neuronales Elementos básicos de las redes neuronales carlos.andres.delgado@correounivalle.edu.co Carlos Andrés Delgado S. Facultad de Ingeniería. Universidad del Valle Agosto de 2017 Contenido 1
Más detallesTema: Aprendizaje Supervisado.
Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos
Más detallesInteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software
Inteligencia Artificial (Curso 0-0) Grado en Ingeniería Informática - Ingeniería del Software Redes neuronales Cuestión : Decir si las siguientes afirmaciones son verdaderas o falsas: Si tomamos la función
Más detallesCAPÍTULO 3: REDES NEURONALES RECURRENTES
Capítulo 3 Redes Neuronales Recurrentes 15 CAPÍTULO 3: REDES NEURONALES RECURRENTES En este capítulo se describen las principales características y elementos de tres tipos de redes neuronales: feedforward,
Más detallesAnálisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,
Más detallesRedes Neuronales Multicapa
4 de abril de 2011 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con hiperplanos Dos
Más detallesOTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales
OTRAS CONSIDERACIONES! Estrategias para generalización Existen diversas estrategias para mejorar la generalización: 1) Teoría de Regularización: Agregar una penalidad para lograr mejorar la forma de la
Más detallesRedes neuronales con funciones de base radial
Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura
Más detallesMÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)
Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura
Más detallesTema 8: Redes Neuronales
Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/
Más detallesPerceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL
Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente
Más detallesSupport Vector Machines
Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -
Más detallesIntroducción a las Redes Neuronales mediante el paquete neuralnet
Introducción a las Redes Neuronales mediante el paquete neuralnet El paquete neuralnet es un paquete de muy sencilla utilización que permite la aplicación, visulaización e implementación de redes neuronales.
Más detallesCristián Bravo R.
Cristián Bravo R. cbravo@dii.uchile.cl Banco de Crédito e Inversiones 2 al 5 de Julio, 2011 1 Preparación de datos para generación de scorecards. Selección de Variables. Transformaciones Notables. Segmentación
Más detallesEL PERCEPTRON MULTICAPA (MLP) 6
Otra diferencia fundamental de la adaline con respecto del asociador lineal y el perceptrón simple radica en la regla de aprendizaje. En la adaline se utiliza la regla de Widrow Holf, también conocida
Más detallesANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES
ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES 1. Concepto de red neuronal artificial Una red neuronal artificial (RNA) es un modelo matemático que intenta reproducir el modo de funcionamiento y
Más detallesTema 6. Reconocimiento de voz
Tema 6. Reconocimiento de voz 6.1.- Introducción 6.2.- Problemática 6.3.- Clasificación 6.4.- Esquema de trabajo 6.5.- Técnicas de reconocimiento 6.6.- Conclusiones 6.1.- Introducción Reconocimiento de
Más detallesLIM. Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales. Trabajo final de grado
Trabajo final de grado Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales Autor Alfonso Ramón Varela Olmedo Tutores Miguel Ángel Naya Villaverde Emilio Sanjurjo
Más detallesCapítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA
III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA 32 III. REDES NEURONALES ARTIFICIALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III.1 CONCEPTOS GENERALES En sus orígenes las Redes Neuronales
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesREDES NEURONALES INTELIGENCIA ARTIFICIAL II
REDES NEURONALES INTELIGENCIA ARTIFICIAL II REDES NEURONALES El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El ordenador y el hombre realizan bien diferentes clases de tareas;
Más detallesPerceptron multicapa. Capítulo Introducción
Capítulo 3 Perceptron multicapa 3.1. Introducción En este capítulo se estudiará una de las clases de redes de neuronas, conocida como Perceptron multicapa o red multicapa con conexiones hacia adelante.
Más detallesCI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell
CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Backpropagation Cap 20.5 Russel & Norvig Cap 4 Mitchell Universidad Simón Boĺıvar 8 de Octubre de 2008 Redes Multicapas de Unidades Sigmoidales
Más detallesConceptos básicos V:
C261-69 69 Tópicos Avanzados: Redes Neuronales Artificiales Conceptos básicos Dra. Ma. del Pilar Gómez Gil Primavera 2009 pgomez@acm.org V:13-01-09 Modelo Básico y Abstracto de un Neurón Artificial x 0
Más detallesRedes neuronales en control de sistemas
Redes neuronales en control de sistemas Marco Teórico Las redes neuronales tratan de emular ciertas características propias de los humanos, una muy importante es la experiencia. El ser humano es capaz
Más detallesMétodos de modelado y clasificación de patrones. clasificación de patrones
FUNDAMENTOS DEL RECONOCIMIENTO AUTOMÁTICO DE LA VOZ Métodos de modelado y clasificación de patrones Agustín Álvarez Marquina Introducción. Modelado y clasificación de patrones Objetivos: Agrupar el conjunto
Más detallesRedes Neuronales Artificiales
Red de Hopfield Almacenar un conjunto de p patrones de forma tal que cuando se presente un nuevo patrón, la red responda produciendo alguno de los patrones previamente almacenados que más se parezca al
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Alejandro Osses Vecchi 11 de julio de 2009 1. Introducción Comenzaremos con una definición simple y general de Red Neuronal para, en las próximas secciones, explicar y profundizar
Más detallesPerceptrón simple y perceptrón multicapa
UNL - FICH - Departamento de Informática - Ingeniería Informática Inteligencia Computacional Guía de trabajos prácticos Perceptrón simple y perceptrón multicapa. Objetivos Aplicar diferentes arquitecturas
Más detallesMétodos de Aprendizaje en Redes Neuronales
11 de abril de 2011 Entrenamiento de redes feedforward (Backpropagation) Siendo {z m, t m } m=1...n un conjunto de n patrones de entrenamiento, con z m las entradas conocidas para el m ésimo patrón y
Más detallesInteligencia Artificial II
Inteligencia Artificial II Introducción a Redes Neuronales D. Balbontín Noval Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial II - Tema 4 p. 1/43
Más detallesTEMA 6 Redes de Neuronas Artificiales
TEMA 6 Redes de Neuronas Artificiales Francisco José Ribadas Pena INTELIGENCIA ARTIFICIAL 5 o Informática ribadas@uvigo.es 29 de noviembre de 2005 c 2005 ccia ia 6.1 Introducción Objetivo: Usar los principios
Más detallesCAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias
CAPÍTULO 3 REDES NEURONALES ARTIFICIALES 3.1 Introducción Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias décadas de investigaciones desarrolladas en torno
Más detallesElementos de máquinas de vectores de soporte
Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos
Más detallesIntroducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:
Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de
Más detallesInteligencia Artificial II
Inteligencia Artificial II Introducción a Redes Neuronales Delia Balbontín Noval Francisco Jesús Martín Mateos José Luis Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad
Más detallesRedes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez
Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías
Más detallesRelación 7 - Redes neuronales
Sistemas Inteligentes 0-0 Relación - Redes neuronales Problemas Ejercicio. Explicar cómo se usaría una red neuronal para obtener un reconocedor de letras escritas a mano. Describir con precisión qué estructura
Más detallesInteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5
Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función
Más detallesREDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.
REDES NEURONALES Las redes neuronales constituyen una poderosa herramienta para modelar sistemas, especialmente no lineales, sean dinámicos o estáticos. En el cuerpo celular se realizan la mayoría de las
Más detallesIntroducción a las Redes Neuronales Articiales
Inteligencia Humana como Inspiración Novena Sesión 24 de marzo de 2010 Inteligencia Humana como Inspiración Inteligencia Humana como Inspiración Sistema Nervioso Humano Características: Complejo No Lineal
Más detallesTema 5: Introducción a las redes neuronales
Tema 5: Introducción a las redes neuronales F. J. Martín Mateos, J. L. Ruiz Reina et al. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla nteligencia Artificial IA 2017
Más detallesSimulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano
Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Anita Alegre López 1, Sonia Mariño 1, David La Red 1 1 Dpto. Informática. Universidad Nacional del Nordeste.
Más detallesINDICE. Procedimiento 4. Mutación Paramétrica. 8
INDICE Introducción. 3 Objetivo 4 Procedimiento 4 Algoritmo Principal. 6 Inicialización de la Población 6 Función de Aptitud.. 7 Selección de la Nueva Población. 7 Mutación Estructural 8 Mutación Paramétrica.
Más detallesTema 9: Introducción a las redes neuronales
D. Balbontín Noval F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Neuronas artificiales: inspiración biológica El aprendizaje en
Más detallesExamen de Septiembre de TACCIII y TAI (Modelo 2)
Examen de Septiembre de TACCIII y TAI (Modelo 2) 12 de septiembre de 2008 1. La desordenación de la base de datos puede influir en el resultado obtenido mediante a) clasificación por distancia a las medias
Más detallesBACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES
BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES Paul Acquatella B. Universidad Simón Bolívar, Valle de Sartenejas, Caracas, Venezuela. acquatella@usb.ve Resumen Este trabajo presenta
Más detallesAprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo
2012 Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo Iván López Espejo 22/04/2012 2 Aprendizaje para Clasificación con Factorización Matricial Basado
Más detallesTUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB
TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB MARIA ISABEL ACOSTA BUITRAGO CAMILO ALFONSO ZULUAGA MUÑOZ UNIVERSIDAD TECNOLOGICA DE PEREIRA FACULTAD
Más detallesÁrea Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales
Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Tema: Perceptron Parte I Profesor: Víctor Tomás T. Mariano. Alumnos: Leticia Hernández Hernández Agustín Hernández Espinoza
Más detallesTema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales
Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales SRP Carlos Carrascosa Casamayor Vicente J. Julián Inglada Tema 3: Ðreas de La IA: Ejemplos de Investigaci n Actual (II) Redes
Más detallesINTRODUCTION TO MACHINE LEARNING ISABELLE GUYON
INTRODUCTION TO MACHINE LEARNING ISABELLE GUYON 2008-02-31 Notas tomadas por: María Eugenia Rojas Qué es Machine Learning? El proceso de aprendizaje de maquina consiste en tener una gran base de datos
Más detallesSeries Temporales. Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, Leganés (Madrid)
Series Temporales Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, 30. 28911 Leganés (Madrid) Series Temporales Introducción Problema de predicción Modelos neuronales
Más detallesCAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN
CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN PERCEPTRÓN MULTICAPA EN MATLAB 4.1 Matlab Matlab ha demostrado ser un programa de desarrollo muy completo en distintas áreas, más que nada
Más detallesIntroducción a las Redes Neuronales
Introducción a las Redes Neuronales Excepto en las tareas basadas en el cálculo aritmético simple, actualmente, el cerebro humano es superior a cualquier computador: Reconocimiento de imágenes, Interpretación
Más detallesRedes neuronales. Un recorrido por su matemática, arquitectura y aprendizaje. Eduardo Paluzo Hidalgo. 30 de enero de Universidad de Sevilla
Redes neuronales Un recorrido por su matemática, arquitectura y aprendizaje. Eduardo Paluzo Hidalgo Universidad de Sevilla 30 de enero de 2018 Tabla de contenidos Introducción Inspiración biológica Funcionamiento
Más detallesSelf Organizing Maps. Self Organizing Maps. SOM/KOHONEN Network Mapas Auto-organizativos. Estructura de la Red. Estructura de la Red
SOM/KOHONEN Network Mapas Auto-organizativos Capitulo 6 Análisis Inteligente de datos Self Organizing Maps La red SOM es creada por Teuvo Kohonen en la década de los 8, rápidamente paso a ser una de las
Más detallesDefinir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales
Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Abstract Este trabajo tiene como objetivo analizar, experimentar y comprender el funcionamiento y las características de los Sistemas
Más detallesCRITERIOS DE SELECCIÓN DE MODELOS
Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,
Más detalles4 Teoría de clasificadores
Reconocimiento de señales de tráfico para un sistema de ayuda a la conducción 4 Teoría de clasificadores 4.1 Introducción Clasificar un objeto consiste en asignarlo a una de las clases disponibles. Los
Más detallesRedes de Neuronas Recurrentes Computación con Inspiración Biológica
Redes de Neuronas Recurrentes Computación con Inspiración Biológica Grupo de Computación Evolutiva y Redes Neuronales Departamento de Informática Universidad Carlos III de Madrid Redes Recurrentes Introducción
Más detallesUNIVERSITAT DE JOSÉ LUIS ORTIZ ARCINIEGA
UNIVERSITAT DE JOSÉ LUIS ORTIZ ARCINIEGA Obtener la amplitud real del pulso a partir de las muestras (7) digitales. Actualmente se Utiliza Optimal Filtering corriendo en Procesadores Digitales de Señal
Más detallesREDES NEURONALES ARTIFICIALES EN PREDICCIÓN DE SERIES DE TIEMPO: UNA APLICACIÓN A LA INDUSTRIA
SANTIAGO ZAPATA C. - JULIO VALDES H. Santiago Zapata Cáceres Departamento de Informática y Computación, Facultad de Ingeniería Universidad Tecnológica de Chile szapata@utem.cl Departamento de Informática
Más detallesIntroducción a las Redes Neuronales
Introducción a las Redes Neuronales Perceptrón Simple William Campillay-LLanos williamcampillay@gmail.com https://sites.google.com/site/williamcampillay/home Departamento de Matemática, Física y Estadística.
Más detalles