Redes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Redes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela"

Transcripción

1 Redes Neuronales Artificiales para predicción en series temporales Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela

2 Contenidos 1. Redes Neuronales Artificiales 2. RNA para predicción en series temporales 3. Resultados Experimentales

3 RNA Las redes de neuronas artificiales son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas en una red que colabora para producir un estímulo de salida. Neurona Artificial/EP: Dispositivo que genera una salida única a partir de un conjunto de entradas con pesos asociados.

4 Características 1. Función de transferencia (): Calcula la entrada al EP. Combina valores de pesos y entradas 2. Función de activación (g): Calcula estado de activación de la neurona en función de las entradas y, opcionalmente, del estado de activación actual. 3. Función de salida (a): Genera la salida de la neurona en función del estado de activación. Normalmente, función identidad, a(g(x)) = g(x).

5 Modelo de McCulloch-Pitts Primer modelo de neurona artificial (1943). Entradas (xi) y salida (o) binarias {0, 1}. Función de activación de tipo escalón con umbral, T. Un neurona puede simular cualquier función booleana simple (AND, OR, NOT) fijando pesos y umbrales adecuados.

6 Perceptrón Simple I Modelo de red neuronal propuesto por Rosemblatt (1959) Red monocapa con alimentación hacia adelante. Colección de neuronas similares a McCulloch-Pitts, con entradas continuas [0, 1], umbral Tj y salida bipolar { 1, 1}.

7 Perceptrón Simple II Capaz de aprender a clasificar patrones linealmente separables. Salida +1 si pertenece a la clase, 1 si no pertenece Pesos determinan zonas de clasificación separadas por un hiperplano (en el caso de 2 entradas, la separación será una línea) Ejemplo: con dos entradas: Minsky y Papert (1969) mostraron esta limitación del perceptrón para representar/aprender funciones no separables linealmente (ejemplo: XOR no separable linealmente, necesita mas de 1 capa)

8 Teorema de aproximación universal I Sea ϕ(.) una función continua no constante, acotada y monótonamente. Sea In el hipercubo unitario n-dimensional [0,1]n. Sea C(In) el espacio de funciones continuas definidas en In. Entonces, dada cualquier función g en C(In) y cualquier ε>0, existe un entero h y unos conjuntos de constantes reales αi, θi y wi donde i=1,...,h y j=1,...,n tales que la función f definida por: es una realización aproximada de la función g(.), de tal modo que: para todo (x1,...,xn) en ln.

9 Teorema de aproximación universal II Este teorema puede aplicarse directamente al Perceptrón de n entradas y una salida, con una única capa oculta compuesta por h neuronas de función de activación sigmoidal o hiperbólica (ambas cumplen las condiciones impuestas a ϕ()), y función de activación identidad La Ecuación da la función de transferencia del correspondiente Perceptrón, donde las constantes wij y θi se refieren a los pesos de la capa oculta y las αi a los de la capa de salida.

10 Teorema de aproximación universal III Conclusión: Las Redes Neuronales Artificiales (RNAs) se pueden considerar una familia de aproximación universal (Hornik et al, 1989; Cybenko, 1989), lo cual implica que una red neuronal puede aproximar cualquier función continua hasta cualquier nivel de exactitud.

11 Perceptrones Multicapa Extensión del perceptron simple añade capas adicionales. Capas con interconexión total: entrada, oculta/s, salida.

12 Propagación hacia adelante I Patrones de entrada se presentan en capa de entrada. Se propagan hasta generar salida. Función activación neuronas: sigmoidal. Entradas y salidas continuas [0, 1] Pesos de conexión determinan una función que relaciona entradas con salidas. Sin capa oculta: funciones linealmente separables (perceptron simple) Una capa oculta: resuelve el problema del XOR (regiones triangulares) Dos capas ocultas: resuelve cualquier región poligonal

13 Propagación hacia adelante II Problema del XOR pcp pcp2 0 Regiones triangulares pcp1 pcp3 pcp2 P = P1 P 2 P (1) = P (1) P 2(1) = 1 1 = 1 P (0) = P1(0) P 2(0) = 0 Un pcp con 1 CO resuelve cualquier región plana convexa Un pcp con 2 CO resuelve cualquier región poligonal

14 Retropropagación I Propuesto por Rumelhart (1984). Objetivo: ajustar pesos para reducir el error cuadrático de las salidas (problema de optimización). Funcionamiento aprendizaje: Inicializar pesos aleatoriamente Repetir hasta tener salidas "suficientemente" correctas (EPOCH) Para cada patrón de entrenamiento (E,T) Propagar E por la red para obtener salida actual (O) Comparar con salida deseada (T-O) Actualizar pesos hacia atrás, capa a capa. Exige función de activación (g) continua y derivable. La función sigmoidal se puede derivar de manera eficiente:

15 Retropropagación II (1) Ajuste pesos CAPA SALIDA Nuevos pesos para neurona de salida ok: Idea base: Repartir error obtenido para cada neurona de salida (k) entre los pesos de sus conexiones de forma proporcional a la intensidad de la entrada recibida (hj).

16 Retropropagación III (2) Ajuste pesos CAPA/S OCULTA/S Nuevos pesos para neurona oculta hj: Problema: Cuantificar error en las capas ocultas (j). Idea: Propagar la parte proporcional del error en la capa de salida (k) del cual es responsable cada neurona oculta hj. Estimación del error en neurona oculta hj:

17 Retropropagación IV Aprendizaje retropropag. búsqueda por descenso de gradiente. Espacio de búsqueda = conjunto de posibles valores de pesos Métrica de evaluación = error cuadrático (en función de pesos) En cada ejemplo de entrenamiento: A partir del error calculado se definen los pesos de la nueva red. Se ajustan pesos en la dirección de mayor pendiente. Uso de la derivada g en el ajuste pesos. Objetivo: Minimizar valor de la función de error. En realidad se pretende hacer que su derivada (E (red)) sea 0. Se buscan unos pesos para los que esa función tenga un mínimo (E (pesos) = 0)

18 Convergencia No garantizada convergencia en una red óptima. Problemas con mínimos locales. Funciones separables linealmente sólo tienen un mínimo local se puede asegurar que se encontrará ese único mínimo. Ejemplo: Superficie de error con 2 pesos/entradas.

19 Actualización de Pesos On-line: los parámetros del modelo se ajustan tras cada evaluación de la función de coste. Requiere aleatorización en el orden de las muestras para garantizar la convergencia. Batch: los gradientes se acumulan tras cada evaluación y solo se actualiza el modelo tras procesar toda la muestra. Tarda más en converger.

20 Aprendizaje Supervisado Aprendizaje supervisado En general, no se garantiza convergencia. En la práctica, es posible entrenamiento adecuado para problemas reales. Entrenamiento lento. Puede requerir muchos ciclos de entrenamiento (epoch). Se suele usar: conj. entrenamiento + conj. validación. Verificar si realmente ha aprendido y puede generalizar. Criterios de parada: Número fijo de ciclos de entrenamiento (epochs) Umbral de error sobre conjunto entrenamiento. Umbral de error sobre conjunto de validación.

21 Problemas del Aprendizaje Cuál es la topología de red adecuada?: Pocas neuronas/capas incapaz de aprender función. Muchas neuronas/capas posibilidad de sobreajuste. Además: Qué funciones activación usar?, Cómo codificar entradas/salidas?, etc,... Mala Generalización por Sobre Ajuste: Error pequeño conj. entrenamiento, grande conj. validación. Demasiados ciclos entrenamiento Pérdida capacidad generalización. Red demasiado compleja Se ajusta a cualquier función. Se memorizan patrones, no se generaliza con otros nuevos. Mínimos locales: Si se inicializa la red con diferentes pesos aleatorios se pueden encontrar mínimos mejores.

22 Redes Neuronales Artificiales para predicción de series temporales

23 Tipos de Modelos Paramétricos: ARMA GARCH No Paramétricos: RNA SVM Kernel

24 Características de las RNA utilizadas Familia de Aproximación universal Si se aplican configuraciones especiales: - Se reducen el número de parámetros. - El modelo puede si ser paramétrico. - Mejora el interpretación. Métodos generales de obtención de parámetros mediante optimización (retropropagación).

25 Metodología 1.Transformaciones necesarias para que la serie transformada sea estacionaria. 2.Separar conjunto de test1 y test2. 3.Elegir función de coste y criterio de parada. 4.Elegir topología de la red. 5.Entrenar la red. 6.Calcular el error de predicción en el conjunto de test1. 7.Calcular error honesto mediante el grupo de test2.

26 Formulación de la Predicción El predictor basado en minimización del error cuadrático medio es la media condicional (para ruido y gaussiano): En la práctica lo que se utiliza es la aproximación con número finito de muestras:

27 Predictor para el modelo AR(p) Formulación del modelo: Predictor óptimo (aproximado)

28 FeedForward Network para AR(p)

29 Predictor para el modelo ARMA(p,q) Formulación del modelo: Predictor óptimo (aproximado)

30 Recurrent Neural Network para ARMA(p,q) El aprendizaje on-line ahora tiene mucha más complejidad

31 Predictor para el modelo NAR(p) Formulación del modelo: h es una función continuamente diferenciable Predictor óptimo (aproximado):

32 Predictor para el modelo NAR(p) Aproximación a función h mediante familia de aproximación universal

33 FeedForward Neural Network para NAR(p) Modelos complejos requerirían redes multicapa

34 Configuración de la red neuronal Capa de Presentación: activación lineal Capas ocultas: función sigmoidal: Función de coste: suma de residuos cuadrados: Optimización: descenso por gradiente o método de segundo orden. Sin conexiones directas a la capa de presentación

35 Predictor para el modelo NARMA(p, q) Formulación del modelo: h es una función continuamente diferenciable Predictor óptimo (aproximado):

36 Predictor para el modelo NARMA(p, q) Aproximación a función h mediante familia de aproximación universal

37 Recurrent Neural Network para NARMA(p, q)

38 Fully Recurrent Network

39 Recurrent Neural Network como Fully Recurrent Network Requiere muchos más parámetros

40 Problemas de las RNA aplicadas a predicción I Overfitting (mala generalización): Comparar diferentes modelos: ECM relativo, Indicará que parte de la varianza puede predecir el modelo. 1 indica que el modelo no predice nada.

41 Problemas de las RNA aplicadas a predicción I Overfitting (mala generalización): Añadir penalización por complejidad: se añade a la función de coste: W0 es la escala para los pesos: W0 alto produce muchos pesos pequeños W0 bajo produce pocos pesos grandes Ajustado dinámicamente. Empieza bajo y se incrementa.

42 Problemas de las RNA aplicadas a predicción II Overfitting (mala generalización): Parada Temprana: Usando un conjunto de validación (early test). Mezclas de expertos: se crean variaos subconjuntos aleatorios de la muestra mediante remuestreo. Con cada conjunto se entrena una red. Luego se calcula la predicción en función de las salidas de cada red neuronal.

43 Problemas de las RNA aplicadas a predicción III Parámetros libres Outliers : filtrado Interpretar el modelo: Orden del modelo relacionado con entradas. Valor de Predicción. Intervalo de Confianza mediante bootstrap sobre conjunto de test (late test). Residuo del modelo

44 Resultados Experimentales Experimentos: Resultados y Conclusiones

45 Experimentos 1. Datos simulados AR(1) MA(1) NARMA(1,1) 2. Datos reales Predicción de series de tipo de cambio Predicción de manchas solares

46 Simulación AR(1) Proceso Gaussiano AR(1) I Modelo: Entrenamiento: primeras 500 muestras. Test: muestras. Criterio de parada: validación cruzada.

47 Resultados AR(1) Red p q l M.S.E. Conjunto de entrenamiento M.S.E. Conjunto de Test Feedforward NAR NARMA Recurrente Fully Recurrent

48 Simulación MA(1) Proceso Gaussiano MA(1) Modelo: Test: 500 muestras. Entrenamiento: muestras. Criterio de parada: validación cruzada.

49 Resultados MA(1) Red p q l M.S.E. Conjunto de Entrenamiento M.S.E. Conjunto de Test Feedforward NAR NARMA Recurrente Fully Recurrent

50 Simulación NARMA(1,1) Proceso bilineal NARMA(1,1) Modelo: Entrenamiento: 500 muestras. Test: muestras. Criterio de parada: validación cruzada.

51 Resultados NARMA(1,1) Red p q l M.S.E. Conjunto de Entrenamiento M.S.E. Conjunto de Test Feedforward NAR NARMA Recurrente Fully Recurrent

52 Datos Reales

53 Series de Tipo de Cambio I Serie que se estima: Retornos logarítmicos Para cambios pequeños, el retorno es la diferencia hasta el día anterior normalizada por el precio pt-1

54 Series de Tipo de Cambio II Funciones útiles: Day Trend Volatility Aunque la red neuronal sería capaz de calcular estas funciones se quiere orientar a la red en este sentido.

55 Series de Tipo de Cambio III Arquitectura de la red para la tasa de predicción del tipo de cambio

56 Series de Tipo de Cambio IV Unidades de salida para la tasa de predicción del tipo de cambio. Predict Activation Error Retorno Signo Retorno de los lunes Lineal Probabilidad de Incremento (0,1)-Sigmoidal Error Cuadrático Médio Entropía Cruzada

57 Curvas de aprendizaje para los tipos de cambio

58 Predicción de Manchas Solares: Introducción Mancha solar: región central oscura, llamada "umbra", rodeada por una "penumbra" más clara. Una sola mancha puede llegar a medir hasta km (casi tan grande como el diámetro de la Tierra), pero un grupo de manchas puede alcanzar km de extensión e incluso algunas veces más. Número de manchas = k(10g + f), k = factor de escala g = número de grupos de manchas f = número de manchas individuales Esta serie ha servido como Benchmark (referencia) en la literatura estadística.

59 Predicción de Manchas Solares Predicciones y observaciones de las manchas solares desde 1700 a 1979.

60 Configuración de la Red Activación sigmoidal Una Capa oculta Función de error: Error Cuadrático Medio.

61 Técnicas de parada evaluadas 1. Validación interna 2. Eliminación de Pesos

62 Aprendizaje de las Series Temporales

63 Estacionalidad de la Serie La serie temporal no es estacionaria: cuando pasa el tiempo el modelo cambia. Cuantos más años pasen el error de predicción es mayor.

64 Variando la dimensión de las entradas Se pasa de 1 unidad de entrada a 41. El error se vuelve prácticamente constante al aumentar el número de unidades de entrada. Si el número de entradas excede a las necesarias la red ignora las que sean irrelevantes, por ello el rendimiento no se ve afectado por la dimensión de las entradas (ventaja sobre otros métodos de predicción).

65 Referencias Recurrent Neural Networks and Robust Time Series Prediction, Jerome T.Connot, R. Douglas Martin Predicting Sunspots And Exchange Rates With Connectionist Networks, Andreas S.Weigend Bernardo A.Huberman David E. Rumelhart Predicting Daily Probability Distributions, Andres S.Weigend, Shanming Shi SVM Kernels for Time Series Analysis, Stefan Ruping Neural Networks for Pattern Recognition, Christopher M.Bishop

El Perceptrón Multicapa

El Perceptrón Multicapa El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del

Más detalles

Redes Neuronales Artificiales El Perceptrón

Redes Neuronales Artificiales El Perceptrón 1 Sistemas Expertos e Inteligencia Artificial / Guía IX / Ciclo 01-2018 Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Redes Neuronales Artificiales El

Más detalles

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para

Más detalles

SISTEMAS INTELIGENTES

SISTEMAS INTELIGENTES SISTEMAS INTELIGENTES T10: Redes Neuronales.aic.uniovi.es/ssii Índice Redes Neuronales Artificiales Fundamentos biológicos Perceptrón Funciones de activación Redes de neuronas Entrenamiento: Perceptrón

Más detalles

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es www.robolabo.etsit.upm.es Mapas Predicción Robótica M l M r W ij S S 2 S 3 S 4

Más detalles

Detección Multiusuario para DS-CDMA basado en SVM

Detección Multiusuario para DS-CDMA basado en SVM 9 Otra técnica basada en el aprendizaje y más conocida que la anterior es la basada en. Vamos a realizar una pequeña comparativa teórica de sobre ambas técnicas de clasificación. Estudiaremos los conceptos

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Otra forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

Perceptrones Fernando Berzal,

Perceptrones Fernando Berzal, Fernando Berzal, berzal@acm.org Introducción Redes neuronales artificiales Modelos de redes Modelo de neurona artificial Funciones de activación La neurona de McCulloch y Pitts El algoritmo de aprendizaje

Más detalles

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018 Perceptrón Simple Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA Rosana Matuk Primer Cuatrimestre 2018 Rosana Matuk (DC-FCEyN-UBA) Perceptrón simple Primer Cuatrimestre 2018 1 / 29 Objetivo

Más detalles

Tema 2 Primeros Modelos Computacionales

Tema 2 Primeros Modelos Computacionales Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple

Más detalles

REDES NEURONALES ADAPTABLES

REDES NEURONALES ADAPTABLES REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables

Más detalles

Introducción a Las redes Neuronales (Neurales) CO-6612

Introducción a Las redes Neuronales (Neurales) CO-6612 a Las redes Neuronales (Neurales) CO-6612 Coordenadas iniciales: Prof. Minaya Villasana Oficina: CBI-112 Extension: 906 3386 forma más fácil (preferida) de contacto: mvillasa@usb.ve Bibliografia: Simon

Más detalles

Redes de Neuronas de Base Radial

Redes de Neuronas de Base Radial Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Algoritmo de retropropagación Back propagation Es utilizado para entrenar redes neuronales multicapa. Exige que la función de activación de las neuronas sea derivable y creciente. Las funciones comúnmente

Más detalles

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas

Más detalles

Redes Neuronales Multicapa

Redes Neuronales Multicapa Undécima sesión 16 de abril de 2010 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con

Más detalles

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation

Más detalles

Aprendizaje: Perceptrón multi-capa

Aprendizaje: Perceptrón multi-capa Técnicas de inteligencia artificial Asignatura troncal: 4.5cr, 4ºCurso Ing Inf Aprendizaje: Perceptrón multi-capa 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 1 Indice Regla delta Modelo computacional

Más detalles

Aprendizaje de Sistemas. Redes Neuronales Artificiales

Aprendizaje de Sistemas. Redes Neuronales Artificiales Universidad de Granada E.T.S. Ingeniería Informática Diseño, Análisis y Aplicaciones de Sistemas Inteligentes Aprendizaje de Sistemas Redes Neuronales Artificiales José Manuel Benítez Sánchez J.M.Benitez@decsai.ugr.es

Más detalles

Entrenamiento de redes neuronales Fernando Berzal,

Entrenamiento de redes neuronales Fernando Berzal, Entrenamiento de redes neuronales Fernando Berzal, berzal@acm.org Entrenamiento de redes neuronales Modos de entrenamiento Preprocesamiento de los datos Funciones de activación Inicialización de los pesos

Más detalles

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa. TLU(s) MULTICAPAS Se pueden implementar funciones en TLU con más de una capa 1 05 2 15 2 3 z 3 15 2 4 05 No eisten, en la actualidad, mecanismos de entrenamiento que permita conocer los pesos sinápticos

Más detalles

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo

Más detalles

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Redes Neuronales Introducción José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Indice Motivación Arquitectura Leyes de Aprendizae Aplicaciones DILEMA MEMORIA CALCULO Aritmética

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas

Más detalles

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga

Más detalles

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar

Más detalles

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como

Más detalles

Introducción a las Redes de Neuronas

Introducción a las Redes de Neuronas OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 1 Introducción a las Redes de Neuronas Introducción a las Redes de Neuronas 1 Introducción a las Redes de Neuronas Introducción

Más detalles

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S. Redes Neuronales Elementos básicos de las redes neuronales carlos.andres.delgado@correounivalle.edu.co Carlos Andrés Delgado S. Facultad de Ingeniería. Universidad del Valle Agosto de 2017 Contenido 1

Más detalles

Tema: Aprendizaje Supervisado.

Tema: Aprendizaje Supervisado. Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos

Más detalles

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software Inteligencia Artificial (Curso 0-0) Grado en Ingeniería Informática - Ingeniería del Software Redes neuronales Cuestión : Decir si las siguientes afirmaciones son verdaderas o falsas: Si tomamos la función

Más detalles

CAPÍTULO 3: REDES NEURONALES RECURRENTES

CAPÍTULO 3: REDES NEURONALES RECURRENTES Capítulo 3 Redes Neuronales Recurrentes 15 CAPÍTULO 3: REDES NEURONALES RECURRENTES En este capítulo se describen las principales características y elementos de tres tipos de redes neuronales: feedforward,

Más detalles

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,

Más detalles

Redes Neuronales Multicapa

Redes Neuronales Multicapa 4 de abril de 2011 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con hiperplanos Dos

Más detalles

OTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales

OTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales OTRAS CONSIDERACIONES! Estrategias para generalización Existen diversas estrategias para mejorar la generalización: 1) Teoría de Regularización: Agregar una penalidad para lograr mejorar la forma de la

Más detalles

Redes neuronales con funciones de base radial

Redes neuronales con funciones de base radial Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura

Más detalles

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura

Más detalles

Tema 8: Redes Neuronales

Tema 8: Redes Neuronales Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/

Más detalles

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -

Más detalles

Introducción a las Redes Neuronales mediante el paquete neuralnet

Introducción a las Redes Neuronales mediante el paquete neuralnet Introducción a las Redes Neuronales mediante el paquete neuralnet El paquete neuralnet es un paquete de muy sencilla utilización que permite la aplicación, visulaización e implementación de redes neuronales.

Más detalles

Cristián Bravo R.

Cristián Bravo R. Cristián Bravo R. cbravo@dii.uchile.cl Banco de Crédito e Inversiones 2 al 5 de Julio, 2011 1 Preparación de datos para generación de scorecards. Selección de Variables. Transformaciones Notables. Segmentación

Más detalles

EL PERCEPTRON MULTICAPA (MLP) 6

EL PERCEPTRON MULTICAPA (MLP) 6 Otra diferencia fundamental de la adaline con respecto del asociador lineal y el perceptrón simple radica en la regla de aprendizaje. En la adaline se utiliza la regla de Widrow Holf, también conocida

Más detalles

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES 1. Concepto de red neuronal artificial Una red neuronal artificial (RNA) es un modelo matemático que intenta reproducir el modo de funcionamiento y

Más detalles

Tema 6. Reconocimiento de voz

Tema 6. Reconocimiento de voz Tema 6. Reconocimiento de voz 6.1.- Introducción 6.2.- Problemática 6.3.- Clasificación 6.4.- Esquema de trabajo 6.5.- Técnicas de reconocimiento 6.6.- Conclusiones 6.1.- Introducción Reconocimiento de

Más detalles

LIM. Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales. Trabajo final de grado

LIM. Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales. Trabajo final de grado Trabajo final de grado Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales Autor Alfonso Ramón Varela Olmedo Tutores Miguel Ángel Naya Villaverde Emilio Sanjurjo

Más detalles

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA 32 III. REDES NEURONALES ARTIFICIALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III.1 CONCEPTOS GENERALES En sus orígenes las Redes Neuronales

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

REDES NEURONALES INTELIGENCIA ARTIFICIAL II

REDES NEURONALES INTELIGENCIA ARTIFICIAL II REDES NEURONALES INTELIGENCIA ARTIFICIAL II REDES NEURONALES El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El ordenador y el hombre realizan bien diferentes clases de tareas;

Más detalles

Perceptron multicapa. Capítulo Introducción

Perceptron multicapa. Capítulo Introducción Capítulo 3 Perceptron multicapa 3.1. Introducción En este capítulo se estudiará una de las clases de redes de neuronas, conocida como Perceptron multicapa o red multicapa con conexiones hacia adelante.

Más detalles

CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell

CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Backpropagation Cap 20.5 Russel & Norvig Cap 4 Mitchell Universidad Simón Boĺıvar 8 de Octubre de 2008 Redes Multicapas de Unidades Sigmoidales

Más detalles

Conceptos básicos V:

Conceptos básicos V: C261-69 69 Tópicos Avanzados: Redes Neuronales Artificiales Conceptos básicos Dra. Ma. del Pilar Gómez Gil Primavera 2009 pgomez@acm.org V:13-01-09 Modelo Básico y Abstracto de un Neurón Artificial x 0

Más detalles

Redes neuronales en control de sistemas

Redes neuronales en control de sistemas Redes neuronales en control de sistemas Marco Teórico Las redes neuronales tratan de emular ciertas características propias de los humanos, una muy importante es la experiencia. El ser humano es capaz

Más detalles

Métodos de modelado y clasificación de patrones. clasificación de patrones

Métodos de modelado y clasificación de patrones. clasificación de patrones FUNDAMENTOS DEL RECONOCIMIENTO AUTOMÁTICO DE LA VOZ Métodos de modelado y clasificación de patrones Agustín Álvarez Marquina Introducción. Modelado y clasificación de patrones Objetivos: Agrupar el conjunto

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Red de Hopfield Almacenar un conjunto de p patrones de forma tal que cuando se presente un nuevo patrón, la red responda produciendo alguno de los patrones previamente almacenados que más se parezca al

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Alejandro Osses Vecchi 11 de julio de 2009 1. Introducción Comenzaremos con una definición simple y general de Red Neuronal para, en las próximas secciones, explicar y profundizar

Más detalles

Perceptrón simple y perceptrón multicapa

Perceptrón simple y perceptrón multicapa UNL - FICH - Departamento de Informática - Ingeniería Informática Inteligencia Computacional Guía de trabajos prácticos Perceptrón simple y perceptrón multicapa. Objetivos Aplicar diferentes arquitecturas

Más detalles

Métodos de Aprendizaje en Redes Neuronales

Métodos de Aprendizaje en Redes Neuronales 11 de abril de 2011 Entrenamiento de redes feedforward (Backpropagation) Siendo {z m, t m } m=1...n un conjunto de n patrones de entrenamiento, con z m las entradas conocidas para el m ésimo patrón y

Más detalles

Inteligencia Artificial II

Inteligencia Artificial II Inteligencia Artificial II Introducción a Redes Neuronales D. Balbontín Noval Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial II - Tema 4 p. 1/43

Más detalles

TEMA 6 Redes de Neuronas Artificiales

TEMA 6 Redes de Neuronas Artificiales TEMA 6 Redes de Neuronas Artificiales Francisco José Ribadas Pena INTELIGENCIA ARTIFICIAL 5 o Informática ribadas@uvigo.es 29 de noviembre de 2005 c 2005 ccia ia 6.1 Introducción Objetivo: Usar los principios

Más detalles

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias CAPÍTULO 3 REDES NEURONALES ARTIFICIALES 3.1 Introducción Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias décadas de investigaciones desarrolladas en torno

Más detalles

Elementos de máquinas de vectores de soporte

Elementos de máquinas de vectores de soporte Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos

Más detalles

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en: Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de

Más detalles

Inteligencia Artificial II

Inteligencia Artificial II Inteligencia Artificial II Introducción a Redes Neuronales Delia Balbontín Noval Francisco Jesús Martín Mateos José Luis Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad

Más detalles

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías

Más detalles

Relación 7 - Redes neuronales

Relación 7 - Redes neuronales Sistemas Inteligentes 0-0 Relación - Redes neuronales Problemas Ejercicio. Explicar cómo se usaría una red neuronal para obtener un reconocedor de letras escritas a mano. Describir con precisión qué estructura

Más detalles

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5 Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función

Más detalles

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón. REDES NEURONALES Las redes neuronales constituyen una poderosa herramienta para modelar sistemas, especialmente no lineales, sean dinámicos o estáticos. En el cuerpo celular se realizan la mayoría de las

Más detalles

Introducción a las Redes Neuronales Articiales

Introducción a las Redes Neuronales Articiales Inteligencia Humana como Inspiración Novena Sesión 24 de marzo de 2010 Inteligencia Humana como Inspiración Inteligencia Humana como Inspiración Sistema Nervioso Humano Características: Complejo No Lineal

Más detalles

Tema 5: Introducción a las redes neuronales

Tema 5: Introducción a las redes neuronales Tema 5: Introducción a las redes neuronales F. J. Martín Mateos, J. L. Ruiz Reina et al. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla nteligencia Artificial IA 2017

Más detalles

Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano

Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Anita Alegre López 1, Sonia Mariño 1, David La Red 1 1 Dpto. Informática. Universidad Nacional del Nordeste.

Más detalles

INDICE. Procedimiento 4. Mutación Paramétrica. 8

INDICE. Procedimiento 4. Mutación Paramétrica. 8 INDICE Introducción. 3 Objetivo 4 Procedimiento 4 Algoritmo Principal. 6 Inicialización de la Población 6 Función de Aptitud.. 7 Selección de la Nueva Población. 7 Mutación Estructural 8 Mutación Paramétrica.

Más detalles

Tema 9: Introducción a las redes neuronales

Tema 9: Introducción a las redes neuronales D. Balbontín Noval F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Neuronas artificiales: inspiración biológica El aprendizaje en

Más detalles

Examen de Septiembre de TACCIII y TAI (Modelo 2)

Examen de Septiembre de TACCIII y TAI (Modelo 2) Examen de Septiembre de TACCIII y TAI (Modelo 2) 12 de septiembre de 2008 1. La desordenación de la base de datos puede influir en el resultado obtenido mediante a) clasificación por distancia a las medias

Más detalles

BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES

BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES Paul Acquatella B. Universidad Simón Bolívar, Valle de Sartenejas, Caracas, Venezuela. acquatella@usb.ve Resumen Este trabajo presenta

Más detalles

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo 2012 Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo Iván López Espejo 22/04/2012 2 Aprendizaje para Clasificación con Factorización Matricial Basado

Más detalles

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB MARIA ISABEL ACOSTA BUITRAGO CAMILO ALFONSO ZULUAGA MUÑOZ UNIVERSIDAD TECNOLOGICA DE PEREIRA FACULTAD

Más detalles

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Tema: Perceptron Parte I Profesor: Víctor Tomás T. Mariano. Alumnos: Leticia Hernández Hernández Agustín Hernández Espinoza

Más detalles

Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales

Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales SRP Carlos Carrascosa Casamayor Vicente J. Julián Inglada Tema 3: Ðreas de La IA: Ejemplos de Investigaci n Actual (II) Redes

Más detalles

INTRODUCTION TO MACHINE LEARNING ISABELLE GUYON

INTRODUCTION TO MACHINE LEARNING ISABELLE GUYON INTRODUCTION TO MACHINE LEARNING ISABELLE GUYON 2008-02-31 Notas tomadas por: María Eugenia Rojas Qué es Machine Learning? El proceso de aprendizaje de maquina consiste en tener una gran base de datos

Más detalles

Series Temporales. Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, Leganés (Madrid)

Series Temporales. Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, Leganés (Madrid) Series Temporales Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, 30. 28911 Leganés (Madrid) Series Temporales Introducción Problema de predicción Modelos neuronales

Más detalles

CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN

CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN PERCEPTRÓN MULTICAPA EN MATLAB 4.1 Matlab Matlab ha demostrado ser un programa de desarrollo muy completo en distintas áreas, más que nada

Más detalles

Introducción a las Redes Neuronales

Introducción a las Redes Neuronales Introducción a las Redes Neuronales Excepto en las tareas basadas en el cálculo aritmético simple, actualmente, el cerebro humano es superior a cualquier computador: Reconocimiento de imágenes, Interpretación

Más detalles

Redes neuronales. Un recorrido por su matemática, arquitectura y aprendizaje. Eduardo Paluzo Hidalgo. 30 de enero de Universidad de Sevilla

Redes neuronales. Un recorrido por su matemática, arquitectura y aprendizaje. Eduardo Paluzo Hidalgo. 30 de enero de Universidad de Sevilla Redes neuronales Un recorrido por su matemática, arquitectura y aprendizaje. Eduardo Paluzo Hidalgo Universidad de Sevilla 30 de enero de 2018 Tabla de contenidos Introducción Inspiración biológica Funcionamiento

Más detalles

Self Organizing Maps. Self Organizing Maps. SOM/KOHONEN Network Mapas Auto-organizativos. Estructura de la Red. Estructura de la Red

Self Organizing Maps. Self Organizing Maps. SOM/KOHONEN Network Mapas Auto-organizativos. Estructura de la Red. Estructura de la Red SOM/KOHONEN Network Mapas Auto-organizativos Capitulo 6 Análisis Inteligente de datos Self Organizing Maps La red SOM es creada por Teuvo Kohonen en la década de los 8, rápidamente paso a ser una de las

Más detalles

Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales

Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Abstract Este trabajo tiene como objetivo analizar, experimentar y comprender el funcionamiento y las características de los Sistemas

Más detalles

CRITERIOS DE SELECCIÓN DE MODELOS

CRITERIOS DE SELECCIÓN DE MODELOS Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,

Más detalles

4 Teoría de clasificadores

4 Teoría de clasificadores Reconocimiento de señales de tráfico para un sistema de ayuda a la conducción 4 Teoría de clasificadores 4.1 Introducción Clasificar un objeto consiste en asignarlo a una de las clases disponibles. Los

Más detalles

Redes de Neuronas Recurrentes Computación con Inspiración Biológica

Redes de Neuronas Recurrentes Computación con Inspiración Biológica Redes de Neuronas Recurrentes Computación con Inspiración Biológica Grupo de Computación Evolutiva y Redes Neuronales Departamento de Informática Universidad Carlos III de Madrid Redes Recurrentes Introducción

Más detalles

UNIVERSITAT DE JOSÉ LUIS ORTIZ ARCINIEGA

UNIVERSITAT DE JOSÉ LUIS ORTIZ ARCINIEGA UNIVERSITAT DE JOSÉ LUIS ORTIZ ARCINIEGA Obtener la amplitud real del pulso a partir de las muestras (7) digitales. Actualmente se Utiliza Optimal Filtering corriendo en Procesadores Digitales de Señal

Más detalles

REDES NEURONALES ARTIFICIALES EN PREDICCIÓN DE SERIES DE TIEMPO: UNA APLICACIÓN A LA INDUSTRIA

REDES NEURONALES ARTIFICIALES EN PREDICCIÓN DE SERIES DE TIEMPO: UNA APLICACIÓN A LA INDUSTRIA SANTIAGO ZAPATA C. - JULIO VALDES H. Santiago Zapata Cáceres Departamento de Informática y Computación, Facultad de Ingeniería Universidad Tecnológica de Chile szapata@utem.cl Departamento de Informática

Más detalles

Introducción a las Redes Neuronales

Introducción a las Redes Neuronales Introducción a las Redes Neuronales Perceptrón Simple William Campillay-LLanos williamcampillay@gmail.com https://sites.google.com/site/williamcampillay/home Departamento de Matemática, Física y Estadística.

Más detalles