Redes neuronales dinámicas

Documentos relacionados
Redes Neuronales Artificiales

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

Redes de Neuronas Recurrentes Computación con Inspiración Biológica

Tema 7 Redes Neuronales Recurrentes

Redes neuronales con funciones de base radial

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Tema 6: Redes de Neuronas Recurrentes

Profesor: Leonardo Franco Despacho Web:

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla

Redes Neuronales Recurrentes

Introducción a las Redes de Neuronas

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.

Redes Neuronales Multicapa

Tema 8: Redes Neuronales

Introducción a las Redes Neuronales

UNIVERSIDAD DE GUADALAJARA

Redes Neuronales Multicapa

INVESTIGACIÓN OPERATIVA Redes Neuronales Artificiales y Aplicaciones INTEGRANTES: Armijos Mauricio Jara Iza Rony

Redes Neuronales Artificiales

Area Académica: ICBI, Sistemas Computacionales. Tema: Aprendizaje No Supervisado (Aprendizaje Asociativo)

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

Introducción a las Redes Neuronales Articiales

Neuronas Artificiales

Métodos de Aprendizaje en Redes Neuronales

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.

Perceptrón simple y perceptrón multicapa

Redes Neuronales Artificiales

Redes Neuronales Artificiales

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

REDES NEURONALES ADAPTABLES

Métodos de modelado y clasificación de patrones. clasificación de patrones

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

Tema: Red Neuronal Hopfield. Reconocimiento de Patrones.

REDES NEURONALES. IAM01 o IAMO2. INGENIERÍA Programa(s) DES: Ingeniería Educativo(s): Matemática Tipo de materia:

Redes Neuronales. Introducción a las redes neuronales Carlos Andrés Delgado S.

Memorias Asociativas Borrosas (FAM)

Introducción a las Redes de Neuronas

El Perceptrón Multicapa

Redes Neuronales Artificiales

CAPÍTULO 3: REDES NEURONALES RECURRENTES

Deep Learning Seminario Minería de Datos

Tema 2 Primeros Modelos Computacionales

CRITERIOS DE SELECCIÓN DE MODELOS

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Carrera de Posgrado: Doctorado en Ingeniería Curso: TÓPICOS SELECTOS EN APRENDIZAJE MAQUINAL Año Académico: 2012

Series Temporales. Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, Leganés (Madrid)

Lección 6 Redes Neuronales Artificiales Curso Básico

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Redes de Neuronas de Base Radial

Aprendizaje Automatizado. Redes Neuronales Artificiales

Línea de Especialización Inteligencia Computacional y Robótica

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en


Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

LOS SISTEMAS ADAPTATIVOS

Aprendizaje: Perceptrón multi-capa

Computación Evolutiva Algoritmos Genéticos

teóricos: 3/2 prácticos: 1.5/1.5 CURSO: 3º CUATRIMESTRE: 2º CICLO: 1º

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales. Tema: Introducción a las Redes Neuronales

Resumen. Este trabajo se divide principalmente en 2 partes:

TÉCNICAS DE AGRUPAMIENTO

INTELIGENCIA ARTIFICIAL I

Redes neuronales en control de sistemas

Entrenamiento de una red neuronal en LabVIEW para la identificación en línea de un sistema dinámico

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software

ÍNDICE. Índice de figuras Índice de tablas INTRODUCCIÓN OBJETIVOS DEL PROYECTO... 21

Orden de las clases...

Procesamiento Digital de Imágenes. Pablo Roncagliolo B. Nº 20

Universidad de Costa Rica Facultad de Ingeniería Escuela de Ciencias de la Computación e Informática Licenciatura en Computación e Informática

Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano

Objeto de Estudio 4 Redes Neurales. Rafael Vazquez Perez

Inteligencia Artificial II

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V

Redes neuronales. Conceptos fundamentales y modelos

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias

Unidad VII Redes Neuronales

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones

Secretaría de Docencia Dirección de Estudios Profesionales

Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales

Asignatura: MODELOS COMPUTACIONALES. Horario Clases: Martes y Jueves 17:30-19:30 Aula: 3.05

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

5.- Diseña un Perceptrón simple con una capa intermedia (oculta) de unidades de proceso bipolares que implemente la función lógica XOR. 6.

Carrera de Posgrado: Doctorado en Ingeniería Curso: TÓPICOS SELECTOS EN APRENDIZAJE MAQUINAL Año Académico: 2018

Redes de Neuronas Artificiales

Sistemas Electrónicos Avanzados

DISEÑO EXPERIMENTAL Y OPTIMIZACIÓN DE SISTEMAS CON MÚLTIPLES RESPUESTAS

Introducción a las Redes Neuronales

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento

Conceptos básicos V:

Aprendizaje no supervisado

Redes Neuronales Artificiales

ESTIMACIÓN DE COSTOS PARA LA FABRICACIÓN DE TUBERÍAS, UTILIZANDO REDES NEURONALES POLINOMIALES CON ALGORITMOS GENÉTICOS

REDES NEURONALES INTELIGENCIA ARTIFICIAL II

Inteligencia de enjambres

3 Procesos de aprendizaje

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE

CAPÍTULO 2 MARCO TEÓRICO

Transcripción:

Redes neuronales dinámicas Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Organización Introducción: 3 dinámicas simples Clasificación Redes de Hopfield Arquitectura Entrenamiento Prueba Retropropagación a través del tiempo Redes parcialmente recurrentes

Introducción Por qué dinámicas?

Introducción Por qué dinámicas? Aproximación 1: entradas desplazadas

Introducción Por qué dinámicas? Aproximación 1: entradas desplazadas Aproximación 2: realimentación de las salidas

Introducción Por qué dinámicas? Aproximación 1: entradas desplazadas Aproximación 2: realimentación de las salidas Aproximación 3: realimentación de estados internos

Introducción Por qué dinámicas? Aproximación 1: entradas desplazadas Aproximación 2: realimentación de las salidas Aproximación 3: realimentación de estados internos Caso general: y(n) = f (x(n), z (n), y (n))

Clasificación Redes neuronales dinámicas (DNN) Redes con retardos en el tiempo (TDNN)

Clasificación Redes neuronales dinámicas (DNN) Redes con retardos en el tiempo (TDNN) Redes recurrentes (RNN) Redes totalmente recurrentes Redes parcialmente recurrentes (PRNN)

Clasificación Redes neuronales dinámicas (DNN) Redes con retardos en el tiempo (TDNN) Redes recurrentes (RNN) Redes totalmente recurrentes Redes de Hopfield (memorias asociativas) Redes de Boltzman (supervisadas) Teoría de la resonancia adaptativa (ART) Redes parcialmente recurrentes (PRNN)

Clasificación Redes neuronales dinámicas (DNN) Redes con retardos en el tiempo (TDNN) Redes recurrentes (RNN) Redes totalmente recurrentes Redes de Hopfield (memorias asociativas) Redes de Boltzman (supervisadas) Teoría de la resonancia adaptativa (ART) Redes parcialmente recurrentes (PRNN) Retropropagación a través del tiempo (BPTT) Redes de Elman Redes de Jordan

Redes de Hopfield Arquitectura

Redes de Hopfield Arquitectura Modelo matemático: ( N ) x > 0 +1 y j (n) = sgn(x) = sgn w ji y i (n 1) θ j x = 0 y j (n 1) i=1 x < 0 1 w ji = w ij i j w ii = 0 i

Redes de Hopfield: generalidades Cada neurona tiene un disparo probabilístico Conexiones simétricas

Redes de Hopfield: generalidades Cada neurona tiene un disparo probabilístico Conexiones simétricas El entrenamiento es no-supervisado

Redes de Hopfield: generalidades Cada neurona tiene un disparo probabilístico Conexiones simétricas El entrenamiento es no-supervisado Puede utilizarse como memoria asociativa

Redes de Hopfield: generalidades Cada neurona tiene un disparo probabilístico Conexiones simétricas El entrenamiento es no-supervisado Puede utilizarse como memoria asociativa Cada patrón es un valle de energía Se busca el valle iterativamente a partir de ciertas condiciones iniciales (patrones sucios o incompletos)

Entrenamiento (almacenamiento) Dado un conjunto de patrones (memorias fundamentales o datos limpios): X = { x k RN}

Entrenamiento (almacenamiento) Dado un conjunto de patrones (memorias fundamentales o datos limpios): X = { x k RN} Aprendizaje Hebbiano: P w ji = 1 N k=1 x kjx ki

Entrenamiento: observaciones El proceso de entrenamiento NO es iterativo

Entrenamiento: observaciones El proceso de entrenamiento NO es iterativo w ji es mayor cuando las neuronas i y j se tienen que activar juntas (regla de Hebb)

Entrenamiento: observaciones El proceso de entrenamiento NO es iterativo w ji es mayor cuando las neuronas i y j se tienen que activar juntas (regla de Hebb) La capacidad de almacenamiento está limitada a: con un 1 % de error. P max = N 2 ln(n)

Prueba (recuperación) Dado un patrón x (incompleto, ruidoso...) se fuerza: y(0) = x

Prueba (recuperación) Dado un patrón x (incompleto, ruidoso...) se fuerza: y(0) = x Iteración: 1. j = rnd(n) ( N ) 2. y j (n) = sgn w ji y i (n 1) i=1 3. volver a 1 hasta no observar cambios en las y j

Prueba: observaciones El proceso de recuperación ES iterativo (dinámico)

Prueba: observaciones El proceso de recuperación ES iterativo (dinámico) En general no se utilizan los θ j

Prueba: observaciones El proceso de recuperación ES iterativo (dinámico) En general no se utilizan los θ j La salida final es y(m) cuando no hay cambios al recorrer todas las salidas

Prueba: observaciones El proceso de recuperación ES iterativo (dinámico) En general no se utilizan los θ j La salida final es y(m) cuando no hay cambios al recorrer todas las salidas Se pueden obtener estados espúreos y oscilaciones...

Campos energéticos de Hopfield Almacenamiento Recuperación

Retropropagación a través del tiempo (BPTT) Arquitectura con recurrencia total

Retropropagación a través del tiempo (BPTT) Arquitectura con recurrencia total Expansión en red de propagación hacia adelante pura

Retropropagación a través del tiempo (BPTT) Arquitectura con recurrencia total Expansión en red de propagación hacia adelante pura Método de truncado (recurrencia parcial)

Otras redes que modelan dinámicas temporales Redes neuronales con retardos en el tiempo (TDNN) Arquitectura y entrenamiento

Otras redes que modelan dinámicas temporales Redes neuronales con retardos en el tiempo (TDNN) Arquitectura y entrenamiento Arquitecturas neuronales de Elman y Jordan Elman

Otras redes que modelan dinámicas temporales Redes neuronales con retardos en el tiempo (TDNN) Arquitectura y entrenamiento Arquitecturas neuronales de Elman y Jordan Jordan

Otras redes que modelan dinámicas temporales Redes neuronales con retardos en el tiempo (TDNN) Arquitectura y entrenamiento Arquitecturas neuronales de Elman y Jordan Otras más: redes pulsadas con sinápsis dinámicas, máquinas de estado líquido... etc.