Red Neuronal Artificial

Documentos relacionados
Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

REDES NEURONALES ADAPTABLES

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Redes neuronales con funciones de base radial

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

Tema 8: Redes Neuronales

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

APLICACIÓN DE REDES NEURONALES PARA LA PREDICCIÓN DE PROPIEDADES TERMODINÁMICAS

Neural Network Toolbox

ANEXO A DESCRIPCIÓN DE LAS FUNCIONES UTILIZADAS EN MATLAB

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

Elementos de máquinas de vectores de soporte

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA

Redes Neuronales Artificiales

Tema 2 Primeros Modelos Computacionales

PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA ESCUELA DE SISTEMAS

Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales

Introducción a las Redes Neuronales

Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso

CONTROL INTELIGENTE NRC: 2033

Aux 6. Introducción a la Minería de Datos

PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ.

LAS REDES NEURONALES ARTIFICIALES EN LAS FINANZAS

CRITERIOS DE SELECCIÓN DE MODELOS

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)

Introducción a las Redes de Neuronas

Estabilización Inteligente de Sistemas Eléctricos de Potencia (Parte II)

Inteligencia Artificial

UNIVERSIDAD NACIONAL DE INGENIERÍA

Aprendizaje Automatizado

CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS

Aprendizaje Automatizado. Redes Neuronales Artificiales

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales

Tema 9: Introducción a las redes neuronales

Práctica 10. Redes Neuronales

Redes neuronales en control de sistemas

Neural Network Toolbox

CLASIFICACIÓN DE IMÁGENES DE SATÉLITE MEDIANTE AUTÓMATAS CELULARES

Fuzzification. M.C. Ana Cristina Palacios García

Contenido Capítulo 1 Introducción Capítulo 2 Conceptos Básicos Capítulo 3 Procesamiento de Imágenes en el Dominio Espacial

Práctica 5: Clasificación con número variable de ejemplos.

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales. Tema: Introducción a las Redes Neuronales

Aplicación de diferentes arquitecturas de RNA sobre datos de paquetes de red en Matlab con y sin reducción de características.

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION

Apuntes de Inteligencia Artificial

Redes de Neuronas de Base Radial

Redes Neuronales Artificiales

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60

Series Temporales. Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, Leganés (Madrid)

DISEÑO Y CONSTRUCCIÓN DE UN ROBOT CARTESIANO DE 3 GRADOS DE LIBERTAD

PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES

MODELADO MATEMATICO PARA ISOTERMAS DE ADSORCION EN ALIMENTOS USANDO REDES NEURONALES ARTIFICIALES

Tema: Aprendizaje Supervisado.

METODO SIMPLEX. Paso 1 Se convierte el modelo matemático de Programación Lineal (PL) a su forma estándar.

Self Organizing Maps. Self Organizing Maps. SOM/KOHONEN Network Mapas Auto-organizativos. Estructura de la Red. Estructura de la Red

Redes Neuronales Artificiales

COMPARACIÓN ENTRE TÉCNICAS DE CONTROL PREDICTIVO NO LINEAL APLICADAS AL CONTROL DE UN GASIFICADOR

Bloque temático: Sistemas de Reconocimiento de Patrones

Redes Neuronales. Parte I. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Clasificación de Datos de Olor de Café provenientes de una Nariz Electrónica Utilizando Redes Neuronales

License Plate Detection using Neural Networks

Aplicación Java para distribución de código en R

e-ciencia, Minería de Datos y Astrofísica Descubrimiento de Conocimiento en la era de los grandes surveys

PREDICCION DE CAUDALES DE RIOS APLICANDO EL MODELO NEURODIFUSO ANFIS Y REDES NEURONALES.

Inteligencia Artificial para desarrolladores Conceptos e implementación en C#

ICA, modelos activos, PCA, redes neuronales, robots de interacción social.

Inteligencia Artificial

Neural Network Toolbox de MATLAB

Figura 1. a) Matriz de pesos sinápticos. b) Imagen de la matriz.

COMPUTACION INTELIGENTE (PRIMERA PARTE: INTRODUCCION)

Tema 7 Redes Neuronales Recurrentes

Sistema experto para el diagnóstico de enfermedades infecciosas del ganado vacuno

Transcripción:

índice RN Supervisadas - Introducción - El Perceptrón y la estructura multicapa MLP - El aprendizaje retropropagado: BP - Aplicaciones y ejemplos - Características y limitaciones P Campoy 1 Red Neuronal Artificial Red de unidades simples, adaptativas e interconectadas entre sí, con capacidad de procesamiento en paralelo, cuyo objetivo es interactuar con su entorno de forma similar a las redes neuronales naturales x n P Campoy w 1 w n y = σ ( x i w i - w n+1 ) y z x w j ji i wkj W n+1 x I y 1 y k y K 2

Funcionamiento del Perceptrón w 1 w n W 0 y w x x n y = σ ( x i w i - w 0 ) = σ(a) espacio de características P Campoy 3 El perceptrón ante fronteras interclase no lineales característica 1 función XOR característica 2 P Campoy 4

Perceptrón Multicapa (MLP) característica 1 z 3 característica 2 z 1 y z 2 z 1 z 2 y x 2 z 3 P Campoy 5 Consideraciones matemáticas sobre el MLP Un MLP de dos capas puede representar cualquier función lógica con frontera convexa Un MLP de tres capas puede representar cualquier función lógica con frontera arbitraria Un MLP de dos capas puede aproximar cualquier función continua con una precisión arbitraria P Campoy 6

índice RN Supervisadas - Introducción - El Perceptrón y la estructura multicapa MLP - El aprendizaje retropropagado: algoritmo BP - Aplicaciones y ejemplos - Características y limitaciones P Campoy 7 Metodología: Niveles de aprendizaje Elección del modelo (manual) Determinación de la estructura interna (manual/automático) muestras entrenamiento Ajuste de parámetros (automático) modelo P Campoy 8

Esquema de funcionamiento: aprendizaje supervisado Concepto aprendizaje supervisado longitud? Estructura de funcionamiento supervisado x n y 1 y m área Espacio de características y d1 + - y dm P Campoy Generalización de funciones de R n R m 9 Aprendizaje: Algoritmo de Retro-propagación E = 1/2 ( y k n - y dk n ) 2 = 1/2 ( y(w kj, w ji, x i ) n - y dk n ) 2 E = (y k - y dk )z w j kj k k x i x I w ji z j wkj y 1 y k y K P Campoy 10

índice RN Supervisadas - Introducción - El Perceptrón y la estructura multicapa MLP - El aprendizaje retropropagado: algoritmo BP - Aplicaciones y ejemplos - Características y Limitaciones P Campoy 11 Ejemplos MLP: Generalizador de Funciones P Campoy 12

Ejemplos MLP: Generalizador de Funciones % datos de entrenamiento xe=linspace(0,2*pi,50); for i=1:numap yd(i)=sin(xe(i))+normrnd(0,01); end % datos de test numtest=500; xt=linspace(0,2*pi,numtest); yt=sin(xt); %creacion MLP net = newff(minmax(xe),[10 1],{'tansig' 'purelin'},'trainlm'); % entrenamiento MLP [net,tr]=train(net,xe,yd); %respuesta anst=sim(net,xt); errortest=mse(yt-anst) P Campoy 13 Ejercicio de MLP como Generalizador de Funciones Teniendo como datos de aprendizaje: yd(i)=sin(xe(i))+normrnd(0,01); Estudiar la influencia sobre el resultado (gráfico y cuantificación de los errores de test y de aprendizaje) de los siguientes factores: 1 número de muestras de aprendizaje 2 orden de las muestras de aprendizaje 3 número de neuronas utilizadas 4 número de épocas de aprendizaje P Campoy 14

Otros ejemplos MLP: Generalizador de funciones: - Ej: 2 y 1 = 2 x 2 + x 3 y 2 = x 2 2 x 3 Estudiar esta generalización en función del número de neuronas y del número de muestras P Campoy 15 MLP como clasificador - La función de salida es un discriminante binario: load datos2d_clasificadosen2mat pvalor tvalor P Campoy 16

Ejercicio de MLP como clasificador Teniendo como datos de aprendizaje del ejemplo anterior Estudiar la influencia sobre el resultado (gráfico y cuantificación de los errores de test y de aprendizaje) de los siguientes factores: 1 número de muestras de aprendizaje 2 orden de las muestras de aprendizaje 3 número de neuronas utilizadas 4 número de épocas de aprendizaje P Campoy 17 MLP para reducción dimensional no lineal: auto-encoder La función de salida es la propia entrada y existe una capa intermedia con menos neuronas que la dim(x) x i x d w ji zj wkj z j w kj x i x d P Campoy 18

Ejemplo MLP para compresión original PCA 5 PCA 25 - MLP 5 P Campoy 19 Ejemplo MLP para síntesis 1 D (prueba 1) 1 D (prueba 2) 1 D (prueba 3) escalonado P Campoy 20

codigo Matlab del autoencoder % Procesamiento con una MLP para compresioón (salida=entrada) net=newff(minmax(p_entr),[floor((dim+ndimred)/2),ndimred,floor((di m+ndimred)/2),dim],{'tansig' 'purelin' 'tansig' 'purelin'}, 'trainlm'); [net,tr]=train(net,p_entr,p_entr); % Creación de una red mitad de la anterior que comprime los datos netcompr=newff(minmax(p_entr),[floor((dim+ndimred)/2), ndimred],{'tansig' 'purelin'},'trainlm'); netcompriw{1}=netiw{1}; netcomprlw{2,1}=netlw{2,1}; netcomprb{1}=netb{1}; netcomprb{2}=netb{2}; %creación de una red que descomprime los datos netdescompr=newff(minmax(p_compr),[floor((dim+ndimred)/2),dim],{'t ansig' 'purelin'}, 'trainlm'); netdescompriw{1}=netlw{3,2}; netdescomprlw{2,1}=netlw{4,3}; netdescomprb{1}=netb{3}; netdescomprb{2}=netb{4}; P Campoy 21 Otros ejemplos MLP: Reductor de dimensionalidad: - Ej: x 4 = 2 x 2 + x 3 2 x 5 = x 2 2 x 3 P Campoy 22

índice RN Supervisadas - Introducción - El Perceptrón y la estructura multicapa MLP - El aprendizaje retropropagado: BP - Aplicaciones - Carácterísticas y limitaciones P Campoy 23 Limitaciones del Perceptrón Multicapa Aprendizaje mediante minimización de funciones altamente no lineales - minimos locales - convergencia lenta Sobreaprendizaje Extrapolación a zonas no aprendidas error de test P Campoy x 2 nº de neuronas 24