Aprendizaje: Perceptrón multi-capa

Documentos relacionados
Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Aprendizaje Automatizado. Redes Neuronales Artificiales

SISTEMAS INTELIGENTES

Tema 8: Redes Neuronales

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software

Relación 7 - Redes neuronales

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Redes Neuronales Multicapa

Redes Neuronales Artificiales

Tema 5: Introducción a las redes neuronales

Tema 2 Primeros Modelos Computacionales

Redes Neuronales Artificiales El Perceptrón

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018

Tema: Aprendizaje Supervisado.

Tema 9: Introducción a las redes neuronales

Inteligencia Artificial II

CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell

REDES NEURONALES ADAPTABLES

Redes Neuronales Artificiales

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

El Perceptrón Multicapa

Redes Neuronales Artificiales

Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded

Detección Multiusuario para DS-CDMA basado en SVM

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

Introducción a las Redes Neuronales

Profesor: Leonardo Franco Despacho Web:

Redes Neuronales Multicapa

Aprendizaje Automatizado. Redes Neuronales Artificiales

Red Neuronal Artificial

Conceptos básicos V:

Introducción a Las redes Neuronales (Neurales) CO-6612

Métodos de Aprendizaje en Redes Neuronales

Inteligencia Artificial II

Redes de Neuronas de Base Radial

TEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V

Unidad VII Redes Neuronales

Redes Neuronales Artificiales

Introducción a las Redes Neuronales Articiales

Redes Neuronales Artificiales

Tema 6. Reconocimiento de voz

Redes Neuronales Artificiales

REDES NEURONALES INTELIGENCIA ARTIFICIAL II

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

INVESTIGACIÓN OPERATIVA Redes Neuronales Artificiales y Aplicaciones INTEGRANTES: Armijos Mauricio Jara Iza Rony

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

Aprendizaje de Sistemas. Redes Neuronales Artificiales

Orden de las clases...

Procesamiento Digital de Imágenes. Pablo Roncagliolo B. Nº 20

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas

Redes neuronales. Conceptos fundamentales y modelos

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)

Introducción a las Redes Neuronales

PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION

EL PERCEPTRON MULTICAPA (MLP) 6

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:

Matemáticas Administrativas

Apuntes de Sistemas Conexionistas - Penedo

Redes neuronales con funciones de base radial

UNIVERSIDAD CARLOS III MADRID

Introducción a las Redes de Neuronas

Redes neuronales. Un recorrido por su matemática, arquitectura y aprendizaje. Eduardo Paluzo Hidalgo. 30 de enero de Universidad de Sevilla

Aprendizaje no supervisado

CAPITULO 4. ENFOQUE A LA CLASIFICACION DE

Aux 7. Introducción a la Minería de Datos

Introducción a las Redes de Neuronas

BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES

Redes neuronales Back Propagation. Enrique Calot 4 de octubre de 2009

Redes Neuronales Artificiales. MTI. Eduardo Cruz Romero

4 Teoría de clasificadores

Redes neuronales en control de sistemas

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA

Perceptrones Fernando Berzal,

Redes de Neuronas Recurrentes Computación con Inspiración Biológica

Redes Multicapa. Compuerta XOR

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.

DISEÑO EXPERIMENTAL Y OPTIMIZACIÓN DE SISTEMAS CON MÚLTIPLES RESPUESTAS

Redes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales

Redes Neuronales. Introducción a las redes neuronales Carlos Andrés Delgado S.

Pontificia Universidad Católica del Ecuador

Inteligencia Artificial II (Curso ) Ejercicios propuestos de los temas 5 y 6

Transcripción:

Técnicas de inteligencia artificial Asignatura troncal: 4.5cr, 4ºCurso Ing Inf Aprendizaje: Perceptrón multi-capa 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 1 Indice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation Perceptrones multi-capa Funciones de activación derivables Backpropagation : explicación heurística Backpropagation : derivación matemática Aplicaciones y consideraciones prácticas 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 2

Indice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation Perceptrones multi-capa Funciones de activación derivables Backpropagation : explicación heurística Backpropagation : derivación matemática Aplicaciones y consideraciones prácticas 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 3 Bibliografía Escolano et al. Inteligencia Artificial. Thomson- Paraninfo 2003. Capítulo 4. Mitchell, Machine Learning. McGraw Hill, Computer Science Series. 1997 Reed, Marks, Neural Smithing. MIT Press, CA Mass 1999 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 4

Modelo computacional Neurona biológica: 1. Entradas: dendritas. 2. Integración: en el soma. Dispositivos todo-o-nada (solo se dispara salida si las entradas superan un nivel (umbral) 3. Salidas: el axón transporta la señal de salida a otras neuronas. Conecta con sus dendritas a través de sinapsis. Neurona computacional: 1. Entradas: Números reales. 2. Integración: suma ponderada (net) por los pesos sinápticos seguida de una función de activación f(net) 3. Salida: resultado y=f(net) 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 5 Neuronas e hiperplanos Función de activación umbral : Interpretación geométrica: Considerando que el umbral es un peso más con entrada fija de -1, la neurona define un hiperplano de forma que los ejemplos etiquetados con y=1 caen al lado positivo y los etiquetados con y=0 al lado negativo: 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 6

Entrenamiento Ajuste de hiperplanos: Dados dos conjuntos de ejemplos correspondientes a dos clases, buscaremos su separación por un hiperplano Regla delta: Permite ajustar iterativamente el hiperplano. Se asume que el incremento de los pesos es proporcional a la disparidad entre la salida observada y la salida deseada. Dicha proporcionalidad viene modulada por la constante de aprendizaje: 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 7 No-separabilidad lineal Única neurona: Existen situaciones en donde un único hiperplano no puede separar los datos. P.e. cuando la frontera de decisión es curva. Problemas de paridad: Suponiendo entradas binarias (secuencias de 0s y 1s), la neurona debería etiquetar con 1 aquellas secuencias con un número impar de 1s y con 0 aquellas con un número par. Ej: Problema de la XOR. Para resolver estos problemas es preciso incorporar una capa adicional de neuronas. 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 8

Indice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation Perceptrones multi-capa Funciones de activación derivables Backpropagation : explicación heurística Backpropagation : derivación matemática Aplicaciones y consideraciones prácticas 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 9 Perceptrones multi-capa Estructura y capacidad: La capa adicional se denomina capa oculta. Se demuestra que un perceptrón con dos capas ocultas puede aproximar cualquier función. Interpretación geométrica: Problemas con regiones de decisión más complejas exigen distintas estrategias de separación. Dichas estrategias las proporcionan las capas ocultas. En la época en que se desarrolló esta teoría no existía un algoritmo práctico que permitiese encontrar los pesos asociados a todas y cada una de las neuronas. 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 10

Funciones de activación derivables Para aplicar el algoritmo de entrenamiento multicapa es necesario que la función de activación sea derivable Buscamos funciones derivables con forma similar al escalón del perceptrón de una sola capa Sigmoide Derivada 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 11 Backpropagation: explicación heurística Supongamos que al clasificar un ejemplo una neurona de la última capa tiene una salida y k, siendo la deseada d k Dicha neurona es responsable de un error La regla de actualización de los pesos de la última capa será similar a la regla delta ya vista 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 12

Error (delta) en capas intermedias Una neurona de una capa intermedia contribuye en los δ de las de la capa siguiente Por tanto, para calcular su δ necesitamos estos 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 13 Backpropagation: algoritmo Se aplica para cada ejemplo del conj. de entrenamiento. Se itera hasta que el error baje de un umbral Fases: Hacia delante: cálculo de la salida de la red (los y k ). Cálculo de los δ en la última capa Hacia atrás. Cálculo de los δ de la capa en función de los de la siguiente Finalmente, actualización de los pesos de todas las capas 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 14

Backpropagation: derivación matemática El algoritmo es un descenso por gradiente (de ahí que necesitemos una función de activación derivable) Minimización del error que se produce al clasificar un ejemplo (encontrar los w i óptimos). Dicho error se puede formular como Habrá que modificar los w i en la dirección opuesta al gradiente, esto es 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 15 Derivación backpropagation: última capa Para un peso w jk de la última capa (aplicando la regla de la cadena, ya que E depende de net k que a su vez depende de w jk ) Escribiendo como δ, tenemos una fórmula equiv. a la regla delta del perceptrón de 1 capa: Para calcular δ k, aplicamos de nuevo la regla de la cadena (net k y k E) 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 16

Derivación backpropagation: capas anteriores Para un peso w ij de una capa anterior, el razonamiento inicial es el mismo que antes y nos lleva a Aplicando la regla de la cadena para calcular δ 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 17 Convergencia de backpropagation Ajuste de la constante η Valores muy pequeños: convergencia lenta Valores grandes: riesgo de overshooting (saltarnos el mínimo) Momento: en el cambio actual influye una fracción del anterior. Mejora la convergencia evitando oscilaciones 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 18

Ejemplo de convergencia Problema del XOR Error cuadrático medio Prob. de convergencia iteraciones η 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 19