Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento"

Transcripción

1 Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para construir una red neuronal, es necesario hacerla pasar por un proceso de aprendizaje. Jorge Baier Aranda, PUC 24

2 Redes Neuronales Artificialies (RNAs) Una red neuronal es un grafo dirigido construido a partir de elementos computacionales básicos. Una red neuronal codifica funciones numéricas. La función representada depende de parámetros de la red (especificados como etiquetas en el grafo), y de la arquitectura de la misma (forma dada a las interconexiones). Los elementos computacionales básicos de una red son: Suma un nodo suma recibe un conjunto de entradas numéricas. Cada entrada puede provenir de otros nodos o del medio. x 0. Σ ni=0 x i x n Jorge Baier Aranda, PUC 25

3 Multiplicación Umbral (threshold units) x x w wx 1 si x > 0 0 en otro caso Jorge Baier Aranda, PUC 26

4 Cuándo Utilizar RNAs? Problemas de aprendizaje altamente multidimensional (valores discretos o reales) Función a aprender (función objetivo) real o discreta (puede ser vectorial). Datos con ruido. Función a aprender con forma desconocida. El resultado (la función objetivo encontrada) no requiere de ser analizada. Jorge Baier Aranda, PUC 27

5 Una Neurona El modelo de neurona de McCulloch-Pitts (1943) o perceptrón es: x 0 = 1 x 1 w 1 w 0. Σ x n w n Esta neurona elemental es conocida como una unidad de umbral lineal (linear threshold unit o ltu) y representa una familia de funciones parametrizada por los pesos w 1, w 2,..., w n, en particular, la función de salida será: f(x) = { 1 Si n i=0 w ix i > 0 0 en otro caso Jorge Baier Aranda, PUC 28

6 En notación vectorial: f(x) = { 1 Si w x > 0, 0 en otro caso. La función de salida se conoce también como función de activación. Jorge Baier Aranda, PUC 29

7 Funciones no Lineales Además de la función umbral que hemos visto recién, se utilizan funciones continuas, las más utilizadas son: Gaussiana: f(x) = e 2σ 1 ni=1 (x i c i ) Activación Gaussiana Jorge Baier Aranda, PUC 30

8 Donde σ y c 1,..., c n son constantes. La respuesta de esta función depende de la distancia entre x y c. Sigmoidal: Se utiliza como una alternativa no lineal a la función umbral ( ). f(x) = e n i=1 w i x i 1 Activación Sigmoidal Esta función también se conoce como función logística. Una razón importante para preferir esta función a la función umbral, es que 1/(1 + e x ) es continua y diferenciable. Jorge Baier Aranda, PUC 31

9 Tangente Hiperbólica: Similar a la función logística, pero tiene como rango a [ 1, 1]. La expresión es la siguiente. 1 e x 1 + e x. Jorge Baier Aranda, PUC 32

10 Redes Neuronales Una red neuronal se construye en base a neuronas como la de McCulloch-Pitts. Si N 1,..., N 3 son neuronas de dos entradas, entonces una red puede ser como: x 1 N 1 N 4 x 2 N 2 N 6 N 5 x 3 N 3 Toda red neuronal determina una familia de funciones de salida. Una configuración de pesos determina a una función individual de la familia. Jorge Baier Aranda, PUC 33

11 Estructura de una Red Neuronal Existen muchos tipos de redes neuronales. Las redes neuronales más utilizadas de tipo feed-forward, que son grafos dirigidos acíclicos. En el resto de nuestra exposición trabajaremos con redes que están ordenadas en capas. En una red de este tipo, cada neurona está conectada sólo con neuronas de la siguiente capa. Jorge Baier Aranda, PUC 34

12 Aprendizaje en Redes Neuronales Para lograr que una red neuronal pueda representar una función es necesario someterla a un proceso de aprendizaje. Debemos estar conscientes que por el sólo hecho de elegir una cierta estructura para la red estamos incurriendo en un sesgo inductivo. Si queremos aprender una función f(x) podemos usar una red neuronal de alguna arquitectura y pesos que hay que definir. Jorge Baier Aranda, PUC 35

13 Limitaciones de los Perceptrones Los perceptrones sólo pueden aprender conceptos linealmente separables. Un concepto es linealmente separable si existe un hiperplano capaz de separar todos los puntos que el concepto clasifica como 1 de los que clasifica como 0. Por ejemplo, un perceptrón no puede aprender el XOR. Jorge Baier Aranda, PUC 36

14 Regla de Aprendizaje del Perceptrón Veremos el caso particular de la neurona de McCulloch-Pitts: La red se inicializa con valores aleatorios para los pesos w i. Si se está procesando un ejemplo de entrenamiento con salida correcta d y la red entrega salida y, el peso w i de la entrada x i se ajusta de acuerdo a la regla: w i w i + η(d y)x i. η es una constante positiva llamada constante de aprendizaje. La regla de aprendizaje se aplica iterativamente a cada uno de los ejemplos. Cada vez que se procesa un ejemplo, se ajustan los pesos. Si todos los ejemplos se clasifican correctamente, se detiene el proceso. En otro caso, se vuelve al punto anterior. Jorge Baier Aranda, PUC 37

15 Error Cuadrático Medio El problema de aprendizaje en una red neuronal es un problema de búsqueda. El espacio queda definido por: La arquitectura de la red. El espacio de valores de los parámetros de la red (pesos). Dada la arquitectura de la red, buscaremos una hipótesis que maximice el rendimiento (minimice el error, con respecto a los ejemplos). Así, si T es un conjunto de n ejemplos, con x i, d i T para i = 1... n, el rendimiento es: P = 1 n n (f(x i ) d i ) 2. i=1 donde f(x i ) corresponde a la salida de la red para el i ésimo ejemplo (considerando una unidad con una sola salida). La medida anterior considera el error mirando todos los ejemplos, por lo cual es apropiada para métodos de aprendizaje batch. Jorge Baier Aranda, PUC 38

16 La regla Delta de entrenamiento La regla delta de entrenamiento está basada en un análisis matemático de la función de salida de los perceptrones. Está basada en el método del gradiente. Una de sus ventajas es que funciona con cualquier función de activación diferenciable. Deduciremos uns regla de actualización de pesos para hacer aprender a un perceptrón sin umbral (ADALINE). Es decir, una unidad lineal con: o(x) = w x Si D = { x 0, d 0,..., x n, d n } es el conjunto de entrenamiento, consideremos la función de error como: E(w) = 1 2 n (d k o(x k )) 2 k=1 Jorge Baier Aranda, PUC 39

17 El Gradiente [ E E(w) =, E,..., E ], w 0 w 1 w m donde m es la dimensión de los ejemplos. Ahora: E w i = = 1 2 = = = 1 w i 2 n k=1 n (d k o(x k )) 2 k=1 w i (d k o(x k )) 2 n (d k o k ) (d k o(x k )) w i k=1 n (d k o k ) (d k w x k ) w i k=1 n (d k o k )( x k,i ), k=1 Jorge Baier Aranda, PUC 40

18 donde x k,i es la i-ésima componente de x k. Como el gradiente da la dirección de mayor crecimiento, los pesos se pueden actualizar con la regla: w w η E(w). o bien: w i w i + η n (d k o k )( x k,i ). k=1 Jorge Baier Aranda, PUC 41

19 Algoritmo de descenso por el gradiente Descenso-Gradiente(ejemplos,η). Cada ejemplo es un par x, d y η es la tasa de aprendizaje. Inicializar los pesos w i en un valor pequeño aleatorio. Repita hasta que converja: Inicialice w i en cero. Para cada x, d en ejemplos: Calcule la salida o de la unidad. Para cada peso w i : w i w i + η(d o)x i. Para cada w i : w i w i + w i. Jorge Baier Aranda, PUC 42

20 Unidad de Umbral Sigmoidal En redes más complejas, se utilizan con frecuencia unidades con funciones de activiación no lineales. Una de las más populares son las unidades sigmoidales. x 0 = 1 x 1 w 1 w 0. S σ(net) x n w n Donde: y net = w x o = σ(net) = e net Jorge Baier Aranda, PUC 43

21 Una característica útil de la función logística es que: dσ(x) dx = σ(x)(1 σ(x)). Jorge Baier Aranda, PUC 44

22 Gradiente del error en Unidades Sigmoidales Consideremos la medida de error E definida previamente y calculemos: E w i = = 1 2 = = 1 w i 2 n k=1 n (d k o k ) 2 k=1 w i (d k o k ) 2 n (d k o k ) (d k o k ) w i k=1 n (d k o k ) k=1 ( o ) k w i Jorge Baier Aranda, PUC 45

23 Pero, o k = σ(net k) w i = σ(net k) w i net k net k w i = o k (1 o k )x k,i donde x k,i es la i-ésima componente de x k. Finalmente: E w i = n (d k o k )o k (1 o k )x k,i k=1 Jorge Baier Aranda, PUC 46

24 Redes Multicapa Veremos cómo entrenar redes de dos capas y extenderemos el resultado al caso general. Una red de dos capas se ve de la siguiente manera: z 0 = 1 x 0 = 1 1 z 1 1 y 1 d 1 x 1. x i. w (1) ji j z j w (2) kj k y k y k d k x n J z J K y K y K d K Donde y 1,..., y L son las salidas de la red y d 1,..., d L son los datos usados para entrenar. Jorge Baier Aranda, PUC 47

25 Si consideramos el error cuadrático de todas las salidas, E(x) = 1 2 K (d m y m ) 2 m=1 obtenemos la regla de actualización para los pesos de la última capa: w (2) kj E = η w (2) kj = η(d k y k )f (net k )z j, donde k = 1,..., K y j = 1,..., J y net k = J l=0 w klz l y donde f es la función de activación. Para obtener la regla de actualización de pesos de w (1) ji regla de la cadena, obteniéndose lo siguiente: w (1) ji [ K ] = ρ h (d k y k )f (net k )w (2) f (net j )x i k=1 kj es necesario aplicar la Jorge Baier Aranda, PUC 48

26 Error Backpropagation Backpropagation(ejemplos, η, n in, n out, n hidden ) Caso particular de una red con una capa escondida, con conexiones completas hacia adelante y unidades sigmoidales. Inicializar todos los pesos en valores aleatorios pequeños. Repita hasta que haya convergencia: Para cada ejemplo: 1. Procese el ejemplo a través de la red y calcule la salida. 2. Para cada unidad k de salida: 3. Para cada unidad escondida h δ k y k (1 y k )(t k y k ) δ h y h (1 y h ) k salidas w kh δ k 4. Actualizar los pesos w j,i : w ji w ji + ηδ j x j,i Jorge Baier Aranda, PUC 49

27 Comentarios al Algoritmo El ciclo principal del algoritmo se repite miles de veces. La condición de término puede cambiarse: Número fijo de iteraciones. Terminar cuando el error en los ejemplos caiga bajo un valor prefijado. Terminar cuando el error en un conjunto de validación obedezca un criterio, etc. Jorge Baier Aranda, PUC 50

28 Qué podemos representar? Funciones booleanas: Cualquier función booleana es representable por una red con una capa escondida. El número de nodos en la capa escondida puede crecer exponencialmente en el número de entradas. Funciones continuas: Cualquier función continua acotada puede representarse con una red con una capa escondida de unidades sigmoidales y una capa de salida de unidades lineales (sin umbral). Funciones Arbitrarias: Cualquier función puede aproximarse con una red con dos capas escondidas de unidades sigmoidales y una capa de salida de unidades lineales (sin umbral). Jorge Baier Aranda, PUC 51

Redes Neuronales Multicapa

Redes Neuronales Multicapa Undécima sesión 16 de abril de 2010 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con

Más detalles

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018 Perceptrón Simple Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA Rosana Matuk Primer Cuatrimestre 2018 Rosana Matuk (DC-FCEyN-UBA) Perceptrón simple Primer Cuatrimestre 2018 1 / 29 Objetivo

Más detalles

CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell

CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Backpropagation Cap 20.5 Russel & Norvig Cap 4 Mitchell Universidad Simón Boĺıvar 8 de Octubre de 2008 Redes Multicapas de Unidades Sigmoidales

Más detalles

Tema 2 Primeros Modelos Computacionales

Tema 2 Primeros Modelos Computacionales Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple

Más detalles

SISTEMAS INTELIGENTES

SISTEMAS INTELIGENTES SISTEMAS INTELIGENTES T10: Redes Neuronales.aic.uniovi.es/ssii Índice Redes Neuronales Artificiales Fundamentos biológicos Perceptrón Funciones de activación Redes de neuronas Entrenamiento: Perceptrón

Más detalles

Redes Neuronales Multicapa

Redes Neuronales Multicapa 4 de abril de 2011 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con hiperplanos Dos

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Algoritmo de retropropagación Back propagation Es utilizado para entrenar redes neuronales multicapa. Exige que la función de activación de las neuronas sea derivable y creciente. Las funciones comúnmente

Más detalles

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation

Más detalles

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software Inteligencia Artificial (Curso 0-0) Grado en Ingeniería Informática - Ingeniería del Software Redes neuronales Cuestión : Decir si las siguientes afirmaciones son verdaderas o falsas: Si tomamos la función

Más detalles

Tema 8: Redes Neuronales

Tema 8: Redes Neuronales Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/

Más detalles

Tema 5: Introducción a las redes neuronales

Tema 5: Introducción a las redes neuronales Tema 5: Introducción a las redes neuronales F. J. Martín Mateos, J. L. Ruiz Reina et al. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla nteligencia Artificial IA 2017

Más detalles

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción

Más detalles

Inteligencia Artificial II

Inteligencia Artificial II Inteligencia Artificial II Introducción a Redes Neuronales D. Balbontín Noval Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial II - Tema 4 p. 1/43

Más detalles

Tema 9: Introducción a las redes neuronales

Tema 9: Introducción a las redes neuronales D. Balbontín Noval F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Neuronas artificiales: inspiración biológica El aprendizaje en

Más detalles

REDES NEURONALES ADAPTABLES

REDES NEURONALES ADAPTABLES REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables

Más detalles

Aprendizaje: Perceptrón multi-capa

Aprendizaje: Perceptrón multi-capa Técnicas de inteligencia artificial Asignatura troncal: 4.5cr, 4ºCurso Ing Inf Aprendizaje: Perceptrón multi-capa 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 1 Indice Regla delta Modelo computacional

Más detalles

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente

Más detalles

Perceptrones Fernando Berzal,

Perceptrones Fernando Berzal, Fernando Berzal, berzal@acm.org Introducción Redes neuronales artificiales Modelos de redes Modelo de neurona artificial Funciones de activación La neurona de McCulloch y Pitts El algoritmo de aprendizaje

Más detalles

Detección Multiusuario para DS-CDMA basado en SVM

Detección Multiusuario para DS-CDMA basado en SVM 9 Otra técnica basada en el aprendizaje y más conocida que la anterior es la basada en. Vamos a realizar una pequeña comparativa teórica de sobre ambas técnicas de clasificación. Estudiaremos los conceptos

Más detalles

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Redes Neuronales Introducción José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Indice Motivación Arquitectura Leyes de Aprendizae Aplicaciones DILEMA MEMORIA CALCULO Aritmética

Más detalles

Inteligencia Artificial II

Inteligencia Artificial II Inteligencia Artificial II Introducción a Redes Neuronales Delia Balbontín Noval Francisco Jesús Martín Mateos José Luis Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad

Más detalles

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo

Más detalles

Métodos de Aprendizaje en Redes Neuronales

Métodos de Aprendizaje en Redes Neuronales 11 de abril de 2011 Entrenamiento de redes feedforward (Backpropagation) Siendo {z m, t m } m=1...n un conjunto de n patrones de entrenamiento, con z m las entradas conocidas para el m ésimo patrón y

Más detalles

Redes neuronales con funciones de base radial

Redes neuronales con funciones de base radial Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura

Más detalles

Relación 7 - Redes neuronales

Relación 7 - Redes neuronales Sistemas Inteligentes 0-0 Relación - Redes neuronales Problemas Ejercicio. Explicar cómo se usaría una red neuronal para obtener un reconocedor de letras escritas a mano. Describir con precisión qué estructura

Más detalles

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa. TLU(s) MULTICAPAS Se pueden implementar funciones en TLU con más de una capa 1 05 2 15 2 3 z 3 15 2 4 05 No eisten, en la actualidad, mecanismos de entrenamiento que permita conocer los pesos sinápticos

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Otra forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Neuronales Artificiales Eduardo Morales, Hugo Jair Escalante Coordinación de Ciencias Computacionales Instituto Nacional de Astrofísica, Óptica y Electrónica Septiembre, 2015 (INAOE) Septiembre, 2015 1

Más detalles

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar

Más detalles

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga

Más detalles

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5 Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función

Más detalles

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas 4. El perceptrón 4.1 Introducción El perceptrón es la forma más simple de una red neuronal usada para la clasificación de un tipo especial de patrones, los linealmente separables (es decir, patrones que

Más detalles

Perceptrón simple y perceptrón multicapa

Perceptrón simple y perceptrón multicapa UNL - FICH - Departamento de Informática - Ingeniería Informática Inteligencia Computacional Guía de trabajos prácticos Perceptrón simple y perceptrón multicapa. Objetivos Aplicar diferentes arquitecturas

Más detalles

Redes Neuronales Artificiales El Perceptrón

Redes Neuronales Artificiales El Perceptrón 1 Sistemas Expertos e Inteligencia Artificial / Guía IX / Ciclo 01-2018 Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Redes Neuronales Artificiales El

Más detalles

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES 1. Concepto de red neuronal artificial Una red neuronal artificial (RNA) es un modelo matemático que intenta reproducir el modo de funcionamiento y

Más detalles

Aprendizaje de Sistemas. Redes Neuronales Artificiales

Aprendizaje de Sistemas. Redes Neuronales Artificiales Universidad de Granada E.T.S. Ingeniería Informática Diseño, Análisis y Aplicaciones de Sistemas Inteligentes Aprendizaje de Sistemas Redes Neuronales Artificiales José Manuel Benítez Sánchez J.M.Benitez@decsai.ugr.es

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es www.robolabo.etsit.upm.es Mapas Predicción Robótica M l M r W ij S S 2 S 3 S 4

Más detalles

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias CAPÍTULO 3 REDES NEURONALES ARTIFICIALES 3.1 Introducción Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias décadas de investigaciones desarrolladas en torno

Más detalles

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S. Redes Neuronales Elementos básicos de las redes neuronales carlos.andres.delgado@correounivalle.edu.co Carlos Andrés Delgado S. Facultad de Ingeniería. Universidad del Valle Agosto de 2017 Contenido 1

Más detalles

Introducción a las Redes de Neuronas

Introducción a las Redes de Neuronas OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 1 Introducción a las Redes de Neuronas Introducción a las Redes de Neuronas 1 Introducción a las Redes de Neuronas Introducción

Más detalles

PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION

PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION UNIVERSIDAD DE BUENOS AIRES FACULTAD DE INGENIERÍA MAESTRÍA EN SIMULACIÓN NUMÉRICA Y CONTROL TRABAJO PRACTICO 2: PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION Presentada como requisito parcial para

Más detalles

Conceptos básicos V:

Conceptos básicos V: C261-69 69 Tópicos Avanzados: Redes Neuronales Artificiales Conceptos básicos Dra. Ma. del Pilar Gómez Gil Primavera 2009 pgomez@acm.org V:13-01-09 Modelo Básico y Abstracto de un Neurón Artificial x 0

Más detalles

El Perceptrón Multicapa

El Perceptrón Multicapa El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del

Más detalles

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB MARIA ISABEL ACOSTA BUITRAGO CAMILO ALFONSO ZULUAGA MUÑOZ UNIVERSIDAD TECNOLOGICA DE PEREIRA FACULTAD

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Red de Hopfield Almacenar un conjunto de p patrones de forma tal que cuando se presente un nuevo patrón, la red responda produciendo alguno de los patrones previamente almacenados que más se parezca al

Más detalles

Tema: Red Neuronal Hopfield. Reconocimiento de Patrones.

Tema: Red Neuronal Hopfield. Reconocimiento de Patrones. Sistemas Expertos e Inteligencia Artificial. Guía No. 10 1 Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Tema: Red Neuronal Hopfield. Reconocimiento

Más detalles

Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded

Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos: Skynet Reloaded...decided our fate in a microsecond... P. García H. Rajchert I. Scena Sistemas de Inteligencia Artificial

Más detalles

EL PERCEPTRON MULTICAPA (MLP) 6

EL PERCEPTRON MULTICAPA (MLP) 6 Otra diferencia fundamental de la adaline con respecto del asociador lineal y el perceptrón simple radica en la regla de aprendizaje. En la adaline se utiliza la regla de Widrow Holf, también conocida

Más detalles

Entrenamiento de redes neuronales Fernando Berzal,

Entrenamiento de redes neuronales Fernando Berzal, Entrenamiento de redes neuronales Fernando Berzal, berzal@acm.org Entrenamiento de redes neuronales Modos de entrenamiento Preprocesamiento de los datos Funciones de activación Inicialización de los pesos

Más detalles

Redes neuronales Back Propagation. Enrique Calot 4 de octubre de 2009

Redes neuronales Back Propagation. Enrique Calot 4 de octubre de 2009 Redes neuronales Back Propagation Enrique Calot 4 de octubre de 2009 1 1. Introducción Una red neuronal de tipo back propagation permite aprender mediante un conjunto de ejemplo (entrada-salida) comunmente

Más detalles

OTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales

OTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales OTRAS CONSIDERACIONES! Estrategias para generalización Existen diversas estrategias para mejorar la generalización: 1) Teoría de Regularización: Agregar una penalidad para lograr mejorar la forma de la

Más detalles

Redes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela

Redes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela Redes Neuronales Artificiales para predicción en series temporales Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela Contenidos 1. Redes Neuronales Artificiales 2. RNA para predicción

Más detalles

CAPÍTULO 3: REDES NEURONALES RECURRENTES

CAPÍTULO 3: REDES NEURONALES RECURRENTES Capítulo 3 Redes Neuronales Recurrentes 15 CAPÍTULO 3: REDES NEURONALES RECURRENTES En este capítulo se describen las principales características y elementos de tres tipos de redes neuronales: feedforward,

Más detalles

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Tema: Perceptron Parte I Profesor: Víctor Tomás T. Mariano. Alumnos: Leticia Hernández Hernández Agustín Hernández Espinoza

Más detalles

ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION

ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION En una RN entrenada, si las salidas calculadas por la red con nuevos ejemplos están próimas a los valores deseados, hay generalización (Haykin,

Más detalles

Examen de Septiembre de TACCIII y TAI (Modelo 2)

Examen de Septiembre de TACCIII y TAI (Modelo 2) Examen de Septiembre de TACCIII y TAI (Modelo 2) 12 de septiembre de 2008 1. La desordenación de la base de datos puede influir en el resultado obtenido mediante a) clasificación por distancia a las medias

Más detalles

Introducción a las Redes Neuronales

Introducción a las Redes Neuronales Introducción a las Redes Neuronales Perceptrón Simple William Campillay-LLanos williamcampillay@gmail.com https://sites.google.com/site/williamcampillay/home Departamento de Matemática, Física y Estadística.

Más detalles

Aprendizaje Automático

Aprendizaje Automático id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje

Más detalles

Introducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12

Introducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12 Introducción a las Redes Neuronales Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/2 Introducción a las Redes Neuronales Contenidos Introducción a las neuronas Introducción a las redes neuronales artificiales

Más detalles

Tema: Aprendizaje Supervisado.

Tema: Aprendizaje Supervisado. Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos

Más detalles

Profesor: Leonardo Franco Despacho Web:

Profesor: Leonardo Franco Despacho Web: Asignatura: MODELOS COMPUTACIONALES Ingeniería a técnica t en informática de gestión Horario Clases: Martes y Jueves 7:30-9:30 Aula: 3.05 Profesor: Leonardo Franco Despacho 3.2.29 Email: lfranco@lcc.uma.es

Más detalles

Inteligencia Artificial

Inteligencia Artificial Mayo 21 de 2008 El estudiante de la Pontificia Universidad Javeriana, como agente de su propia formación, es corresponsable de la Identidad Institucional, uno de cuyos cimientos es tener como hábito un

Más detalles

Tema 6. Reconocimiento de voz

Tema 6. Reconocimiento de voz Tema 6. Reconocimiento de voz 6.1.- Introducción 6.2.- Problemática 6.3.- Clasificación 6.4.- Esquema de trabajo 6.5.- Técnicas de reconocimiento 6.6.- Conclusiones 6.1.- Introducción Reconocimiento de

Más detalles

UNIVERSIDAD CARLOS III MADRID

UNIVERSIDAD CARLOS III MADRID UNIVERSIDAD CARLOS III MADRID PROYECTO FIN DE CARRERA INGENIERÍA INDUSTRIAL Desarrollo de una interfaz gráfica de redes neuronales usando Matlab AUTOR: ALFONSO MORENO RODRÍGUEZ TUTOR: ISABEL GONZÁLEZ FARIAS

Más detalles

Unidad VII Redes Neuronales

Unidad VII Redes Neuronales Unidad VII Redes Neuronales Maestría en Sistemas Computacionales Clave: MPSCO-0108 6 Créditos Sesiones Sábados 10-13 Rafael Vázquez Pérez Agenda 7.1 Introducción a las Redes Neurales (ANN) 7.2 Tipos de

Más detalles

4 Método propuesto basado en el Perceptrón Multicapa

4 Método propuesto basado en el Perceptrón Multicapa Capítulo 4 4 Método propuesto basado en el Perceptrón Multicapa En este capítulo se presenta el nuevo enfoque que se propone en esta tesis para la generación de series sintéticas de radiación solar. Está

Más detalles

Deep Learning Seminario Minería de Datos

Deep Learning Seminario Minería de Datos Deep Learning Seminario Minería de Datos Álvaro Riascos Mónica Ribero 2 de mayo de 2017 Contenido 1 Introducción 2 Modelo Logit 3 Redes Neuronales 4 Aplicaciones 5 Redes en el contexto de NLP 6 Otras arquitecturas

Más detalles

Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente

Más detalles

Red Neuronal Artificial

Red Neuronal Artificial índice RN Supervisadas - Introducción - El Perceptrón y la estructura multicapa MLP - El aprendizaje retropropagado: BP - Aplicaciones y ejemplos - Características y limitaciones P Campoy 1 Red Neuronal

Más detalles

Introducción a las Redes Neuronales Articiales

Introducción a las Redes Neuronales Articiales Inteligencia Humana como Inspiración Novena Sesión 24 de marzo de 2010 Inteligencia Humana como Inspiración Inteligencia Humana como Inspiración Sistema Nervioso Humano Características: Complejo No Lineal

Más detalles

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón. REDES NEURONALES Las redes neuronales constituyen una poderosa herramienta para modelar sistemas, especialmente no lineales, sean dinámicos o estáticos. En el cuerpo celular se realizan la mayoría de las

Más detalles

BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES

BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES Paul Acquatella B. Universidad Simón Bolívar, Valle de Sartenejas, Caracas, Venezuela. acquatella@usb.ve Resumen Este trabajo presenta

Más detalles

Perceptron multicapa. Capítulo Introducción

Perceptron multicapa. Capítulo Introducción Capítulo 3 Perceptron multicapa 3.1. Introducción En este capítulo se estudiará una de las clases de redes de neuronas, conocida como Perceptron multicapa o red multicapa con conexiones hacia adelante.

Más detalles

Aprendizaje basado en ejemplos.

Aprendizaje basado en ejemplos. Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor

Más detalles

2. PRINCIPALES TIPOS DE REDES NEURONALES

2. PRINCIPALES TIPOS DE REDES NEURONALES 33 2. PRINCIPALES TIPOS DE REDES NEURONALES 2.1 PERCEPTRÓN 2.1.1 Antecedentes. La primera red neuronal conocida, fue desarrollada en 1943 por Warren McCulloch y Walter Pitts; ésta consistía en una suma

Más detalles

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Tema 6: Redes de Neuronas Recurrentes

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Tema 6: Redes de Neuronas Recurrentes OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 6: Redes de Neuronas Recurrentes En este tema se estudian las redes de neuronas recurrentes. Se presentan en primer lugar

Más detalles

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como

Más detalles

CAPITULO 3 PERCEPTRON MULTICAPA.

CAPITULO 3 PERCEPTRON MULTICAPA. Capitulo 3. Perceptrón Multicapa. 14 CAPITULO 3 PERCEPTRON MULTICAPA. En el este capítulo se introducen los conceptos que describen a las redes neuronales como tecnología adaptiva de reconocimiento de

Más detalles

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura

Más detalles

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA 32 III. REDES NEURONALES ARTIFICIALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III.1 CONCEPTOS GENERALES En sus orígenes las Redes Neuronales

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Claudio Javier Tablada Germán Ariel Torres Resumen. Una Red Neuronal Artificial es un modelo matemático inspirado en el comportamiento biológico de las neuronas y en la estructura

Más detalles

INDICE. Procedimiento 4. Mutación Paramétrica. 8

INDICE. Procedimiento 4. Mutación Paramétrica. 8 INDICE Introducción. 3 Objetivo 4 Procedimiento 4 Algoritmo Principal. 6 Inicialización de la Población 6 Función de Aptitud.. 7 Selección de la Nueva Población. 7 Mutación Estructural 8 Mutación Paramétrica.

Más detalles

Redes de Neuronas de Base Radial

Redes de Neuronas de Base Radial Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta

Más detalles

TEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones

TEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones Curso RNA Tema 0 TEMA 0 PRESENTACIÓN DEL CURSO REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES Comienzo del Curso Presentación del Curso Enfoque y Contexto Objetivos Contenidos Teórico Contenido Práctico

Más detalles

PROCESO DE FERMENTACIÓN Y REDES NEURONALES. Gallardo, Alejandra Beatriz Sánchez, Mauricio Germán

PROCESO DE FERMENTACIÓN Y REDES NEURONALES. Gallardo, Alejandra Beatriz Sánchez, Mauricio Germán PROCESO DE FERMENTACIÓN Y REDES NEURONALES Gallardo, Alejandra Beatriz Sánchez, Mauricio Germán Universidad Tecnológica Nacional Facultad Regional Villa María INTRODUCCIÓN AL PROBLEMA La información que

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas

Más detalles

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías

Más detalles

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con 319 CONCLUSIONES La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con respecto a otros modelos típicos de solución de problemas de Ingeniería, una de ellas es su inspiración en modelos

Más detalles

Redes Multicapa. Compuerta XOR

Redes Multicapa. Compuerta XOR Redes Multicapa LIMITACIÓN DEL PERCEPTRÓN El perceptrón puede resolver solamente problemas que sean linealmente separables, esto es problemas cuyas salidas estén clasificadas en dos categorías diferentes

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Alejandro Osses Vecchi 11 de julio de 2009 1. Introducción Comenzaremos con una definición simple y general de Red Neuronal para, en las próximas secciones, explicar y profundizar

Más detalles

CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN

CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN PERCEPTRÓN MULTICAPA EN MATLAB 4.1 Matlab Matlab ha demostrado ser un programa de desarrollo muy completo en distintas áreas, más que nada

Más detalles

REDES NEURONALES ARTIFICIALES EN PREDICCIÓN DE SERIES DE TIEMPO: UNA APLICACIÓN A LA INDUSTRIA

REDES NEURONALES ARTIFICIALES EN PREDICCIÓN DE SERIES DE TIEMPO: UNA APLICACIÓN A LA INDUSTRIA SANTIAGO ZAPATA C. - JULIO VALDES H. Santiago Zapata Cáceres Departamento de Informática y Computación, Facultad de Ingeniería Universidad Tecnológica de Chile szapata@utem.cl Departamento de Informática

Más detalles

Aprendizaje no supervisado

Aprendizaje no supervisado OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 4 1 Introducción Aprendizaje competitvo Otros algoritmos de agrupación 2 1 Introducción Características principales de las

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles