Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento
|
|
- Pedro San Segundo Rey
- hace 5 años
- Vistas:
Transcripción
1 Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para construir una red neuronal, es necesario hacerla pasar por un proceso de aprendizaje. Jorge Baier Aranda, PUC 24
2 Redes Neuronales Artificialies (RNAs) Una red neuronal es un grafo dirigido construido a partir de elementos computacionales básicos. Una red neuronal codifica funciones numéricas. La función representada depende de parámetros de la red (especificados como etiquetas en el grafo), y de la arquitectura de la misma (forma dada a las interconexiones). Los elementos computacionales básicos de una red son: Suma un nodo suma recibe un conjunto de entradas numéricas. Cada entrada puede provenir de otros nodos o del medio. x 0. Σ ni=0 x i x n Jorge Baier Aranda, PUC 25
3 Multiplicación Umbral (threshold units) x x w wx 1 si x > 0 0 en otro caso Jorge Baier Aranda, PUC 26
4 Cuándo Utilizar RNAs? Problemas de aprendizaje altamente multidimensional (valores discretos o reales) Función a aprender (función objetivo) real o discreta (puede ser vectorial). Datos con ruido. Función a aprender con forma desconocida. El resultado (la función objetivo encontrada) no requiere de ser analizada. Jorge Baier Aranda, PUC 27
5 Una Neurona El modelo de neurona de McCulloch-Pitts (1943) o perceptrón es: x 0 = 1 x 1 w 1 w 0. Σ x n w n Esta neurona elemental es conocida como una unidad de umbral lineal (linear threshold unit o ltu) y representa una familia de funciones parametrizada por los pesos w 1, w 2,..., w n, en particular, la función de salida será: f(x) = { 1 Si n i=0 w ix i > 0 0 en otro caso Jorge Baier Aranda, PUC 28
6 En notación vectorial: f(x) = { 1 Si w x > 0, 0 en otro caso. La función de salida se conoce también como función de activación. Jorge Baier Aranda, PUC 29
7 Funciones no Lineales Además de la función umbral que hemos visto recién, se utilizan funciones continuas, las más utilizadas son: Gaussiana: f(x) = e 2σ 1 ni=1 (x i c i ) Activación Gaussiana Jorge Baier Aranda, PUC 30
8 Donde σ y c 1,..., c n son constantes. La respuesta de esta función depende de la distancia entre x y c. Sigmoidal: Se utiliza como una alternativa no lineal a la función umbral ( ). f(x) = e n i=1 w i x i 1 Activación Sigmoidal Esta función también se conoce como función logística. Una razón importante para preferir esta función a la función umbral, es que 1/(1 + e x ) es continua y diferenciable. Jorge Baier Aranda, PUC 31
9 Tangente Hiperbólica: Similar a la función logística, pero tiene como rango a [ 1, 1]. La expresión es la siguiente. 1 e x 1 + e x. Jorge Baier Aranda, PUC 32
10 Redes Neuronales Una red neuronal se construye en base a neuronas como la de McCulloch-Pitts. Si N 1,..., N 3 son neuronas de dos entradas, entonces una red puede ser como: x 1 N 1 N 4 x 2 N 2 N 6 N 5 x 3 N 3 Toda red neuronal determina una familia de funciones de salida. Una configuración de pesos determina a una función individual de la familia. Jorge Baier Aranda, PUC 33
11 Estructura de una Red Neuronal Existen muchos tipos de redes neuronales. Las redes neuronales más utilizadas de tipo feed-forward, que son grafos dirigidos acíclicos. En el resto de nuestra exposición trabajaremos con redes que están ordenadas en capas. En una red de este tipo, cada neurona está conectada sólo con neuronas de la siguiente capa. Jorge Baier Aranda, PUC 34
12 Aprendizaje en Redes Neuronales Para lograr que una red neuronal pueda representar una función es necesario someterla a un proceso de aprendizaje. Debemos estar conscientes que por el sólo hecho de elegir una cierta estructura para la red estamos incurriendo en un sesgo inductivo. Si queremos aprender una función f(x) podemos usar una red neuronal de alguna arquitectura y pesos que hay que definir. Jorge Baier Aranda, PUC 35
13 Limitaciones de los Perceptrones Los perceptrones sólo pueden aprender conceptos linealmente separables. Un concepto es linealmente separable si existe un hiperplano capaz de separar todos los puntos que el concepto clasifica como 1 de los que clasifica como 0. Por ejemplo, un perceptrón no puede aprender el XOR. Jorge Baier Aranda, PUC 36
14 Regla de Aprendizaje del Perceptrón Veremos el caso particular de la neurona de McCulloch-Pitts: La red se inicializa con valores aleatorios para los pesos w i. Si se está procesando un ejemplo de entrenamiento con salida correcta d y la red entrega salida y, el peso w i de la entrada x i se ajusta de acuerdo a la regla: w i w i + η(d y)x i. η es una constante positiva llamada constante de aprendizaje. La regla de aprendizaje se aplica iterativamente a cada uno de los ejemplos. Cada vez que se procesa un ejemplo, se ajustan los pesos. Si todos los ejemplos se clasifican correctamente, se detiene el proceso. En otro caso, se vuelve al punto anterior. Jorge Baier Aranda, PUC 37
15 Error Cuadrático Medio El problema de aprendizaje en una red neuronal es un problema de búsqueda. El espacio queda definido por: La arquitectura de la red. El espacio de valores de los parámetros de la red (pesos). Dada la arquitectura de la red, buscaremos una hipótesis que maximice el rendimiento (minimice el error, con respecto a los ejemplos). Así, si T es un conjunto de n ejemplos, con x i, d i T para i = 1... n, el rendimiento es: P = 1 n n (f(x i ) d i ) 2. i=1 donde f(x i ) corresponde a la salida de la red para el i ésimo ejemplo (considerando una unidad con una sola salida). La medida anterior considera el error mirando todos los ejemplos, por lo cual es apropiada para métodos de aprendizaje batch. Jorge Baier Aranda, PUC 38
16 La regla Delta de entrenamiento La regla delta de entrenamiento está basada en un análisis matemático de la función de salida de los perceptrones. Está basada en el método del gradiente. Una de sus ventajas es que funciona con cualquier función de activación diferenciable. Deduciremos uns regla de actualización de pesos para hacer aprender a un perceptrón sin umbral (ADALINE). Es decir, una unidad lineal con: o(x) = w x Si D = { x 0, d 0,..., x n, d n } es el conjunto de entrenamiento, consideremos la función de error como: E(w) = 1 2 n (d k o(x k )) 2 k=1 Jorge Baier Aranda, PUC 39
17 El Gradiente [ E E(w) =, E,..., E ], w 0 w 1 w m donde m es la dimensión de los ejemplos. Ahora: E w i = = 1 2 = = = 1 w i 2 n k=1 n (d k o(x k )) 2 k=1 w i (d k o(x k )) 2 n (d k o k ) (d k o(x k )) w i k=1 n (d k o k ) (d k w x k ) w i k=1 n (d k o k )( x k,i ), k=1 Jorge Baier Aranda, PUC 40
18 donde x k,i es la i-ésima componente de x k. Como el gradiente da la dirección de mayor crecimiento, los pesos se pueden actualizar con la regla: w w η E(w). o bien: w i w i + η n (d k o k )( x k,i ). k=1 Jorge Baier Aranda, PUC 41
19 Algoritmo de descenso por el gradiente Descenso-Gradiente(ejemplos,η). Cada ejemplo es un par x, d y η es la tasa de aprendizaje. Inicializar los pesos w i en un valor pequeño aleatorio. Repita hasta que converja: Inicialice w i en cero. Para cada x, d en ejemplos: Calcule la salida o de la unidad. Para cada peso w i : w i w i + η(d o)x i. Para cada w i : w i w i + w i. Jorge Baier Aranda, PUC 42
20 Unidad de Umbral Sigmoidal En redes más complejas, se utilizan con frecuencia unidades con funciones de activiación no lineales. Una de las más populares son las unidades sigmoidales. x 0 = 1 x 1 w 1 w 0. S σ(net) x n w n Donde: y net = w x o = σ(net) = e net Jorge Baier Aranda, PUC 43
21 Una característica útil de la función logística es que: dσ(x) dx = σ(x)(1 σ(x)). Jorge Baier Aranda, PUC 44
22 Gradiente del error en Unidades Sigmoidales Consideremos la medida de error E definida previamente y calculemos: E w i = = 1 2 = = 1 w i 2 n k=1 n (d k o k ) 2 k=1 w i (d k o k ) 2 n (d k o k ) (d k o k ) w i k=1 n (d k o k ) k=1 ( o ) k w i Jorge Baier Aranda, PUC 45
23 Pero, o k = σ(net k) w i = σ(net k) w i net k net k w i = o k (1 o k )x k,i donde x k,i es la i-ésima componente de x k. Finalmente: E w i = n (d k o k )o k (1 o k )x k,i k=1 Jorge Baier Aranda, PUC 46
24 Redes Multicapa Veremos cómo entrenar redes de dos capas y extenderemos el resultado al caso general. Una red de dos capas se ve de la siguiente manera: z 0 = 1 x 0 = 1 1 z 1 1 y 1 d 1 x 1. x i. w (1) ji j z j w (2) kj k y k y k d k x n J z J K y K y K d K Donde y 1,..., y L son las salidas de la red y d 1,..., d L son los datos usados para entrenar. Jorge Baier Aranda, PUC 47
25 Si consideramos el error cuadrático de todas las salidas, E(x) = 1 2 K (d m y m ) 2 m=1 obtenemos la regla de actualización para los pesos de la última capa: w (2) kj E = η w (2) kj = η(d k y k )f (net k )z j, donde k = 1,..., K y j = 1,..., J y net k = J l=0 w klz l y donde f es la función de activación. Para obtener la regla de actualización de pesos de w (1) ji regla de la cadena, obteniéndose lo siguiente: w (1) ji [ K ] = ρ h (d k y k )f (net k )w (2) f (net j )x i k=1 kj es necesario aplicar la Jorge Baier Aranda, PUC 48
26 Error Backpropagation Backpropagation(ejemplos, η, n in, n out, n hidden ) Caso particular de una red con una capa escondida, con conexiones completas hacia adelante y unidades sigmoidales. Inicializar todos los pesos en valores aleatorios pequeños. Repita hasta que haya convergencia: Para cada ejemplo: 1. Procese el ejemplo a través de la red y calcule la salida. 2. Para cada unidad k de salida: 3. Para cada unidad escondida h δ k y k (1 y k )(t k y k ) δ h y h (1 y h ) k salidas w kh δ k 4. Actualizar los pesos w j,i : w ji w ji + ηδ j x j,i Jorge Baier Aranda, PUC 49
27 Comentarios al Algoritmo El ciclo principal del algoritmo se repite miles de veces. La condición de término puede cambiarse: Número fijo de iteraciones. Terminar cuando el error en los ejemplos caiga bajo un valor prefijado. Terminar cuando el error en un conjunto de validación obedezca un criterio, etc. Jorge Baier Aranda, PUC 50
28 Qué podemos representar? Funciones booleanas: Cualquier función booleana es representable por una red con una capa escondida. El número de nodos en la capa escondida puede crecer exponencialmente en el número de entradas. Funciones continuas: Cualquier función continua acotada puede representarse con una red con una capa escondida de unidades sigmoidales y una capa de salida de unidades lineales (sin umbral). Funciones Arbitrarias: Cualquier función puede aproximarse con una red con dos capas escondidas de unidades sigmoidales y una capa de salida de unidades lineales (sin umbral). Jorge Baier Aranda, PUC 51
Redes Neuronales Multicapa
Undécima sesión 16 de abril de 2010 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con
Más detallesPerceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018
Perceptrón Simple Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA Rosana Matuk Primer Cuatrimestre 2018 Rosana Matuk (DC-FCEyN-UBA) Perceptrón simple Primer Cuatrimestre 2018 1 / 29 Objetivo
Más detallesCI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell
CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Backpropagation Cap 20.5 Russel & Norvig Cap 4 Mitchell Universidad Simón Boĺıvar 8 de Octubre de 2008 Redes Multicapas de Unidades Sigmoidales
Más detallesTema 2 Primeros Modelos Computacionales
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple
Más detallesSISTEMAS INTELIGENTES
SISTEMAS INTELIGENTES T10: Redes Neuronales.aic.uniovi.es/ssii Índice Redes Neuronales Artificiales Fundamentos biológicos Perceptrón Funciones de activación Redes de neuronas Entrenamiento: Perceptrón
Más detallesRedes Neuronales Multicapa
4 de abril de 2011 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con hiperplanos Dos
Más detallesRedes Neuronales Artificiales
Algoritmo de retropropagación Back propagation Es utilizado para entrenar redes neuronales multicapa. Exige que la función de activación de las neuronas sea derivable y creciente. Las funciones comúnmente
Más detallesTécnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation
Más detallesInteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software
Inteligencia Artificial (Curso 0-0) Grado en Ingeniería Informática - Ingeniería del Software Redes neuronales Cuestión : Decir si las siguientes afirmaciones son verdaderas o falsas: Si tomamos la función
Más detallesTema 8: Redes Neuronales
Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/
Más detallesTema 5: Introducción a las redes neuronales
Tema 5: Introducción a las redes neuronales F. J. Martín Mateos, J. L. Ruiz Reina et al. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla nteligencia Artificial IA 2017
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detallesInteligencia Artificial II
Inteligencia Artificial II Introducción a Redes Neuronales D. Balbontín Noval Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial II - Tema 4 p. 1/43
Más detallesTema 9: Introducción a las redes neuronales
D. Balbontín Noval F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Neuronas artificiales: inspiración biológica El aprendizaje en
Más detallesREDES NEURONALES ADAPTABLES
REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables
Más detallesAprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Asignatura troncal: 4.5cr, 4ºCurso Ing Inf Aprendizaje: Perceptrón multi-capa 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 1 Indice Regla delta Modelo computacional
Más detallesPerceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL
Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente
Más detallesPerceptrones Fernando Berzal,
Fernando Berzal, berzal@acm.org Introducción Redes neuronales artificiales Modelos de redes Modelo de neurona artificial Funciones de activación La neurona de McCulloch y Pitts El algoritmo de aprendizaje
Más detallesDetección Multiusuario para DS-CDMA basado en SVM
9 Otra técnica basada en el aprendizaje y más conocida que la anterior es la basada en. Vamos a realizar una pequeña comparativa teórica de sobre ambas técnicas de clasificación. Estudiaremos los conceptos
Más detallesRedes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla
Redes Neuronales Introducción José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Indice Motivación Arquitectura Leyes de Aprendizae Aplicaciones DILEMA MEMORIA CALCULO Aritmética
Más detallesInteligencia Artificial II
Inteligencia Artificial II Introducción a Redes Neuronales Delia Balbontín Noval Francisco Jesús Martín Mateos José Luis Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad
Más detallesAnálisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo
Más detallesMétodos de Aprendizaje en Redes Neuronales
11 de abril de 2011 Entrenamiento de redes feedforward (Backpropagation) Siendo {z m, t m } m=1...n un conjunto de n patrones de entrenamiento, con z m las entradas conocidas para el m ésimo patrón y
Más detallesRedes neuronales con funciones de base radial
Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura
Más detallesRelación 7 - Redes neuronales
Sistemas Inteligentes 0-0 Relación - Redes neuronales Problemas Ejercicio. Explicar cómo se usaría una red neuronal para obtener un reconocedor de letras escritas a mano. Describir con precisión qué estructura
Más detallesTLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.
TLU(s) MULTICAPAS Se pueden implementar funciones en TLU con más de una capa 1 05 2 15 2 3 z 3 15 2 4 05 No eisten, en la actualidad, mecanismos de entrenamiento que permita conocer los pesos sinápticos
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Otra forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesRedes Neuronales Artificiales
Neuronales Artificiales Eduardo Morales, Hugo Jair Escalante Coordinación de Ciencias Computacionales Instituto Nacional de Astrofísica, Óptica y Electrónica Septiembre, 2015 (INAOE) Septiembre, 2015 1
Más detallesReconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales
Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar
Más detallesLas Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V
CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga
Más detallesInteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5
Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función
Más detalles4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas
4. El perceptrón 4.1 Introducción El perceptrón es la forma más simple de una red neuronal usada para la clasificación de un tipo especial de patrones, los linealmente separables (es decir, patrones que
Más detallesPerceptrón simple y perceptrón multicapa
UNL - FICH - Departamento de Informática - Ingeniería Informática Inteligencia Computacional Guía de trabajos prácticos Perceptrón simple y perceptrón multicapa. Objetivos Aplicar diferentes arquitecturas
Más detallesRedes Neuronales Artificiales El Perceptrón
1 Sistemas Expertos e Inteligencia Artificial / Guía IX / Ciclo 01-2018 Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Redes Neuronales Artificiales El
Más detallesANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES
ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES 1. Concepto de red neuronal artificial Una red neuronal artificial (RNA) es un modelo matemático que intenta reproducir el modo de funcionamiento y
Más detallesAprendizaje de Sistemas. Redes Neuronales Artificiales
Universidad de Granada E.T.S. Ingeniería Informática Diseño, Análisis y Aplicaciones de Sistemas Inteligentes Aprendizaje de Sistemas Redes Neuronales Artificiales José Manuel Benítez Sánchez J.M.Benitez@decsai.ugr.es
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es www.robolabo.etsit.upm.es Mapas Predicción Robótica M l M r W ij S S 2 S 3 S 4
Más detallesCAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias
CAPÍTULO 3 REDES NEURONALES ARTIFICIALES 3.1 Introducción Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias décadas de investigaciones desarrolladas en torno
Más detallesRedes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.
Redes Neuronales Elementos básicos de las redes neuronales carlos.andres.delgado@correounivalle.edu.co Carlos Andrés Delgado S. Facultad de Ingeniería. Universidad del Valle Agosto de 2017 Contenido 1
Más detallesIntroducción a las Redes de Neuronas
OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 1 Introducción a las Redes de Neuronas Introducción a las Redes de Neuronas 1 Introducción a las Redes de Neuronas Introducción
Más detallesPERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION
UNIVERSIDAD DE BUENOS AIRES FACULTAD DE INGENIERÍA MAESTRÍA EN SIMULACIÓN NUMÉRICA Y CONTROL TRABAJO PRACTICO 2: PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION Presentada como requisito parcial para
Más detallesConceptos básicos V:
C261-69 69 Tópicos Avanzados: Redes Neuronales Artificiales Conceptos básicos Dra. Ma. del Pilar Gómez Gil Primavera 2009 pgomez@acm.org V:13-01-09 Modelo Básico y Abstracto de un Neurón Artificial x 0
Más detallesEl Perceptrón Multicapa
El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del
Más detallesTUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB
TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB MARIA ISABEL ACOSTA BUITRAGO CAMILO ALFONSO ZULUAGA MUÑOZ UNIVERSIDAD TECNOLOGICA DE PEREIRA FACULTAD
Más detallesRedes Neuronales Artificiales
Red de Hopfield Almacenar un conjunto de p patrones de forma tal que cuando se presente un nuevo patrón, la red responda produciendo alguno de los patrones previamente almacenados que más se parezca al
Más detallesTema: Red Neuronal Hopfield. Reconocimiento de Patrones.
Sistemas Expertos e Inteligencia Artificial. Guía No. 10 1 Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Tema: Red Neuronal Hopfield. Reconocimiento
Más detallesUso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded
Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos: Skynet Reloaded...decided our fate in a microsecond... P. García H. Rajchert I. Scena Sistemas de Inteligencia Artificial
Más detallesEL PERCEPTRON MULTICAPA (MLP) 6
Otra diferencia fundamental de la adaline con respecto del asociador lineal y el perceptrón simple radica en la regla de aprendizaje. En la adaline se utiliza la regla de Widrow Holf, también conocida
Más detallesEntrenamiento de redes neuronales Fernando Berzal,
Entrenamiento de redes neuronales Fernando Berzal, berzal@acm.org Entrenamiento de redes neuronales Modos de entrenamiento Preprocesamiento de los datos Funciones de activación Inicialización de los pesos
Más detallesRedes neuronales Back Propagation. Enrique Calot 4 de octubre de 2009
Redes neuronales Back Propagation Enrique Calot 4 de octubre de 2009 1 1. Introducción Una red neuronal de tipo back propagation permite aprender mediante un conjunto de ejemplo (entrada-salida) comunmente
Más detallesOTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales
OTRAS CONSIDERACIONES! Estrategias para generalización Existen diversas estrategias para mejorar la generalización: 1) Teoría de Regularización: Agregar una penalidad para lograr mejorar la forma de la
Más detallesRedes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela
Redes Neuronales Artificiales para predicción en series temporales Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela Contenidos 1. Redes Neuronales Artificiales 2. RNA para predicción
Más detallesCAPÍTULO 3: REDES NEURONALES RECURRENTES
Capítulo 3 Redes Neuronales Recurrentes 15 CAPÍTULO 3: REDES NEURONALES RECURRENTES En este capítulo se describen las principales características y elementos de tres tipos de redes neuronales: feedforward,
Más detallesÁrea Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales
Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Tema: Perceptron Parte I Profesor: Víctor Tomás T. Mariano. Alumnos: Leticia Hernández Hernández Agustín Hernández Espinoza
Más detallesALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION
ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION En una RN entrenada, si las salidas calculadas por la red con nuevos ejemplos están próimas a los valores deseados, hay generalización (Haykin,
Más detallesExamen de Septiembre de TACCIII y TAI (Modelo 2)
Examen de Septiembre de TACCIII y TAI (Modelo 2) 12 de septiembre de 2008 1. La desordenación de la base de datos puede influir en el resultado obtenido mediante a) clasificación por distancia a las medias
Más detallesIntroducción a las Redes Neuronales
Introducción a las Redes Neuronales Perceptrón Simple William Campillay-LLanos williamcampillay@gmail.com https://sites.google.com/site/williamcampillay/home Departamento de Matemática, Física y Estadística.
Más detallesAprendizaje Automático
id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje
Más detallesIntroducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12
Introducción a las Redes Neuronales Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/2 Introducción a las Redes Neuronales Contenidos Introducción a las neuronas Introducción a las redes neuronales artificiales
Más detallesTema: Aprendizaje Supervisado.
Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos
Más detallesProfesor: Leonardo Franco Despacho Web:
Asignatura: MODELOS COMPUTACIONALES Ingeniería a técnica t en informática de gestión Horario Clases: Martes y Jueves 7:30-9:30 Aula: 3.05 Profesor: Leonardo Franco Despacho 3.2.29 Email: lfranco@lcc.uma.es
Más detallesInteligencia Artificial
Mayo 21 de 2008 El estudiante de la Pontificia Universidad Javeriana, como agente de su propia formación, es corresponsable de la Identidad Institucional, uno de cuyos cimientos es tener como hábito un
Más detallesTema 6. Reconocimiento de voz
Tema 6. Reconocimiento de voz 6.1.- Introducción 6.2.- Problemática 6.3.- Clasificación 6.4.- Esquema de trabajo 6.5.- Técnicas de reconocimiento 6.6.- Conclusiones 6.1.- Introducción Reconocimiento de
Más detallesUNIVERSIDAD CARLOS III MADRID
UNIVERSIDAD CARLOS III MADRID PROYECTO FIN DE CARRERA INGENIERÍA INDUSTRIAL Desarrollo de una interfaz gráfica de redes neuronales usando Matlab AUTOR: ALFONSO MORENO RODRÍGUEZ TUTOR: ISABEL GONZÁLEZ FARIAS
Más detallesUnidad VII Redes Neuronales
Unidad VII Redes Neuronales Maestría en Sistemas Computacionales Clave: MPSCO-0108 6 Créditos Sesiones Sábados 10-13 Rafael Vázquez Pérez Agenda 7.1 Introducción a las Redes Neurales (ANN) 7.2 Tipos de
Más detalles4 Método propuesto basado en el Perceptrón Multicapa
Capítulo 4 4 Método propuesto basado en el Perceptrón Multicapa En este capítulo se presenta el nuevo enfoque que se propone en esta tesis para la generación de series sintéticas de radiación solar. Está
Más detallesDeep Learning Seminario Minería de Datos
Deep Learning Seminario Minería de Datos Álvaro Riascos Mónica Ribero 2 de mayo de 2017 Contenido 1 Introducción 2 Modelo Logit 3 Redes Neuronales 4 Aplicaciones 5 Redes en el contexto de NLP 6 Otras arquitecturas
Más detallesAnálisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente
Más detallesRed Neuronal Artificial
índice RN Supervisadas - Introducción - El Perceptrón y la estructura multicapa MLP - El aprendizaje retropropagado: BP - Aplicaciones y ejemplos - Características y limitaciones P Campoy 1 Red Neuronal
Más detallesIntroducción a las Redes Neuronales Articiales
Inteligencia Humana como Inspiración Novena Sesión 24 de marzo de 2010 Inteligencia Humana como Inspiración Inteligencia Humana como Inspiración Sistema Nervioso Humano Características: Complejo No Lineal
Más detallesREDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.
REDES NEURONALES Las redes neuronales constituyen una poderosa herramienta para modelar sistemas, especialmente no lineales, sean dinámicos o estáticos. En el cuerpo celular se realizan la mayoría de las
Más detallesBACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES
BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES Paul Acquatella B. Universidad Simón Bolívar, Valle de Sartenejas, Caracas, Venezuela. acquatella@usb.ve Resumen Este trabajo presenta
Más detallesPerceptron multicapa. Capítulo Introducción
Capítulo 3 Perceptron multicapa 3.1. Introducción En este capítulo se estudiará una de las clases de redes de neuronas, conocida como Perceptron multicapa o red multicapa con conexiones hacia adelante.
Más detallesAprendizaje basado en ejemplos.
Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor
Más detalles2. PRINCIPALES TIPOS DE REDES NEURONALES
33 2. PRINCIPALES TIPOS DE REDES NEURONALES 2.1 PERCEPTRÓN 2.1.1 Antecedentes. La primera red neuronal conocida, fue desarrollada en 1943 por Warren McCulloch y Walter Pitts; ésta consistía en una suma
Más detallesOPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Tema 6: Redes de Neuronas Recurrentes
OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 6: Redes de Neuronas Recurrentes En este tema se estudian las redes de neuronas recurrentes. Se presentan en primer lugar
Más detallesAnálisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como
Más detallesCAPITULO 3 PERCEPTRON MULTICAPA.
Capitulo 3. Perceptrón Multicapa. 14 CAPITULO 3 PERCEPTRON MULTICAPA. En el este capítulo se introducen los conceptos que describen a las redes neuronales como tecnología adaptiva de reconocimiento de
Más detallesMÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)
Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura
Más detallesCapítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA
III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA 32 III. REDES NEURONALES ARTIFICIALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III.1 CONCEPTOS GENERALES En sus orígenes las Redes Neuronales
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Claudio Javier Tablada Germán Ariel Torres Resumen. Una Red Neuronal Artificial es un modelo matemático inspirado en el comportamiento biológico de las neuronas y en la estructura
Más detallesINDICE. Procedimiento 4. Mutación Paramétrica. 8
INDICE Introducción. 3 Objetivo 4 Procedimiento 4 Algoritmo Principal. 6 Inicialización de la Población 6 Función de Aptitud.. 7 Selección de la Nueva Población. 7 Mutación Estructural 8 Mutación Paramétrica.
Más detallesRedes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
Más detallesTEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones
Curso RNA Tema 0 TEMA 0 PRESENTACIÓN DEL CURSO REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES Comienzo del Curso Presentación del Curso Enfoque y Contexto Objetivos Contenidos Teórico Contenido Práctico
Más detallesPROCESO DE FERMENTACIÓN Y REDES NEURONALES. Gallardo, Alejandra Beatriz Sánchez, Mauricio Germán
PROCESO DE FERMENTACIÓN Y REDES NEURONALES Gallardo, Alejandra Beatriz Sánchez, Mauricio Germán Universidad Tecnológica Nacional Facultad Regional Villa María INTRODUCCIÓN AL PROBLEMA La información que
Más detallesAnálisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas
Más detallesRedes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez
Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías
Más detallesCONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con
319 CONCLUSIONES La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con respecto a otros modelos típicos de solución de problemas de Ingeniería, una de ellas es su inspiración en modelos
Más detallesRedes Multicapa. Compuerta XOR
Redes Multicapa LIMITACIÓN DEL PERCEPTRÓN El perceptrón puede resolver solamente problemas que sean linealmente separables, esto es problemas cuyas salidas estén clasificadas en dos categorías diferentes
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Alejandro Osses Vecchi 11 de julio de 2009 1. Introducción Comenzaremos con una definición simple y general de Red Neuronal para, en las próximas secciones, explicar y profundizar
Más detallesCAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN
CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN PERCEPTRÓN MULTICAPA EN MATLAB 4.1 Matlab Matlab ha demostrado ser un programa de desarrollo muy completo en distintas áreas, más que nada
Más detallesREDES NEURONALES ARTIFICIALES EN PREDICCIÓN DE SERIES DE TIEMPO: UNA APLICACIÓN A LA INDUSTRIA
SANTIAGO ZAPATA C. - JULIO VALDES H. Santiago Zapata Cáceres Departamento de Informática y Computación, Facultad de Ingeniería Universidad Tecnológica de Chile szapata@utem.cl Departamento de Informática
Más detallesAprendizaje no supervisado
OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 4 1 Introducción Aprendizaje competitvo Otros algoritmos de agrupación 2 1 Introducción Características principales de las
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detalles