Métodos de Aprendizaje en Redes Neuronales
|
|
- Héctor Romero Toledo
- hace 6 años
- Vistas:
Transcripción
1 11 de abril de 2011
2
3 Entrenamiento de redes feedforward (Backpropagation) Siendo {z m, t m } m=1...n un conjunto de n patrones de entrenamiento, con z m las entradas conocidas para el m ésimo patrón y t m las salidas deseadas en cada neurona de salida para ese patrón Algoritmo Backpropagation 1 Iniciar aleatoriamente los pesos de la red 2 Para cada patrón m de entrenamiento, de 1 a n 1 Presentar un patrón de entrada z m a la Red Neuronal. 2 Propagar éstas entradas hacia la capa de salida. 3 Calcular el error en la capa de salida 4 `Retropropagar' dicho error hacia la capa oculta a través de la regla delta 5 Cambiar los pesos de las conexiones. 3 Si tras recorrerse todos los patrones el error cuadrático medio de la salida para todos y cada uno de ellos es menor a un umbral, terminar. En caso contrario, volver a 2
4 Propagación (Feedforward) Funcionamiento usual de la red (entrenada o durante entrenamiento). Consiste en Propagación 1 Inicializar todos los valores v i, i C 0 de las unidades de entrada con el patrón a procesar 2 Para cada capa C k, k 1 (oculta o salida) 1 Para cada neurona j en la capa C k 1 Calcular la entrada de la neurona net j = v i w ij + θ j i C k 1 2 Calcular la salida de la neurona v j = φ(net j )
5 Estimación y uso del Error El error global de la red en cada paso n del entrenamiento se puede cuanticar con la suma de errores cuadráticos E n = 1 (t j,m v j ) 2 2 j C out estableciéndose así la condición de parada, imponiendo un máximo error aceptable en la salida, ε max. Así, la condición es E n < ε max Se busca la minimización del error mediante la variación de los pesos, según E w ij = E net j net j w ij = E net j v i porque netj w ij = v i, la entradas a la neurona j desde la neurona i de la capa anterior. Esto nos deja la notación E net j δ n j = φ (net j )(t j,m v j )
6 ¾Porqué el resultado para δ j? Para las neuronas de salida, la contribución al error de cada neurona j sólo depende de su entrada {v i } i Cout 1 y de los pesos que la conectan con dicha entrada. Entonces E net j = puesto que v j = φ(net j ). net j = (t j,m v j (net j )) ( ) (v j(net j ) t j,m ) net j v j (net j ) = (t j,m v j (net j )) φ (net j )
7 Regla Delta adaptada Dado lo anterior, podemos plantear la expresión de actualización de pesos para conexiones con neuronas de la capa de salida w ij = η E w ij = ηδ j v i Para las neuronas ocultas, el error en la neurona oculta i de la capa k se estima considerando todos los errores inducidos en las neuronas de la capa siguiente. Teniendo la estimación inicial del error en la capa de salida, para calcular los δ i en las capas ocultas se hace: δ i = φ (net i ) w ij δ j j C k+1 y se aplica la misma regla de actualización iterativamente (tiempo n) para todas las conexiones de la red w n ij = ηδ j v i w n ij = w n 1 ij + w n ij
8 Algoritmo de Backpropagation Parámetros: η: tasa de aprendizaje, ε max : umbral de error, {z p, S p } N patrones de entrenamiento, N: número de patrones Inicializar todos los pesos w j con valores aleatorios Hacer 1 Inicializar bandera de error a falso 2 Para p = 0 hasta N 1 Propagar Estimar la salida, v i para el patrón de entrada z p 2 Calcular E. Si E > ε max cambiar a verdadero la bandera de error, sino, pasar a siguiente patrón z p+1 3 Con S p, estimar el δ j para cada neurona j de la capa de salida C out 4 Para todas las capas ocultas desde C out 1hasta C 1 1 Para todas las neuronas i de cada capa Calcular el error δ i y el θ i, actualizar θ i 5 Para todas las conexiones de la red Calcular el w ij Actualizar los pesos de las conexiones w ij Mientras bandera de error sea verdadera
9 Ejemplo Gráco Backpropagation
10 Estructura de la red Algoritmo Backpropagation Ryszard Tadeusiewcz "Sieci neuronowe", Kraków 1992.
11 Fase de propagación adelante I
12 Fase de propagación adelante II
13 Fase de propagación adelante III
14 Fase de propagación adelante IV
15 Fase de propagación adelante V
16 Fase de propagación adelante VI
17 Fase de retropropagación I
18 Fase de retropropagación II
19 Fase de retropropagación III
20 Fase de retropropagación IV
21 Fase de retropropagación V
22 Fase de retropropagación VI
23 Fase de actualización de pesos I
24 Fase de actualización de pesos II
25 Fase de actualización de pesos III
26 Fase de actualización de pesos IV
27 Fase de actualización de pesos V
28 Fase de actualización de pesos VI
29
30 Modelos Competitivos Auto-organizados: Red de Kohonen Estructura bicapa Las neuronas de la capa de entrada, x = [x 1, x 2,, x m ] son captadores simples (toman datos presentados a la red y los pasan a la siguiente capa de manera ponderada a través de los pesos a las conexiones). Las neuronas de la capa siguiente son una matriz bidimensional conocida como mapa auto-organizado, en la que los elementos se activan por regiones (vecindades), según sean los patrones de entrada Datos de complejidad arbitraria pueden ser proyectados al espacio del mapa auto-organizado de forma ponderada a través de un vector (matriz) de pesos. Esto es (para la késima iteración del entrenamiento) wi k = [ wi1, k wi2, k, win k ] T donde n es el número de neuronas.
31 Estructura de la red de Kohonen Neurona Ganadora Matriz de neuronas de salida r vecindad de la neurona ganadora i Neurona ganadora Entradas (sección) La vecindad se dene topológicamente como la bola B r
32 Aprendizaje en la Red de Kohonen El aprendizaje en la red de Kohonen es de tipo competitivo: Se premia a las neuronas que se activan de forma diferenciada ante un patrón de entrenamiento especíco Se trata de un modelo de aprendizaje nosupervisado No se presenta a la red un conjunto de salidas deseadas sino que se refuerza el comportamiento que se considera deseable El algoritmo de entrenamiento es un proceso de auto-organización Los patrones son presentados iterativamente en la capa de entrada e, iterativamente, los pesos se van ajustando de modo que una neurona o región es activada para cada patrón Las neuronas compiten entre sí por ser activadas de acuerdo a los patrones de entrada presentados, según una función de ponderación que refuerza la activación de la región más activa La tasa de aprendizaje es variable. p.ej µ k = 1 αk
33 Algoritmo de entrenamiento para la red de Kohonen 1 Inicialización: 1 El peso w 0 ij de cada conexión entre las neuronas i de la capa de entrada y j del mapa auto-organizado se asigna (aleatoriamente), 2 Denir la vecindad de las neuronas a través del valor r, su radio 2 Presentar un patrón de entrenamiento conocido z = [z 1, z 2,, z m] 3 Se determina la neurona n cuyo vector de pesos es el más cercano al vector patrón de entrada. Se suele emplear la distancia euclídea mind i(n), d i(n) = (x k i wk i,n )2 n i 4 Se actualizan los pesos de todas las conexiones w i,n, para la nésima unidad del mapa (n jo) w k+1 i,n = { w k i + µ k (x k i w k i,n) w k i,n si i B r si i / B r 5 Regresar a 2. hasta que k alcance un número de iteraciones especicado
34 Memorias Asociativas Bidireccionales (BAM) Casos particulares de la máquina de memoria bicapa sin conexiones laterales El conocimiento se almacena en los pesos de la red que asocian entradas con salidas mediante un proceso de transformación B La conguración de entradas y salidas debe tener una correspondencia intrínseca. Los valores entrantes y salientes suelen ser binarios ((0, 1) o (-1, 1)). Se suelen polarizar los patrones (representarlos como función signo) Las neuronas de la capa oculta permiten procesar el conocimiento de las conexiones sobre el patrón de entrada, aproximándolo a un patrón conocido previamente entrenado A Se genera un modelo de memoria asociativa
35 Funcionamiento de una red tipo BAM El Patrón de entrada es presentado a la red a través de la capa de entrada con valores en el vector A, propagándose a la capa de salida, B, a través de las conexiones con pesos en la matriz W, activándolas con un vector de valores B A W B Los valores de activación B de la capa oculta regresan a la capa visible mediante la aplicación de la matriz transpuesta de pesos W T B W T A El vector de valores obtenido en la capa A se propaga de nuevo hacia la capa oculta, generando nuevos valores de activación, B A W B Este proceso se repite hasta que la red alcance un estado estable (variaciones por debajo de un umbral aceptable - menor energía almacenada en W)
36 Funcionamiento de una red tipo BAM Ejemplo de implementación de una memoria BAM
37 Aprendizaje de una red tipo BAM 1 Inicializar aleatoriamente W 2 Leer un vector de entrada A y un vector de salida B, polarizándolos si es necesario (pasar de (0,1) a (-1,1)) 3 Para todos los elementos {w ij } que unen a neuronas a i A y b j B hacer w n+1 ij = w n ij + a ib j 4 Si hay más patrones de entrada, volver a 2. hasta presentarlos todos a la red BAM
38 Recuperación de patrones en una red tipo BAM 1 Leer un vector de entrada A en la red 2 Generar la salida B para el patrón de presentado. Para todos los b j 1 si b n+1 i a iw ij > 0 j = 0 si i a iw ij < 0 b n si i a iw ij = 0 3 Generar la salida A para el patrón de presentado. Para todos los a i 1 si a n+1 j b jw ij > 0 i = 0 si j b jw ij < 0 b n si j b jw ij = 0 4 Volver a 2. hasta que A y B dejen de cambiar.
Redes Neuronales Artificiales
Algoritmo de retropropagación Back propagation Es utilizado para entrenar redes neuronales multicapa. Exige que la función de activación de las neuronas sea derivable y creciente. Las funciones comúnmente
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detallesTécnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation
Más detallesOPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Preguntas y Ejercicios para Evaluación: Tema 4
OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Preguntas y Eercicios para Evaluación: Tema 4 1. Indique características del aprendizae no supervisado que no aparezcan en el
Más detallesTema: Aprendizaje Supervisado.
Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos
Más detallesAnálisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo
Más detallesRedes de Neuronas Recurrentes Computación con Inspiración Biológica
Redes de Neuronas Recurrentes Computación con Inspiración Biológica Grupo de Computación Evolutiva y Redes Neuronales Departamento de Informática Universidad Carlos III de Madrid Redes Recurrentes Introducción
Más detallesTema 8: Redes Neuronales
Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/
Más detallesRedes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
Más detallesTema 7 Redes Neuronales Recurrentes
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M Galván -José Mª Valls Tema 7 Redes Neuronales Recurrentes REDES DE NEURONAS ARTIFICIALES INÉS M GALVÁN, JOSÉ Mª VALLS
Más detallesNeural Network Toolbox
Neural Network Toolbox Sistemas Conexionistas - Curso 07/08 La Neural Network Toolbox es un paquete de Matlab que contiene una serie de funciones para crear y trabajar con redes de neuronas artificiales.
Más detallesSelf Organizing Maps. Self Organizing Maps. SOM/KOHONEN Network Mapas Auto-organizativos. Estructura de la Red. Estructura de la Red
SOM/KOHONEN Network Mapas Auto-organizativos Capitulo 6 Análisis Inteligente de datos Self Organizing Maps La red SOM es creada por Teuvo Kohonen en la década de los 8, rápidamente paso a ser una de las
Más detallesANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES
ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES 1. Concepto de red neuronal artificial Una red neuronal artificial (RNA) es un modelo matemático que intenta reproducir el modo de funcionamiento y
Más detallesAlgoritmo del perceptron DISCRETO VARIABLES
Algoritmo del perceptron DISCRETO VARIABLES I (nº de iteraciones) K (contador de ejemplos) W[i:1..n+1] (pesos del perceptron) X[i:1..n] (valores de la entrada en el ejemplo actual) Y (valor de la salida
Más detallesTema 2 Primeros Modelos Computacionales
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Alejandro Osses Vecchi 11 de julio de 2009 1. Introducción Comenzaremos con una definición simple y general de Red Neuronal para, en las próximas secciones, explicar y profundizar
Más detallesTema: Red Neuronal Hopfield. Reconocimiento de Patrones.
Sistemas Expertos e Inteligencia Artificial. Guía No. 10 1 Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Tema: Red Neuronal Hopfield. Reconocimiento
Más detallesAnexo Redes Neuronales
Anexo Redes Neuronales Félix Monasterio-Huelin y Álvaro Gutiérrez 8 de abril de 2016 Índice Índice 1 Índice de figuras 1 1. El entorno del robot 2 2. Neurona y funciones de activación 2 2.1. Vector de
Más detalles3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en
301 3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL 3.7.1 Descripción del Problema: La identificación de un sistema consiste en determinar una función que relacione las variables de entrada con las
Más detallesPerceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL
Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente
Más detallesREDES NEURONALES ADAPTABLES
REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables
Más detalles4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas
4. El perceptrón 4.1 Introducción El perceptrón es la forma más simple de una red neuronal usada para la clasificación de un tipo especial de patrones, los linealmente separables (es decir, patrones que
Más detallesTUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB
TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB MARIA ISABEL ACOSTA BUITRAGO CAMILO ALFONSO ZULUAGA MUÑOZ UNIVERSIDAD TECNOLOGICA DE PEREIRA FACULTAD
Más detallesRedes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez
Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías
Más detallesTema 9: Introducción a las redes neuronales
D. Balbontín Noval F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Neuronas artificiales: inspiración biológica El aprendizaje en
Más detallesUNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION
UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION Qué es el momento en una red backpropagation? U.A. REDES NEURONALES INTEGRANTES: JESUS BARRIOS CRESCENCIO
Más detallesTECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN
TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN FUNDAMENTOS CURSO DE DOCTORADO Dr. Ramón García-Martínez * * * CONTEXTO La inteligencia de negocio propone un abordaje interdisciplinario que tomando:
Más detallesDefinir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales
Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Abstract Este trabajo tiene como objetivo analizar, experimentar y comprender el funcionamiento y las características de los Sistemas
Más detallesAnálisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,
Más detallesLas Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO III
herramienta en la toma de decisiones Villanueva Espinoza, María CAPÍTULO III III ELEMENTOS DE UNA RED NEURONAL ARTIFICIAL Las redes neuronales son modelos que intentan reproducir el comportamiento del
Más detallesTÉCNICAS DE AGRUPAMIENTO
TÉCNICAS DE AGRUPAMIENTO José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Algoritmo de las C-Medias. Algoritmos de agrupamiento
Más detallesAPRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8; Hilera Capt. 3)
Tema 2: Aprendizaje y Entrenamiento Sistemas Conexionistas 1 2.- Aprendizaje o Entrenamiento. 2.1.- Aprendizaje Automático. 2.2.- Tipos de aprendizaje. APRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8;
Más detallesElementos de máquinas de vectores de soporte
Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos
Más detallesTema 15: Combinación de clasificadores
Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial
Más detallesRed Neuronal para el Reconocimiento de Patrones
Conferencia Taller Sistemas Neuro borrosos 26 de abril de 2017 Red Neuronal para el Reconocimiento de Patrones Juan Carlos Alvarado Pérez juan.alvarado@aunar.edu.co Facultad de Ingeniería Programa de ingeniería
Más detallesDISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN GUIAS PARA EL DISEÑO DEL LABORATORIO
DISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN DESCRIPCIÓN DEL DOCUMENTO: Este documento presenta la construcción de un laboratorio virtual básico para el diseño de redes
Más detallesRedes neuronales en control de sistemas
Redes neuronales en control de sistemas Marco Teórico Las redes neuronales tratan de emular ciertas características propias de los humanos, una muy importante es la experiencia. El ser humano es capaz
Más detallesNeurona. Células y Fibras nerviosas Célula Nerviosa. Sensoriales, motoras y de asociación Nucleo Actividades metabólicas Conexiones sinápticas
Redes Neuronales Neurona Células y Fibras nerviosas Célula Nerviosa Neuronas Bipolares Neuronas Multipolares Sensoriales, motoras y de asociación 50000 Nucleo Actividades metabólicas Conexiones sinápticas
Más detallesAnálisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos
Más detallesPREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES
PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES Guillermo MOLERO CASTILLO - g.moleroc@gmail.com Maestría en Ingeniería de la Computación, Universidad Nacional Autónoma de México
Más detallesIntroducción a las Redes de Neuronas
Introducción a las Redes de Neuronas Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, 30. 89 Leganés (Madrid) Introducción de Redes de Neuronas Introducción Fundamentos
Más detallesCONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)
Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas
Más detallesReconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales
Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar
Más detallesAnálisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
Más detallesOTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales
OTRAS CONSIDERACIONES! Estrategias para generalización Existen diversas estrategias para mejorar la generalización: 1) Teoría de Regularización: Agregar una penalidad para lograr mejorar la forma de la
Más detallesComparación de los modelos de redes neuronales Hopfield y BPN aplicados a un sistema de Soporte a la Toma de Desiciones
Comparación de los modelos de redes neuronales Hopfield y BPN aplicados a un sistema de Soporte a la Toma de Desiciones Cisneros, Alberto Cividini, Sergio Capello, Mauro Casiva, Agustin Utgés, Javier Universidad
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesAux 7. Introducción a la Minería de Datos
Aux 7. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 glhuilli@dcc.uchile.cl 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial
Más detallesIntroducción a las Redes Neuronales
Introducción a las Redes Neuronales Excepto en las tareas basadas en el cálculo aritmético simple, actualmente, el cerebro humano es superior a cualquier computador: Reconocimiento de imágenes, Interpretación
Más detallesMÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)
Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura
Más detallesMaría Gabriela Vintimilla Sarmiento Darwin Alulema
Desarrollo e Implementación de una Aplicación que Traduzca el Abecedario y los Números del uno al diez del Lenguaje de Señas a Texto para Ayuda de Discapacitados Auditivos Mediante Dispositivos Móviles
Más detallesTeoría de grafos y optimización en redes
Teoría de grafos y optimización en redes José María Ferrer Caja Universidad Pontificia Comillas Definiciones básicas Grafo: Conjunto de nodos (o vértices) unidos por aristas G = (V,E) Ejemplo V = {,,,,
Más detallesEstado civil: {casado/a, soltero/a, divorciado/a}
Universidad Rey Juan Carlos Curso 2011 2012 Inteligencia Artificial Ingeniería Informática Hoja de Problemas 9 1. Un banco quiere clasificar los clientes potenciales en fiables o no fiables. El banco tiene
Más detallesSoluciones de la ecuación de onda ( ) ( ) ( ) ONDAS PLANAS. Ecuación de onda en coordenadas cartesianas. Separación de variables.
ONDAS PLANAS Soluciones de la ecuación de onda cuación de onda en coordenadas cartesianas Ω+ Ω Ω Ω Ω + + + Ω Separación de variables Ω X Y Z d X dy dz + + + X d Y d Z d X d Y d d X dy Z d dz + + cuaciones
Más detallesRedes Neuronales Artificiales
Neuronales Artificiales Eduardo Morales, Hugo Jair Escalante Coordinación de Ciencias Computacionales Instituto Nacional de Astrofísica, Óptica y Electrónica Septiembre, 2015 (INAOE) Septiembre, 2015 1
Más detallesIntroducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12
Introducción a las Redes Neuronales Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/2 Introducción a las Redes Neuronales Contenidos Introducción a las neuronas Introducción a las redes neuronales artificiales
Más detallesAnálisis y Recuperación de Información
Análisis y Recuperación de Información 1 er Cuatrimestre 2016 Página Web http://www.exa.unicen.edu.ar/catedras/ayrdatos/ Prof. Dra. Daniela Godoy ISISTAN Research Institute UNICEN University Tandil, Bs.
Más detallesEl método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.
El método simplex Forma estándar y cambios en el modelo. Definiciones. Puntos extremos y soluciones factibles básicas. 4 El método simplex. Definiciones y notación. Teoremas. Solución factible básica inicial.
Más detallesESTUDIO DEL GRUPO SOBRE TÉCNICAS EMERGENTES (Año 2007)
ESTUDIO DEL GRUPO SOBRE TÉCNICAS EMERGENTES (Año 2007) Resumen Las redes neuronales y los sistemas basados en lógica borrosa son las nuevas herramientas de uso más difundido en la actualidad, encontrándose
Más detallesExamen de Septiembre de TACCIII y TAI (Modelo 2)
Examen de Septiembre de TACCIII y TAI (Modelo 2) 12 de septiembre de 2008 1. La desordenación de la base de datos puede influir en el resultado obtenido mediante a) clasificación por distancia a las medias
Más detallesClasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO
Clasificación NO SUPERVISADA AGRUPAMIENTO Clasificación No Supervisada Se trata de construir clasificadores sin información a priori, o sea, a partir de conjuntos de patrones no etiquetados Objetivo: Descubrir
Más detallesRedes Multicapa. Compuerta XOR
Redes Multicapa LIMITACIÓN DEL PERCEPTRÓN El perceptrón puede resolver solamente problemas que sean linealmente separables, esto es problemas cuyas salidas estén clasificadas en dos categorías diferentes
Más detallesPROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ.
PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ. Lucas García Cillanueva Paloma Jimeno Sánchez-Patón Leticia C. Manso Ruiz PROJECT GLASS Dentro de Google Labs Gafas
Más detallesTécnicas de aprendizaje sobre series temporales
Técnicas de aprendizaje sobre series temporales Contenido 1. Motivación. 2. Ejemplo del Problema. 3. Aproximaciones al problema de clasificación de series temporales. 4. Aprendizaje de reglas. 5. Boosting
Más detallesREDES NEURONALES ARTIFICIALES AUTO-ORGANIZATIVAS DINÁMICAS
UNIVERSIDAD DE CHILE FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS DEPARTAMENTO DE INGENIERÍA ELÉCTRICA REDES NEURONALES ARTIFICIALES AUTO-ORGANIZATIVAS DINÁMICAS MEMORIA PARA OPTAR AL TÍTULO DE INGENIERO
Más detallesCurso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo
Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo, Uruguay
Más detallesRedes neuronales con funciones de base radial
Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura
Más detallesSe trata de: Explicar el comportamiento de una variable dependiente ( Y ) en función de otras variables ( i ) 2 Investigar si las variables están asoc
4 ASOCIACION ENTRE VARIABLES En la investigación estadística- y en lo fundamental aquella relacionada a variables socioeconómicas-, es común encontrar variables relacionadas o asociadas Estadísticamente
Más detalles4 Método propuesto basado en el Perceptrón Multicapa
Capítulo 4 4 Método propuesto basado en el Perceptrón Multicapa En este capítulo se presenta el nuevo enfoque que se propone en esta tesis para la generación de series sintéticas de radiación solar. Está
Más detallesAPLICACIÓN DEL ALGORITMO ADABOOST.RT PARA LA PREDICCIÓN DEL INDICE COLCAP Y EL DISEÑO DE UN CONTROLADOR NO LINEAL LAURA MARCELA REYES FAJARDO
APLICACIÓN DEL ALGORITMO ADABOOST.RT PARA LA PREDICCIÓN DEL INDICE COLCAP Y EL DISEÑO DE UN CONTROLADOR NO LINEAL LAURA MARCELA REYES FAJARDO Universidad Distrital Francisco José de Caldas Facultad de
Más detalles5.- Diseña un Perceptrón simple con una capa intermedia (oculta) de unidades de proceso bipolares que implemente la función lógica XOR. 6.
05/IX/2005 E. T. S. de Ingeniería Informática Universidad de Málaga 1.- Demuestra el teorema de convergencia de una red de Hopfield binaria cuando se sigue una dinámica de computación asíncrona (secuencial).
Más detallesEl Algoritmo E-M. José Antonio Camarena Ibarrola
El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas
Más detallesLa lección de hoy de febrero de Notación. Solución factible básica
1.3 1 de febrero de La lección de hoy Método simplex (continuación) Entregas: material de clase Nota: el diseño de esta presentación incluye animaciones que permiten verla en forma de diapositivas. Repaso
Más detallesCONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con
319 CONCLUSIONES La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con respecto a otros modelos típicos de solución de problemas de Ingeniería, una de ellas es su inspiración en modelos
Más detallesProgramación lineal: Algoritmo del simplex
Programación lineal: Algoritmo del simplex Se considera la formulación estándar de un problema de programación lineal siguiendo la notación utilizada en las clases teóricas: Minimizar c t x sa: Ax = b
Más detalles2. PRINCIPALES TIPOS DE REDES NEURONALES
33 2. PRINCIPALES TIPOS DE REDES NEURONALES 2.1 PERCEPTRÓN 2.1.1 Antecedentes. La primera red neuronal conocida, fue desarrollada en 1943 por Warren McCulloch y Walter Pitts; ésta consistía en una suma
Más detallesResolución 3523 de 2012
Enero 1 a Marzo 31 de 2016 Completación de llamadas internacionales entrantes 96% Completación de llamadas internacionales salientes 97% Octubre 1 a Diciembre 31 de 2015 Completación de llamadas internacionales
Más detallesSolución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002
Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: de mayo de 22 INDICACIONES Duración del parcial: 4 hrs. Escribir las hojas de un solo lado. No se permite el uso de material
Más detallesSecretaría de Docencia Dirección de Estudios Profesionales
PROGRAMA DE ESTUDIO POR COMPETENCIAS REDES NEURONALES I. IDENTIFICACIÓN DEL CURSO Espacio Educativo: Facultad de Ingeniería Licenciatura: Ingeniería en Computación Área de docencia: Interacción Hombre-Máquina
Más detallesTema 4: VARIABLE ALEATORIA N-DIMENSIONAL
Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL Carlos Alberola López Lab. Procesado de Imagen, ETSI Telecomunicación Despacho D04 caralb@tel.uva.es, jcasasec@tel.uva.es, http://www.lpi.tel.uva.es/sar Concepto
Más detallesRECOMENDACIÓN UIT-R S.1256
Rec. UIT-R S.1256 1 RECOMENDACIÓN UIT-R S.1256 METODOLOGÍA PARA DETERMINAR LA DENSIDAD DE FLUJO DE POTENCIA TOTAL MÁXIMA EN LA ÓRBITA DE LOS SATÉLITES GEOESTACIONARIOS EN LA BANDA 6 700-7 075 MHz PRODUCIDA
Más detallesCapítulo 5 Introducción a la Elaboración Proyecciones Financieras
Capítulo 5 Introducción a la Elaboración Proyecciones Financieras Objetivo Identificar los principios que rigen la proyección financiera, así como los criterios que se utilizan para la elaboración de flujos
Más detallesANALISIS DE PROXIMIDADES
-1- ANALISIS DE PROXIMIDADES (MULTIDIMENSIONAL SCALING (MDS)) José Luis Vicente Villardón Departamento de Estadística Universidad de Salamanca -- MODELOS DE MDS INTRODUCCION El Multidimensional Scaling
Más detallesConversión Electromecánica de Energía - II. Curso Máquinas Eléctricas
Conversión Electromecánica de Energía - II Curso Máquinas Eléctricas Bibliografía 1- Conversión de Energía Eléctrica - Capítulo 3: Teoría Básica de los Convertidores Electromecánicos de Energía - Prof.
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesRedes de Kohonen y la Determinación Genética de las Clases
Redes de Kohonen y la Determinación Genética de las Clases Angel Kuri Instituto Tecnológico Autónomo de México Octubre de 2001 Redes Neuronales de Kohonen Las Redes de Kohonen, también llamadas Mapas Auto-Organizados
Más detallesEjercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
Más detallesFuzzification. M.C. Ana Cristina Palacios García
Fuzzification M.C. Ana Cristina Palacios García Introducción Es el proceso donde las cantidades clásicas se convierten a difusas. Requiere el identificar la incertidumbre presente en valores finitos o
Más detallesRedes Neuronales Artificiales. MTI. Eduardo Cruz Romero
Redes Neuronales Artificiales MTI. Eduardo Cruz Romero Qué es una neurona? La neurona es la célula responsable de transferir la información y los impulsos eléctricos alrededor del cuerpo. Estructura Neuronal
Más detallesAprendizaje: Boosting y Adaboost
Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo
Más detallesModelo Predictivo del Crimen para la Región Metropolitana
Análisis Espacial de la Criminalidad basado en Georeferenciación de Denuncias José Miguel Benavente PhD Departamento de Economía. Departamento de Ingeniería Industrial. Universidad de Chile. Carabineros
Más detallesSimulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano
Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Anita Alegre López 1, Sonia Mariño 1, David La Red 1 1 Dpto. Informática. Universidad Nacional del Nordeste.
Más detallesDISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL
TECNIA,Vol 8 N 03, págs.11-17, 1999 Universidad Nacional de Ingeniería Lima - Perú DISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL Arturo Rojas-Moreno, arojas@uni.edu.pe
Más detallesAnálisis de datos Categóricos
Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores
Más detallesPráctica 3. Nombre del curso: Teoría Moderna de la Detección y Estimación. Autores: Emilio Parrado Hernández
Práctica 3 Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Emilio Parrado Hernández Práctica 3: Cancelación de ruido mediante filtrado. Teoría Moderna de la Detección y la Estimación
Más detallesVectores y matrices. Problemas para examen
Vectores y matrices Problemas para examen Operaciones lineales con vectores 1. Programación: la suma de dos vectores. Escriba una función que calcule x + y, donde x, y R n. Calcule el número de flops.
Más detallesExtracción de Bordes
Visión por Computadora Unidad IV Extracción de Bordes Rogelio Ferreira Escutia Contenido 1) Conceptos sobre Bordes 2) Extracción de bordes por Derivadas 3) Operadores de Primera Derivada 1) Conceptos sobre
Más detallesANEXO A DESCRIPCIÓN DE LAS FUNCIONES UTILIZADAS EN MATLAB
333 ANEXO A DESCRIPCIÓN DE LAS FUNCIONES UTILIZADAS EN MATLAB 1. Red tipo Perceptrón: Las siguientes son las herramientas de redes neuronales del Matlab 5.3: utilizadas en el entrenamiento de las redes
Más detallesPRONÓSTICO DE CAUDALES DE DESHIELO A DISTINTAS ESCALAS TEMPORALES, USANDO REDES NEURONALES ARTIFICIALES EN LA CUENCA DEL RÍO MAPOCHO EN LOS ALMENDROS
PRONÓSTICO DE CAUDALES DE DESHIELO A DISTINTAS ESCALAS TEMPORALES, USANDO REDES NEURONALES ARTIFICIALES EN LA CUENCA DEL RÍO MAPOCHO EN LOS ALMENDROS MEMORIA PARA OPTAR AL TÍTULO DE INGENIERO CIVIL MONTSERRAT
Más detallesOperaciones con matrices
Operaciones con matrices Problemas para examen Operaciones lineales con vectores 1. Programación: la suma de dos vectores. Escriba una función que calcule x + y, donde x, y R n. Calcule el número de flops.
Más detalles