REDES NEURONALES NO SUPERVISADAS

Documentos relacionados
OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Preguntas y Ejercicios para Evaluación: Tema 4

Self Organizing Maps. Self Organizing Maps. SOM/KOHONEN Network Mapas Auto-organizativos. Estructura de la Red. Estructura de la Red

Manual de uso de SOM-PAK

Aprendizaje no supervisado: Mapas Auto-organizados SOM - Inspiración y objetivos - Aprendizaje - Ejemplo y aplicaciones

Aprendizaje Automatizado. Redes Neuronales Artificiales

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V

REDES AUTOORGANIZATIVAS

Inteligencia Computacional II Mapas auto-organizados

Redes Neuronales Multicapa

Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded

APRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8; Hilera Capt. 3)

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Cálculo de la tasa de contorneamientos originados por descargas atmosféricas mediante un método sistemático y un método estadístico.

Redes Neuronales Artificiales

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas

Redes Neuronales Artificiales

Neural Network Toolbox

Clustering: Algoritmos

Redes de Neuronas de Base Radial

El Perceptrón Multicapa

Redes Neuronales Multicapa

TÉCNICAS DE AGRUPAMIENTO

Detección Multiusuario para DS-CDMA basado en SVM

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento

TEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones

Perceptrón simple y perceptrón multicapa

Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales

Relación 7 - Redes neuronales

INTRODUCTION TO MACHINE LEARNING ISABELLE GUYON

Introducción a Las redes Neuronales (Neurales) CO-6612

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software

Aprendizaje: Perceptrón multi-capa

Lingüística computacional

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Aprendizaje: Boosting y Adaboost

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)

Los protocolos de enrutamiento dinámico se han usado en redes desde comienzos de la década de los ochenta.

CAPÍTULO 3: REDES NEURONALES RECURRENTES

SISTEMAS INTELIGENTES

Aprendizaje No Supervisado

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Profesor: Leonardo Franco Despacho Web:

Clasificadores Débiles - AdaBoost

REDES NEURONALES ADAPTABLES

Redes neuronales con funciones de base radial

Inteligencia Artificial: Su uso para la investigación

CRITERIOS DE SELECCIÓN DE MODELOS

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.

Introducción a las Redes Neuronales

Tema: Red Neuronal Hopfield. Reconocimiento de Patrones.

1.1. Exponer la especificación PAMA de un agente software encargado de servir de asistente en una herramienta de desarrollo (Netbeans o VS)

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

RECONOCIMIENTO DE PAUTAS. ANÁLISIS DE CONGLOMERADOS (Cluster Analysis)

CLUSTERING. Bases de Datos Masivas

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Parte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales

Perceptrones Fernando Berzal,

Redes neuronales artificiales: The Self-Organizing Maps (SOM) para el reconocimiento de patrones.

Transcripción:

Redes no supervisadas REDES NEURONALES NO SUPERVISADAS

Redes no supervisadas El cerebro tiene la capacidad de auto-organizarse a partir de los estímulos recibidos y esto lo logra de manera no supervisada. Diferentes estímulos son enviados y procesados en partes específicas del cerebro. Por ejemplo, un estímulo visual y otro auditivo son dirigidos a regiones distintas en el cerebro.

Redes no supervisadas La capacidad de auto-organización a partir de los estímulos es importante porque permite descubrir patrones o características importantes. Esto se logra al observar como los estímulos son mapeados en diversas regiones mostrando así las diferentes características o patrones presentes

Redes no supervisadas Los algoritmos de entrenamiento no supervisados pueden ser divididos en dos grandes categorías: Hard Competitive learning Soft Competitive learning Las neuronas en la red compiten entre si y sólo una de ellas (la neurona ganadora) produce la respuesta al estímulo. Durante el entrenamiento sólo los pesos sinápticos de la neurona ganadora se actualizan No existe interacción entre neuronas vecinas Las neuronas en la red compiten entre si y sólo una de ellas (la neurona ganadora) produce la respuesta al estímulo. Durante el entrenamiento los pesos sinápticos de la neurona ganadora y sus vecinas se actualizan Existe interacción entre neuronas vecinas

Redes no supervisadas Mecanismo de Competencia Consiste básicamente en considerar una medida de similitud y buscar la neurona cuyo vector de pesos sinápticos se asemeja más al estímulo presentado a la red. La medida de similitud usada varía dependiendo de las aplicaciones y entre las más usadas se encuentran: ( ) La distancia Euclídea usual: d X, W = X W j = 1,2, Κ N j j, En esta caso la neurona ganadora es aquella para la cual la distancia es la más pequeña ( ) t Producto interno usual: d X, W = W X j = 1,2, Κ N j j, En esta caso la neurona ganadora es aquella para la cual la distancia es la más grande

Redes no supervisadas d( X,W 1 ) d( X,W 2 ) Neurona Ganadora X d( X,W 3 ) d( X,W 4 ) Este proceso puede ser bastante lento cuando la cantidad de neuronas es grande!

Redes no supervisadas Mecanismo de Actualización Consiste en mover en cierto grado el vector de pesos sinápticos para que se asemeje al patrón o estímulo de entrada. Para ello se considera: W ( n + 1) = W ( n) + ΔW ( n) ΔW ( n) = η ( X ( n) W ( n) ) < η < 1 La tasa o constante de aprendizaje puede ser constante o función del número de épocas. Esto es, η = η( n)

Redes no supervisadas Configuración de la red Generalmente se utiliza una red con una sola capa de neuronas o un arreglo 2D de neuronas, dependiendo de la aplicación. Esta configuración puede ser estática(fija) o dinámica (cambiante) Para efectos de visualización, es preferible trabajar con un arreglo de neuronas en 2D. X 1D 2D

Redes no supervisadas Respuesta de la red Dependiendo de la aplicación, la respuesta puede ser: El Vector de pesos sinápticos de la neurona ganadora Permite detectar cluster en los estímulos presentados a la red. El índice de la neurona ganadora Permite detectar cluster en los estímulos presentados a la red. Permite visualizar agrupamiento de los estímulos o patrones cuando estos se encuentran en dimensiones superiores Esto se logra asignando a cada estimulo el índice de la neurona ganadora que lo representa

Redes no supervisadas iteración 1 1,5 1,5 -,5-1 -1,5-1,5-1 -,5,5 1 1,5 iteración 1 1,5 1 iteración 2 1,5 1,5 -,5-1 -1,5-1,5-1 -,5,5 1 1,5 iteración 5 1,5 1 Red 1D, 4 Neuronas 1,5,5 Patrones de entrada Valores de los pesos sinápticos,5,5 -,5-1 -1,5-1,5-1 -,5,5 1 1,5 -,5-1 -1,5-1,5-1 -,5,5 1 1,5 -,5 iteración 1 1,5 1,5 -,5-1 -1,5-1,5-1 -,5,5 1 1,5 iteración 2 1,5 1,5 -,5-1 -1,5-1,5-1 -,5,5 1 1,5-1,5 -,5,5 1,5-1,5

Redes no supervisadas X Espacio de entrada original de los estímulos Espacio de representación

Redes no supervisadas

Hard Competitive Learning HARD COMPETITIVE LEARNING

Hard Competitive Learning El algoritmo básico del HCL es: 1. Escoger un estímulo o patrón de entrada X(n) 2. Determinar la neurona ganadora * i Esta corresponde al índice i * para el cual X W * i X W j j 3. Actualizar el vector de pesos sinápticos de la neurona i * ( n + ) = W * ( n) + η( n) X ( n) W * ( n) ( ) W * 1 i i i 4. Repetir hasta satisfacer la condición de parada

Hard Competitive Learning Bernd Fritzke.Some Competitive learning methods, 1997

Hard Competitive Learning La desventaja del algoritmo es que algunas neuronas pudieran ser actualizadas menos frecuentemente que otras o incluso no ser actualizadas. Los estímulos tienen distribución uniforme en la región y sin embargo la densidad de puntos es 1 veces mayor en la parte superior

REDES DE KOHONEN

Kohonen Las redes de kohonen son redes no supervisadas en 1D o 2D entrenadas con un algoritmo de entrenamiento del tipo soft competitive learning Tienen la ventaja de que todas las neuronas son actualizadas en cierta medida. Esto se logra utilizando una vecindad cambiante con el tiempo El uso de la vecindad hace que la red respete la topología de los datos o estímulos. Es decir, estímulos similares son mapeados en neuronas próximas y estímulos completamente similares son mapeados en neuronas distantes Esto permite utilizar estas redes para extraer patrones y características resaltantes en los estímulos

Kohonen El algoritmo básico entrenamiento de una red de kohonen es: 1. Escoger un estímulo o patrón de entrada X(n) 2. Determinar la neurona ganadora * i Esta corresponde al índice i * para el cual X W * i X W j j 3. Actualizar el vector de pesos sinápticos de la neurona i * y de todas las neuronas en la vecindad Λ ( n) utilizando la i ecuación * W ( n + 1) = W ( n) + η( n) ( X ( n) W ( n) ) 4. Repetir hasta satisfacer la condición de parada

Geométricamente este algoritmo acerca a los pesos hacia los patrones. W ( n + 1) = W ( n) + η( n) ( X ( n) W ( n) ) x-w x w

Kohonen Λ i * Λ i * ( 2) ( 1) Λ i * ( n) Esta característica evita el overfitting de la red!

La vecindad se puede definir considerando: h i ( ) 2 2 ( n) = exp d * / ( n) * σ 2, j i, j Y de esta forma la corrección de los pesos sinápticos se puede resumir como W j ( n 1) = W ( n) + η( n) h * ( n) ( X ( n) W ( n) ) + j i, j

El entrenamiento se divide en dos fases: fase de ordenamiento: Durante esta fase ocurre el ordenamiento topológico inicial. Esta fase puede llegar a durar unas 1 épocas. Aqui debemos cuidar de elegir convenientemente: La tasa de aprendizaje: debe estar cercana a.1 inicialmente y decrecer hasta mas o menos.1. Tamaño de la vecindad: inicialmente deberia abarcar casi la totalidad de las neuronas y gradualmente decrecer fase de convergencia: es una etapa para afinar la red, hacen falta unas 5 veces el número de neuronas en épocas para entrenar. La tasa de aprendizaje debe mantenerse cercano a.1 (no permitir decrecer hasta ). Tamaño de la vecindad: seguir decreciendo hasta algunas pocas o solo abarcar la neurona ganadora.

Kohonen Para la fase de ordenamiento, una forma usual de escoger la tasa de aprendizaje es considerar η ( n) = η exp ( n τ ) / Esta escogencia también evita el overfitting de la red y las constantes se escogen para satisfacer ciertos requerimientos durante la fase de organización de la red. Algunos valores sugeridos: η =.1 τ = 2 1 2 La vecindad se puede definir con radios cada vez más pequeños (decrecen con las épocas). σ ( n) σ exp( n τ ) τ 1 =1 /logσ = / 1

TraingLat.m Un decrecimiento muy rápido de la vecindad podría afectar el despliegue del mapa. 1 1 epocas.9.8.7.6.5.4.3.2.1-1 -.8 -.6 -.4 -.2.2.4.6.8 1

2 Sigma 1 2 4 6 8 1 12.1 Eta.5 2 4 6 8 1 12 numero vecindad 1 5 2 4 6 8 1 12 epoca

Casos de estudio: Distribución (TriangLat.m) Clasificación (SOMClass.m) PDVSA (cortesia Prof. O. Rondón) Mapas contextuales Señales ultrasónicas (cortesia Ing. C Correia)

SOMMatlab.m inicial 1 epocas position(2,i) 6 4 2 5 1 position(1,i) 1 epocas W(i,2) 6 4 2 2 4 6 8 1 W(i,1) 6 epocas 6 6 W(i,2) 4 W(i,2) 4 2 2 2 4 6 8 1 W(i,1) 2 4 6 8 1 W(i,1)

SOMClass.m 1 Inicialmente 1 5 epocas 8 8 6 6 4 4 2 2-2 1 2 3 4 5 6 7 8-2 1 2 3 4 5 6 7 8 1 1 epocas 1 3 epocas 8 8 6 6 4 4 2 2-2 1 2 3 4 5 6 7 8-2 1 2 3 4 5 6 7 8

Kohonen Se quiere encontrar zonas similares P1 P1

Kohonen P2 P2

Kohonen P3 P3

Kohonen Aplicación con datos reales

Kohonen Aplicación con datos reales

Grietas Señales Ultrasónicas 1 2 3 4 5 6 7 8 Falta de Fusión 9 1 1 2 1 2 3 4 5 6 7 8 9 1 3 4 5 6 7 8 9 1 1 2 3 4 5 6 7 8 9 1