MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES



Documentos relacionados
5.1. Redes de aprendizaje supervisado basadas en la cuantificación vectorial. Curso de doctoramiento Técnicas de Computación Flexíbeis

Área Académica: ICBI, Sistemas Computacionales. Profesor: M.C.C Víctor Tomás Tomás Mariano

Clasificación de Música por Genero Utilizando Redes Neuronales Artificiales. Elkin García, Germán Mancera, Jorge Pacheco

CLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN)

Redes de Kohonen y la Determinación Genética de las Clases

REDES AUTOORGANIZATIVAS II

CLASIFICACIÓN NO SUPERVISADA

Los mapas auto-organizados de Kohonen (SOM )

CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE

4 Localización de terremotos

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION

Enfoque propuesto para la detección del humo de señales de video.

Aprendizaje Automatizado. Redes Neuronales Artificiales

Movimiento a través de una. José San Martín

Capítulo 2. Técnicas de procesamiento digital de imágenes y reconocimiento de patrones.

Aplicación de mapas autoorganizados (SOM) a la visualización de datos. Modelos Computacionales Fernando José Serrano García

Support Vector Machine

4.7 Igualación de canal (no ciega)

I SEMANA ELECTRONICA REDES NEURONALES

Robustez y flexibilidad en los mapas autoorganizativos para ambientes no estacionarios.

Introducción a las Redes Neuronales Aplicadas

Mapas Autoorganizados

CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 9 -

ADALINE Y PERCEPTRON

MINERIA DE DATOS Y Descubrimiento del Conocimiento

Seminario Aplicaciones de las Redes Neuronales (WebSOM)

Universidad Carlos III de Madrid. Escuela Politécnica Superior. DEPARTAMENTO DE INGENIERIA ELECTRICA PROYECTO FIN DE CARRERA

Diseño de Componentes

TÉCNICAS DE AGRUPAMIENTO

Redes neuronales con funciones de base radial

Tema 7. Introducción al reconocimiento de objetos

Detección de bordes en una imagen.

Deep Learning y Big Data

CAPÍTULO 5: MODELADO DEL IDS CON REDES NEURONALES

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 5: Redes Neuronales

5.4. Manual de usuario

8.1. Introducción Dependencia/independencia estadística Representación gráfica: diagrama de dispersión Regresión...

TEMA 6 Redes de Neuronas Artificiales

Reducción del ruido en una imagen digital.

La nueva arquitectura del paquete AMORE (A MORE Flexible Neural Network)

Introducción al Data Mining Clases 5. Cluster Analysis. Ricardo Fraiman Centro de Matemática, Udelar y Universidad de San Andrés, Argentina

Mapa autoorganizativo de Kohonen

1. Ecuaciones no lineales

CAPITULO 4 JUSTIFICACION DEL ESTUDIO. En este capítulo se presenta la justificación del estudio, supuestos y limitaciones de

Enrutamiento. Emilio Hernández. Carlos Figueira

Análisis de componentes principales

REDES NEURONALES NO SUPERVISADAS CON TOPOLOGÍA DINÁMICA PARA LA SEGMENTACIÓN DE IMÁGENES EN COLOR.

Ampliación de Estructuras de Datos

Aula Banca Privada. La importancia de la diversificación

Matrices equivalentes. El método de Gauss

Capítulo 2. Las Redes Neuronales Artificiales

4 Análisis de los principales factores AsociAdos A los resultados en ciencias

UNAM ESCUELA NACIONAL DE ESTUDIOS PROFESIONALES CAMPUS ACATLAN TEMAS SELECTOS DE CÓMPUTO VILLANUEVA ARREGUÍN AZAEL

Mineria de datos y su aplicación en web mining data Redes de computadores I ELO 322

Una Técnica de Inteligencia Artificial para el Ajuste de uno de los Elementos que Definen una B-Spline Racional No Uniforme (NURBS)

SISTEMA DE AMORTIZACION. Tomado de :

Regulador PID con convertidores de frecuencia DF5, DV5, DF6, DV6. Página 1 de 10 A Regulador PID

CAPITULO 3 REDES HIBRIDAS-COMPLEJAS. 3.1 Descripción de la Red Híbrida Compleja (HCNN)

ESQUEMAS DE SISTEMAS VOIP CON ALTA DISPONIBILIDAD Y ALTO RENDIMIENTO

1. Iteraciones de aplicaciones discretas

Programación de Sistemas

SVM: Máquinas de Vectores Soporte. Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid

Método k-medias. [ U n a i n t r o d u c c i ó n ]

Manual del Usuario del Power Commander III USB

Comunicaciones Digitales - Ejercicios Tema 3

Introducción a la Computación Evolutiva

Potencial eléctrico. du = - F dl

Inteligencia Artificial. Redes Neurales Artificiales

SISTEMAS INTELIGENTES

INTRODUCCIÓN MEDIANTE USO DE INFORMACIÓN DIGITAL EXISTENTE

Sistemas Operativos. Sesión 5: Protocolos de enrutamiento vector distancia

Líneas Equipotenciales

Tipos de RNA. Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela

Redes de Neuronas de Base Radial

Ejercicios Propuestos Tema 2

Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso

Práctica 7. Problemas de diseño de topologías de red con herramienta Net2Plan

Capítulo 1. Introducción Antecedentes

Tratamiento y Transmisión de Señales Ingenieros Electrónicos SEGUNDA PRÁCTICA

Algoritmos sobre Grafos

MÁQUINA DE VECTORES DE SOPORTE

TEMA 7: Análisis de la Capacidad del Proceso

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Metodología de caracterización de la capacidad de una red HSPA.

SISTEMA. Figura 3 Esquema general de un sistema

LA URGENCIA, LA GRAVEDAD Y EL TRIAJE DE URGENCIAS Y EMERGENCIAS

Comparación de Modelos de Redes Neuronales Utilizados en Sistemas de Soporte de Decisiones

Alta disponibilidad de los servicios en la SGTIC del MEH


Matrices Invertibles y Elementos de Álgebra Matricial

Construcción de un árbol balanceado de subclasificadores para SVM multi-clase

CAPÍTULO 3. ALGORITMOS DE PREVISIÓN BASADOS EN LA EXTRAPOLACIÓN DE LOS DATOS MÁS RECIENTES

Implementación de algoritmos genéticos paralelos de grano burdo en redes locales de computadoras. Resumen

Palabras llave. 1. Introducción. S. Valero 1, M. Ortiz 1, C. Senabre 1, M. Peñarrubia 1, A. Gabaldón 2 y Fco. Garcia 2

Cap. 24 La Ley de Gauss

Capítulo 1. 10I 1.0 Introducción 1.1 Diseño de LAN 1.2 El entorno conmutado. Presentation_ID 2

Introducción a Las redes Neuronales (Neurales) CO-6612

Introducción a los protocolos de enrutamiento dinámico

Transcripción:

MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11

1. Learning Vector Quantization. Neural Network. Page 2 of 11

2. Arquitectura: Mapa de neuronas. Idea: Patrones de entrada similares quedan asociados a neuronas cercanas en el mapa mediante un proceso de autoorganización (Self-Organizing Map: SOM) Preserva las relaciones topológicas con los patrones de entrada. Actualización de los pesos de la neurona ij: w ij (t + 1) = w ij (t) + α(t)h t (w ij ) (x(t) w ij (t)) x(t) es el patrón de entrada correspondiente. α(t) determina el ritmo del aprendizaje (decreciente por razones de estabilidad). h t (w ij ) es la función de vecindad: establece el radio de neuronas vecinas de la neurona ganadora que se actualizan y el grado en el que lo hacen. Page 3 of 11

Variantes del SOM: Estructuras toroidales para vencer el problema de actualización de las neuronas situadas en los bordes del mapa. Neural Gas. Algoritmo de consciencia. Growing Grid Algorithm. Extracción de grupos: Tratamiento digital de imágenes: distancias entre neuronas, binarización, erosión y dilatación. Page 4 of 11 Método basado en agrupamiento jerárquico: unión de neuronas próximas en el mapa + algoritmo de agrupamiento jerárquico de enlace completo.

3. Learning Vector Quantization Arquitectura y funcionamiento: SOM Tipo de aprendizaje: supervisado. Algoritmo clásico LVQ1: 1. Se inicializan prototipos. 2. patrón de entrada se encuentra el prototipo más cercano: (a) Si las clases del vector de entrada y del vencedor son iguales, se acerca el vector ganador al de entrada: w = w + α(x w ) si clase(x) = clase(w ) (b) En caso contrario, se alejan: w = w α(x w ) si clase(x) = clase(w ) 3. Existe un vector de pesos asociado a cada cluster. 4. Una vez entrenado puede funcionar como un clasificador. 5. Habitualmente α es inversamente proporcional al número de iteraciones, pero existe una variante (Optimum LVQ1) en el que viene definida por la siguiente expresión: α l (n) = α l (n 1) 1 + ( 1) β α l (n 1) donde β = 0 si se clasifica correctamente el patrón y 1 en caso contrario. Page 5 of 11

Algoritmo LVQ2.1: Tiene en cuenta tanto el peso (prototipo) vencedor como el 2 o clasificado. La adaptación de estos pesos depende de varios factores: Los dos pesos corresponden a clases diferentes. El vector de entrada pertence a la misma clase que uno de ellos. El vector de entrada está en una ventana definida sobre el punto medio de estos dos vectores: ( d1 min, d ) 2 > 1 ω d 2 d 1 1 + ω siendo d 1 y d 2 las distancias de los dos vectores más próximos al vector de entrada y ω la anchura de la ventana. Actualización de los pesos: w k = w k + α(x w k ) w j = w j α(x w j ) donde los pesos k y j son los más cercanos, y x C k Page 6 of 11

Algoritmo LVQ3: Se preocupa de donde acaban los pesos al final del proceso de aprendizaje. Si los dos pesos más cercanos representan a la misma clase, ambos se actualizan: w k = w k + βα(x w k ) donde β < 1. Los pesos no solamente respetan las fronteras de decisión sino también la distribución de los datos de entrada. CONSEJOS PRÁCTICOS: Utilizar OLVQ1 hasta la convergencia. Realizar ajuste fino con LVQ1 o LVQ3. No utilizar durante muchas iteraciones LVQ2.1. Page 7 of 11

4. Arquitectura: una capa de entrada, una capa de neuronas que realizan un procesado no lineal de las entradas y una capa de salida. Salida i-ésima: y i = f i (x) = N w ik φ k (x, c k ) = k=1 N w ik φ k ( x c k 2 ), i = 1, 2,..., m k=1 donde x R n 1 es el vector de entrada, φ k ( ) : R + R, w ik los pesos de la capa de salida, N el número de neuronas de la capa oculta y c k R n 1 los centros RBF de los vectores de entrada. Page 8 of 11

Típicas funciones φ( ): 1. Función lineal: φ(x) = x 2. Aproximación cúbica: φ(x) = x 3 3. Función thin-plate-spline : φ(x) = x 2 ln x ( ) x 4. Función Gaussiana: φ(x) = exp 2 σ 2 5. Función multicuadrática: φ(x) = x 2 + σ 2 6. Función multicuadrática inversa: φ(x) = 1 x2 +σ 2 En estas funciones x se refiere a x c. En la capa oculta de la RBF, se calculan las distancias respecto a los centros (entrada y centro asociado). Page 9 of 11

Aprendizaje de las RBF 1 a fase: Cálculo de los centros y de los parámetros de la función base de manera no supervisada (minimización de la dispersión inter-grupo). 2 a fase: Cálculo de los pesos w ik minimizando: [ J(n) = 1 2 e(n) 2 = 1 N y d (n) w k (n)φ {x(n), c k (n)} 2 k=1 Si la RBF es gaussiana: [ J(n) = 1 N ( y d (n) w k (n) exp x(n) c k(n) 2 ) ] 2 2 2 σk 2(n) k=1 Ecuaciones de actualización: w(n + 1) = w(n) µ w J(n) w Los parámetros calculados en la primera fase también se pueden calcular por descenso de gradiente. ] 2 Page 10 of 11

RBF comparado con (MLP): Activación igual en hiperelipsoides (hiperplanos). Información localizada (distribuida). Estructura fija de dos capas diferenciadas (múltiples capas). Aprendizaje rápido (no lineal). Aprendizaje en dos etapas: supervisada y no supervisada (una etapa supervisada). Consejos: Se debe usar RBF en sistemas adaptativos de aprendizaje rápido, cuando haya fuertes no linealidades presentes o cuando la función de distribución dé idea de la importancia de los datos. Se debe usar MLP cuando haya escasez de muestras o se necesite extrapolación de datos. Page 11 of 11