Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas

Documentos relacionados
Proyecto Elvira. Clasificadores En Elvira (definición y validación) Francisco Javier García Castellano

Aprendiendo Redes Bayesianas para Clasificación: Buscando en el espacio de los Grafos Acíclicos Parcialmente Dirigidos

Estudio y Comparativa de Diferentes Discretizaciones en Clasificadores Bayesianos

Qué es big dimension? Verónica Bolón Canedo 2/30

Tema 12. Selección de Variables

Métodos de Inteligencia Artificial

Aprendizaje Automático

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4

Tema 8: Árboles de decisión

Carteras minoristas. árbol de decisión. Ejemplo: Construcción de un scoring de concesión basado en un DIRECCIÓN GENERAL DE SUPERVISIÓN

Clasificación mediante conjuntos

Restricciones Para El Aprendizaje de Redes Bayesianas

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.

Tema 7: Aprendizaje de árboles de decisión

Sesión 6: Clasificadores Bayesianos

ELVIRA II: APLICACIONES DE LOS MODELOS GRÁFICOS PROBABILÍSTICOS p.1/31

Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)

Selección de atributos

Aprendizaje Automatizado. Árboles de Clasificación

Aplicación a datos de mejora genética en Ovejas Manchegas

OPTIMIZACIÓN DEL CLASIFICADOR NAIVE BAYES USANDO ÁRBOL DE DECISIÓN C4.5

Aprendizaje Automatizado. Árboles de Clasificación

D conjunto de N patrones etiquetados, cada uno de los cuales está caracterizado por n variables predictoras X 1,..., X n y la variable clase C.

Aprendizaje Automatizado

FACIL: Incremental Rule Learning from Data Streams

Tema 8: Árboles de Clasificación

3. Árboles de decisión

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)

Selección de Atributos. Dr. Jesús Ariel Carrasco Ochoa Oficina 8311

NEWTON TREES. Árboles de Estimación Estocástica de Probabilidades:

Conjuntos de Clasificadores (Ensemble Learning)

Aprendizaje Automático. Objetivos. Funciona? Notas

Clasificación Bayesiana

SISTEMAS INTELIGENTES

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

RECONOCIMIENTO DE PAUTAS

Aprendizaje Automatizado

Reconocimiento de Patrones

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO

Apellidos:... Nombre:...

UNIVERSIDAD DE GRANADA

Inducción de Árboles de Decisión ID3, C4.5

Aux 6. Introducción a la Minería de Datos

PROTOTIPO DE SOFTWARE PARA LA CLASIFICACIÓN DE DATOS MEDIANTE EL. MÉTODO BAYESIANO TAN udtan

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 -

Clasificación Multi-Etiqueta

Tópicos Selectos en Aprendizaje Maquinal. Clasificación y Regresión con Datos Reales

Aprendizaje Automático

Random Subspace Method. Índice. 1. Random Subspace Method. 1. Introducción. 2. Objetivo. 3. Implementación. 4. Evaluación. 5.

Aprendizaje Automatizado. Árboles de Clasificación

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

para la Selección Simultánea de Instancias y Atributos

Selección de características. Reconocimiento de Patrones 2013

Clasificación estadística de patrones

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid

Palabras clave: In memory, Aprendizaje automático, árboles de decisión

I. CARACTERISTICAS DEL ALGORITMO ID3

Métodos de combinación de clasicadores sobre Máquinas de Vectores Soporte *

Inducción de Árboles de Decisión ID3, C4.5

Aprendizaje Automático

al Aprendizaje Automático Breve Introducción con WEKA Procesamiento del Lenguaje Natural Índice José María Gómez Hidalgo Evaluación y visualización

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo

Índice general. Prefacio...5

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL

MODELOS GRÁFICOS PROBABILÍSTICOS APLICADOS A LA PREDICCIÓN DEL RENDIMIENTO EN EDUCACIÓN

Aprendizaje Automático

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones

Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile

IAAE - Inteligencia Artificial Aplicada a la Ingeniería

Pangea. Sistema de recomendación de viajes. Speaker: Andrés Pipicello. Lucas Bernardi, Martín Chaia, Bruno Cuervo Parrino. Demo

Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

MODELOS GRÁFICOS PROBABILÍSTICOS APLICADOS A LA PREDICCIÓN DEL RENDIMIENTO EN EDUCACIÓN

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

ALGORITMO ID3. Objetivo

Teoría de la Información Estadística

Un sistema de clasificación y aprendizaje activo mutliclase con selección de características

Guía de Ejercicios Aprendizaje de Máquinas Inteligencia Articial (CC52A)

Jesús García Herrero TÉCNICAS DE INDUCCIÓN-II

Complementos de aprendizaje automático

Métodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013

ANÁLISIS DE DATOS. Ricardo Aler Mur

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Guía docente de la asignatura

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1)

Índice. Resumen 15 Motivación 15 Desarrollos y aportes 16 Publicaciones derivadas de esta tesis doctoral 19

IAAE - Inteligencia Artificial Aplicada a la Ingeniería

Directores: Dr. D. José C. Riquelme Santos Dr. D. Jesús S. Aguilar Ruiz

Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile

2. Algoritmos genéticos y redes neuronales 3. Inducción de árboles clasificadores. Inducción de árboles de clasificación. Aprendizaje UPM UPM

Aprendizaje Automático. Segundo Cuatrimestre de Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM

IAAE - Inteligencia Artificial Aplicada a la Ingeniería

IAAE - Inteligencia Artificial Aplicada a la Ingeniería

Transcripción:

Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas Andrés Cano Utrera Fco. Javier García Castellano Andrés R. Masegosa Arredondo Serafín Moral Callejón Uncertainty Treatment in Artificial Intelligence Research Group Department of Computer Science and Artificial Intelligence Granada University (Spain)

Introducción Objetivo: Utilización en Elvira de multiredes bayesianas para clasificación. Estado: Cualquier clasificador (interfaz Classifier) puede ser utilizado en las multiredes. Multiredes con atributo predictivo como variable distinguida. Multiredes con variables a clasificar como variable distinguida (por hacer). Multiredes recursivas (incluir más criterios de parada). No utilizables desde el interfaz gráfica. Introducción

Multiredes Bayesianas (In)dependencias no específicas del contexto o (in)dependencias simétricas (Redes Bayesianas) Multiredes Bayesianas

Multiredes Bayesianas (In)dependencias específicas del contexto o independencias asimétricas (Multiredes Bayesianas). Multiredes Bayesianas

Multiredes Bayesianas en clasificación Las redes bayesianas en las multiredes pueden ser clasificadores bayesianos En clasificación Heckerman distingue entre: Independencias asimétricas de subconjunto: Distintas redes bayesianas para distintos valores de la variable a clasificar. Independencias asimétricas de hipótesis específica: Distintas redes bayesianas para distintos valores una variable predictora. Multiredes Bayesianas

Multiredes Bayesianas en clasificación Independencias asimétricas de subconjunto Multiredes Bayesianas

Multiredes Bayesianas en clasificación Independencias asimétricas de hipótesis específica Multiredes Bayesianas

Multiredes Bayesianas en clasificación Multiredes Bayesianas recursivas. Criterios de Parada. Variable distinguida. Aproximaciones: Enfoque Wrapper: Se construye una multired para cada posible variable distinguida, se valida cada multired. Accuracy y Log Likelihood. Enfoque Filter: Se ordenan las variables según una función. Enfoque Híbrido: Se ordenan las variables según una función, a un subconjunto de las mejores variables se le aplica una búsqueda wrapper. Multiredes Bayesianas

Funciones Filter en Multiredes Bayesianas KullbackLeibler1 Score attribute as parent of the rest KullbackLeibler Bhattacharyya Matusita entropyshanon Gain Gain ratio Gain Dirichlet Score attribute parent of Class Conditional Mutual Information Euclidean Distance Heuristic sum(score(x->c->y) - score(x->c->y<-x)) Heuristic Conditional Mutual Information Max X Of sum_i MI(Y_i,X C) Funciones Filter

Multired wrapper (BMN w ) usando tanto por ciento de bien clasificados (accuracy) 5-CV 14 multiredes filter (BMN f ) 4 problemas de UCI repository of machine learning databases Valores perdidos eliminados Discretización basada en la entropía (Fayyad & Irani) Validación cruzada 10-veces Test de signos pareados de Wilcoxon Naïve-Bayes en las hojas

: Multiredes Filter Filter distancia de Kullback-Leibler (BMN f1 ): Método para medir la distancia entre dos distribuciones de probabilidad. Se mide el grado de dependencia para cada atributo y la clase. La idea es escoger aquella variable con un grado más alto de dependencia con la variable a clasificar.

: Multiredes Filter Filter distancia de Matusita (BMN f ): Mide la distancia entre dos distribuciones de probabilidad. Se mide el grado de dependencia para cada atributo y la clase, considerando la distancia media de las distribuciones condicionales.

: Multiredes Filter Filter Ganancia (BMN f3 ): Usado por Quinlan en ID3. También conocido como Información Mutua. Método más usado para medir el grado de dependencia de un atributo con la clase.

: Multiredes Filter Filter razón de Ganancia (BMN f4 ): Usado por Quinlan en C4.5 Es una modificación de la ganancia para evitar el sesgo que tiene la ganancia en favor de variables con un gran número de casos.

: Multiredes Filter Filter heurística métrica de un atributo como padre del resto (BMN f5, BMN f6, BMN f7 ): Se construye una red bayesiana para cada atributo Xi, donde dicho atributo es padre del resto de las variables incluida la clase. El resto de las variables predictoras forman una estructura Naïve Bayes con la clase. Se calcula la métrica de la red bayesiana construida, para ellos usamos tres métricas K (BMN f5 ), BIC (BMN f6 ) y BDe (BMN f7 ). Esta estructura es equivalente a una multired de Naïve-Bayes.

: Multiredes Filter Filter heurística métrica de un atributo como padre de la clase (BMN f8, BMN f9, BMN f10 ): Se construye dos redes bayesianas para cada atributo Xi, en una, dicho atributo es padre del resto de la clase, en la otra red no. El resto de las variables predictoras no se tienen en cuenta. Se calcula la métrica para las dos redes y se calcula la diferencia, para ello usamos tres métricas K (BMN f8 ), BIC (BMN f9 ) y BDe (BMN f10 ).

: Multiredes Filter Filter información mutua condicionada (BMN f11 ): Para cada variable Xi se obtiene la sumatoria de la información mutua condicional dada la clase con la variable Xj (i!=j) Esta medida tiene en cuenta la relación de cada variable Xi con el resto de las variables

: Multiredes Filter Filter Bhattacharyya (BMN f1 ): Mide la distancia entre dos distribuciones de probabilidad. Se mide el grado de dependencia para cada atributo y la clase, comportamiento muy parecido a la distancia de Matusita.

: Multiredes Filter Filter Ganancia suavizada (BMN f13, BMN f14 ): Usada en árboles de clasificación Se trata de una ganancia suavizada para evitar sobreajuste a los datos. Se tiene dos versiones (BMNf13, BMNf14), según el suavizado de los datos (s=1, s=).

: Problemas 3 1 5000 waveform-1 5 16 435 vote 4 4 18 846 vehicle 3 19 35 56 soybean-large 7 9 5800 shuttle-small 1 7 19 310 segment 0 6 36 6435 satimage 19 8 768 pima 18 10 134 mofn-3-7-10 17 4 18 148 lymphography 16 6 16 000 0 letter 15 3 4 150 iris 14 Clases Atributos Casos Problema # 13 70 heart 1 19 80 hepatitis 13 9 163 glass 11 7 9 14 glass 10 0 1000 german 9 10 1066 flare 8 8 768 diabetes 7 15 653 crx 6 6 18 corral 5 13 96 cleve 4 36 3196 chess 3 10 68 breast 14 690 australian 1 Clases Atributos Casos Problema #

: Resultados (1)

: Resultados ()

: Resultados (3) Se obtienen mejores resultados en el tanto por ciento de bien clasificados con la multired wrapper (búsqueda exhaustiva) La multired wrapper va mejor con bases de datos con muchas variables (Chess, Waveform-1,Letter, Satimage) El metodo wrapper es muy lento El método wrapper también es mejor resultados significativos estadísticamente BMN f5 (heurística un atributo como padre del resto usando métrica K) funciona de forma muy aproximada a la wrapper. Similares: BMN f7,bmn f9,bmn f11 BMN f1 (función Bhattacharyya) funciona muy bien tardando muy poco tiempo.

Conclusiones Se han realizado un estudio sobre distintas multiredes bayesianas donde una variable predictora es la variable por la cual se ramifica. Se ha estudiado la elección de la variable predictora mediante un método wrapper y varios filter. Dependiendo de nuestras necesidades hay distintas alternativas (BMNw, BMNf5, BMNf1) Estamos realizando estudios: utilizando otros clasificadores bayesianos en las hojas, usando metodologías híbridas y multiredes recursivas. Conclusiones