Clasificación Multi-Etiqueta

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Clasificación Multi-Etiqueta"

Transcripción

1 Clasificación Multi-Etiqueta Eduardo Morales INAOE (INAOE) 1 / 42

2 Contenido (INAOE) 2 / 42

3 Clasificación Multi-Clase Los algoritmos de aprendizaje que hemos visto hasta ahora, inducen un modelo, usando ejemplos de entrenamiento, para predecir el valor de una clase. Dados: D = ( x i, y i ) 1...N, x i R d ; y i C Encontrar: Clasificación binaria: f : R d C Clasificación multiclase: f : R d { 1, 1} f : R d {C 1,..., C k } (INAOE) 3 / 42

4 Clasificación Multi-Clase (INAOE) 4 / 42

5 Clasificación Multi-Etiqueta En clasificación multi-etiqueta lo que queremos es predecir un conjunto de valores Dado: D = ( x i, Z i ) 1...N, x i R d ; Z i L Encontrar: f : R d Z, Z L = {1,..., K } (INAOE) 5 / 42

6 Clasificación Multi-Etiqueta (INAOE) 6 / 42

7 Algunos Ejemplos (INAOE) 7 / 42

8 Clasificación Multi-Etiqueta Existen dos enfoques generales para clasificación multi-etiqueta: 1 : Transforman el problema en varios problemas de clasificación multiclase 2 : Adaptan algoritmos para lidear con conjuntos de clases (INAOE) 8 / 42

9 Métodos de Copia: Reemplaza cada ejemplo multi-etiqueta ( x i, Y i ) en Y i ejemplos de una sola etiqueta Directamente o de forma pesada ( 1 Y i ) (INAOE) 9 / 42

10 Métodos de Copia seleccionada: Copia y selecciona una de las clases La más frecuente (max), menos frecuente (min), en forma aleatoria (random), ignorando los ejemplos multi-etiqueta (ignore) (INAOE) 10 / 42

11 Métodos de Conjunto potencia (powerset): Simple y muy usado, en donde considera cada subconjunto diferente de clases como una nueva clase de un nuevo problema de clasificación multi-clase (INAOE) 11 / 42

12 Label Powerset Cómo clasificamos? Si el clasificador nos da una probabilidad de salida, las podemos repartir en las clases y sumarlas (INAOE) 12 / 42

13 RAkEL Random k-label sets construye un ensemble de Label Powersets, cada clasificador construido con un subconjunto pequeño de clases Ventajas: Mantiene las correlaciones entre las clases y mantiene el número de clases reducido De nuevo ordena las salidas de los clasificadores (INAOE) 13 / 42

14 Binary Relevance Es un método popular que genera n clasificadores binarios, uno por cada valor (i) de las clases Cada clasificador se entrena con todos los datos originales, considerando ejemplos positivos a los que tienen la clase i, y negativos el resto (j i), y lo hace para todas las clases (INAOE) 14 / 42

15 Ranking by Pairwise Comparison Transforma el problema multiclase en q(q 1) 2 conjunto de clases binarias (uno para cada par de clases) Cada conjunto de datos contiene ejemplos de alguna de las clases, pero no de las dos Dada una nueva instancia se corre en todos los clasificadores y se cuentan los votos recibidos para cada clase (INAOE) 15 / 42

16 de Algoritmos Se han realizado adaptaciones a varios algoritmos para poder lidear con ejemplos multi-etiquetas: Árboles de decisión (permite a las hojas tener más de una clase y modifica la medida de entropía) Boosting (Adaboost): Evalua considerando múltiples clases Campos aleatorios de Markov: Lo modifican para considerar co-ocurrencia de etiquetas Redes neuronales: Adaptan back-propagation para considerar multi-etiquetas SVM: Generan n clasificadores binarios, sus predicciones se usan como atributos para nuevos clasificadores binarios knn: Encuentra vecinos más cercanos tomando en cuenta la frecuencia de las clases (INAOE) 16 / 42

17 Multi-Dimensional Bayesian Classifiers Una red de clasificación bayesiana multi-dimensional es una red bayesiana con una topología restringida Se pueden crear diferentes estructuras y estrategias de aprendizaje para cada sub-grafo. (INAOE) 17 / 42

18 Multi-Dimensional Bayesian Classifiers Tree-augmented MBCs (van der Gaag, 2006) Poly-tree structures (de Waal, 2007; Zaragoza, 2011) Greedy approaches for filter, wrapper and hybrid (Bielza, 2010) Based on Markov blanquets (Borchani, 2011) (INAOE) 18 / 42

19 Chain Classifiers La idea de los clasificadores en cadena es por un lado tener clasificadores simples (binarios) y considerar las dependencias entre las clases Se crea una cadena de clasificadores, en donde los atributos de clasificadores binarios se aumentan con las predicciones de los clasificadores anteriores en la cadena (INAOE) 19 / 42

20 Chain Classifiers El orden de la cadena es relevante si existen dependencias entre las clases Como no se sabe cuál debe de ser el orden se crea un ensamble con muchos ordenes de clases generados aleatoriamente Se usa un voto simple de las clases predichas por todos los ensambles usando un umbral (INAOE) 20 / 42

21 Bayesian Chain Classifier (BCC) 1 La idea es determinar un orden con base en dependecias y limitar el número de atributos usados para los clasificadores en la cadena Pasos: 1 Obtener una estructura de dependencias (red bayesiana) para las clases 2 Crear una clasificador en cadena tomando en cuenta ésta estructura (sólo incorpora los padres de cada clase como atributos adicionales) 1 J.H. Zaragoza, L.E. Sucar, E.F. Morales, C. Bielza, P. Larrañaga (2011). Bayesian Chain Classifiers for Multidimensional Classification. Proc. of the International Joint Conference on Artificial Intelligence (IJCAI-2011), pp (INAOE) 21 / 42

22 Bayesian Chain Classifier (INAOE) 22 / 42

23 Bayesian Chain Classifier (INAOE) 23 / 42

24 Jerárquicos A veces las clases están organizadas en una jerarquía Algunos algoritmos aprovechan esa información adicional (dependencias jerárquicas conocidas) Clasificación por: 1 Tipo de jerarquía: (i) Árbol o (ii) DAG 2 Profundidad de clasificación: (i) mandatory leaf-node prediction o (ii) non mandatory leaf-node prediction 3 Esquema de exploración: (i) Local o (ii) Global (INAOE) 24 / 42

25 Local o Top-Down El entrenamiento se puede hacer de difrentes formas: 1 Clasificación binaria en cada nodo (excepto el nodo raíz) 2 Usar un clasificador multi-clase en cada nodo padre 3 Usar un clasificador multi-clase por nivel 4 Usar un clasificador multi-clase sólo para las hojas Normalmente se usa el mismo clasificador en toda la jerarquía Inconsistency problem: Un error en algún nivel de la jerarquía se propaga a todos sus descendientes El problema es porque los clasificadores se consideran indpendientes entre sí (INAOE) 25 / 42

26 Tipos de Clasificadores Tipos: Flat, Global, Local (INAOE) 26 / 42

27 Jerárquico (MHC) 2 Aprende un clasificador multiclase para cada nodo padre Con un nueva instancia usa todos los clasificadores para predecir las clases en todos los nodos y combina los resultados de todas los caminos Regresa el camino con probabilidad más alta Se puede decidir parar la clasificación hasta cierto nivel (non mandatory leaf-node prediction) 2 J. Hernández, L.E. Sucar, E.F. Morales (2014). Multidimensional hierarchical classification. Expert Systems with Applications 41 (17): (INAOE) 27 / 42

28 Jerárquico (MHC) La combinación aquí es multiplicando, pero se pueden pensar en otras formas (INAOE) 28 / 42

29 Jerárquico (HMC) 3 Usar ideas de clasificadores multi-etiqueta Aprovechar propiedades: Un ejemplo que pertenece a una clase, también pertenence a todas sus super-clases (y un negativo se propaga a todas sus sub-clases) Incluir las predicciones de las clases de los padres en los atributos de los hijos (chain classifier) 3 M. Ramírez-Corona, L.E. Sucar, E.F. Morales (2016). Hierarchical multilabel classification based on path evaluation, International Journal of Approximate Reasoning 68: (INAOE) 29 / 42

30 Jerárquico (HMC) Usar ejemplos negativos de nodos cercanos para balancear las clases root Training set for C 5 y 1 y 4 Tr(C 5 )= Tr + (C 5 ) U Tr - (C 5 ) 11 inst 12 inst Labels: y 6, y 7 and "unknown" # Instances: 9 y 2 y 3 y 5 y 8 Tr - (C 5 ): subset of instances in y 8 5 inst 6 inst 6 inst 6 inst y 6 y 7 y 9 3 inst 3 inst 6 inst Tr + (C 5 ): instances in y 6 and y 7 Tr + (C 5 ) = { x x child(y 5 )} Labels: y 6 and y 7 # Instances: 6 Tr - (C 5 )={ x x sib(y 5 )} Label: "unknown" # Instances: average( child(y 5 )) =(3+3)/2 = 3 (INAOE) 30 / 42

31 Jerárquico (HMC) Merging rule: considera el nivel en el árbol y predicción de cada nodo: m j=1 level(y i ) = 1 + level(pa(y i) j ) pa(y i ) level(y w(y i ) = 1 i ) maxlevel + 1 p score = w(y i ) log(p(y i x e, pa(y i ))) i=1 (INAOE) 31 / 42

32 Jerárquico (HMC) root w 1 =0.75 P(y 1 =1 x e )=0.4 y 1 y 6 w 6 =0.75 P(y 6 =1 x e )=0.5 w 2 =0.5 P(y 2 =1 x e,y 1 )=0.3 w 3 =0.5 y 2 P(y y 3 =1 x e,y 1 ) 3 =0.4 w 7 =0.5 y 7 P(y y 7 =1 x e,y 6 ) 10 =0.4 w 10 =0.5 P(y 10 =1 x e,y 6 )=0.2 w 4 =0.375 P(y 4 =1 x e,y 3,y 6 )=0.7 y 4 y 8 y 9 w 8 =0.25 P(y 8 =1 x e,y 7 )=0.1 y 5 w 9 =0.25 P(y 9 =1 x e,y 7 )=0.5 w 5 =0.125 P(y 5 =1 x e,y 4 )=0.5 (INAOE) 32 / 42

33 Jerárquico (HMC) root 0.75*log(0.4) y 1 y *log(0.5) *log(0.3) y 2 0.5*log(0.4) y 3 = *log(0.4) y 7 y = *log(0.2) 0.375*log(0.7) y *log(0.1) y 8 y 9 = = *log(0.5) 0.125*log(0.5) y 5 = (INAOE) 33 / 42

34 Medidas de Para los clasificadores multi-etiqueta se han propuesto diferentes medidas de evaluación: Mean accuracy (por clase para d clases): overlineacc d = 1 d d Acc j = 1 d j=1 d j=1 1 N N δ(c ij, c ij) i=1 donde δ(c ij, c ij) = 1 si c ij = c ij and 0 en otro caso Global accuracy (por ejemplo): Acc = 1 N N δ(c i, c i) i=1 donde c i es el vector d-dimensional de las clases y δ(c i, c i) = 1 si c i = c i y 0 en otro caso (INAOE) 34 / 42

35 Medidas de Multilabel accuracy (también llamado de Jaccard): ML-Acc = 1 N N i=1 c i c i c i c i F-measure: F-measure = 1 d d j=1 2p j r j (p j + r j ) (INAOE) 35 / 42

36 Medidas de Jerárquicas Exact-Match: Accuracy: ExactMatch = 1 N Accuracy = 1 N N i=1 1 Yi =Ŷi N Y i Ŷi Y i Ŷi i=1 Hamming-Loss and Hamming-Accuracy: HammingLoss = 1 N Y i N L Ŷi i=1 donde es or exclusivo Hamming accuracy (H-Accuracy) se define como: H Accuracy = 1 HammingLoss. (INAOE) 36 / 42

37 Medidas de Jerárquicas F1-measure: Para multi-etiqueta, refiniendo precisión y recuerdo F1 = 2 precision recall precision + recall Donde: Precision: z i ẑ i y Recall: z i ẑ i ẑ i z i F1-macro D: mide el desempeño promedio por instancia F1macro D = 1 N N F1(z i, ẑ i ) i=0 F1-macro L: mide el desempeño promedio por clase F1macro L = 1 L L F1(z i, ẑ i ) i=0 (INAOE) 37 / 42

38 Medidas de Jerárquicas Gain-Loose Balance: premia nodes bien clasificados y castiga los mal, considerando el número de hermanos y la profundidad en la jerarquía np i=0 GLB = (1 1 n N i )(1 w i ) nt i=0 (1 1 N i )(1 w i ) fp i=0 1 N i w i + n fn i=0 Conocimiento el posible valor máximo y mínimo se puede normalizar: 1 w i N i NGLB = (GLB min) max min (INAOE) 38 / 42

39 de Atributos A partir de los atributos originales selecciona un subconjunto de estos La meta es seleccionar el subconjunto S más pequeño de todos los atributos F, tal que P(C S) P(C F) Ventajas esperadas: 1 Mejorar el desempeño predictivo 2 Construir modelos más eficientemente 3 Mejorar entendimiento sobre los modelos generados (INAOE) 39 / 42

40 de Atributos En general, los algoritmos de selección de atributos se distinguen por su forma de evaluar atributos y los podemos clasificar en tres: 1 Filtros (filters): seleccionan/evalúan los atributos en forma independiente del algoritmo de aprendizaje 2 Wrappers: usan el desempeño de algún clasificador para determinar lo deseable de un subconjunto 3 Híbridos: usan una combinación de los dos criterios de evaluación en diferentes etapas del proceso de búsqueda. (INAOE) 40 / 42

41 de Atributos en Problemas Multi-Etiqueta Filter: Transforman el problema en uno o más de una sóla clase y se usa algún algoritmo de selección de atributos tipo filtro. Después se sigue algún esquema de agregación Wrapper: se pueden aplicar directamente con algún algoritmo de clasificación multi-etiqueta También se han propuesto variantes de algoritmos de extracción de atributos como LDA (INAOE) 41 / 42

42 Meka MEKA: A Multi-Label Extension to WEKA Algunos de los algoritmos que tiene son: 1 Binary Relevance 2 Chain classifier 3 metabagging 4 Bayesian chain classifier (BCC) 5 RAkEL (INAOE) 42 / 42

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos

Más detalles

Sesión 6: Clasificadores Bayesianos

Sesión 6: Clasificadores Bayesianos Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 6: Clasificadores Bayesianos La teoría de probabilidades en el fondo no es nada más que sentido común reducido a cálculos... [Pierre Simon Laplace,

Más detalles

Tema 15: Combinación de clasificadores

Tema 15: Combinación de clasificadores Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial

Más detalles

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4 Aprenentatge 0-03 Q Examen Parcial Nombre: (Examen ) Instrucciones. (0 puntos) Este examen dura horas. Responded todas las preguntas en estas hojas. Para las preguntas test poned un circulo alrededor de

Más detalles

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja

Más detalles

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Introducción a los sistemas Multiclasificadores Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Contenido 1. Combinación de modelos 2. Descomposición bias-varianza 3. Bagging

Más detalles

Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas

Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas Andrés Cano Utrera Fco. Javier García Castellano Andrés R. Masegosa Arredondo Serafín Moral Callejón Uncertainty Treatment in Artificial

Más detalles

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja o asocia datos

Más detalles

Clasificación Supervisada. Métodos jerárquicos. CART

Clasificación Supervisada. Métodos jerárquicos. CART Clasificación Supervisada. Métodos jerárquicos. CART Ricardo Fraiman 2 de abril de 2010 Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y n ) E {1,..., m}. Típicamente E = R d.

Más detalles

Random Subspace Method. Índice. 1. Random Subspace Method. 1. Introducción. 2. Objetivo. 3. Implementación. 4. Evaluación. 5.

Random Subspace Method. Índice. 1. Random Subspace Method. 1. Introducción. 2. Objetivo. 3. Implementación. 4. Evaluación. 5. The Random Subspace Method for Constructing Decision Forests (IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20, NO. 8, AUGUST 1998) Iñigo Barandiaran 1 Índice 1. Random Subspace

Más detalles

Selección de atributos

Selección de atributos Selección de atributos Series Temporales Máster en Computación Universitat Politècnica de Catalunya Dra. Alicia Troncoso Lora 1 Contenido Introducción Clasificación de las técnicas Esquema General Evaluadores

Más detalles

Clasificación de documentos

Clasificación de documentos Minería de Datos Web P r o f. D r. M a r c e l o G. A r m e n t a n o I S I S TA N, F a c. d e C s. E x a c t a s, U N I C E N m a r c e l o. a r m e n t a n o @ i s i s t a n. u n i c e n. e d u. a r

Más detalles

INAOE. Ensambles de Clasificadores. Eduardo Morales, Hugo Jair Escalante. Introducción. Ensambles de Clasificadores. Algoritmos.

INAOE. Ensambles de Clasificadores. Eduardo Morales, Hugo Jair Escalante. Introducción. Ensambles de Clasificadores. Algoritmos. INAOE (INAOE) 1 / 66 Contenido 1 2 3 4 5 duardo (INAOE) 2 / 66 Motivación Cuando las personas tienen que tomar decisiones difíciles, normalmente toman en cuenta la opinión de varios expertos, buscando

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden: Clasificador Bayesiano Clasificación Clasificador

Más detalles

Minería de Datos Web. Cursada 2018

Minería de Datos Web. Cursada 2018 Minería de Datos Web Cursada 2018 Proceso de Minería de Texto Clustering de Documentos Clasificación de Documentos Es un método supervisado para dividir documentos en base a categorías predefinidas Los

Más detalles

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 -

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 - Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos - Sesión 11 - Juan Alfonso Lara Torralbo 1 Índice de contenidos Actividad. Resolución manual de clasificación bayesiana

Más detalles

NEWTON TREES. Árboles de Estimación Estocástica de Probabilidades:

NEWTON TREES. Árboles de Estimación Estocástica de Probabilidades: Tesis de Máster en Ingeniería del Software, Métodos Formales y Sistemas de Información Árboles de Estimación Estocástica de Probabilidades: NEWTON TREES Autor: Fernando Martínez Plumed 1 Directores: Cèsar

Más detalles

Técnicas de aprendizaje sobre series temporales

Técnicas de aprendizaje sobre series temporales Técnicas de aprendizaje sobre series temporales Contenido 1. Motivación. 2. Ejemplo del Problema. 3. Aproximaciones al problema de clasificación de series temporales. 4. Aprendizaje de reglas. 5. Boosting

Más detalles

Aprendizaje Semisupervisado

Aprendizaje Semisupervisado Aprendizaje Semisupervisado Eduardo Morales INAOE (INAOE) 1 / 52 Contenido 1 2 3 4 5 6 7 (INAOE) 2 / 52 Aprendizaje Semisupervisado Actualmente existe una gran cantidad de datos disponibles, sin embargo,

Más detalles

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Entrada: Objetos caracterizables mediante propiedades. Salida: En árboles de decisión: una decisión (sí o no). En árboles de clasificación:

Más detalles

I. CARACTERISTICAS DEL ALGORITMO ID3

I. CARACTERISTICAS DEL ALGORITMO ID3 I. CARACTERISTICAS DEL ALGORITMO ID3 El investigador J. Ross Quinlan desarrolló el algoritmo conocido como ID3 (Induction Decision Trees) en el año de 1983. Pertenece a la familia TDIDT (Top-Down Induction

Más detalles

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL En esta clase se presenta un método de inducción de modelos numéricos de regresión a partir de datos. En el tema de técnicas clásicas se presentó la

Más detalles

Módulo Minería de Datos Diplomado. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS

Módulo Minería de Datos Diplomado. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Módulo Minería de Datos Diplomado Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Error de clasificación Algoritmo de aprendizaje h Entrenamiento DATOS Evaluación

Más detalles

Aprendizaje inductivo

Aprendizaje inductivo Inteligencia Artificial Aprendizaje inductivo Ing. Sup. en Informática, 4º Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3.1 Introducción

Más detalles

Conjuntos de Clasificadores (Ensemble Learning)

Conjuntos de Clasificadores (Ensemble Learning) Aprendizaje Automático Segundo Cuatrimestre de 2016 Conjuntos de Clasificadores (Ensemble Learning) Gracias a Ramiro Gálvez por la ayuda y los materiales para esta clase. Bibliografía: S. Fortmann-Roe,

Más detalles

Minería de Datos. Arturo Olvera López

Minería de Datos. Arturo Olvera López Benemérita Universidad Autónoma de Puebla Facultad de Ciencias de la Computación Minería de Datos Arturo Olvera López aolvera@cs.buap.mx 1 1 Data Warehouse and OLAP 66 Data Warehouse 67 OLTP, OLAP 68 Data

Más detalles

Bases de Datos Multimedia

Bases de Datos Multimedia Bases de Datos Multimedia Capítulo 3 Algoritmos de búsqueda por similitud Este material se basa en el curso de Base de Datos Multimedia del DCC de la Universidad de Chile (Prof. Benjamín Bustos). 3.1 Conceptos

Más detalles

ARBOLES DE DECISION. Miguel Cárdenas-Montes. 1 Introducción. Objetivos: Entender como funcionan los algoritmos basados en árboles de decisión.

ARBOLES DE DECISION. Miguel Cárdenas-Montes. 1 Introducción. Objetivos: Entender como funcionan los algoritmos basados en árboles de decisión. ARBOLES DE DECISION Miguel Cárdenas-Montes Los árboles de decisión son estructuras lógicas con amplia utilización en la toma de decisión, la predicción y la minería de datos. Objetivos: Entender como funcionan

Más detalles

Aprendizaje de intervalos para Redes Bayesianas de Nodos Temporales

Aprendizaje de intervalos para Redes Bayesianas de Nodos Temporales Aprendizaje de intervalos para Redes Bayesianas de Nodos Temporales Pablo F. Hernández Leal Instituto Nacional de Astrofísica, Óptica y Electrónica Coordinación de Ciencias Computacionales Resumen En este

Más detalles

Estadística con R. Clasificadores

Estadística con R. Clasificadores Estadística con R Clasificadores Análisis discriminante lineal (estadístico) Árbol de decisión (aprendizaje automático) Máquina soporte vector (aprendizaje automático) Análisis discriminante lineal (AD)

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Estudiaremos un algoritmo para la creación del árbol. Selección de atributos comenzando en el nodo raíz. Proceso recursivo. Árboles

Más detalles

Clasificadores Débiles - AdaBoost

Clasificadores Débiles - AdaBoost Capítulo 3 Clasificadores Débiles - AdaBoost El término boosting hace referencia a un tipo de algoritmos cuya finalidad es encontrar una hipótesis fuerte a partir de utilizar hipótesis simples y débiles.

Más detalles

Random Forests. Teoría y ejemplos. Romain Gouron. Conferencia 9, GLAM, Doble titulo Ecole Centrale de Nantes (Francia)

Random Forests. Teoría y ejemplos. Romain Gouron. Conferencia 9, GLAM, Doble titulo Ecole Centrale de Nantes (Francia) Teoría y ejemplos 1 1 Departamiento de Ingenería Matemática Doble titulo Ecole Centrale de Nantes (Francia) Conferencia 9, GLAM, 2016 Outline 1 Árboles de decisión Construcción 2 3 Rotation forest Gradient

Más detalles

Carteras minoristas. árbol de decisión. Ejemplo: Construcción de un scoring de concesión basado en un DIRECCIÓN GENERAL DE SUPERVISIÓN

Carteras minoristas. árbol de decisión. Ejemplo: Construcción de un scoring de concesión basado en un DIRECCIÓN GENERAL DE SUPERVISIÓN Carteras minoristas Ejemplo: Construcción de un scoring de concesión basado en un árbol de decisión Grupo de Tesorería y Modelos de Gestión de Riesgos Sergio Gavilá II Seminario sobre Basilea II Validación

Más detalles

Selección de Atributos. Dr. Jesús Ariel Carrasco Ochoa Oficina 8311

Selección de Atributos. Dr. Jesús Ariel Carrasco Ochoa Oficina 8311 Selección de Atributos Dr. Jesús Ariel Carrasco Ochoa ariel@inaoep.mx Oficina 8311 Contenido Introducción Estrategias de selección Técnicas filter Técnicas wrapper Técnicas híbridas Selección de atributos

Más detalles

Índice general. Prefacio...5

Índice general. Prefacio...5 Índice general Prefacio...5 Capítulo 1 Introducción...13 1.1 Introducción...13 1.2 Los datos...19 1.3 Etapas en los procesos de big data...20 1.4 Minería de datos...21 1.5 Estructura de un proyecto de

Más detalles

Sesión 14: Redes de Decisión

Sesión 14: Redes de Decisión Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 14: Redes de Decisión un agente racional ideal es aquel que, para cada posible secuencia de percepciones, realiza la acción que maximiza su

Más detalles

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60 Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia

Más detalles

Tema 8: Árboles de decisión

Tema 8: Árboles de decisión Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Inducción de Árboles de Decisión ID3, C4.5

Inducción de Árboles de Decisión ID3, C4.5 Inducción de Árboles de Decisión ID3, C4.5 Contenido 1. Representación mediante árboles de decisión. 2. Algoritmo básico: divide y vencerás. 3. Heurística para la selección de atributos. 4. Espacio de

Más detalles

Evaluación de modelos

Evaluación de modelos Evaluación de modelos José Luis Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Razonamiento Asistido por Computador, 2017-2018 Evaluación de modelos Una de las fases principales

Más detalles

Selección de Atributos

Selección de Atributos Selección de Atributos Eduardo Morales, Jesús González INAOE Mayo, 2010 (INAOE) Mayo, 2010 1 / 53 1 2 3 4 5 6 (INAOE) Mayo, 2010 2 / 53 Selección de Atributos A partir de los atributos originales selecciona

Más detalles

Aprendizaje: Boosting y Adaboost

Aprendizaje: Boosting y Adaboost Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo

Más detalles

Precisión del Modelo

Precisión del Modelo Precisión del Modelo Gráficas, estadística y minería de datos con python Miguel Cárdenas Montes Centro de Investigaciones Energéticas Medioambientales y Tecnológicas, Madrid, Spain miguel.cardenas@ciemat.es

Más detalles

Bases Formales de la Computación: Redes de Bayes (segunda parte)

Bases Formales de la Computación: Redes de Bayes (segunda parte) Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes

Más detalles

Qué es big dimension? Verónica Bolón Canedo 2/30

Qué es big dimension? Verónica Bolón Canedo 2/30 Qué es big dimension? Verónica Bolón Canedo 2/30 Big dimension En esta nueva era de Big Data, los métodos de aprendizaje máquina deben adaptarse para poder tratar con este volumen de datos sin precedentes.

Más detalles

Boosting. Miguel Cárdenas-Montes. 1 Boosting. 2 AdaBoost. Objetivos: Entender como funciona la técnica denominada boosting.

Boosting. Miguel Cárdenas-Montes. 1 Boosting. 2 AdaBoost. Objetivos: Entender como funciona la técnica denominada boosting. Ó Boosting Miguel Cárdenas-Montes Tanto en clasificación como en regresión, existen estrategias, basadas en la mezcla de modelos, para mejorar la precisión de los modelos. En estos métodos se establece

Más detalles

Tema 12. Selección de Variables

Tema 12. Selección de Variables Tema 12. Selección de Variables Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco Euskal Herriko Unibertsitatea

Más detalles

Definiciones: conjuntos, grafos, y árboles. Agustín J. González ELO 320: Estructura de Datos y Algoritmos. 2002

Definiciones: conjuntos, grafos, y árboles. Agustín J. González ELO 320: Estructura de Datos y Algoritmos. 2002 Definiciones: conjuntos, grafos, y árboles Agustín J. González ELO 320: Estructura de Datos y Algoritmos. 2002 1 Conjuntos (sets) y Grafos (graphs) Un Conjunto es una colección de objetos distintos. No

Más detalles

Clasificador Jerárquico de Imágenes utilizando Naive Bayes

Clasificador Jerárquico de Imágenes utilizando Naive Bayes Clasificador Jerárquico de Imágenes utilizando Naive Bayes Hernandez Torres Julio Noe, Marin Castro Maribel Angelica Instituto Nacional de Astrofísica Óptica y Electrónica {julio.hernandez.t, mmarinc}

Más detalles

CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles. Cap 18.3: RN

CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles. Cap 18.3: RN CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles de Decisión Cap 18.3: RN Universidad Simón Boĺıvar 5 de octubre de 2009 Árboles de Decisión Un árbol de decisión es un árbol de búsqueda

Más detalles

ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES

ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES ÁRBOL Un árbol es un grafo no dirigido, conexo, sin ciclos (acíclico), y que no contiene aristas

Más detalles

Object Recognition as Machine Translation: Learning a Lexicon for a Fixed Image Vocabulary

Object Recognition as Machine Translation: Learning a Lexicon for a Fixed Image Vocabulary Object Recognition as Machine Translation: Learning a Lexicon for a Fixed Image Vocabulary P. Duygulu, K. Barnard, J.F.G. de Freitas, and D.A. Forsyth Dr. Enrique Sucar 1 Victor Hugo Arroyo Dominguez 1

Más detalles

Capítulo 8. Árboles. Continuar

Capítulo 8. Árboles. Continuar Capítulo 8. Árboles Continuar Introducción Uno de los problemas principales para el tratamiento de los grafos es que no guardan una estructura establecida y que no respetan reglas, ya que la relación entre

Más detalles

Matemáticas Discretas L. Enrique Sucar INAOE. Teoría de Grafos. Problema de los puentes de Königsberg [Euler]

Matemáticas Discretas L. Enrique Sucar INAOE. Teoría de Grafos. Problema de los puentes de Königsberg [Euler] Matemáticas Discretas L. Enrique Sucar INAOE Teoría de Grafos Problema de los puentes de Königsberg [Euler] Teoría de Grafos Definición y terminología Tipos de grafos Trayectorias y circuitos Isomorfismo

Más detalles

Aprendizaje Automático

Aprendizaje Automático id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje

Más detalles

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90] Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 10: Redes Bayesianas Inferencia 1era parte [Neapolitan 90] Inferencia en Redes Bayesianas Introducción Clases de algoritmos 1era Parte Propagación

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur KNN: VECINO(S) MAS CERCANO(S) K NEAREST NEIGHBORS (KNN) Altura Niño Adulto Mayor Se guardan todos los ejemplos

Más detalles

Aprendizaje Supervisado Árboles de Decisión

Aprendizaje Supervisado Árboles de Decisión Aprendizaje Supervisado Árboles de Decisión 10 10 Modelo general de los métodos de Clasificación Id Reembolso Estado Civil Ingresos Anuales 1 Sí Soltero 125K No 2 No Casado 100K No 3 No Soltero 70K No

Más detalles

Sesión 4: Teoría de Grafos

Sesión 4: Teoría de Grafos Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 4: Teoría de Grafos Problema de los puentes de Königsberg [Euler] Teoría de Grafos Definición y terminología Tipos de grafos Trayectorias y

Más detalles

Teoría de grafos y optimización en redes

Teoría de grafos y optimización en redes Teoría de grafos y optimización en redes José María Ferrer Caja Universidad Pontificia Comillas Definiciones básicas Grafo: Conjunto de nodos (o vértices) unidos por aristas G = (V,E) Ejemplo V = {,,,,

Más detalles

IIC3633 Sistemas Recomendadores Functional Matrix Factorizations for Cold-Start Recommendation. Juan Navarro

IIC3633 Sistemas Recomendadores Functional Matrix Factorizations for Cold-Start Recommendation. Juan Navarro IIC3633 Sistemas Recomendadores Functional Matrix Factorizations for Cold-Start Recommendation Juan Navarro Referencia Zhou, K., Yang, S., and Zha, H. Functional matrix factorizations for cold-start recommendation.

Más detalles

ANÁLISIS DE DATOS. Ricardo Aler Mur

ANÁLISIS DE DATOS. Ricardo Aler Mur ANÁLISIS DE DATOS Ricardo Aler Mur EXAMEN DE ANÁLISIS DE DATOS GRADO EN INFORMÁTICA ENERO 2014 10 puntos, 1 hora y media de duración. Responder cada pregunta con respuestas breves (unas pocas líneas).

Más detalles

Pangea. Sistema de recomendación de viajes. Speaker: Andrés Pipicello. Lucas Bernardi, Martín Chaia, Bruno Cuervo Parrino. Demo

Pangea. Sistema de recomendación de viajes. Speaker: Andrés Pipicello. Lucas Bernardi, Martín Chaia, Bruno Cuervo Parrino. Demo Pangea Sistema de recomendación de viajes Speaker: Andrés Pipicello Lucas Bernardi, Martín Chaia, Bruno Cuervo Parrino Demo Research (Despegar.com) Pangea Demo 1 / 18 1 Qué es Pangea? 2 Cómo funciona Pangea?

Más detalles

Visión de Alto Nivel. Dr. Luis Enrique Sucar INAOE. ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento

Visión de Alto Nivel. Dr. Luis Enrique Sucar INAOE. ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento Visión de Alto Nivel Dr. Luis Enrique Sucar INAOE esucar@inaoep.mx ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento 1 Visión de Alto Nivel orillas Representación del mundo textura color Descripción

Más detalles

Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión

Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión Aprendizaje Automático Segundo Cuatrimestre de 2015 Árboles de Decisión Aproximación de Funciones Ejemplo: Un amigo juega al tenis los sábados. Juega o no, dependiendo del estado del tiempo. Cielo: {Sol,

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

TRABAJO FIN DE MÁSTER. Máster en Ingeniería del Software, Métodos Formales y Sistemas de Información

TRABAJO FIN DE MÁSTER. Máster en Ingeniería del Software, Métodos Formales y Sistemas de Información TRABAJO FIN DE MÁSTER Máster en Ingeniería del Software, Métodos Formales y Sistemas de Información CLASIFICACIÓN MULTI-ETIQUETA EN ENTORNOS JERÁRQUICOS Autor: José Luis de la Cruz Garrido Tutor: Cèsar

Más detalles

Algoritmos voraces (greedy)

Algoritmos voraces (greedy) Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 21 de marzo de 2018 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Algoritmos voraces 21 de marzo de 2018 1 / 45 1 Algoritmos voraces (greedy) Aplicaciones de

Más detalles

ANÁLISIS DE DATOS. Jesús García Herrero

ANÁLISIS DE DATOS. Jesús García Herrero ANÁLISIS DE DATOS Jesús García Herrero ANALISIS DE DATOS EJERCICIOS Una empresa de seguros de automóviles quiere utilizar los datos sobre sus clientes para obtener reglas útiles que permita clasificar

Más detalles

Desambiguación del Sentido de las Palabras (Word Sense Disambiguation)

Desambiguación del Sentido de las Palabras (Word Sense Disambiguation) Desambiguación del Sentido de las Palabras (Word Sense Disambiguation) Introducción qué es ambigüedad? qué significa desambiguar? qué entendemos por sentido de las palabras? en qué consiste la tarea de

Más detalles

Maritza Correa Valencia, PhD Informática

Maritza Correa Valencia, PhD Informática Inteligencia artificial aplicada a procesos industriales Caso: calidad de las piezas en un proceso de fresado Maritza Correa Valencia, PhD Informática Universidad Autónoma de Occidente Cali, Mayo 16 de

Más detalles

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Funcionamiento: Se realiza un test en cada nodo interno del árbol, a medida que

Más detalles

Redes de Markov y CRF

Redes de Markov y CRF Redes de Markov y CRF Francisco Barreras 9 de febrero de 2017 Contenido 1 I equivalencia 2 Redes de Markov 3 Representaciones Log lineales 4 Modelos tipo Conditional Random Fields 5 Tutorial: CRF simple

Más detalles

ALGORITMO ID3. Objetivo

ALGORITMO ID3. Objetivo ALGORITMO ID3 Desarrollado por J. Ross Quinlan en 1983. ID3 significa Induction Decision Trees. Pertenece a la familia TDIDT (Top- Down Induction of Decision Trees). Objetivo Construir un árbol de decisión

Más detalles

Predicción basada en vecinos

Predicción basada en vecinos Predicción basada en vecinos Series Temporales Máster en Computación Universitat Politècnica de Catalunya Dra. Alicia Troncoso Lora 1 Contenido Introducción Esquema de predicción directa Predicción basada

Más detalles

Apellidos:... Nombre:...

Apellidos:... Nombre:... Ejercicio 1 (1.5 puntos): Cuestiones Contestar a las siguientes preguntas de manera clara y concisa, usando el espacio en blanco que se deja a continuación: 1. Qué es un unificador de dos átomos? Describir

Más detalles

ASIGNATURA: (TIS-106) Estructuras de Datos II DOCENTE: Ing. Freddy Melgar Algarañaz

ASIGNATURA: (TIS-106) Estructuras de Datos II DOCENTE: Ing. Freddy Melgar Algarañaz TEMA 1. Árboles Generalizados Son estructuras de datos no lineales, o también denominadas estructuras multienlazadas. El árbol es una estructura de datos fundamental en informática, muy utilizada en todos

Más detalles

Métodos de ensambles

Métodos de ensambles Métodos de ensambles Outline Ensambles en general Bagging Random Forest Boosting Introducción Ensamble: conjunto grande de modelos que se usan juntos como un meta modelo Idea base conocida: usar conocimiento

Más detalles

RECONOCIMIENTO DE VINOS POR CULTIVOS CLASIFICACION

RECONOCIMIENTO DE VINOS POR CULTIVOS CLASIFICACION RECONOCIMIENTO DE VINOS POR CULTIVOS CLASIFICACION Miguel Caballero Sierra Guillermo Rubio Escuela Colombiana de Ingeniería Julio Garavito Ingeniería Industrial, Minería de Datos RESUMEN Los modelos de

Más detalles

Combinación de Clasificadores

Combinación de Clasificadores Combinación de Clasificadores Parte 1: Métodos de comité, Bagging, Boosting Reconocimiento de Patrones Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería,

Más detalles

Técnicas Multivariadas Avanzadas

Técnicas Multivariadas Avanzadas Métodos basados en árboles Universidad Nacional Agraria La Molina 2014-2 Introducción Introducción Se describen métodos basados en árboles para regresión y clasicación. Estos métodos requieren estraticar

Más detalles

Algoritmos glotones 2 (código de Huffman) mat-151

Algoritmos glotones 2 (código de Huffman) mat-151 Algoritmos glotones 2 (código de Huffman) mat-151 Alonso Ramírez Manzanares Computación y Algoritmos 05.06.2009 Son técnicas muy efectivas para comprimir datos. Alcanzan una compresión de entre 20% y 90%

Más detalles

Combinación de vistas para clasificación multi-etiqueta: estudio preliminar

Combinación de vistas para clasificación multi-etiqueta: estudio preliminar Combinación de vistas para clasificación multi-etiqueta: estudio preliminar Eva L. Gibaja, Jose M. Moyano, y Sebastián Ventura Universidad de Córdoba. Departamento de Informática y Análisis Numérico Resumen

Más detalles

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1)

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1) Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1) Mathias Bourel IMERL - Facultad de Ingeniería, Universidad de la República, Uruguay 24 de octubre de 2016 M.Bourel

Más detalles

Técnicas de Preprocesado

Técnicas de Preprocesado Técnicas de Preprocesado Series Temporales Máster en Computación Universitat Politècnica de Catalunya Dra. Alicia Troncoso Lora 1 Contenido Por qué preprocesar p los datos? Técnicas de filtro Depuración

Más detalles

Methods of Classification in Mining of Meteorological Data

Methods of Classification in Mining of Meteorological Data MÉTODOS DE CLASIFICACIÓN EN MINERÍA DE DATOS METEOROLÓGICOS Methods of Classification in Mining of Meteorological Data 1 Silvia Haro Rivera*, 1 Lourdes Zúñiga Lema, 2 Antonio Meneses Freire, 1 Luis Vera

Más detalles

Clasificación Supervisada

Clasificación Supervisada Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y

Más detalles

CRITERIOS DE SELECCIÓN DE MODELOS

CRITERIOS DE SELECCIÓN DE MODELOS Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,

Más detalles

Lingüística computacional

Lingüística computacional Lingüística computacional Definición y alcance Escuela Nacional de Antropología e Historia (ENAH) Agosto diciembre de 2015 Lingüística Ciencias de la computación Lingüística computacional Estudio del lenguaje

Más detalles

Predicción de potencia en el parque eólico de Villonaco, Loja, Ecuador. Alberto Reyes y Tania Guerrero INER Ecuador

Predicción de potencia en el parque eólico de Villonaco, Loja, Ecuador. Alberto Reyes y Tania Guerrero INER Ecuador Predicción de potencia en el parque eólico de Villonaco, Loja, Ecuador Alberto Reyes y Tania Guerrero INER Ecuador INTRODUCCIÓN El comportamiento del viento presenta alto grado de aleatoriedad, incertidumbre

Más detalles

PREPROCESADO DE DATOS PARA MINERIA DE DATOS

PREPROCESADO DE DATOS PARA MINERIA DE DATOS Ó 10.1007/978-3-319-02738-8-2. PREPROCESADO DE DATOS PARA MINERIA DE DATOS Miguel Cárdenas-Montes Frecuentemente las actividades de minería de datos suelen prestar poca atención a las actividades de procesado

Más detalles

3. Árboles de decisión

3. Árboles de decisión 3.1 Introducción Método para aproximación de funciones objetivo que tengan valores discretos (clasificación) Uno de los métodos mas extensamente usados para inferencia inductiva Capaz de aprender hipótesis

Más detalles

Divide-y-vencerás, backtracking y programación dinámica

Divide-y-vencerás, backtracking y programación dinámica Divide-y-vencerás, backtracking y programación dinámica Diseño y Análisis de Algoritmos Cátedra de Programación Carrera de Ingeniería de Sistemas Prof. Isabel Besembel Carrera Noviembre, 2012 Prof. Isabel

Más detalles