Métodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Métodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013"

Transcripción

1 Métodos de Clasificación sin Métrica Reconocimiento de Patrones- 03

2 Métodos de Clasificación sin Métrica Datos nominales sin noción de similitud o distancia (sin orden). Escala nominal: conjunto de categorías mutuamente excluyentes y globalmente exhaustivas. Ej: Clasificación de frutas Características: color, textura, sabor, tamaño x={rojo, brillante, dulce, pequeño} Características cualitativas (categóricas): Ordinales (grado de educación) Nominales (profesión) Cómo aprender clases usando datos sin métrica? Cuál es la forma más eficiente de aprender usando datos nominales para clasificar?

3 Árboles de Decisión Es un clasificador con una estructura de árbol. Regla de decisión para clasificar datos usando atributos. El árbol consiste de nodos interiores y nodos terminales. Nodo interior : pregunta sobre un atributo concreto (ramas mutuamente distintas y excluyentes) Nodo terminal u hoja: asociado a una clase. Tamaño? Grande Verde Color? Rojo Amarillo Tamaño? Medio Chico Medio Chico SANDIA MANZANA UVA MANZANA FRUTILLA

4 Arboles de Clasificación Aprendizaje. Construcción del árbol a partir de un conjunto de muestras. Clasificación. Preguntas sobre los valores de los atributos, empezado por el nodo raíz y siguiendo el camino determinado por las respuestas a las preguntas de los nodos internos, hasta llegar a un nodo hoja. La etiqueta asignada a esta hoja es la que se asignará al patrón a clasificar.

5 Árboles de Decisión Fácilmente interpretables: interpretación de las clases en función de los atributos. Ej: MANZANA=(verde y medio) o (rojo y medio). Permite explicar decisiones. Adecuados para datos cuantitativos y cualitativos. Clasificación es rápida. Permite incluir conocimiento a priori de expertos Explicitan utilidad de las características. Benchmarck (referencia) para evaluar desempeño, a veces alcanza el desempeño de clasificadores complejos.

6 Requerimientos Objetos expresables en términos de una colección fija de atributos o propiedades. Es necesario discretizar atributos continuos o lo debe hacer el algoritmo. Las clases deben estar predefinidas (aprendizaje supervisado. Datos suficientes: usualmente cientos o miles de muestras de entrenamiento. Construcción del árbol a partir de un conjunto de muestras de entrenamiento.

7 Construcción de árboles de decisión (CART, ID3, C4.5) Cart: (classification and regression trees) Breimer 984 ID3, C4.5 Quinlann 99 Partimos de patrones etiquetados (D)??? Principio fundamental: simplicidad del árbol (principio parsimonia o navaja de Occam )

8 Construcción Proceso recursivo: dados los patrones que llegan a un nodo: declarar el nodo terminal- asigna clase ó encontrar una nueva característica y volver a dividir los patrones. Preguntas: Dos ramificaciones o más? Qué atributo en cada nodo? Cuando un nodo es terminal? Cómo asignar la clase?

9 Árboles Binarios Número de ramificaciones: Binarias No binarias si si Color verde? Color amarillo? no Cualquier decisión (cualquier árbol) puede representarse usando sólo decisiones binarias. Nos concentraremos en árboles binarios (son los usados en algoritmos prácticos) : Poder expresivo universal de los árboles binarios. Simplicidad comparativa del entrenamiento.

10 Construcción del árbol de clasificación Nodo raíz- tiene a todos los prototipos Parto el nodo raíz: Para una característica elijo la mejor partición que separe a los prototipos en clases más puras. Realizo lo mismo para las otras características. Repito para los nodos hijos hasta llegar a condición de parada (nodo hoja). Los prototipos asociados a un nodo hoja agrupamiento homogéneo, al nodo se le asigna una etiqueta.

11

12

13 Selección de las particiones De qué forma se hacen las particiones y se selecciona la mejor de entre las posibles en cada momento? Objetivo de una partición: es incrementar la homogeneidad de los conjuntos resultantes que sean mas puros. Medida de pureza nodo: Impureza del nodo N: i(n).

14 Criterios de partición Función de impureza N forma i d,d...d Impureza máxima Impureza mínima N Pw, Pw... Pw c Pw tales que: d estan representadas en la misma patronesson de una clase. max min definida : cuando c j 0 : cuando 0 y /c, /c,... /c sobre c - uplas de la j c, 0,...0 d proporción. j Pˆ( x w clases todos los j / N) # # j N N

15 Bondad de una partición N P I s P D N I N D Bondad de la partición s en un nodo s,n :decrecimie nto en impureza N s,n Δis,N in -P in P in I I D D

16 Impureza de un árbol I T IN in P N NT NT La selección continua de particiones que maximizan Δ i(s,n) es equivalente a encontrar las particiones que minizan la impureza global conjunto de nodos terminales. I T. La suma es en el

17 Criterios de medida de impureza Impureza de entropía Información (ID3, C4.5) i i N Pw log Pw N 0 in log c in 0 min c j j máx j

18 Criterios de medida de impureza Impureza de Gini (varianza) (CART) c c N i N i w P N i w P w P N i c w P w P N i máx c j j j c j i i ) ( ) ( 0 ) ( ) ( / ) ( ) ( ) ( ) ( ) ( ) ( ) ( min

19 Interpretación- Gini Esta es la Tasa de error esperado en el nodo N : si la clase a asignar al nodo N se sortea en forma aleatoria usando la distribución de clases presente en el nodo N. 3 ) ( ) ( ) ( )) ( )( ( )) ( )... ( ) ( )( ( )) ( )( ( i i i i i i i i i c w P w P w P w P w P w P w P w P w P w P w P

20 Criterios de medida de impureza Impureza de error de clasificación i( N) máx( P( wj j )) Error de clasificación si se asigna al nodo N la clase de la mayoría. Es la medida más picuda de las tres cuando las probabilidades son iguales. Derivadas discontinuas, complica búsqueda de decisión optima.

21 Fig: Hastie

22 Entropía y Gini más sensibles Gini más picudo cuando las probabilidades son iguales. Entropía o Gini se usan para crecer el árbol y error de clasificación para podarlo. Ej: Error de clasificación Gini Entropía (90,0) 0, 0,09 0,33 (45,5) (5,45) 0, 0,09 0,33 (70,0) (0,0) 0, 0,066 0,9

23 Criterios de partición Cuál es la mejor característica? La que maximiza el decremento de impureza i N in PiN P in I Características nominales (color verde?): probar con cada una y seleccionar la de mayor i. Decisiones sobre características ordinales o continuas: primero encontrar el límite de decisión óptimo para cada característica y luego elegir la mejor. I I D

24 Ejemplo /spam palabra clave: free,gift, offer, price presente/ausente : x={,, 0,} free? m =e+s si offer? si no spam si no m =e +s m =e +s spam Obs: no se repiten las características

25 Ejemplo log log log log log log ) ( m s m s m e m e m m m s m s m e m e m m m s m s m e m e N i si no m =e+s m =e +s m =e +s

26 Incorporación de atributos continuos Requiere la discretización de las características para poder incluirlas en el proceso de aprendizaje. Genero una característica por ejemplo booleana comparando la característica continua contra un umbral. Eligiendo el umbral que produzca la mejor ganancia de entropía.

27 Ejemplo Característica continua: frecuencia de aparición Se determina primero el límite de decisión óptimo free frec.% spam spam spam offer frec.% spam spam spam Punto medio o promedio ponderado

28 Límites de decisión si free<0,5? offer<0,35? z R R R R R Capacidad expresiva limitada de los límites de decisión free<0,65? si no no spam spam z x x x x z z x x x x Obs: Se puede volver a usar una característica. z z Pierde facilidad de interpretación

29 Optimalidad de la solución Optimalidad de decisión local: elegir el mejor atributo en cada nodo). No garantiza la optimalidad global (por ejemplo el número mínimo de nodos) La elección de la función de impureza no es tan determinante como la elección del criterio de parada y los métodos de podado. Árbol muy grande sobreajustará a los datos, muy pequeño puede perder capacidad de discriminación. Tamaño: parámetro que gobierna la complejidad del modelo. Debe elegirse de acuerdo a los datos. Se busca árbol más simple, más compacto. Occam s razor.

30 Criterio de parada Hacen crecer el árbol hasta el mínimo de impureza. Desventaja: sobre-ajuste (overfiting) Alternativas: Pre-podado: Detener el crecimiento Pos- podado: Crecer hasta el límite y luego podar

31 Criterios de Parada. Validación (cruzada): entrenamiento (90%), test (0%). Desventaja: se usan menos datos para entrenar. Paro partición cuando error comienza a crecer. E test entrenamiento. Umbral sobre la reducción de impureza: i (N) β. Árbol depende del β elegido por diseñador. 3. Umbral sobre la cantidad de patrones en un nodo. Continuar creciendo el árbol con pocos patrones produciría sobreajuste. (Particiones chicas en zonas densas y grandes en zonas dispersas similar k-vecinos).

32 Criterios de parada 4. Penalizar la complejidad del árbol min C T min i N T m T Tamaño: # nodos, #hojas. Depende de elección de α.>0 MDL: descripción de largo mínimo- si se utiliza impureza basada en entropía. Minimiza la suma de la complejidad del modelo y la descripción de los patrones dado el modelo. Dificultad determinar relación entre α y desempeño del clasificador.

33 Criterios de parada 5. Test de hipótesis- mide si reducción de impureza es estadísticamente significativa. Compara la distribución de clases en un nodo con la distribución de clases luego de hacer la ramificación y establecer si son significativamente distintos usando un test de hipótesis. Test ji-cuadrado: (o Pearson). Determinar si la distribución de eventos observados en una muestra es consistente con una cierta distribución teórica. (Eventos excluyentes y probabilidad total =)

34 x<x s n I =n I +n I n D =n D +n D n=n I +n D distinta de randomica. partición s es la ver si queremos, D I I D D I I e e e I e e I I n n n n n n n Pn n n n n n n n n n n w w C Criterios de parada

35 Hipótesis nula: las distribuciones son iguales Umbral para cierto nivel de confianza 0.0() 6.64 Nivel de confianza Grados de libertad: c : 0 0 rechazamos H 0 : hacemos ramificación aceptamos H 0 : se detiene crecimiento (nodo terminal) umbral establecido por el usuario árbol completo podado severo

36 Métodos de podado (pos-podado) Efecto horizonte: al detener el crecimiento podemos perder ramificaciones posteriores beneficiosas. Alternativa: crecer el árbol completamente y podarlo luego. Preferible si es computacionalmente tolerable. Idea: estimar error con y sin la ramificación y decidir si vale la pena (si no unir los nodos) x<x s?

37 Métodos de podado. Remplazo de sub-árbol Conjunto independiente para podado. Comenzando desde hojas y hacia la raíz, remplazo nodo con hoja etiquetada por clase mayoritaria. Calculo error en el conjunto de podado si es menor remplazo nodo por hoja. Obtengo árbol óptimo (para conjunto podado). El podado por mínimo costo- complejidad puede remplazar un sub-árbol complejo por una hoja directamente.

38 Poda por mínimo coste-complejidad Complejidad de un subarbol como el número de nodos terminales, T. Error de clasificación R(T). Medida de coste-complejidad : R (T) = R(T) + T 0:parámetro de complejidad R ( T( )) min T T max R ( T)

39 Selección del mejor árbol podado Escoger aquel que tenga asociado el menor error R * (T k ) cómo estimar honestamente R * (T k )?. Estimación por validación cruzada.

40 Métodos de podado. Elevación de Sub- árbol Usando todo los datos para entrenamiento Es más compleja y no necesariamente siempre es útil: Usada en C4.5. Estima el error cometido en un nodo cuando sustituyo sub-árbol por una de sus ramas. Top/down.

41 C4.5 Usa heurística para podado basada en la significancia estadística de las particiones. Terminamos con un conjunto de reglas simplificada que definen cada nodo terminal. No usa características sustitutas cuando faltan datos. No siempre sigue una estructura de árbol.

42 Árboles Inestabilidad: sensibles al conjunto de entrenamiento, alta varianza. Pequeño cambio en los datos puede generar gran cambio en particiones, haciendo interpretación precaria. Alternativas: Bagging, Random Forest, Option Trees. Priors y costos: Es posible incluir priors o costos pesando los patrones de entrenamiento con el prior o los costos. Ej: Índice de Gini: i( N) P( w ) P( w ) i, j i, j i j

43 Datos faltantes Construir el árbol usando los patrones que tienen definida la característica. Ej: Si falta x para un patrón x={x, x, x 3 } i(n) con n patrones para x y x 3, con n- para x Procedimiento: Luego de elegir una característica para una ramificación, elegir características suplentes en orden (surrogante) considerando la correlación entre características.

44 Datos faltantes Ej: correlación =# patrones a la izquierda por ambas decisiones + # patrones a la derecha por ambas decisiones En la clasificación si el atributo sobre el que hay que decidir falta se usa el siguiente suplente.

45 Duda

46 Qué clasificador es mejor? Algunos criterios: Criterio de crecimiento: impureza de entropía funciona bien - regla defecto. Podado preferible a parada con validación cruzada. Aunque podado de conjunto de datos grandes puede ser inabordable. No hay un árbol superior a otro. Logran desempeño similar a otros métodos como redes neuronales, k-vecinos. Particularmente útiles con datos no métricos.

47 Fortalezas y debilidades de Arboles Interpretabilidad de las reglas de decisión Bajo costo computacional para clasificar Pueden usar características continuas y categóricas Entrenamiento computacionalmente caro (postpoda) No tratan bien regiones no-rectangulares.

SISTEMAS INTELIGENTES

SISTEMAS INTELIGENTES SISTEMAS INTELIGENTES T9: Árboles de Decisión www.aic.uniovi.es/ssii Sistemas Inteligentes T9: Árboles de decisión Índice Árboles de decisión para clasificación Mecanismo de inducción: divide y vencerás

Más detalles

3. Árboles de decisión

3. Árboles de decisión 3.1 Introducción Método para aproximación de funciones objetivo que tengan valores discretos (clasificación) Uno de los métodos mas extensamente usados para inferencia inductiva Capaz de aprender hipótesis

Más detalles

Técnicas Multivariadas Avanzadas

Técnicas Multivariadas Avanzadas Métodos basados en árboles Universidad Nacional Agraria La Molina 2014-2 Introducción Introducción Se describen métodos basados en árboles para regresión y clasicación. Estos métodos requieren estraticar

Más detalles

Tema 7: Aprendizaje de árboles de decisión

Tema 7: Aprendizaje de árboles de decisión Inteligencia Artificial 2 Curso 2002 03 Tema 7: Aprendizaje de árboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Francisco J. Martín Mateos José L. Ruiz Reina Dpto. de Ciencias de

Más detalles

Carteras minoristas. árbol de decisión. Ejemplo: Construcción de un scoring de concesión basado en un DIRECCIÓN GENERAL DE SUPERVISIÓN

Carteras minoristas. árbol de decisión. Ejemplo: Construcción de un scoring de concesión basado en un DIRECCIÓN GENERAL DE SUPERVISIÓN Carteras minoristas Ejemplo: Construcción de un scoring de concesión basado en un árbol de decisión Grupo de Tesorería y Modelos de Gestión de Riesgos Sergio Gavilá II Seminario sobre Basilea II Validación

Más detalles

Inducción de Árboles de Decisión ID3, C4.5

Inducción de Árboles de Decisión ID3, C4.5 Inducción de Árboles de Decisión ID3, C4.5 Contenido 1. Representación mediante árboles de decisión. 2. Algoritmo básico: divide y vencerás. 3. Heurística para la selección de atributos. 4. Espacio de

Más detalles

Tema 8: Árboles de Clasificación

Tema 8: Árboles de Clasificación Tema 8: Árboles de Clasificación p. 1/11 Tema 8: Árboles de Clasificación Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad

Más detalles

CART s. Walter Sosa-Escudero. Universisad de San Andres y CONICET

CART s. Walter Sosa-Escudero. Universisad de San Andres y CONICET Universisad de San Andres y CONICET Motivacion Modelo flexible e interpretable para la relacion entre Y y X. Arboles: partir el espacio de atributos en rectangulos, y ajustar un modelo simple para Y dentro

Más detalles

Minería de Datos Web. Cursada 2018

Minería de Datos Web. Cursada 2018 Minería de Datos Web Cursada 2018 Proceso de Minería de Texto Clustering de Documentos Clasificación de Documentos Es un método supervisado para dividir documentos en base a categorías predefinidas Los

Más detalles

Aprendizaje Automático

Aprendizaje Automático id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje

Más detalles

Clustering: Auto-associative Multivariate Regression Tree (AAMRT)

Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Introducción Tipos Validación AAMRT Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Miguel Bernal C Quantil 12 de diciembre de 2013 Miguel Bernal C Quantil Matemáticas Aplicadas Contenido

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Estudiaremos un algoritmo para la creación del árbol. Selección de atributos comenzando en el nodo raíz. Proceso recursivo. Árboles

Más detalles

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria Minería de Datos Árboles de Decisión Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Otoño de 2012 Twenty questions Intuición sobre los árboles de decisión Juego

Más detalles

Búsqueda en línea y Búsqueda multiagente

Búsqueda en línea y Búsqueda multiagente Búsqueda en línea y Búsqueda multiagente Ingeniería Informática, 4º Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani 1 Tema 2: Agentes basados en Búsqueda Resumen: 2. Agentes basados

Más detalles

EVALUACIÓN EN APRENDIZAJE. Eduardo Morales y Jesús González

EVALUACIÓN EN APRENDIZAJE. Eduardo Morales y Jesús González EVALUACIÓN EN APRENDIZAJE Eduardo Morales y Jesús González Significancia Estadística 2 En estadística, se dice que un resultado es estadísticamente significante, cuando no es posible que se presente por

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Entrada: Objetos caracterizables mediante propiedades. Salida: En árboles de decisión: una decisión (sí o no). En árboles de clasificación:

Más detalles

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria Minería de Datos Árboles de Decisión Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Otoño de 2012 Twenty questions Intuición sobre los árboles de decisión Juego

Más detalles

Comparación de métodos de aprendizaje sobre el mismo problema

Comparación de métodos de aprendizaje sobre el mismo problema Comparación de métodos de aprendizaje sobre el mismo problema Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación. Test de

Más detalles

I. CARACTERISTICAS DEL ALGORITMO ID3

I. CARACTERISTICAS DEL ALGORITMO ID3 I. CARACTERISTICAS DEL ALGORITMO ID3 El investigador J. Ross Quinlan desarrolló el algoritmo conocido como ID3 (Induction Decision Trees) en el año de 1983. Pertenece a la familia TDIDT (Top-Down Induction

Más detalles

Inteligencia Artificial

Inteligencia Artificial I.T. en Informática de Sistemas, 3º Curso académico: 2009/2010 Profesores: Sascha Ossowski y Ramón Hermoso 1 Tema 2: Búsqueda Resumen: 2. Búsqueda 2.1. Agentes de resolución de problemas 2.2. Búsqueda

Más detalles

Inducción de Árboles de Decisión ID3, C4.5

Inducción de Árboles de Decisión ID3, C4.5 Inducción de Árboles de Decisión ID3, C4.5 Contenido 1. Representación mediante árboles de decisión 2. Algoritmo básico: divide y vencerás 3. Heurística para la selección de atributos 4. Espacio de búsqueda

Más detalles

CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles. Cap 18.3: RN

CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles. Cap 18.3: RN CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles de Decisión Cap 18.3: RN Universidad Simón Boĺıvar 5 de octubre de 2009 Árboles de Decisión Un árbol de decisión es un árbol de búsqueda

Más detalles

2. Algoritmos genéticos y redes neuronales 3. Inducción de árboles clasificadores. Inducción de árboles de clasificación. Aprendizaje UPM UPM

2. Algoritmos genéticos y redes neuronales 3. Inducción de árboles clasificadores. Inducción de árboles de clasificación. Aprendizaje UPM UPM 1. Preliminares Aprendizaje 2. Algoritmos genéticos y redes neuronales 3. Inducción de árboles clasificadores 4. Inducción de reglas 5. Minería de datos c 2010 DIT-ETSIT- Aprendizaje: árboles transp. 1

Más detalles

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión.

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión. MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión. 1 Objetivos del tema Conocer en qué consiste un árbol de decisión. Aprender los problemas que pueden

Más detalles

Aux 6. Introducción a la Minería de Datos

Aux 6. Introducción a la Minería de Datos Aux 6. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 glhuilli@dcc.uchile.cl 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial

Más detalles

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja

Más detalles

Aprendizaje Supervisado Árboles de Decisión

Aprendizaje Supervisado Árboles de Decisión Aprendizaje Supervisado Árboles de Decisión 10 10 Modelo general de los métodos de Clasificación Id Reembolso Estado Civil Ingresos Anuales 1 Sí Soltero 125K No 2 No Casado 100K No 3 No Soltero 70K No

Más detalles

Guía de Ejercicios Aprendizaje de Máquinas Inteligencia Articial (CC52A)

Guía de Ejercicios Aprendizaje de Máquinas Inteligencia Articial (CC52A) Guía de Ejercicios Aprendizaje de Máquinas Inteligencia Articial (CC52A) 6 de noviembre de 2007 1. Arboles de Decision 1. Investigue las ventajas y desventajas de los árboles de decisión versus los siguientes

Más detalles

Clasificación Supervisada. Métodos jerárquicos. CART

Clasificación Supervisada. Métodos jerárquicos. CART Clasificación Supervisada. Métodos jerárquicos. CART Ricardo Fraiman 2 de abril de 2010 Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y n ) E {1,..., m}. Típicamente E = R d.

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur MODELOS: ÁRBOLES DE DECISIÓN Y REGLAS Datos de entrada 91 71 75 81 Nublado 90 72 Nublado 70 75 80 75 70

Más detalles

El Perceptrón Multicapa

El Perceptrón Multicapa El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del

Más detalles

VIII Jornadas de Usuarios de R

VIII Jornadas de Usuarios de R VIII Jornadas de Usuarios de R Análisis del Abandono en el Sector Bancario Predicción del abandono de clientes Albacete, 17 de Noviembre de 2016 I. INDICE : Modelo Abandonos I. COMPRENSIÓN DEL NEGOCIO

Más detalles

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1)

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1) Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1) Mathias Bourel IMERL - Facultad de Ingeniería, Universidad de la República, Uruguay 24 de octubre de 2016 M.Bourel

Más detalles

Aprendizaje: Boosting y Adaboost

Aprendizaje: Boosting y Adaboost Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Estudiaremos un algoritmo para la creación del árbol. Selección de atributos comenzando en el nodo raíz. Proceso recursivo. Árboles

Más detalles

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 -

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 - Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos - Sesión 11 - Juan Alfonso Lara Torralbo 1 Índice de contenidos Actividad. Resolución manual de clasificación bayesiana

Más detalles

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO Clasificación NO SUPERVISADA AGRUPAMIENTO Clasificación No Supervisada Se trata de construir clasificadores sin información a priori, o sea, a partir de conjuntos de patrones no etiquetados Objetivo: Descubrir

Más detalles

Métodos de Remuestreo en Aprendizaje Automático

Métodos de Remuestreo en Aprendizaje Automático Métodos de Remuestreo en Aprendizaje Automático en datos, en hipótesis, y algunos otros trucos: Cross-validation, Bootstrap, Bagging, Boosting, Random Subspaces Lo que sabemos hasta ahora: Hemos visto

Más detalles

D conjunto de N patrones etiquetados, cada uno de los cuales está caracterizado por n variables predictoras X 1,..., X n y la variable clase C.

D conjunto de N patrones etiquetados, cada uno de los cuales está caracterizado por n variables predictoras X 1,..., X n y la variable clase C. Tema 10. Árboles de Clasificación Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco Euskal Herriko Unibertsitatea

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

ALGORITMO ID3. Objetivo

ALGORITMO ID3. Objetivo ALGORITMO ID3 Desarrollado por J. Ross Quinlan en 1983. ID3 significa Induction Decision Trees. Pertenece a la familia TDIDT (Top- Down Induction of Decision Trees). Objetivo Construir un árbol de decisión

Más detalles

Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión

Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión Aprendizaje Automático Segundo Cuatrimestre de 2015 Árboles de Decisión Aproximación de Funciones Ejemplo: Un amigo juega al tenis los sábados. Juega o no, dependiendo del estado del tiempo. Cielo: {Sol,

Más detalles

Comparación de dos métodos de aprendizaje sobre el mismo problema

Comparación de dos métodos de aprendizaje sobre el mismo problema Comparación de dos métodos de aprendizaje sobre el mismo problema Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación 2.

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Jesús García Herrero TÉCNICAS DE INDUCCIÓN-II

Jesús García Herrero TÉCNICAS DE INDUCCIÓN-II Jesús García Herrero TÉCNICAS DE INDUCCIÓN-II En esta clase se continúa con el desarrollo de métodos de inducción de modelos lógicos a partir de datos. Se parte de las limitaciones del método ID3 presentado

Más detalles

Análisis y Complejidad de Algoritmos. Arboles Binarios. Arturo Díaz Pérez

Análisis y Complejidad de Algoritmos. Arboles Binarios. Arturo Díaz Pérez Análisis y Complejidad de Algoritmos Arboles Binarios Arturo Díaz Pérez Arboles Definiciones Recorridos Arboles Binarios Profundidad y Número de Nodos Arboles-1 Arbol Un árbol es una colección de elementos,

Más detalles

Introducción a SPSS Árboles de Clasificación. Jorge Del Río L. Consultor Estadístico

Introducción a SPSS Árboles de Clasificación. Jorge Del Río L. Consultor Estadístico Introducción a SPSS Árboles de Clasificación Jorge Del Río L. Consultor Estadístico Introducción Es un módulo que contiene diferentes procedimientos para resolver problemas de predicción y clasificación

Más detalles

Conjuntos de Clasificadores (Ensemble Learning)

Conjuntos de Clasificadores (Ensemble Learning) Aprendizaje Automático Segundo Cuatrimestre de 2016 Conjuntos de Clasificadores (Ensemble Learning) Gracias a Ramiro Gálvez por la ayuda y los materiales para esta clase. Bibliografía: S. Fortmann-Roe,

Más detalles

Tema 8: Árboles de decisión

Tema 8: Árboles de decisión Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja o asocia datos

Más detalles

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,

Más detalles

Clasificadores Débiles - AdaBoost

Clasificadores Débiles - AdaBoost Capítulo 3 Clasificadores Débiles - AdaBoost El término boosting hace referencia a un tipo de algoritmos cuya finalidad es encontrar una hipótesis fuerte a partir de utilizar hipótesis simples y débiles.

Más detalles

Random Forests. Teoría y ejemplos. Romain Gouron. Conferencia 9, GLAM, Doble titulo Ecole Centrale de Nantes (Francia)

Random Forests. Teoría y ejemplos. Romain Gouron. Conferencia 9, GLAM, Doble titulo Ecole Centrale de Nantes (Francia) Teoría y ejemplos 1 1 Departamiento de Ingenería Matemática Doble titulo Ecole Centrale de Nantes (Francia) Conferencia 9, GLAM, 2016 Outline 1 Árboles de decisión Construcción 2 3 Rotation forest Gradient

Más detalles

Clasificación mediante conjuntos

Clasificación mediante conjuntos Clasificación mediante conjuntos Gonzalo Martínez Muñoz Director: Dr. Alberto Suárez González Departamento de Ingeniería Informática Escuela Politécnica Superior Universidad Autónoma de Madrid diciembre

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur EVALUACIÓN Evaluación: entrenamiento y test Una vez obtenido el conocimiento es necesario validarlo para

Más detalles

Introducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada

Introducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada Clustering Clasificación no supervisada Javier G. Sogo 10 de marzo de 2015 1 Introducción 2 Clustering jerárquico 3 Clustering particional 4 Clustering probabilista 5 Conclusiones Introducción Objetivos

Más detalles

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar

Más detalles

Clasificación estadística de patrones

Clasificación estadística de patrones Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de

Más detalles

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos

Más detalles

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL En esta clase se presenta un método de inducción de modelos numéricos de regresión a partir de datos. En el tema de técnicas clásicas se presentó la

Más detalles

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Introducción a los sistemas Multiclasificadores Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Contenido 1. Combinación de modelos 2. Descomposición bias-varianza 3. Bagging

Más detalles

Conclusiones. Somos la suma de nuestras decisiones. WOODY ALLEN Delitos y Faltas (1989)

Conclusiones. Somos la suma de nuestras decisiones. WOODY ALLEN Delitos y Faltas (1989) Capítulo 7 Conclusiones Somos la suma de nuestras decisiones WOODY ALLEN Delitos y Faltas (1989) En este trabajo se ha presentado una nueva estrategia para construir árboles de decisión que ha conseguido

Más detalles

NEWTON TREES. Árboles de Estimación Estocástica de Probabilidades:

NEWTON TREES. Árboles de Estimación Estocástica de Probabilidades: Tesis de Máster en Ingeniería del Software, Métodos Formales y Sistemas de Información Árboles de Estimación Estocástica de Probabilidades: NEWTON TREES Autor: Fernando Martínez Plumed 1 Directores: Cèsar

Más detalles

Aplicaciones de apoyo al diagnóstico médico. Identificación de objetos amigos y enemigos. Identificación de zonas afectadas por un desastre natural.

Aplicaciones de apoyo al diagnóstico médico. Identificación de objetos amigos y enemigos. Identificación de zonas afectadas por un desastre natural. Capítulo 5 Evaluación En muchas ocasiones requerimos hacer una evaluación muy precisa de nuestros algoritmos de aprendizaje computacional porque los vamos a utilizar en algún tipo de aplicación que así

Más detalles

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4 Aprenentatge 0-03 Q Examen Parcial Nombre: (Examen ) Instrucciones. (0 puntos) Este examen dura horas. Responded todas las preguntas en estas hojas. Para las preguntas test poned un circulo alrededor de

Más detalles

Sistemas de Percepción Visión por Computador

Sistemas de Percepción Visión por Computador Nota: Algunas de las imágenes que aparecen en esta presentación provienen del libro: Visión por Computador: fundamentos y métodos. Arturo de la Escalera Hueso. Prentice Hall. Sistemas de Percepción Visión

Más detalles

Anexo I CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN

Anexo I CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN Anexo I CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN 165 ENCUESTA DE COMPORTAMIENTOS Y TIPOLOGÍAS DE VISITANTES EN EUSKADI 166 ANEXO I. CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN

Más detalles

Aprendizaje inductivo

Aprendizaje inductivo Inteligencia Artificial Aprendizaje inductivo Ing. Sup. en Informática, 4º Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3.1 Introducción

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Aprendizaje Automático. Objetivos. Funciona? Notas

Aprendizaje Automático. Objetivos. Funciona? Notas Introducción Las técnicas que hemos visto hasta ahora nos permiten crear sistemas que resuelven tareas que necesitan inteligencia La limitación de estos sistemas reside en que sólo resuelven los problemas

Más detalles

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Funcionamiento: Se realiza un test en cada nodo interno del árbol, a medida que

Más detalles

Apellidos:... Nombre:...

Apellidos:... Nombre:... Ejercicio 1 (1.5 puntos): Cuestiones Contestar a las siguientes preguntas de manera clara y concisa, usando el espacio en blanco que se deja a continuación: 1. Qué es un unificador de dos átomos? Describir

Más detalles

Selección de características. Reconocimiento de Patrones 2013

Selección de características. Reconocimiento de Patrones 2013 Selección de características Reconocimiento de Patrones 2013 Selección de características Estrategia de búsqueda óptima o sub-optima para la selección de un sub-conjunto de características para el diseño

Más detalles

Introducción a Aprendizaje no Supervisado

Introducción a Aprendizaje no Supervisado Introducción a Aprendizaje no Supervisado Felipe Suárez, Álvaro Riascos 25 de abril de 2017 2 / 33 Contenido 1. Motivación 2. k-medias Algoritmos Implementación 3. Definición 4. Motivación 5. Aproximación

Más detalles

Evaluación del riesgo crediticio mediante árboles de clasificación y bosques aleatorios

Evaluación del riesgo crediticio mediante árboles de clasificación y bosques aleatorios Trabajo Fin de Grado Grado en Ingeniería de Tecnologías Industriales Evaluación del riesgo crediticio mediante árboles de clasificación y bosques aleatorios Autora: Patricia Pino Cubiles Tutora: Ester

Más detalles

Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile

Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile Arboles de Decisión Algoritmo de Hunt (I) Nodo interior Nodo por expandir Nodo hoja Algoritmo de Hunt

Más detalles

Árboles de clasificación/decisión mediante R

Árboles de clasificación/decisión mediante R Árboles de clasificación/decisión mediante R Paquete Hay dos paquetes de R que cubren este asunto: tree y rpart. Trabajaremos con el segundo porque 1. Está incluido en la distribución básica de R. 2. La

Más detalles

Módulo Minería de Datos Diplomado. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS

Módulo Minería de Datos Diplomado. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Módulo Minería de Datos Diplomado Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Error de clasificación Algoritmo de aprendizaje h Entrenamiento DATOS Evaluación

Más detalles

Clasificación Supervisada

Clasificación Supervisada Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y

Más detalles

Estadística. Para el caso de dos variables aleatorias X e Y, se puede mostrar que. Pero y son desconocidos. Entonces. covarianza muestral

Estadística. Para el caso de dos variables aleatorias X e Y, se puede mostrar que. Pero y son desconocidos. Entonces. covarianza muestral Para el caso de dos variables aleatorias X e Y, se puede mostrar que Pero y son desconocidos. Entonces donde covarianza muestral Estimación de intervalos de confianza Cuál es el intervalo (de confianza)

Más detalles

4ta. Práctica. Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta. Inteligencia Artificial Prácticas 2004/2005

4ta. Práctica. Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta. Inteligencia Artificial Prácticas 2004/2005 4ta. Práctica Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta Inteligencia Artificial Prácticas 2004/2005 Decisiones Perfectas en Juegos de DOS Participantes Definición de Juego Estado Inicial:

Más detalles

ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES

ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES ÁRBOL Un árbol es un grafo no dirigido, conexo, sin ciclos (acíclico), y que no contiene aristas

Más detalles

Reconocimiento de Patrones

Reconocimiento de Patrones Reconocimiento de Patrones Técnicas de validación (Clasificación Supervisada) Jesús Ariel Carrasco Ochoa Instituto Nacional de Astrofísica, Óptica y Electrónica Clasificación Supervisada Para qué evaluar

Más detalles

Técnicas Supervisadas Aproximación no paramétrica

Técnicas Supervisadas Aproximación no paramétrica Técnicas Supervisadas Aproximación no paramétrica 2016 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ. de Granada Pattern Classification de Duda, Hart y Storck The Elements of Statistical

Más detalles

CRITERIOS DE SELECCIÓN DE MODELOS

CRITERIOS DE SELECCIÓN DE MODELOS Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,

Más detalles

Distribuciones de parámetros conocidos

Distribuciones de parámetros conocidos 10.3. CONTRASTE DE BONDAD DE AJUSTE PARA DISTRIBUCIONES265 350 300 observaciones esperado(x) 250 Frecuencias esperadas 200 150 100 Frecuencias observadas 50 0 55 60 65 70 75 80 85 90 Figura 10.2: En los

Más detalles

TÉCNICAS ESTADÍSTICAS PARA EL ANÁLISIS DE LA INFORMACIÓN CONTABLE

TÉCNICAS ESTADÍSTICAS PARA EL ANÁLISIS DE LA INFORMACIÓN CONTABLE TEMA 8 TÉCNICAS ESTADÍSTICAS PARA EL ANÁLISIS DE LA INFORMACIÓN CONTABLE 8.1.La inferencia estadística: del análisis univariante al análisis multivariante. 8.2.La reducción de la dimensionalidad: el análisis

Más detalles

Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas

Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas Andrés Cano Utrera Fco. Javier García Castellano Andrés R. Masegosa Arredondo Serafín Moral Callejón Uncertainty Treatment in Artificial

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Un poco más general: si ahora S n está dada por la suma de variables independientes de la forma: S n =c 1 X 1 +... +c n X n, entonces la función generatriz viene dada por: Variables

Más detalles

Aprendizaje Automático

Aprendizaje Automático Aprendizaje Automático Andrea Mesa 21 de mayo de 2010 Aprendizaje automático Otras denominaciones: machine learning, statistical learning, data mining, inteligencia artificial. Las técnicas de Aprendizaje

Más detalles

10 EXÁMENES

10 EXÁMENES 10 EXÁMENES 2014-2018 Convocatoria Extraordinaria de Septiembre 1 de Septiembre de 2014 1. (1 pto.) a) Aunque por abuso del lenguaje hemos hablado de minería de datos y de KDD como sinónimos, indica las

Más detalles

Introducción. Qué es Machine Learning?

Introducción. Qué es Machine Learning? Introducción Qué es Machine Learning? Introducción Hay problemas en Informática que se pueden definir concretamente y son simples de convertir en un algoritmo Ejemplo: Ordenar alfabéticamente una lista,

Más detalles

Estadística Inferencia Estadística

Estadística Inferencia Estadística Estadística Inferencia Estadística Problemas en Inferencia Estadística POBLACIÓN X F(θ ) desconocido A partir de una M.A.S. X 1,X 2,,X n queremos estimar el valor de θ Estimar : Asignar un valor a algo

Más detalles

Estadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con

Estadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con Hasta ahora hemos supuesto que conocemos o podemos calcular la función/densidad de probabilidad (distribución) de las variables aleatorias. En general, esto no es así. Más bien se tiene una muestra experimental

Más detalles

JUEGOS. Área de aplicación de los algoritmos heurísticos Juegos bi-personales: oponente hostil

JUEGOS. Área de aplicación de los algoritmos heurísticos Juegos bi-personales: oponente hostil JUEGOS Área de aplicación de los algoritmos heurísticos Juegos bi-personales: oponente hostil I Oponente: Jugador: intenta mover a un estado que es el peor para Etiquetar cada nivel del espacio de búsqueda

Más detalles

ANÁLISIS DE DATOS. Ricardo Aler Mur

ANÁLISIS DE DATOS. Ricardo Aler Mur ANÁLISIS DE DATOS Ricardo Aler Mur EXAMEN DE ANÁLISIS DE DATOS GRADO EN INFORMÁTICA ENERO 2014 10 puntos, 1 hora y media de duración. Responder cada pregunta con respuestas breves (unas pocas líneas).

Más detalles

Jesús García Herrero CLASIFICADORES KNN II: APRENDIZAJE DE PROTOTIPOS

Jesús García Herrero CLASIFICADORES KNN II: APRENDIZAJE DE PROTOTIPOS Jesús García Herrero CLASIFICADORES KNN II: APRENDIZAJE DE PROTOTIPOS En esta clase se completa el tema anterior de aprendizaje basados en instancias, enfatizando el aprendizaje de ejemplares. En particular,

Más detalles

Random Forests para detección de fraude en medios de pago

Random Forests para detección de fraude en medios de pago Universidad Autónoma de Madrid Escuela Politécnica Superior Departamento de Ingeniería Informática Random Forests para detección de fraude en medios de pago Trabajo Fin de Máster Máster en Investigación

Más detalles