Aprendizaje inductivo: árboles y reglas de decisión

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Aprendizaje inductivo: árboles y reglas de decisión"

Transcripción

1 M. A. Gutiérrez Naranjo F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

2 Contenido Introducción Árboles de decisión: El algoritmo ID3 Entropía e información Búsqueda y sesgo inductivo Sobreajuste y ruido Poda y otras cuestiones Reglas: Reglas proposicionales Algoritmo de cobertura para aprendizaje de reglas proposicionales Reglas de primer orden: programación lógica inductiva El algoritmo FOIL

3 Aprendizaje Definiciones de aprendizaje: Cualquier cambio en un sistema que le permita realizar la misma tarea de manera más eficiente la próxima vez (H. Simon) Modificar la representación del mundo que se está percibiendo (R. Michalski) Realizar cambios útiles en nuestras mentes (M. Minsky) Aprendizaje automático: construir programas que mejoran automáticamente con la experiencia Ejemplos de tareas: Construcción de bases de conocimiento a partir de la experiencia Clasificación y diagnóstico Minería de datos, descubrir estructuras desconocidas en grandes grupos de datos Resolución de problemas, planificación y acción

4 Tipos de aprendizaje y paradigmas Tipos de aprendizaje Supervisado No supervisado Con refuerzo Paradigmas Aprendizaje por memorización Clasificación (Clustering) Aprendizaje inductivo Aprendizaje por analogía Descubrimiento Algoritmos genéticos, redes neuronales

5 Aprendizaje supervisado (ejemplo) Conjunto de entrenamiento Ejemplos: días en los que es recomendable (o no) jugar al tenis Representación como una lista de pares atributo valor Ej. Cielo Temperatura Humedad Viento JugarTenis D 1 Soleado Alta Alta Débil - D 2 Soleado Alta Alta Fuerte - D 3 Nublado Alta Alta Débil + D 4 Lluvia Suave Alta Débil +... Objetivo: Dado el conjunto de entrenamiento, aprender el concepto Días en los que se juega al tenis Problema: Cómo expresar lo aprendido? En este tema, veremos algoritmos para aprender árboles de decisión y para aprender reglas

6 Árboles de decisión Ejemplos de árboles de decisión Cielo Soleado Nublado Lluvia Humedad + Viento Alta Normal Fuerte Debil + +

7 Árboles de decisión Ejemplos de árboles de decisión Color Rojo Verde Azul Tamaño Forma Grande Pequeño Redondo Cuadrado + Tamaño + Grande Pequeño +

8 Árboles de decisión Árboles de decisión Nodos interiores: atributos Arcos: posibles valores del nodo origen Hojas: valor de clasificación (usualmente + ó, aunque podría ser cualquier conjunto de valores, no necesariamente binario) Representación de una función objetivo Disyunción de reglas proposicionales: (Cielo=Soleado Humedad=Alta JugarTenis= ) (Cielo=Soleado Humedad=Normal JugarTenis= +) (Cielo=Nublado JugarTenis= +) (Cielo=Lluvioso Viento=Fuerte JugarTenis= ) (Cielo=Lluvioso Viento=Debil JugarTenis= +) Capaz de representar cualquier subconjunto de instancias

9 Aprendizaje de árboles de decisión Objetivo: aprender un árbol de decisión consistente con los ejemplos, para posteriormente clasificar ejemplos nuevos Ejemplo de conjunto de entrenamiento: Ej. Cielo Temperatura Humedad Viento JugarTenis D 1 Soleado Alta Alta Débil - D 2 Soleado Alta Alta Fuerte - D 3 Nublado Alta Alta Débil + D 4 Lluvia Suave Alta Débil +...

10 Algoritmo ID3 Algoritmo ID3 ID3(Ejemplos, Atributo-objetivo, Atributos) 1. Si todos los Ejemplos son positivos, devolver un nodo etiquetado con + 2. Si todos los Ejemplos son negativos, devolver un nodo etiquetado con - 3. Si Atributos está vacío, devolver un nodo etiquetado con el valor más frecuente de Atributo-objetivo en Ejemplos. 4. En otro caso: 4.1. Sea A el atributo de Atributos que MEJOR clasifica Ejemplos 4.2. Crear Árbol, con un nodo etiquetado con A Para cada posible valor v de A, hacer: * Añadir un arco a Árbol, etiquetado con v. * Sea Ejemplos(v) el subconjunto de Ejemplos con valor del atributo A igual a v. * Si Ejemplos(v) es vacío: - Entonces colocar debajo del arco anterior un nodo etiquetado con el valor más frecuente de Atributo-objetivo en Ejemplos. - Si no, colocar debajo del arco anterior el subárbol ID3(Ejemplos(v), Atributo-objetivo, Atributos-{A}). 4.4 Devolver Árbol

11 Cómo saber qué atributo clasifica mejor? Entropía de un conjunto de ejemplos D (resp. de una clasificación): Ent(D) = P D log 2 P D N D log 2 N D donde P y N son, respectivamente, los subconjuntos de ejemplos positivos y negativos de D Notación: Ent([p +,n ]), donde p = P y n = N Intuición: Mide la ausencia de homegeneidad de la clasificación Teoría de la Información: cantidad media de información (en bits) necesaria para codificar la clasificación de un ejemplo Ejemplos: Ent([9 +,5 ]) = 9 14 log log = 0,94 Ent([k +,k ]) = 1 (ausencia total de homogeneidad) Ent([p +,0 ]) = Ent([0 +,n ]) = 0 (homogeneidad total)

12 Ganancia de información Preferimos nodos con menos entropía (árboles pequeños) Entropía esperada después de usar un atributo A en el árbol: D v v Valores(A) Ent(D D v ) donde D v es el subconjunto de ejemplos de D con valor del atributo A igual a v Ganancia de información esperada después de usar un atributo A: Ganancia(D,A) = Ent(D) D v v Valores(A) Ent(D D v ) En el algoritmo ID3, en cada nodo usamos el atributo con mayor ganancia de información (considerando los ejemplos correspondientes al nodo)

13 Algoritmo ID3 (ejemplo 1) Conjunto de entrenamiento: Ej. Cielo Temperatura Humedad Viento JugarTenis D 1 Soleado Alta Alta Débil - D 2 Soleado Alta Alta Fuerte - D 3 Nublado Alta Alta Débil + D 4 Lluvia Suave Alta Débil + D 5 Lluvia Baja Normal Débil + D 6 Lluvia Baja Normal Fuerte - D 7 Nublado Baja Normal Fuerte + D 8 Soleado Suave Alta Débil - D 9 Soleado Baja Normal Débil + D 10 Lluvia Suave Normal Débil + D 11 Soleado Suave Normal Fuerte + D 12 Nublado Suave Alta Fuerte + D 13 Nublado Alta Normal Débil + D 14 Lluvia Suave Alta Fuerte -

14 Algoritmo ID3 (ejemplo 1) Humedad Viento Alta Normal Fuerte Debil [3 +,4 ] [6 +,1 ] [6 +,2 ] [3 +,3 ] Cielo Temperatura Soleado Nublado Lluvia Alta Suave Baja [2 +,3 ] [4 +,0 ] [3 +,2 ] [2 +,2 ] [4 +,2 ] [3 +,1 ]

15 Algoritmo ID3 (ejemplo 1) Entropía inicial: Ent([9 +,5 ]) = 0,94 Selección del atributo para el nodo raíz: Ganancia(D,Humedad) = 0, Ent([3+,4 ]) 7 14 Ent([6+,1 ]) = 0,151 Ganancia(D,Viento) = 0, Ent([6+,2 ]) 6 14 Ent([3+,3 ]) = 0,048 Ganancia(D,Cielo) = 0, Ent([2+,3 ]) 4 14 Ent([4+,0 ]) 5 14 Ent([3+,2 ]) = 0,246 (mejor atributo) Ganancia(D,Temperatura) = 0, Ent([2+,2 ]) 6 14 Ent([4+,2 ]) 4 14 Ent([3+,1 ]) = 0,02 El atributo seleccionado es Cielo

16 Algoritmo ID3 (ejemplo 1) Árbol parcialmente construido: Cielo Soleado Nublado Lluvia? +?

17 Algoritmo ID3 (ejemplo 1) Selección del atributo para el nodo Cielo=Soleado D Soleado = {D 1,D 2,D 8,D 9,D 11 } con entropía Ent([2 +,3 ]) = 0,971 Ganancia(D Soleado,Humedad) = 0, = 0,971 (mejor atributo) 5 Ganancia(D Soleado,Temperatura) = 0, = 0,570 Ganancia(D Soleado,Viento) = 0, ,918 = 0,019 5 El atributo seleccionado es Humedad

18 Algoritmo ID3 (ejemplo 1) Selección del atributo para el nodo Cielo=Lluvia: D Lluvia = {D 4,D 5,D 6,D 10,D 14 } con entropía Ent([3 +,2 ]) = 0,971 Ganancia(D Lluvia,Humedad) = 0, ,918 = 0,820 5 Ganancia(D Lluvia,Temperatura) = 0, , = 0,820 Ganancia(D Lluvia,Viento) = 0, = 0,971 (mejor atributo) 5 El atributo seleccionado es Viento

19 Algoritmo ID3 (ejemplo 1) Árbol finalmente aprendido: Cielo Soleado Nublado Lluvia Humedad + Viento Alta Normal Fuerte Debil + +

20 Algoritmo ID3 (ejemplo 2) Conjunto de entrenamiento: Ej. Color Forma Tamaño Clase O 1 Rojo Cuadrado Grande + O 2 Azul Cuadrado Grande + O 3 Rojo Redondo Pequeño - O 4 Verde Cuadrado Pequeño - O 5 Rojo Redondo Grande + O 6 Verde Cuadrado Grande -

21 Algoritmo ID3 (ejemplo 2) Entropía inicial en el ejemplo de los objetos, Ent([3 +,3 ]) = 1 Selección del atributo para el nodo raíz: Ganancia(D,Color) = Ent([2+,1 ]) 1 6 Ent([1+,0 ]) 2 6 Ent([0+,2 ]) = 0,543 Ganancia(D,Forma) = Ent([2+,2 ]) 2 6 Ent([1+,1 ]) = 0 Ganancia(D,Tamaño) = Ent([3+,1 ]) 2 6 Ent([0+,2 ]) = 0,459 El atributo seleccionado es Color

22 Algoritmo ID3 (ejemplo 2) Árbol parcialmente construido: Color Rojo Verde Azul? +

23 Algoritmo ID3 (ejemplo 2) Selección del atributo para el nodo Color=Rojo: D Rojo = {O 1,O 3,O 5 } con entropía Ent([2 +,1 ]) = 0,914 Ganancia(D Rojo,Forma) = 0, Ent([1+,0 ]) 2 3 Ent([1+,1 ]) = 0,247 Ganancia(D Rojo,Tamaño) = 0, Ent([2+,0 ]) 1 3 Ent([0+,1 ]) = 0,914 El atributo seleccionado es Tamaño

24 Algoritmo ID3 (ejemplo 2) Árbol finalmente aprendido: Color Rojo Verde Azul Tamaño + Grande Pequeño +

25 Búsqueda y sesgo inductivo Búsqueda en un espacio de hipótesis Espacio de todos los árboles de decisión Un único árbol candidato en cada paso Sin retroceso (peligro de óptimos locales), búsqueda en escalada Decisiones tomadas a partir de conjuntos de ejemplos Sesgo inductivo Se prefieren árboles más cortos sobre los más largos Sesgo preferencial, impĺıcito en la búsqueda Principio de la navaja de Occam

26 Medida del rendimiento del aprendizaje Conjunto de entrenamiento y conjunto de prueba Aprender con el conjunto de entrenamiento Medida del rendimiento: proporción de ejemplos bien clasificados en el conjunto de prueba Repetición de este proceso Curva de aprendizaje Estratificación: cada clase correctamente representada en el entrenamiento y en la prueba Validación cruzada Dividir en k partes, y hace k aprendizajes, cada uno de ellos tomando como prueba una de las partes y entrenamiento el resto. Finalmente hacer la media de los rendimientos. En la práctica: validación cruzada, con k = 10 y estratificación

27 Sobreajuste y ruido Una hipótesis h H sobreajusta los ejemplos de entrenamiento si existe h H que se ajusta peor que h a los ejemplos pero actúa mejor sobre la distribución completa de instancias. Ruido: ejemplos incorrectamente clasificados. Causa sobreajuste Ejemplo: supongamos que por error, se incluye el ejemplo <Azul,Redondo,Pequeno> como ejemplo negativo El árbol aprendido en este caso sería (sobrejustado a los datos): Color Color Rojo Verde Tamaño Grande Pequeño + Azul + Grande Tamaño Rojo Verde Pequeño Redondo Azul Forma + + Cuadrado

28 Sobreajuste y ruido Otras causas de sobreajuste: Atributos que en los ejemplos presentan una aparente regularidad pero que no son relevantes en realidad Conjuntos de entrenamiento pequeños Maneras de evitar el sobreajuste: Parar el desarrollo del árbol antes de que se ajuste perfectamente a todos los datos Podar el árbol a posteriori Poda a posteriori, dos aproximaciones: Transformación a reglas, podado de las condiciones de las reglas Realizar podas directamente en el árbol Las podas se producen siempre que reduzcan el error sobre un conjunto de prueba

29 Podado de árboles Algoritmo de poda para reducir el error 1. Dividir el conjunto de ejemplos en Entrenamiento y Prueba 2. Árbol=árbol obtenido por ID3 usando Entrenamiento 3. Continuar=True 4. Mientras Continuar: * Medida = proporción de ejemplos en Prueba correctamente clasificados por Árbol * Por cada nodo interior N de Árbol: - Podar temporalmente Árbol en el nodo N y sustituirlo por una hoja etiquetada con la clasificación mayoritaria en ese nodo - Medir la proporción de ejemplos correctamente clasificados en el conjunto de prueba. * Sea K el nodo cuya poda produce mejor rendimiento * Si este rendimiento es mejor que Medida, entonces Árbol = resultado de podar permanentemente Árbol en K * Si no, Continuar=Falso 5. Devolver Árbol

30 Otras cuestiones prácticas del algoritmo ID3 Extensiones del algoritmo: Atributos con valores contínuos Otras medidas para seleccionar atributos Otras estimaciones de error Atributos sin valores Atributos con coste Algoritmos C4.5 y C5.0 (Quinlan)

31 Cambiando la salida: reglas proposicionales Reglas de clasificación: R1: Si Cielo=Soleado Humedad=Alta Entonces JugarTenis= R2: Si Astigmatismo= + Lagrima=Normal Entonces Lente=Rigida Ventaja de usar el formalismo de reglas Claridad Modularidad Expresividad: pueden representar cualquier conjunto de instancias Métodos generalizables a primer orden de manera natural Formalismo usado en sistemas basados en el conocimiento Reglas y árboles de decisión Fácil traducción de árbol a reglas, pero no a la inversa

32 Aprendizaje de reglas Objetivo: aprender un conjunto de reglas consistente con los ejemplos Una regla cubre un ejemplo si el ejemplo satisface las condiciones Lo cubre correctamente si además el valor del atributo en la conclusión de la regla coincide con el valor que el ejemplo toma en ese atributo Una medida del ajuste de una regla R a un conjunto de ejemplos D: Frecuencia relativa: p/t (donde t = ejemplos cubiertos por R en D, p = ejemplos correctamente cubiertos). Notación: FR(R, D) Algoritmos de aprendizaje de reglas: ID3 + traducción a reglas Cobertura Algoritmos genéticos

33 Un conjunto de entrenamiento Ej. Edad Dignostico Astigmatismo Lagrima Lente E 1 Joven Miope - Reducida Ninguna E 2 Joven Miope - Normal Blanda E 3 Joven Miope + Reducida Ninguna E 4 Joven Miope + Normal Rígida E 5 Joven Hipermétrope - Reducida Ninguna E 6 Joven Hipermétrope - Normal Blanda E 7 Joven Hipermétrope + Reducida Ninguna E 8 Joven Hipermétrope + Normal Rígida E 9 PrePresbicia Miope - Reducida Ninguna E 10 PrePresbicia Miope - Normal Blanda E 11 PrePresbicia Miope + Reducida Ninguna E 12 PrePresbicia Miope + Normal Rígida E 13 PrePresbicia Hipermétrope - Reducida Ninguna E 14 PrePresbicia Hipermétrope - Normal Blanda E 15 PrePresbicia Hipermétrope + Reducida Ninguna E 16 PrePresbicia Hipermétrope + Normal Ninguna

34 Un conjunto de entrenamiento Ej. Edad Dignostico Astigmatismo Lagrima Lente E 17 Presbicia Miope - Reducida Ninguna E 18 Presbicia Miope - Normal Ninguna E 19 Presbicia Miope + Reducida Ninguna E 20 Presbicia Miope + Normal Rígida E 21 Presbicia Hipermétrope - Reducida Ninguna E 22 Presbicia Hipermétrope - Normal Blanda E 23 Presbicia Hipermétrope + Reducida Ninguna E 24 Presbicia Hipermétrope + Normal Ninguna R2: Si Astigmatismo= + Lagrima=Normal Entonces Lente=Rigida R2 cubre E 4, E 8, E 12, E 16, E 20 y E 24, de los cuales cubre correctamente E 4, E 8, E 12 y E 20

35 Aprendiendo reglas que cubren ejemplos Aprender una regla para clasificar Lente=Rigida Si? Entonces Lente=Rigida Alternativas para?, y frecuencia relativa de la regla resultante Edad=Joven 2/8 Edad=PrePresbicia 1/8 Edad=Presbicia 1/8 Diagnostico=Miopía 3/12 Diagnostico=Hipermetropía 1/12 Astigmatismo= 0/12 Astigmatismo= + 4/12 * Lágrima=Reducida 0/12 Lágrima=Normal 4/12 * Regla parcialmente aprendida Si Astigmatismo= + Entonces Lente=Rigida

36 Aprendiendo reglas que cubren ejemplos Continuamos para excluir ejemplos cubiertos incorrectamente Si Astigmatismo=+? Entonces Lente=Rigida Alternativas para?, y frecuencia relativa de la regla resultante Edad=Joven 2/4 Edad=PrePresbicia 1/4 Edad=Presbicia 1/4 Diagnostico=Miopía 3/6 Diagnostico=Hipermetropía 1/6 Lágrima=Reducida 0/6 Lágrima=Normal 4/6 * Regla parcialmente aprendida Si Astigmatismo= + Lagrima=Normal Entonces Lente=Rigida

37 Aprendiendo reglas que cubren ejemplos Continuamos para excluir ejemplos cubiertos incorrectamente Si Astigmatismo= + Lagrima=Normal? Entonces Lente=Rigida Alternativas para?, y frecuencia relativa de la regla resultante Edad=Joven 2/2 * Edad=PrePresbicia 1/2 Edad=Presbicia 1/2 Diagnostico=Miopía 3/3 * Diagnostico=Hipermetropía 1/3 Regla finalmente aprendida (no cubre incorrectamente ningún ejemplo) Si Astigmatismo= + Lagrima=Normal Diagnostico=Miopia Entonces Lente=Rigida

38 Aprendiendo reglas que cubren ejemplos Queda un ejemplo con Lente=Rigida no cubierto por R2 Comenzamos otra vez con Si? Entonces Lente=Rigida, pero ahora con D = D \ {E 4,E 12,E 20 } Reglas finalmente aprendidas para Lente=Rigida: R1: Si Astigmatismo= + Lagrima=Normal Diagnostico=Miopia Entonces Lente=Rigida R2: Si Edad=Joven Astigmatismo= + Lagrima=Normal Entonces Lente=Rigida Cubren correctamente los 4 ejemplos de Lente=Rigida (y se solapan) Ahora se podría continuar para aprender reglas que clasifiquen: Lente=Blanda Lente=Ninguna

39 Algoritmo de aprendizaje de reglas por cobertura Algoritmo de aprendizaje por cobertura Aprendizaje-por-Cobertura(D,Atributo,v) 1. Hacer Reglas-aprendidas igual a vacío 2. Hacer E igual a D 3. Mientras E contenga ejemplos cuyo valor de Atributo es v, hacer: 3.1 Crear una regla R sin condiciones y conclusión Atributo=v 3.2 Mientras que haya en E ejemplos cubiertos por R incorrectamente o no queden atributos que usar, hacer: Elegir la MEJOR condición A=w para añadir a R, donde A es un atributo que no aparece en R y w es un valor de los posibles que puede tomar A Actualizar R añadiendo la condición A=w a R 3.3 Incluir R en Reglas-aprendidas 3.4 Actualizar E quitando los ejemplos cubiertos por R 4. Devolver Reglas-Aprendidas Algoritmo para aprender un conjunto de reglas (a partir de D) Reglas para predecir situaciones en las que un Atributo dado toma un valor v

40 Control en el algoritmo de cobertura Bucle externo: Añade reglas (la hipótesis se generaliza) Cada regla añadida cubre algunos ejemplos correctamente Elimina en cada vuelta los ejemplos cubiertos por la regla añadida Y se añaden reglas mientras queden ejemplos sin cubrir Bucle interno: Añade condiciones a la regla (la regla se especializa) Cada nueva condición excluye ejemplos cubiertos incorrectamente Y esto se hace mientras haya ejemplos incorrectamente cubiertos Cobertura frente a ID3 Aprende una regla cada vez, ID3 lo hace simultáneamente ID3: elecciones de atributos Cobertura: elcciones de parejas atributo-valor

41 Algoritmo de cobertura (propiedades) Diferentes criterios para elegir la mejor condición en cada vuelta del bucle interno: Se añade la condición que produzca la regla con mayor frecuencia relativa (como en el ejemplo) Se añade la que produzca mayor ganancia de información: p p (log 2 t log 2 p t ) donde p /t es la frecuencia relativa después de añadir la condición y p/t es la frecuencia relativa antes de añadir la condición Las reglas aprendidas por el algoritmo de cobertura se ajustan perfectamente al conjunto de entrenamiento (peligro de sobreajuste) Podado de las reglas a posteriori Eliminar progresivamente condiciones hasta que no se produzca mejora Criterio probabiĺıstico para decidir la mejora

42 Insuficiencia expresiva de las reglas proposicionales Ejemplo: Aprender el concepto ser hija de a partir de una base de datos de relaciones entre miembros de una familia, con ejemplos positivos y negativos del concepto Dificultad de ser expresado en el modelo proposicional de pares atributo-valor Formalización del ejemplo en lógica de primer orden Ejemplos positivos: (maria,ana), (eva,tomas) Ejemplos negativos: (tomas,ana), (eva,ana), (eva,ignacio) Conocimiento base: hombre(tomas), hombre(ignacio) mujer(ana), mujer(eva), mujer(maria), progenitor(ana,maria), progenitor(ana,tomas), progenitor(tomas,eva), progenitor(tomas,ignacio)

43 Programación Lógica Inductiva Datos: Ejemplos positivos: E Ejemplos negativos: E Conocimiento base: T Lenguaje de hipótesis: L Condiciones: Necesidad a priori: ( e E )[T e ] Consistencia a priori: ( e E )[T e ] Objetivo: Encontrar un conjunto finito H L tal que se cumplan Suficiencia a posteriori: ( e E )[T H e ] Consistencia a posteriori: ( e E )[T H e ]

44 Terminología en PLI Se aprenden relaciones (o predicados) en lugar de pares atributo-valor Los ejemplos vienen dados por tuplas de constantes sobre los que la relación es cierta o falsa (eva,tomas) es un ejemplo positivo de la relación ser hija de y (tomas,ana) un ejemplo negativo Una regla cubre un ejemplo si el ejemplo satisface las condiciones de la regla. La regla hija(a,b) :- progenitor(b,a), mujer(a) cubre el ejemplo (maria,ana) y no cubre el ejemplo (eva,ignacio) Una regla cubre correctamente un ejemplo si y sólo si éste es positivo Objetivo: Encontrar un conjunto de reglas PROLOG que cubra todos los ejemplos positivos y ninguno negativo

45 El algoritmo FOIL Algoritmo FOIL FOIL(Ejemplos,Conocimiento-base,Predicado-objetivo) 1. Hacer Reglas-aprendidas igual a vacío 2. Hacer E igual a Ejemplos 3. Mientras E contenga ejemplos positivos, hacer: 3.1 Crear una regla R sin cuerpo y con cabeza P(X1,...,Xn) (donde P es el Predicado-objetivo y n su aridad) 3.2 Mientras que haya en E ejemplos negativos cubiertos por R: GENERAR todos los posibles literales que pueden ser añadidos al cuerpo de la regla R De todos ellos, sea L el MEJOR Actualizar R añadiendo el literal L al cuerpo de R 3.3 Incluir R en Reglas-aprendidas 3.4 Actualizar E quitando los ejemplos cubiertos por R 4. Devolver Reglas-Aprendidas Debemos precisar GENERAR y MEJOR

46 Generación de nuevos literales en FOIL Literales tomados de los predicados del conocimiento base: De la forma Q(x 1,...,x n ) donde Q es un predicado del conocimiento base y x i son variables de la regla que se quiere extender o nuevas (al menos una de las variables ha de estar en la regla) Para ampliar la regla hija(a,b) :- podemos usar: hombre(a), hombre(b), mujer(a), mujer(b), progenitor(c,a), progenitor(a,c), progenitor(c,b), progenitor(b,c), progenitor(a,a), progenitor(b,a), progenitor(a,b), progenitor(b,b) Literales de igualdad entre las variables que aparecen en la regla Negaciones de los anteriores

47 Elección del mejor literal El criterio más usado: Dada una regla R y un literal L medimos la mejora producida en la cobertura al añadir un nuevo literal L a R para obtener una nueva regla R Se elige el que produzca mayor ganancia de información: p t (log p 2 log p +n 2 p+n ) donde R cubre p ejemplos positivos y n negativos, R cubre p ejemplos positivos y n negativos y t es el número de ejemplos positivos cubiertos por R que siguen cubriéndose en R Otros criterios posibles Frecuencia relativa Contenido de información

48 Un ejemplo de cálculo de la ganancia de información Ejemplos cubiertos por la regla hija(a,b) :- Positivos (2): (maria,ana) y (eva,tomas) Negativos (3): (tomas,ana), (eva,ana) y (eva,ignacio) Ejemplos cubiertos por la regla hija(a,b) :- progenitor(b,a) Positivos (2): (maria,ana) y (eva,tomas). Negativos (1): (tomas,ana). Positivos cubiertos por la regla original que siguen estando cubiertos por la regla extendida (2): (maria,ana), y (eva,tomas). Ganancia de información producida: 2 (log 2 (2/(2 + 1)) log 2 (2/(2 + 3))) = 1,474

49 Literales que introducen nuevas variables Al introducir nuevas variables: Las tuplas se extienden con las nuevas ligaduras Por tanto, el número de ejemplos cubiertos puede aumentar (tanto positivos como negativos) Precisión del valor t en la fórmula de ganancia de información: un ejemplo positivo se considera que sigue cubierto al extender la regla si existe alguna extensión del ejemplo que queda cubierto por la regla

50 Literales que introducen nuevas variables (ejemplo) Ejemplos cubiertos por la regla hija(a,b) :- Positivos (2): (maria,ana) y (eva,tomas) Negativos (3): (tomas,ana), (eva,ana) y (eva,ignacio) Ejemplos (extendidos) cubiertos por la regla hija(a,b) :- progenitor(b,c) Positivos (4): (maria,ana,maria), (maria,ana,tomas), (eva,tomas,eva) y (eva,tomas,ignacio) Negativos (4): (tomas,ana,maria), (tomas,ana,tomas), (eva,ana,maria) y (eva,ana,tomas) Positivos cubiertos por la regla original que siguen estando cubiertos por la regla extendida (2): (maria,ana), y (eva,tomas). Ganancia de información producida: 2 (log 2 (4/(4 + 4)) log 2 (2/(2 + 3))) = 0,644

51 Ejemplo con FOIL Regla inicial: hija(a,b) :- Ejemplos positivos cubiertos: (maria, ana), (eva, tomas) Ejemplos negativos cubiertos: (tomas, ana), (eva, ana), (eva, ignacio) Posibles reglas y ganancia de las mismas hija(a,b) :- hombre(a) hija(a,b) :- hombre(b) hija(a,b) :- mujer(a) hija(a,b) :- mujer(b) hija(a,b) :- progenitor(c,a) hija(a,b) :- progenitor(a,c) hija(a,b) :- progenitor(c,b) hija(a,b) :- progenitor(b,c) hija(a,b) :- progenitor(a,a) hija(a,b) :- progenitor(b,a) hija(a,b) :- progenitor(a,b) hija(a,b) :- progenitor(b,b) Regla extendida: hija(a,b) :- progenitor(b,a)

52 Ejemplo con FOIL Regla obtenida: hija(a,b) :- progenitor(b,a) Ejemplos positivos cubiertos: (maria, ana), (eva, tomas) Ejemplos negativos cubiertos: (tomas, ana) Posibles reglas y ganancia de las mismas hija(a,b) :- progenitor(b,a), hombre(a) hija(a,b) :- progenitor(b,a), hombre(b) hija(a,b) :- progenitor(b,a), mujer(a) hija(a,b) :- progenitor(b,a), mujer(b) hija(a,b) :- progenitor(b,a), progenitor(c,a) hija(a,b) :- progenitor(b,a), progenitor(a,c) hija(a,b) :- progenitor(b,a), progenitor(c,b) hija(a,b) :- progenitor(b,a), progenitor(b,c) hija(a,b) :- progenitor(b,a), progenitor(a,a) hija(a,b) :- progenitor(b,a), progenitor(b,a) hija(a,b) :- progenitor(b,a), progenitor(a,b) hija(a,b) :- progenitor(b,a), progenitor(b,b) Regla extendida: hija(a,b) :- progenitor(b,a), mujer(a)

53 Ejemplo Aprender la relación ser abuelo de a partir del siguiente ejemplo Isabel - Felipe Diana - Carlos Ana - Frank Andrés - Sara Eduardo Guillermo Harry Pedro Zara Beatriz Eugenia

54 Ejemplo Ejemplos positivos: (felipe,guillermo), (felipe,harry), (felipe,pedro), (felipe,zara), (felipe,beatriz), (felipe,eugenia) Ejemplos negativos: Todos los demás (Hipótesis del Mundo Cerrado) Conocimiento base: padre(felipe,carlos), padre(felipe,ana), padre(felipe,andres), padre(felipe,eduardo), padre(carlos,guillermo), padre(carlos,harry), padre(mark,pedro), padre(mark,zara), padre(andres,beatriz), padre(andres,eugenia), madre(isabel,carlos), madre(isabel,ana), madre(isabel,andres), madre(isabel,eduardo), madre(diana,guillermo), madre(diana,harry), madre(ana,pedro), madre(ana,zara), madre(sara,beatriz), madre(sara,eugenia), progenitor(x,y) :- padre(x,y), progenitor(x,y) :- madre(x,y)

55 Ejemplo con FOIL Regla inicial: abuelo(a,b) :- Ejemplos positivos cubiertos: (felipe,guillermo), (felipe,harry), (felipe,pedro), (felipe,zara), (felipe,beatriz), (felipe,eugenia) Ejemplos negativos cubiertos: (felipe,felipe), (felipe,isabel), (felipe,diana), (felipe,carlos), (felipe,ana), (felipe,frank), (felipe,andres), (felipe,sara), (felipe,eduardo), (isabel,isabel), (isabel,diana), (isabel,carlos), (isabel,ana), (isabel,frank), (isabel,andres), (isabel,sara), (isabel,eduardo), (isabel,guillermo), (isabel,harry), (isabel,pedro), (isabel,zara), (isabel,beatriz), (isabel,eugenia),...

56 Ejemplo con FOIL Regla inicial: abuelo(a,b) :- Posibles reglas y ganancia de las mismas abuelo(a,b) :- padre(c,a) abuelo(a,b) :- padre(a,c) abuelo(a,b) :- padre(c,b) abuelo(a,b) :- padre(b,c) abuelo(a,b) :- padre(a,a) abuelo(a,b) :- padre(b,a) abuelo(a,b) :- padre(a,b) abuelo(a,b) :- padre(b,b) abuelo(a,b) :- madre(c,a) abuelo(a,b) :- madre(a,c) abuelo(a,b) :- madre(c,b) abuelo(a,b) :- madre(b,c) abuelo(a,b) :- madre(a,a) abuelo(a,b) :- madre(b,a) abuelo(a,b) :- madre(a,b) abuelo(a,b) :- madre(b,b) 0.000

57 Ejemplo con FOIL Regla inicial: abuelo(a,b) :- Posibles reglas y ganancia de las mismas abuelo(a,b) :- progenitor(c,a) abuelo(a,b) :- progenitor(a,c) abuelo(a,b) :- progenitor(c,b) abuelo(a,b) :- progenitor(b,c) abuelo(a,b) :- progenitor(a,a) abuelo(a,b) :- progenitor(b,a) abuelo(a,b) :- progenitor(a,b) abuelo(a,b) :- progenitor(b,b) Regla extendida: abuelo(a,b) :- padre(a,c)

58 Ejemplo con FOIL Regla obtenida: abuelo(a,b) :- padre(a,c) Ejemplos positivos cubiertos: (felipe,guillermo), (felipe,harry), (felipe,pedro), (felipe,zara), (felipe,beatriz), (felipe,eugenia) Ejemplos negativos cubiertos: (felipe,ana), (felipe,andres), (felipe,carlos), (felipe,diana), (felipe,eduardo), (felipe,felipe), (felipe,isabel), (felipe,mark), (felipe,sara), (carlos,ana), (carlos,andres), (carlos,beatriz), (carlos,carlos), (carlos,diana), (carlos,eduardo), (carlos,eugenia), (carlos,felipe), (carlos,guillermo), (carlos,harry), (carlos,isabel), (carlos,mark), (carlos,pedro), (carlos,sara), (carlos,zara),...

59 Ejemplo con FOIL Regla obtenida: abuelo(a,b) :- padre(a,c) Posibles reglas y ganancia de las mismas abuelo(a,b) :- padre(a,c), progenitor(d,a) abuelo(a,b) :- padre(a,c), progenitor(a,d) abuelo(a,b) :- padre(a,c), progenitor(d,b) abuelo(a,b) :- padre(a,c), progenitor(b,d) abuelo(a,b) :- padre(a,c), progenitor(d,c) abuelo(a,b) :- padre(a,c), progenitor(c,d) abuelo(a,b) :- padre(a,c), progenitor(a,a) abuelo(a,b) :- padre(a,c), progenitor(b,a) abuelo(a,b) :- padre(a,c), progenitor(c,a) abuelo(a,b) :- padre(a,c), progenitor(a,b) abuelo(a,b) :- padre(a,c), progenitor(b,b) abuelo(a,b) :- padre(a,c), progenitor(c,b) abuelo(a,b) :- padre(a,c), progenitor(a,c) abuelo(a,b) :- padre(a,c), progenitor(b,c) abuelo(a,b) :- padre(a,c), progenitor(c,c) abuelo(a,b) :- padre(a,c), madre(d,a) abuelo(a,b) :- padre(a,c), madre(a,d) abuelo(a,b) :- padre(a,c), madre(d,b) 3.510

60 Ejemplo con FOIL Regla obtenida: abuelo(a,b) :- padre(a,c) Posibles reglas y ganancia de las mismas abuelo(a,b) :- padre(a,c), madre(b,d) abuelo(a,b) :- padre(a,c), madre(d,c) abuelo(a,b) :- padre(a,c), madre(c,d) abuelo(a,b) :- padre(a,c), madre(a,a) abuelo(a,b) :- padre(a,c), madre(b,a) abuelo(a,b) :- padre(a,c), madre(c,a) abuelo(a,b) :- padre(a,c), madre(a,b) abuelo(a,b) :- padre(a,c), madre(b,b) abuelo(a,b) :- padre(a,c), madre(c,b) abuelo(a,b) :- padre(a,c), madre(a,c) abuelo(a,b) :- padre(a,c), madre(b,c) abuelo(a,b) :- padre(a,c), madre(c,c) abuelo(a,b) :- padre(a,c), padre(d,a) abuelo(a,b) :- padre(a,c), padre(a,d) abuelo(a,b) :- padre(a,c), padre(d,b) abuelo(a,b) :- padre(a,c), padre(b,d) abuelo(a,b) :- padre(a,c), padre(d,c) abuelo(a,b) :- padre(a,c), padre(c,d) 7.932

61 Ejemplo con FOIL Regla obtenida: abuelo(a,b) :- padre(a,c) Posibles reglas y ganancia de las mismas abuelo(a,b) :- padre(a,c), padre(a,a) abuelo(a,b) :- padre(a,c), padre(b,a) abuelo(a,b) :- padre(a,c), padre(c,a) abuelo(a,b) :- padre(a,c), padre(a,b) abuelo(a,b) :- padre(a,c), padre(b,b) abuelo(a,b) :- padre(a,c), padre(c,b) abuelo(a,b) :- padre(a,c), padre(a,c) abuelo(a,b) :- padre(a,c), padre(b,c) abuelo(a,b) :- padre(a,c), padre(c,c) abuelo(a,b) :- padre(a,c), abuelo(c,a) abuelo(a,b) :- padre(a,c), abuelo(c,b) abuelo(a,b) :- padre(a,c), abuelo(a,c) abuelo(a,b) :- padre(a,c), abuelo(b,c) abuelo(a,b) :- padre(a,c), abuelo(c,c) Regla extendida: abuelo(a,b) :- padre(a,c), progenitor(c,b)

62 Ejemplo de relación recursiva con FOIL Grafo Ejemplos positivos: (1,2), (1,3), (1,4), (1,5), (2,3), (2,4), (2,5), (3,4), (3,5) Conocimiento base: enlace(1,2), enlace(2,3), enlace(3,4), enlace(3,5) 5

63 Ejemplo de relación recursiva con FOIL Regla inicial: camino(a,b) :- Ejemplos positivos cubiertos: (1,2), (1,3), (1,4), (1,5), (2,3), (2,4), (2,5), (3,4), (3,5) Ejemplos negativos cubiertos:(1,1), (2,1), (2,2), (3,1), (3,2), (3,3), (4,1), (4,2), (4,3), (4,4), (4,5), (5,1), (5,2), (5,3), (5,4), (5,5) Posibles reglas y ganancia de las mismas camino(a,b) :- enlace(c,a) camino(a,b) :- enlace(a,c) camino(a,b) :- enlace(c,b) camino(a,b) :- enlace(b,c) camino(a,b) :- enlace(a,a) camino(a,b) :- enlace(b,a) camino(a,b) :- enlace(a,b) camino(a,b) :- enlace(b,b) Regla extendida: camino(a,b) :- enlace(a,b) No cubre ejemplos negativos

64 Ejemplo de relación recursiva con FOIL Regla inicial: camino(a,b) :- Ejemplos positivos cubiertos: (1,3), (1,4), (1,5), (2,4), (2,5) Ejemplos negativos cubiertos:(1,1), (2,1), (2,2), (3,1), (3,2), (3,3), (4,1), (4,2), (4,3), (4,4), (4,5), (5,1), (5,2), (5,3), (5,4), (5,5) Posibles reglas y ganancia de las mismas camino(a,b) :- enlace(c,a) camino(a,b) :- enlace(a,c) camino(a,b) :- enlace(c,b) camino(a,b) :- enlace(b,c) camino(a,b) :- enlace(a,a) camino(a,b) :- enlace(b,a) camino(a,b) :- enlace(a,b) camino(a,b) :- enlace(b,b) Regla extendida: camino(a,b) :- enlace(a,c)

65 Ejemplo de relación recursiva con FOIL Regla obtenida: camino(a,b) :- enlace(a,c) Ejemplos positivos cubiertos: (1,3), (1,4), (1,5), (2,4), (2,5) Ejemplos negativos cubiertos: (1,1), (2,1), (2,2), (3,1), (3,2), (3,3) Posibles reglas y ganancia de las mismas camino(a,b) :- enlace(a,c), camino(c,a) camino(a,b) :- enlace(a,c), camino(c,b) camino(a,b) :- enlace(a,c), camino(a,c) camino(a,b) :- enlace(a,c), camino(b,c) camino(a,b) :- enlace(a,c), camino(c,c) camino(a,b) :- enlace(a,c), enlace(d,a) camino(a,b) :- enlace(a,c), enlace(a,d) camino(a,b) :- enlace(a,c), enlace(d,b) camino(a,b) :- enlace(a,c), enlace(b,d) camino(a,b) :- enlace(a,c), enlace(d,c) camino(a,b) :- enlace(a,c), enlace(c,d) 3.539

66 Ejemplo de relación recursiva con FOIL Regla obtenida: camino(a,b) :- enlace(a,c) Posibles reglas y ganancia de las mismas camino(a,b) :- enlace(a,c), enlace(a,a) camino(a,b) :- enlace(a,c), enlace(b,a) camino(a,b) :- enlace(a,c), enlace(c,a) camino(a,b) :- enlace(a,c), enlace(a,b) camino(a,b) :- enlace(a,c), enlace(b,b) camino(a,b) :- enlace(a,c), enlace(c,b) camino(a,b) :- enlace(a,c), enlace(a,c) camino(a,b) :- enlace(a,c), enlace(b,c) camino(a,b) :- enlace(a,c), enlace(c,c) Regla extendida: camino(a,b) :- enlace(a,c), camino(c,b) No cubre ejemplos negativos

67 Ejemplo de relación recursiva con FOIL Grafo Concepto aprendido: camino(a,b) :- enlace(a,b) camino(a,b) :- enlace(a,c), camino(c,b)

68 Bibliografía Mitchell, T.M. Machine Learning (McGraw-Hill, 1997) Cap. 3: Decision tree learning Cap. 10: Learning Sets of Rules Russell, S. y Norvig, P. Artificial Intelligence (A modern approach) (Second edition) (Prentice Hall, 2003) Cap. 18: Learning from observations Cap. 19: Knowledge in learning Russell, S. y Norvig, P. Inteligencia artificial (Un enfoque moderno) (Tercera edición) (Pearson-Prentice Hall, 2010) Witten, I.H. y Frank, E. Data mining (Second edition) (Morgan Kaufmann Publishers, 2005) Cap. 3, 4, 5 y 6.

Tema 7: Aprendizaje de árboles de decisión

Tema 7: Aprendizaje de árboles de decisión Inteligencia Artificial 2 Curso 2002 03 Tema 7: Aprendizaje de árboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Francisco J. Martín Mateos José L. Ruiz Reina Dpto. de Ciencias de

Más detalles

Tema 8: Aprendizaje de reglas

Tema 8: Aprendizaje de reglas Inteligencia Artificial 2 Curso 2002 03 Tema 8: Aprendizaje de reglas José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Francisco J. Martín Mateos José L. Ruiz Reina Dpto. de Ciencias de la Computación

Más detalles

Tema 4: Aprendizaje de conceptos

Tema 4: Aprendizaje de conceptos Inteligencia Artificial II Curso 2004 2005 Tema 4: Aprendizaje de conceptos José A. Alonso Jiménez Francisco Jesús Martín Mateos José Luis Ruiz Reina Dpto. de Ciencias de la Computación e Inteligencia

Más detalles

Tema 7: Introducción al aprendizaje automático

Tema 7: Introducción al aprendizaje automático M. A. Gutiérrez Naranjo F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Introducción Aprendizaje de árboles de decisión

Más detalles

Tema 8: Árboles de decisión

Tema 8: Árboles de decisión Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Tema 3: Introducción al aprendizaje automático

Tema 3: Introducción al aprendizaje automático Tema 3: Introducción al aprendizaje automático M. A. Gutiérrez Naranjo F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Introducción

Más detalles

Tema 5: Introducción al aprendizaje automático

Tema 5: Introducción al aprendizaje automático Tema 5: Introducción al aprendizaje automático M. A. Gutiérrez Naranjo F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Introducción

Más detalles

Aprendizaje de Conceptos Introducción a los Árboles de Decisión

Aprendizaje de Conceptos Introducción a los Árboles de Decisión Aprendizaje de Conceptos Introducción a los Árboles de Decisión Miguel A. Gutiérrez Naranjo Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla 3 de abril, 2017

Más detalles

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Funcionamiento: Se realiza un test en cada nodo interno del árbol, a medida que

Más detalles

Tema 13: Introducción a la Programación Lógica Inductiva

Tema 13: Introducción a la Programación Lógica Inductiva Razonamiento Automático Curso 2000 2001 Tema 13: Introducción a la Programación Lógica Inductiva José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial

Más detalles

3. Árboles de decisión

3. Árboles de decisión 3.1 Introducción Método para aproximación de funciones objetivo que tengan valores discretos (clasificación) Uno de los métodos mas extensamente usados para inferencia inductiva Capaz de aprender hipótesis

Más detalles

CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles. Cap 18.3: RN

CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles. Cap 18.3: RN CI5438. Inteligencia Artificial II Clase 4: Aprendizaje en Árboles de Decisión Cap 18.3: RN Universidad Simón Boĺıvar 5 de octubre de 2009 Árboles de Decisión Un árbol de decisión es un árbol de búsqueda

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión

Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión Aprendizaje Automático Segundo Cuatrimestre de 2015 Árboles de Decisión Aproximación de Funciones Ejemplo: Un amigo juega al tenis los sábados. Juega o no, dependiendo del estado del tiempo. Cielo: {Sol,

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Tema 7: Sesgo inductivo

Tema 7: Sesgo inductivo Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 7: Sesgo inductivo Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIC

Más detalles

Tema AA-4: Sesgo inductivo

Tema AA-4: Sesgo inductivo Razonamiento Automático Curso 2002 2003 Tema AA-4: Sesgo inductivo Miguel A. Gutiérrez Naranjo José A. Alonso Jiménez Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Aprendizaje inductivo

Aprendizaje inductivo Inteligencia Artificial Aprendizaje inductivo Ing. Sup. en Informática, 4º Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3.1 Introducción

Más detalles

Aprendizaje Automático

Aprendizaje Automático id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje

Más detalles

SISTEMAS INTELIGENTES

SISTEMAS INTELIGENTES SISTEMAS INTELIGENTES T9: Árboles de Decisión www.aic.uniovi.es/ssii Sistemas Inteligentes T9: Árboles de decisión Índice Árboles de decisión para clasificación Mecanismo de inducción: divide y vencerás

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Estudiaremos un algoritmo para la creación del árbol. Selección de atributos comenzando en el nodo raíz. Proceso recursivo. Árboles

Más detalles

Tema 4: Introducción al Aprendizaje Automático

Tema 4: Introducción al Aprendizaje Automático Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 4: Introducción al Aprendizaje Automático Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad

Más detalles

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 -

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 - Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos - Sesión 11 - Juan Alfonso Lara Torralbo 1 Índice de contenidos Actividad. Resolución manual de clasificación bayesiana

Más detalles

Inducción de Reglas Proposicionales

Inducción de Reglas Proposicionales Inducción de Reglas Proposicionales Reglas de clasificación Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Contenido 1. Motivación 2. Reglas de Clasificación 1. Reglas

Más detalles

Primera aproximación al aprendizaje automático.

Primera aproximación al aprendizaje automático. APRENDIZAJE Introducción al aprendizaje algorítmico José M. Sempere Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia Aprender: Tomar algo en la memoria [...] Adquirir

Más detalles

Aprendizaje Automático. Objetivos. Funciona? Notas

Aprendizaje Automático. Objetivos. Funciona? Notas Introducción Las técnicas que hemos visto hasta ahora nos permiten crear sistemas que resuelven tareas que necesitan inteligencia La limitación de estos sistemas reside en que sólo resuelven los problemas

Más detalles

Tema 12: Arboles de decisión

Tema 12: Arboles de decisión Razonamiento Automático Curso 2000 2001 Tema 12: Arboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur MODELOS: ÁRBOLES DE DECISIÓN Y REGLAS Datos de entrada 91 71 75 81 Nublado 90 72 Nublado 70 75 80 75 70

Más detalles

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión.

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión. MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión. 1 Objetivos del tema Conocer en qué consiste un árbol de decisión. Aprender los problemas que pueden

Más detalles

Tema 8: Teorema de Herbrand. Tableros en lógica de primer orden

Tema 8: Teorema de Herbrand. Tableros en lógica de primer orden Tema 8:. en de primer orden Dpto. Ciencias de la Computación Inteligencia Artificial Universidad de Sevilla Lógica Informática (Tecnologías Informáticas) Curso 2016 17 Contenido Sea Γ un conjunto de fórmulas

Más detalles

Inducción de Árboles de Decisión ID3, C4.5

Inducción de Árboles de Decisión ID3, C4.5 Inducción de Árboles de Decisión ID3, C4.5 Contenido 1. Representación mediante árboles de decisión. 2. Algoritmo básico: divide y vencerás. 3. Heurística para la selección de atributos. 4. Espacio de

Más detalles

PROYECTO DOCENTE ASIGNATURA: "Aprendizaje Automático"

PROYECTO DOCENTE ASIGNATURA: Aprendizaje Automático PROYECTO DOCENTE ASIGNATURA: "Aprendizaje Automático" Grupo: Aprendizaje Automático(937831) Titulacion: Máster Universitario en Lógica, Computación e Inteligencia Artificial Curso: 2015-2016 DATOS BÁSICOS

Más detalles

Inteligencia Artificial II (primera parte,i)

Inteligencia Artificial II (primera parte,i) Inteligencia Artificial II (primera parte,i) (25 Junio 2004) Apellidos:............................................................................... Nombre:.................................................................................

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Entrada: Objetos caracterizables mediante propiedades. Salida: En árboles de decisión: una decisión (sí o no). En árboles de clasificación:

Más detalles

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja

Más detalles

Inducción de Árboles de Decisión ID3, C4.5

Inducción de Árboles de Decisión ID3, C4.5 Inducción de Árboles de Decisión ID3, C4.5 Contenido 1. Representación mediante árboles de decisión 2. Algoritmo básico: divide y vencerás 3. Heurística para la selección de atributos 4. Espacio de búsqueda

Más detalles

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja o asocia datos

Más detalles

I. CARACTERISTICAS DEL ALGORITMO ID3

I. CARACTERISTICAS DEL ALGORITMO ID3 I. CARACTERISTICAS DEL ALGORITMO ID3 El investigador J. Ross Quinlan desarrolló el algoritmo conocido como ID3 (Induction Decision Trees) en el año de 1983. Pertenece a la familia TDIDT (Top-Down Induction

Más detalles

Tema 3: Técnicas básicas de búsqueda para la resolución de problemas

Tema 3: Técnicas básicas de búsqueda para la resolución de problemas Tema 3: Técnicas básicas de búsqueda para la resolución de problemas José Luis Ruiz Reina José Antonio Alonso Franciso J. Martín Mateos Departamento de Ciencias de la Computación e Inteligencia Artificial

Más detalles

Aprendizaje Automático

Aprendizaje Automático Intervalos de Confianza Comparación de Hipótesis Validación Cruzada y t-test Programación Lógica Inductiva Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación

Más detalles

Tema 8: Teorema de Herbrand. Tableros en lógica de primer orden

Tema 8: Teorema de Herbrand. Tableros en lógica de primer orden Tema 8:. en de primer orden Dpto. Ciencias de la Computación Inteligencia Artificial Universidad de Sevilla Lógica Informática (Tecnologías Informáticas) Curso 2014 15 Contenido Sea Γ un conjunto de fórmulas

Más detalles

1.-DATOS DE LA ASIGNATURA

1.-DATOS DE LA ASIGNATURA 1.-DATOS DE LA ASIGNATURA Nombre de la asignatura: Minería de Datos Carrera: Ingeniería en Sistemas Computacionales Clave de la asignatura: ADM-0701 Horas teoría-horas práctica-créditos: 3-2-8 2.-HISTORIA

Más detalles

Inteligencia artificial

Inteligencia artificial Inteligencia artificial APRENDIZAJE DE MÁQUINAS (MACHINE LEARNING) Aprendizaje Construcción o modificación de representaciones de lo que se experimenta R. Michalski Lograr cambios útiles en nuestras mentes.

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden Introducción Tipos de aprendizaje Aprendizaje cómo

Más detalles

Aprendizaje de árboles de decisión. Aprendizaje de árboles de decisión

Aprendizaje de árboles de decisión. Aprendizaje de árboles de decisión Aprendizaje de árboles de decisión José M. Sempere Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia Aprendizaje de árboles de decisión 1. Introducción. Definición

Más detalles

~ ALGORITMO C4.5 ~ INGENIERÍA EN SISTEMAS COMPUTACIONALES INTELIGENCIA ARTIFICIAL ING. BRUNO LÓPEZ TAKEYAS

~ ALGORITMO C4.5 ~ INGENIERÍA EN SISTEMAS COMPUTACIONALES INTELIGENCIA ARTIFICIAL ING. BRUNO LÓPEZ TAKEYAS INGENIERÍA EN SISTEMAS COMPUTACIONALES INTELIGENCIA ARTIFICIAL ~ ALGORITMO C4.5 ~ ING. BRUNO LÓPEZ TAKEYAS ALUMNOS: José Antonio Espino López Javier Eduardo Tijerina Flores Manuel Cedano Mendoza Eleazar

Más detalles

Sesión 11 Árboles de decisión

Sesión 11 Árboles de decisión Inteligencia Artificial Sesión 11 Árboles de decisión Ingeniería Superior en Informática, 4º Curso académico: 2008/2009 Profesores: Sascha Ossowski, Ramón Hermoso, y Matteo Vasirani Tema 3: Aprendizaje

Más detalles

Conjuntos de Clasificadores (Ensemble Learning)

Conjuntos de Clasificadores (Ensemble Learning) Aprendizaje Automático Segundo Cuatrimestre de 2016 Conjuntos de Clasificadores (Ensemble Learning) Gracias a Ramiro Gálvez por la ayuda y los materiales para esta clase. Bibliografía: S. Fortmann-Roe,

Más detalles

Aprendizaje basado en ejemplos.

Aprendizaje basado en ejemplos. Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor

Más detalles

CRITERIOS DE SELECCIÓN DE MODELOS

CRITERIOS DE SELECCIÓN DE MODELOS Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,

Más detalles

Aprendizaje de conceptos. El aprendizaje como generalización

Aprendizaje de conceptos. El aprendizaje como generalización Aprendizaje de conceptos. El aprendizaje como generalización 1 Aprendizaje de conceptos Consideraremos el problema de inferir automáticamente la definición general de un concepto o clase a partir de un

Más detalles

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Introducción a los sistemas Multiclasificadores Carlos J. Alonso González Departamento de Informática Universidad de Valladolid Contenido 1. Combinación de modelos 2. Descomposición bias-varianza 3. Bagging

Más detalles

2. Algoritmos genéticos y redes neuronales 3. Inducción de árboles clasificadores. Inducción de árboles de clasificación. Aprendizaje UPM UPM

2. Algoritmos genéticos y redes neuronales 3. Inducción de árboles clasificadores. Inducción de árboles de clasificación. Aprendizaje UPM UPM 1. Preliminares Aprendizaje 2. Algoritmos genéticos y redes neuronales 3. Inducción de árboles clasificadores 4. Inducción de reglas 5. Minería de datos c 2010 DIT-ETSIT- Aprendizaje: árboles transp. 1

Más detalles

Búsqueda en espacio de estados

Búsqueda en espacio de estados Búsqueda en espacio de estados Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Abstracción Problema Representación como espacio de estados Implementación del

Más detalles

ALGORITMO ID3. Objetivo

ALGORITMO ID3. Objetivo ALGORITMO ID3 Desarrollado por J. Ross Quinlan en 1983. ID3 significa Induction Decision Trees. Pertenece a la familia TDIDT (Top- Down Induction of Decision Trees). Objetivo Construir un árbol de decisión

Más detalles

D conjunto de N patrones etiquetados, cada uno de los cuales está caracterizado por n variables predictoras X 1,..., X n y la variable clase C.

D conjunto de N patrones etiquetados, cada uno de los cuales está caracterizado por n variables predictoras X 1,..., X n y la variable clase C. Tema 10. Árboles de Clasificación Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco Euskal Herriko Unibertsitatea

Más detalles

Guía docente de la asignatura

Guía docente de la asignatura Guía docente de la asignatura Asignatura Materia TÉCNICAS DE APRENDIZAJE AUTOMÁTICO COMPUTACIÓN Módulo Titulación GRADO EN INGENIERÍA INFORMÁTICA (463) Plan 463 Código 45209 Periodo de impartición 2º CUATRIMESTRE

Más detalles

Lógica y Programación

Lógica y Programación Lógica y Programación Diagramas de Decisión Binarios J.-A. Alonso, F.-J. Martín-Mateos, J.-L. Ruiz-Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Lógica y Programación

Más detalles

Inteligencia Artificial e Ingeniería del Conocimiento

Inteligencia Artificial e Ingeniería del Conocimiento Inteligencia Artificial e Ingeniería del Conocimiento I. A. Clásica Nuevos enfoques de la I. A. Agentes Inteligentes Aprendizaje Introducción Aprendizaje inductivo decisión Planteamiento conectivista.

Más detalles

Aux 6. Introducción a la Minería de Datos

Aux 6. Introducción a la Minería de Datos Aux 6. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 glhuilli@dcc.uchile.cl 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas

Más detalles

ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES

ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES ÁRBOL Un árbol es un grafo no dirigido, conexo, sin ciclos (acíclico), y que no contiene aristas

Más detalles

Aprendizaje de Conceptos

Aprendizaje de Conceptos Aprendizaje Automático Segundo Cuatrimestre de 2016 Aprendizaje de Conceptos Aprendiendo un Concepto...? Qué es un ave? 2 Aprendizaje de Conceptos Aprender un concepto: inducir una función booleana a partir

Más detalles

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS MAESTRÍA EN CIENCIAS DE LA INFORMACIÓN Y LAS COMUNICACIONES MINERÍA DE DATOS

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS MAESTRÍA EN CIENCIAS DE LA INFORMACIÓN Y LAS COMUNICACIONES MINERÍA DE DATOS UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS MAESTRÍA EN CIENCIAS DE LA INFORMACIÓN Y LAS COMUNICACIONES MINERÍA DE DATOS Programa o Dpto. Maestría en Ciencias de la Información y las Comunicaciones

Más detalles

Aprendizaje Automatizado. Árboles de Clasificación

Aprendizaje Automatizado. Árboles de Clasificación Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Estudiaremos un algoritmo para la creación del árbol. Selección de atributos comenzando en el nodo raíz. Proceso recursivo. Árboles

Más detalles

Árboles de decisión en aprendizaje automático y minería de datos

Árboles de decisión en aprendizaje automático y minería de datos Árboles de decisión en aprendizaje automático y minería de datos Tratamiento Inteligente de la Información y Aplicaciones Juan A. Botía Departamento de Ingeniería de la Información y las Comunicaciones

Más detalles

Tema 2: Un poco de Historia

Tema 2: Un poco de Historia Introducción a la Inteligencia Artificial Curso 2006 2007 Tema 2: Un poco de Historia Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIA

Más detalles

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria Minería de Datos Árboles de Decisión Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Otoño de 2012 Twenty questions Intuición sobre los árboles de decisión Juego

Más detalles

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria Minería de Datos Árboles de Decisión Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Otoño de 2012 Twenty questions Intuición sobre los árboles de decisión Juego

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur EVALUACIÓN Evaluación: entrenamiento y test Una vez obtenido el conocimiento es necesario validarlo para

Más detalles

TRABAJO PRÁCTICO III: Minería de datos. PARTE 01: Arboles de decisión (J48)

TRABAJO PRÁCTICO III: Minería de datos. PARTE 01: Arboles de decisión (J48) TRABAJO PRÁCTICO III: Minería de datos PARTE 01: Arboles de decisión (J48) Introducción: En este trabajo se implementa el primero de una serie de algoritmos que se presentarán durante la materia para realizar

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden: Clasificador Bayesiano Clasificación Clasificador

Más detalles

Aprendizaje Automático

Aprendizaje Automático Aprendizaje Automático cbea LSI - FIB IA - Curso 2014/2015 cbea (LSI - FIB) Aprendizaje Automático IA - Curso 2014/2015 1 / 46 Índice 1 Introducción 2 Aprendizaje inductivo 3 Árboles de decisión 4 Aprendizaje

Más detalles

Selección de atributos

Selección de atributos Selección de atributos Series Temporales Máster en Computación Universitat Politècnica de Catalunya Dra. Alicia Troncoso Lora 1 Contenido Introducción Clasificación de las técnicas Esquema General Evaluadores

Más detalles

Tema 2: Un poco de Historia

Tema 2: Un poco de Historia Introducción a la Inteligencia Artificial Curso 2006 2007 Tema 2: Un poco de Historia Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIA

Más detalles

Tema 5: Algoritmos Genéticos

Tema 5: Algoritmos Genéticos Tema 5: Algoritmos Genéticos José Luis Ruiz Reina Miguel A. Gutiérrez Naranjo Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial Búsqueda

Más detalles

Análisis multivariante

Análisis multivariante Machine Learning 2016-17 1 Aprendizaje automatizado (ML) 2 3 Aprendizaje automatizado (ML) Definiciones Conjunto de herramientas para transformar datos en conocimiento. Conjunto de técnicas que permitan

Más detalles

BENEMÉRITA UNIVERSIDAD AUTÓNOMA DE PUEBLA FACULTAD CIENCIAS DE LA COMPUTACION

BENEMÉRITA UNIVERSIDAD AUTÓNOMA DE PUEBLA FACULTAD CIENCIAS DE LA COMPUTACION BENEMÉRITA UNIVERSIDAD AUTÓNOMA DE PUEBLA FACULTAD CIENCIAS DE LA COMPUTACION PROGRAMA DE LA MATERIA CORRESPONDIENTE A LA LICENCIATURA EN CIENCIAS DE LA COMPUTACIÓN. Coordinación: NOMBRE DE LA MATERIA:

Más detalles

CI5438. Inteligencia Artificial II Clase 1: Aprendizaje Cap Russel & Norvig

CI5438. Inteligencia Artificial II Clase 1: Aprendizaje Cap Russel & Norvig CI5438. Inteligencia Artificial II Clase 1: Aprendizaje Cap 18.1-18.2 Russel & Norvig Ivette C. Martínez traducción de http://aima.eecs.berkeley.edu/slides-pdf/ Universidad Simón Boĺıvar 18 de septiembre

Más detalles

Jesús García Herrero TÉCNICAS DE INDUCCIÓN-II

Jesús García Herrero TÉCNICAS DE INDUCCIÓN-II Jesús García Herrero TÉCNICAS DE INDUCCIÓN-II En esta clase se continúa con el desarrollo de métodos de inducción de modelos lógicos a partir de datos. Se parte de las limitaciones del método ID3 presentado

Más detalles

Estado 3.2 (coste = 9)

Estado 3.2 (coste = 9) Búsqueda heurística Fernando Berzal, berzal@acm.org Búsqueda heurística Búsqueda primero el mejor p.ej. búsqueda de coste uniforme [UCS] Heurísticas Búsqueda greedy El algoritmo A* Heurísticas admisibles

Más detalles

Inteligencia Artificial e Ingeniería del Conocimiento

Inteligencia Artificial e Ingeniería del Conocimiento Inteligencia Artificial e Ingeniería del Conocimiento Departamento de Ciencias de la Computación e Inteligencia Artificial Curso 2008/2009 Curso: 4 Cuatrimestre: 1 Tipo: Troncal Nº créditos: 4,5T + 4,5

Más detalles

Universidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso)

Universidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso) Universidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso) Soluciones exámenes junio 2010 Semana 1. Ejercicio 1. (Valoración:

Más detalles

Tema 2: Un poco de Historia

Tema 2: Un poco de Historia Introducción a la Inteligencia Artificial Curso 2008 2009 Tema 2: Un poco de Historia Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIA

Más detalles

Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas

Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas Métodos para Determinar el Atributo Distinguido en Multiredes Bayesianas Andrés Cano Utrera Fco. Javier García Castellano Andrés R. Masegosa Arredondo Serafín Moral Callejón Uncertainty Treatment in Artificial

Más detalles

INTELIGENCIA DE NEGOCIO

INTELIGENCIA DE NEGOCIO INTELIGENCIA DE NEGOCIO 2016-2017 Tema 1. Introducción a la Inteligencia de Negocio Tema 2. Minería de Datos. Ciencia de Datos Tema 3. Modelos de Predicción: Clasificación, regresión y series temporales

Más detalles

Minería de datos. Unidad 2. El proceso KDD Evaluación, difusión y uso. M en I Sara Vera Noguez

Minería de datos. Unidad 2. El proceso KDD Evaluación, difusión y uso. M en I Sara Vera Noguez Minería de datos Unidad 2. El proceso KDD Evaluación, difusión y uso M en I Sara Vera Noguez El proceso KDD Hernández, 2008 p.20 La parte iterativa Una vez obtenido el modelo se debe evaluar Si satisface

Más detalles

Lingüística computacional

Lingüística computacional Lingüística computacional Definición y alcance Escuela Nacional de Antropología e Historia (ENAH) Agosto diciembre de 2015 Lingüística Ciencias de la computación Lingüística computacional Estudio del lenguaje

Más detalles

Tema 3: Algoritmos para SAT: Tableros y algoritmo DPLL

Tema 3: Algoritmos para SAT: Tableros y algoritmo DPLL Tema 3: : y DPLL Dpto. Ciencias de la Computación Inteligencia Artificial Universidad de Sevilla Lógicas Informática (Tecnologías Informáticas) Curso 2016 17 Contenido Presentaremos dos s para estudiar

Más detalles

Tema 2: Métodos de Deducción para la Lógica Proposicional

Tema 2: Métodos de Deducción para la Lógica Proposicional Tema 2: Métodos de Deducción para la Lógica Proposicional Dpto. Ciencias de la Computación Inteligencia Artificial Universidad de Sevilla Lógica y Computabilidad Curso 2006 07 LC, 2006 07 Métodos de Deducción

Más detalles

TRABAJO FIN DE ASIGNATURA

TRABAJO FIN DE ASIGNATURA INTELIGENCIA EN REDES DE COMUNICACIONES TRABAJO FIN DE ASIGNATURA Luis Javier Duque Cuadrado 1 Breve descripción de los algoritmos elegidos 1.1 Clasificación a) Árboles de decisión de un nivel (decision

Más detalles

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4

Examen Parcial. Attr1: A, B Attr2: A, B, C Attr3 1, 2, 3 Attr4; a, b Attr5: 1, 2, 3, 4 Aprenentatge 0-03 Q Examen Parcial Nombre: (Examen ) Instrucciones. (0 puntos) Este examen dura horas. Responded todas las preguntas en estas hojas. Para las preguntas test poned un circulo alrededor de

Más detalles

Aprendizaje Automático: Arboles de Decisión.

Aprendizaje Automático: Arboles de Decisión. Aprendizaje Automático: Arboles de Decisión. Dr. Alejandro Guerra Hernández Universidad Veracruzana Facultad de Física e Inteligencia Artificial Maestría en Inteligencia Artificial Sebastián Camacho No.

Más detalles

ARBOLES DE DECISION. Miguel Cárdenas-Montes. 1 Introducción. Objetivos: Entender como funcionan los algoritmos basados en árboles de decisión.

ARBOLES DE DECISION. Miguel Cárdenas-Montes. 1 Introducción. Objetivos: Entender como funcionan los algoritmos basados en árboles de decisión. ARBOLES DE DECISION Miguel Cárdenas-Montes Los árboles de decisión son estructuras lógicas con amplia utilización en la toma de decisión, la predicción y la minería de datos. Objetivos: Entender como funcionan

Más detalles

Tema 2: Inteligencia computacional y conocimiento

Tema 2: Inteligencia computacional y conocimiento Razonamiento Automático Curso 999 2000 Tema 2: Inteligencia computacional y conocimiento José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial

Más detalles