Qué es el APRENDIZAJE?

Documentos relacionados
Tema 8: Árboles de decisión

Aprendizaje Automatizado

Inducción de Árboles de Decisión ID3, C4.5

Aprendizaje Automático. Objetivos. Funciona? Notas

Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión

Tema 7: Aprendizaje de árboles de decisión

ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES

FICHEROS Y BASES DE DATOS (E44) 3º INGENIERÍA EN INFORMÁTICA. Tema 3. Estructuras de Almacenamiento. Básicas. Definición y Manejo.

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO

Estructura de datos y algoritmos. Tema V TDA DINÁMICOS NO LINEALES: Árboles: árboles binarios

GLOSARIO ESTADÍSTICO. Fuente: Murray R. Spiegel, Estadística, McGraw Hill.

Carteras minoristas. árbol de decisión. Ejemplo: Construcción de un scoring de concesión basado en un DIRECCIÓN GENERAL DE SUPERVISIÓN

Métodos de Inteligencia Artificial

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 -

CRITERIOS DE SELECCIÓN DE MODELOS

Primera aproximación al aprendizaje automático.

Aprendizaje Computacional y Extracción de Información

Estadística Inferencial. Estadística Descriptiva

Aprendizaje inductivo

METODOLOGÍAS DE PLANIFICACIÓN DE PROYECTOS (ALGUNAS.)

Métodos de Inteligencia Artificial

Parte de Algoritmos de la asignatura de Programación Master de Bioinformática. Búsqueda exhaustiva

ALGORITMO ID3. Objetivo

Tema 4: Aprendizaje de conceptos

Teoría de grafos y optimización en redes

ASIGNATURA: (TIS-106) Estructuras de Datos II DOCENTE: Ing. Freddy Melgar Algarañaz

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Criterios de evaluación Matemáticas - B de 4º de ESO

Técnicas de aprendizaje sobre series temporales

Aprendizaje Automatizado. Árboles de Clasificación

Universidad Nacional de Mar del Plata. Facultad de Ingeniería. Estadística Básica COMISIÓN 1. 1 Cuatrimestre 2016

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.

Apellidos:... Nombre:...

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL

Árboles B y B ) 20. Algoritmos y Estructuras de Datos II I.T. en Informática de Gestión/Sistemas Universidad de Huelva 63

Práctica 2. Algoritmos de búsqueda local (local search algorithms) y algoritmos avariciosos (greedy algorithms)

Técnicas de Minería de Datos

Tema 8: Árboles de Clasificación

12/08/2017 AVL. Especificación sobre árboles AVL. AVL: rotaciones

Inducción de Árboles de Decisión ID3, C4.5

Estructura de Datos. Estructuras de Datos no lineales : Árboles

Estadística ESTADÍSTICA

OBJETIVOS DE MATEMÁTICAS B 4º DE ESO

Fundamentos de Inteligencia Artificial

Matemáticas Básicas para Computación

Métodos de Inteligencia Artificial

FICHEROS Y BASES DE DATOS (E44) 3º INGENIERÍA EN INFORMÁTICA. Tema 4. Técnicas de Dispersión. Definición y Manejo.

UNIVERSIDAD AUTÓNOMA DEL ESTADO DE HIDALGO

Fundamentos de Inteligencia Artificial

PENDIENTES DE MATEMÁTICAS DE 3º ESO (CURSO )

D conjunto de N patrones etiquetados, cada uno de los cuales está caracterizado por n variables predictoras X 1,..., X n y la variable clase C.

Prof. Angel Zambrano ENERO 2009 Universidad de Los Andes Escuela de Estadística

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

3. Árboles de decisión

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Métodos de Búsqueda para juegos humano-maquina. PROF: Lic. Ana María Huayna D.

Sistemas de ecuaciones lineales

CONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS

Estructura de Datos Unidad 6: ARBOLES

Alineamiento múltiple de secuencias

CRITERIOS DE EVALUACIÓN DE 4º ESO- Opción B

FLORIDA Secundaria. 1º BACH MATEMÁTICAS CCSS -1- BLOQUE ESTADÍSTICA: ESTADÍSTICA VARIABLE UNIDIMENSIONAL. Estadística variable unidimensional

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo

Capítulo 1 Probabilidades y Estadística

Matemáticas Discretas L. Enrique Sucar INAOE. Teoría de Grafos. Problema de los puentes de Königsberg [Euler]

Elemento crítico para la garantía de calidad del software y representa una revisión final de las especificaciones, del diseño y de la codificación.

Sesión 11 Árboles de decisión

Unidad I: Introducción a las estructuras de datos

Inteligencia Artificial I

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión.

Enunciados de los problemas (1)

IMADIL /10/2014

b) Calcular el número máximo de hosts que pueden tener las redes 1, 2 y 3, así como las direcciones de Red y de Broadcast de las tres.

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR

Introducción a Árboles Árboles Binarios

RECURSIVIDAD. Ángeles Martínez Sánchez Curso 2016/2017 DMATIC ETSISI

Capítulo 2. disponibles las habilidades de los expertos a los no expertos. Estos programas tratan de

Tema 7: Estadística y probabilidad

Distribución normal estándar. Juan José Hernández Ocaña

CONTENIDOS Y CRITERIOS DE EVALUACIÓN MATEMÁTICAS 5º ED. PRIMARIA

ESTADISTICA Y PROBABILIDAD ESTADÍSTICA

M513: Resultados de exámenes

Introducción a la minería de datos

COMPETENCIA MATEMÁTICA 2º CURSO DE EDUCACIÓN SECUNDARIA OBLIGATORIA

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

A continuación se presenta la información de la altura promedio para el año de 1998 en Holanda de hombres y mujeres jóvenes.

M.C. Mariano Larios G. 3 de diciembre de 2009

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

Tema 01: Algoritmia y diagramas de flujo. Estructuras de datos (Prof. Edgardo A. Franco)

Grafos y Redes. 3. Resolución: Dibujar el camino sin levantar el lápiz y pasando sólo una vez por cada arco o arista.

Tema 7: Problemas clásicos de Programación Lineal

Búsqueda Heurística II

Examen de Selectividad Matemáticas JUNIO Andalucía OPCIÓN A

Tema: Algoritmos para la ruta más corta en un Grafo.

Razonamiento bajo incertidumbre

La eficiencia de los programas

Identificación mediante el método de los mínimos cuadrados

CONTENIDOS MÍNIMOS MATEMÁTICAS 2º Y 4º E.S.O.

Gobierno de La Rioja MATEMÁTICAS CONTENIDOS

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO

Transcripción:

Aprendizaje Qué es el APRENDIZAJE? INCREMENTO DEL REPERTORIO DE CONDUCTAS. CAMBIOS EN EL COMPORTAMIENTO DE UN SISTEMA: DE CARÁCTER PERMANENTE RELATIVO A ALGUNA DESTREZA DE SOLUCIÓN DE PROBLEMAS QUE MEJORA LA EJECUCIÓN DEL PROCESO DE RESOLUCIÓN TIENE LUGAR MEDIANTE ALGÚN MECANISMO DE ADQUISICIÓN DE INFORMACIÓN O CONOCIMIENTO QUE EL SISTEMA POSEE. APRENDIZAJE DE GENERALIDAD: LA INFORMACIÓN DE SALIDA PUEDE SER: DEL MISMO NIVEL DE NIVEL MÁS ALTO DE NIVEL MÁS BAJO QUE LA INFORMACIÓN DE ENTRADA Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 1

Aprendizaje PROCESO CREATIVO: A LA SALIDA DEL PROCESO HAY IGUAL O MÁS CONOCIMIENTO QUE A LA ENTRADA. PARA ESTABILIZAR LA RESPUESTA DEL SISTEMA SE SUELE REQUERIR UN PERÍODO DE ENTRENAMIENTO. EN SISTEMAS NATURAL EL APRENDIZAJE SUELE SER INCREMENTAL. EN LOS SISTEMAS ARTIFICIALES ES MÁS FRECUENTE EL APRENDIZAJE NO-INCREMENTAL. EL PROCESO NO GARANTIZA LA OBTENCIÓN DE LA MEJOR RESPUESTA, SINO SÓLO DE LA MEJOR RESPUESTA DISPONIBLE EN UN ESTADO DE APRENDIZAJE DADO Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 2

Aprendizaje TIPOS DE APRENDIZAJE SINTÉTICO Conocimiento Nuevo ANALÍTICO Conocimiento del mismo nivel Basado en Memoria Simbólico Basado en Ejemplos Subsimbólico No crea Conocimiento No explica los resultados CBL Razonamiento Basado en Casos Inducción Aprendizaje Conceptual Supervisado Metáfora Algoritmos genéticos Redes Neurales Sistemas Conexionistas EBL Aprendizaje basado en la experiencia Clustering Conceptual Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 3

Aprendizaje APRENDIZAJE SIMBÓLICO El resultado del aprendizaje es un conjunto de creencias o procesos. Inconvenientes de los modelos de aprendizaje simbólico: Orientados básicamente al tratamiento de información discreta No pueden hacerse cargo de problemas no-lineales. Ventajas: Interpretabilidad de los resultados El conocimiento adquirido para la realización de la tarea puede ser: Del mismo nivel que el suministrado al sistema: Razonamiento basado en casos (CBR) De nivel más general que el suministrado al sistema: Análisis de diferencias Inducción de reglas De nivel más bajo que el suministrado al sistema. Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 4

Aprendizaje LOS MODELOS DE APRENDIZAJE COMO MODELOS HEURISTICOS Aunque los modelos de aprendizaje se expresan como algoritmos (igual que cualquier modelo computacional), se trata de modelos de procesos de prueba y error. No garantizan que el conocimiento obtenido pueda resolver en todos los casos la tarea propuesta. Naturaleza incremental: Nueva información suministrada al sistema puede cambiar los resultados obtenidos en anteriores fases del aprendizaje. Control experimental de los modelos de aprendizaje a través del ajuste de la función de aprendizaje: Medida de la tasa de error Control de la evolución temporal del aprendizaje. Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 5

Análisis de Diferencias ANALISIS DE DIFERENCIAS Heurísticos de inducción que permiten aprender descripciones de clases a partir de ejemplos positivos o negativos Heurísticos Inducción Aprendizaje: Presentación de ejemplos Construcción de descripciones tentativas Refinamiento progresivo de esta descripción Tipos de ejemplos: Positivos: Relajan el modelo Negativos: Restringen el modelo Construcción inicial de la descripción (modelo) de trabajo Presentación inicial de un ejemplo típico de la clase Todos sus atributos pertenecen a la clase Construcción del modelo inicial a partir del ejemplo Modelo de objetos La presentación de ejemplos sucesivos, positivos o negativos, permite identificar características de los atributos Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 6

Análisis de Diferencias HEURISTICOS DE ANALISIS DE DIFERENCIAS Heurístico de la relación necesaria Ejemplo negativo que contiene normalmente una sola diferencia con las instancias de la clase Se construye una descripción del objeto presentado Se compara esa descripción con la de trabajo Se identifica la diferencia Se modifica la descripción de trabajo:... tiene el atributo...... debe tener el...... está en la relación...... debe estar en la... Heurístico de la relación prohibida Ejemplo negativo cuya descripción contiene atributos/relaciones que no están en la descripción de trabajo Se modifica la descripción de trabajo:... tiene el atributo...... no debe tener el...... está en la relación...... no debe estar en... Heurístico de la subida al árbol (tree climbing) Ejemplo positivo de un objeto diferente al del modelo de trabajo, pero relacionado con él mediante un árbol de clasificación Se modifica la descripción de trabajo: Las propiedades/relaciones requeridas se asocian a la clase común más específica del árbol Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 7

Análisis de Diferencias HEURISTICOS DE ANALISIS DE DIFERENCIAS (2) Heurístico de ampliación: Ejemplo positivo en el que hay un objeto que no aparece en la descripción de trabajo, y no relacionado con él mediante el árbol de clasificación Se modifica la descripción de trabajo: Todas las propiedades/relaciones se asocian a una nueva clase compuesta por la unión de las dos clases de objetos. Heurístico de eliminación: Ejemplo positivo en el que: Hay un objeto que no aparece en la descripción de trabajo y tal que, junto con los que aparecen, forma un conjunto exhaustivo. Se modifica la descripción de trabajo: Se elimina toda referencia a ambas clases Falta una relación de la descripción de trabajo Se modifica la descripción de trabajo: Se quita la propiedad/relación Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 8

Análisis de Diferencias HEURISTICOS DE ANALISIS DE DIFERENCIAS (3) Heurístico de cierre de intervalo: Ejemplo positivo con un número n que corresponde a otro m de la descripción de trabajo Se modifica la descripción de trabajo: Se sustituye el número de la descripción de trabajo por el intervalo n-m. Si la descripción de trabajo utiliza un intervalo, se amplía para capturar n Heurísticos adicionales En caso de duda, no hacer nada Si un ejemplo positivo no coincide con una descripción de trabajo suficientemente probada, crear un modelo de caso excepcional Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 9

Análisis de Diferencias ALGORITMOS DE USO DE HEURÍSTICOS Procedimiento ESPECIALIZAR (ejemplos negativos): 1. Comparar la descripción de trabajo con el ejemplo 2. Determinar la diferencia más importante. Si no se puede, ignorar el ejemplo, y volver a comenzar con otro. Si es única o se puede determinar, continuar. 3. Si la descripción de trabajo tiene un enlace que no está en el ejemplo, aplicar el heurístico de la relación necesaria 4. Si el ejemplo tiene un enlace que no está en la descripción de trabajo, aplicar el heurístico de la relación prohibida 5. En otro caso, ignorar el ejemplo, y comenzar con otro. Procedimiento GENERALIZAR (ejemplos positivos): 1. Comparar la descripción de trabajo con el ejemplo 2. Determinar la diferencia más importante. Si no se puede, ignorar el ejemplo. Si es única o se puede determinar, continuar (las diferencias se pueden clasificar) 3. Si un enlace apunta a una clase de la descripción de trabajo distinta de la clase a la que apunta el enlace del ejemplo: 3.1. Si las clases son parte de un árbol de clasificación, aplicar el heurístico de subida al árbol 3.2. Si las clases forman un conjunto exhaustivo, aplicar el heurístico de eliminación 3.3. En otro caso, utilizar el heurístico de ampliación 4. Si en el ejemplo falta un enlace de la descripción, aplicar el heurístico de eliminación 5. Si en la diferencia intervienen números, o un intervalo y un número fuera del mismo, utilizar el heurístico de cierre del intervalo Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 10

Análisis de Diferencias USO DE LA DESCRIPCION OBTENIDA Comprobar si el objeto desconocido es compatible con los enlaces imperativos de la descripción Los necesarios deben estar Los prohibidos no deben estar Más flexible: medir el grado de semejanza mediante una suma ponderada de los enlaces correspondientes. La ponderación indica la relevancia de cada enlace Ordenación de las descripciones Si hay pocos: lista. Describe and match Red de semejanza: Nodos: descripciones Arcos: conectan los modelos más parecidos denotan diferencias El movimiento por la red es un procedimiento hillclimbing : se pasa a la descripción que parece más probable que se parezca más al objeto Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 11

Análisis de Diferencias EJEMPLOS: Arco (1) Relación necesaria Descripción de trabajo: soporta-a soporta-a a la izquierda de Ejemplo negativo a la izquierda de Descripción resultante debe-soportar-a debe-soportar-a a la izquierda de Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 12

Análisis de Diferencias EJEMPLOS: Arco (2) Relación prohibida Descripción de trabajo: debe-soportar-a debe-soportar-a a la izquierda de Ejemplo negativo debe-soportar-a debe-soportar-a a la izquierda de toca-a Descripción resultante: debe-soportar-a debe-soportar-a a la izquierda de no-debe-tocar-a Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 13

Análisis de Diferencias EJEMPLOS: Arco (3) Subida al árbol Descripción de trabajo: es-un A B Ejemplo positivo: es-un C B Descripción resultante: debe-ser-un B Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 14

Inducción de Reglas APRENDIZAJE POR INDUCCIÓN INDUCCIÓN DE REGLAS Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 15

Inducción de Reglas INDUCCIÓN DE REGLAS Aprendizaje de procedimientos (reglas) de reconocimiento de clases o conceptos (clasificación) Cada clase comprende un conjunto de casos Input: Colección de casos o ejemplos (trainig set) Cada caso viene dado por: Su descripción respecto a unos atributos Su pertenencia o no a una clase determinada Output: Conjunto de reglas de clasificación Antecedente: Conjunto de pares <atributo, valor> Consecuente: Identificación de una clase Algoritmos de inducción: ID3, C4: R. Quinlan,... (1979, 1983, 1986, 1987) AQ, AQ11, AQ15: Michalski (1969, 1983, 1986) Diferentes versiones: Uso de Arboles de Identificación o Decisión Rango de valores discreto o continuo Batch o incremental Problema: Eliminación del ruido en el training set Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 16

Inducción de Reglas Formato del Training Set Caso Atributo 1... Atributo n Clase Caso 1 Valor 11... Valor 1n Clase 1............... Caso m Valor m1... Valor mn Clase k Ejemplo (Winston 92) Atributos y su rango de valores: Pelo = {rubio, moreno, pelirrojo} Altura ={normal, alto, bajo} Peso = {normal, gordo, delgado} Crema = {si, no} Caso Pelo Altura Peso Crema Clase Pablo rubio normal delgado no quemado Maria rubio alto normal si normal Rocio moreno bajo normal si normal Raul rubio bajo normal no quemado Sara pelirrojo normal gordo no quemado Paula moreno alto gordo no normal Pilar moreno normal gordo no normal Javier rubio bajo delgado si normal Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 17

Inducción de Reglas Ejemplo (Cont.) Hay 3 x 3 x 3 x 2 = 54 combinaciones posibles 8 observaciones son un 15% del total (8/54 = 0.15) Si tuviéramos: Explosión combinatoria 12 atributos por caso 5 valores por atributo (con una frecuencia parecida) tendríamos 5 12 = 2.44 x 10 8 combinaciones Si en este caso tuviéramos 1 millón de casos observados, sólo tendríamos el 0.4% del total Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 18

Inducción de Reglas ARBOLES DE IDENTIFICACION Un árbol de identificación es un árbol de decisión en el que Cada nodo no terminal está etiquetado con un atributo Cada rama que sale de un nodo n está etiquetada con un valor de ese atributo Cada nodo terminal está etiquetado con un conjunto de casos, cada uno de los cuales satisface todos los valores de atributos que etiquetan el camino desde ese nodo al nodo inicial La aplicación de un atributo como criterio de selección clasifica los casos en distintos conjuntos (tantos como valores del atributo Problema: construcción del árbol de identificación más sencillo que sea consistente con el training set: Eliminación de atributos irrelevantes Ordenación de los atributos relevantes, desde la raíz a los nodos terminales, de mayor a menor fuerza clasificatoria La fuerza clasificatoria de un atributo es su capacidad para generar particiones en el training set que se ajusten en un grado dado a las distintas clases posibles La clasificación de casos respecto a algún atributo introduce un orden en el training set El orden (y el desorden o ruido ) de un conjunto de datos es medible (Teoría de la Información) Medimos la fuerza clasificatoria de un atributo mediante su capacidad para reducir la incertidumbre o entropía Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 19

Inducción de Reglas ETAPAS DE LA CONSTRUCCIÓN DEL ARBOL DE IDENTIFICACIÓN 1. Calcular la entropía que puede reducir cada atributo 2. Ordenar los atributos de mayor a menor capacidad de reducción de entropía 3. Construir el árbol de identificación siguiendo la lista ordenada de atributos 1. CALCULO DE LA ENTROPIA DE CADA ATRIBUTO Sea c el número de clases Sea n r el número de casos en una rama r Sea n a el número de casos en todas las ramas del árbol a Sea n rc el número de casos en la rama r de la clase c La probabilidad P(c) de que un caso dado pertenezca a la clase c es: n rc P(c) = n r La medida de la entropía E viene dada por la fórmula: c E = Σ -P(c). log 2 P(c) i=1 Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 20

Inducción de Reglas EJEMPLOS DE CALCULO DE LA ENTROPIA Si un conjunto de casos que contiene miembros de dos clases A y B, y el número de elementos de cada clase es el mismo, el valor dado por la fórmula de medida de la entropía será 1, el máximo valor posible: c 1 1 1 1 E = Σ -P(c). log 2 P(c) = - log 2 - log 2 i=1 2 2 2 2 1 1 = + = 1 2 2 Si sólo hay elementos de una clase, el valor de la entropía será 0, el mínimo valor posible: c E = Σ -P(c). log 2 P(c) = - 1 log 2 1-0 log 2 0 = - 0-0 = 0 i=1 A medida que nos movemos entre una distribución perfectamente equilibrada y una homogeneidad perfecta, la entropía va variando entre 0 y 1: 1.0 0.5 0 0 0.5 1 Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 21

Inducción de Reglas 2. ORDENACIÓN DE ATRIBUTOS Una vez calculada la entropía de cada atributo, se establece una lista de los mismos ordenada de menor a mayor entropía 3. CONSTRUCCIÓN DEL ÁRBOL Hasta que cada nodo terminal contiene un subconjunto del conjunto de entrenamiento lo más homogéneo posible: Se selecciona un nodo terminal con un conjunto nohomogéneo Se sustituye el nodo por una prueba sobre el primer atributo de la lista no utilizado todavía en la rama. Esta prueba dividirá el conjunto en conjuntos mínimamente no-homogéneos Sobre cada uno de los conjuntos resultantes se reitera el procedimiento, hasta agotar los atributos disponibles Color pelo rubio pelirrojo moreno crema protectora Sara Rocío Paula no si Pilar Pablo Raúl Maria Javier Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 22

Inducción de Reglas Generación de Reglas Para transformar el árbol de identificación en un conjunto de reglas: Se recorre cada rama de la red desde la raíz hasta el nodo terminal El antecedente de la regla es la conjunción de los pares <atributo, valor> recogidos en cada nodo El consecuente de la regla es el nodo terminal Ej.: Si el color del pelo = rubio y usa crema = si Entonces no se quema Si el color del pelo = rubio y usa crema = no Entonces se quema Si el color del pelo = pelirrojo Entonces se quema Si el color del pelo = moreno Entonces no se quema Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 23

Inducción de Reglas SIMPLIFICACIÓN DEL CONJUNTO DE REGLAS Eliminación de antecedentes innecesarios Si usa crema = si Entonces no se quema Eliminación de reglas innecesarias Todas las reglas con el mismo consecuente pueden reducirse a una regla por defecto: Si no se aplica ninguna otra regla, Entonces... Elegir el conjunto más numeroso de reglas con el mismo consecuente Elegir el consecuente más común en el training set Elegir la regla por defecto más simple (con menor número de antecedentes) Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 24

Razonamiento basado en Casos RAZONAMIENTO BASADO EN CASOS - Estrategia de búsqueda basada en la recuperación de la información almacenada más parecida posible a la que describe el problema actualmente planteado - La adquisición de esta información (aprendizaje) consiste en el mero almacenamiento, más o menos estructurado. - La información no se manipula hasta el momento de su utilización. - Ingeniería del Conocimiento: Para dominios de problemas en los que resulta imposible construir un modelo - Se basa en el heurístico de la consistencia, que se utiliza cada vez que atribuímos a algo nuevo, que antes no hemos visto, un rasgo de una cosa ya observada previamente: - si queremos identificar el valor de un atributo de un objeto a partir de un conjunto de casos de referencia: - buscamos el caso más parecido en función de los atributos cuyo valor conocemos - conjeturamos que el valor que buscamos para el atributo será el mismo que el correspondiente del caso más parecido - no se aplica mecanismo inferencial (razonamiento) alguno - estimación de la semejanza del nuevo caso con alguno de los anteriores Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 25

Razonamiento basado en Casos RAZONAMIENTO BASADO EN CASOS (2) - Identificación basada en un espacio de atributos o rasgos: - identificación de atributos - evaluación de atributos - construcción del espacio de rasgos: representación multidimensional en la que cada atributo corresponde a una dimensión de ese espacio - cada caso, objeto, problema, etc... conocido se representa como un punto de coordenadas de ese espacio de rasgos - el caso o problema a resolver, o el objeto desconocido, se representa asimismo en el espacio de rasgos - la solución o identificación será la del caso u objeto representado por el punto a menor distancia del que representa el caso u objeto desconocido - el procedimiento más inmediato: si tenemos n casos, tendremos que calcular n distancias, y tendremos que hacer n-1 comparaciones de esas distancias hasta encontrar la menor: complejidad proporcional a n - mediante los árboles k-d se puede encontrar rápidamente el mayor parecido posible en un espacio de rasgos: procedimiento serial rápido en tiempo logarítmico: el número de cálculos se reduce a log 2 n (J. K. Friedman et al. (1977), An Algorithm for Finding Best Matches in Logarithmic Expected Time, ACM Trans. in Math. Softw., 3, 3.) Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 26

Razonamiento basado en Casos ARBOLES DE DECISION MULTIDIMENSIONALES - Un árbol de decisión es una representación que es un árbol semántico en el que: - cada nodo está conectado a un conjunto de respuestas posibles - cada nodo no terminal está conectado a una prueba (test) que divide su conjunto de respuestas posibles en subconjuntos que corresponden a diferentes resultados de la prueba - cada rama propaga a otro nodo el subconjunto resultante de una prueba determinada - En cada fase del análisis, el árbol nos indica cuál es la prueba que tenemos que realizar - Suponiendo que el espacio de rasgos tiene k dimensiones, las distancias tendrán que medirse para todas ellas. Para ello, transformamos el árbol de decisión en un árbol multidimensional. - Un árbol de decisión multidimensional es una representación en la que: - el conjunto de respuestas posibles está formado por puntos, uno de los cuales puede ser el más próximo a un punto dado - cada prueba especifica una coordenada, un umbral y una zona neutral alrededor del umbral que no contiene ningún punto - cada prueba divide el conjunto de puntos en dos conjuntos, según a qué lado del umbral se encuentra cada punto Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 27

Razonamiento basado en Casos CONSTRUCCIÓN DEL ARBOL DE DECISIÓN - Procedimiento para dividir los casos en conjuntos, construyendo un árbol de decisión: - Si sólo hay un caso, parar. - Si esta es la primera división de casos, tomar para la comparación el eje vertical. En otro caso, tomar el eje que sea distinto del que se encuentra en el siguiente nivel superior - Considerando sólo el eje de comparación, encontrar la posición media de dos objetos medios. Sea el umbral esta posición media. Construir una prueba del árbol de decisión que compare los casos desconocidos en el eje de comparación con el umbral. Anotar, además, la posición de los dos objetos medios en eje de comparación. Sean estas posiciones los límites superior e inferior. - Dividir todos los objetos en dos subconjuntos, según a qué lado de la posición media (umbral) se encuentren - Utilizando este procedimiento, dividir los objetos de cada subconjunto, formando un subárbol para cada uno Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 28

Razonamiento basado en Casos BÚSQUEDA DEL CASO MÁS PARECIDO - Para encontrar el caso más parecido, basta con seguir un camino por el árbol de decisión que refleja el modo en que los objetos se han dividido en conjuntos - Procedimiento para encontrar el caso más parecido: - Determinar si sólo hay un elemento en el conjunto que se considera. Si es así, informar de ello. En otro caso: - Comparar el caso desconocido, en el eje de comparación, con el umbral del nodo actual. El resultado determina el conjunto probable. - Encontrar el caso más parecido en el conjunto probable utilizando este procedimiento - Determinar si la distancia al caso más parecido en el conjunto probable es menor o igual a la distancia al límite del otro conjunto en el eje de comparación. Si es así, informar de que se trata del caso más parecido en el conjunto probable. En otro caso: - Comprobar el conjunto no probable utilizando este procedimiento. Devolver el caso más parecido de los más parecidos en el conjunto probable y en el no probable - El procedimiento tiene en cuenta la posibilidad de que haya que examinar alternativas ignoradas previamente - En general, un árbol de decisión con un factor de ramificación 2 y con una profundidad p, tendrá 2 p terminales. Si hay que identificar n objetos, p tendrá que ser lo bastante grande para asegurar que 2 p n - Si tomamos el logaritmo de ambos lados, el número de comparaciones que necesitamos, que corresponde a la profundidad del árbol, será del orden de log 2 n Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 29

Razonamiento basado en Casos Ejemplo de construcción de un árbol de decisión multidimensional Supongamos que tenemos 8 bloques, cada uno de los cuales tiene los siguientes rasgos: color altura anchura identificación amarillo 6 5 am púrpura 5 6 pu rojo 6 2 r1 naranja 5 2 na rojo 2 1 r2 azul 2 4 az verde 1 6 ve violeta 1 2 vi - Supongamos que, por la naturaleza de los objetos del mundo de bloques, el valor del atributo color depende, de alguna forma desconocida, de los valores de los atributos altura y anchura. - Supongamos que se nos pide que averigüemos cuál es el color de un bloque cuya altura es 4 y cuya anchura es 1 - Situamos los objetos en un sistema de coordenadas Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 30

Razonamiento basado en Casos Ejemplo (continuación) Altura 6 r2 am 5 na pu 4? ( 5) 3 ( 2) 2 r1 az 1 vi ve 0 1 2 3 4 5 6 Anchura - consideramos primero la dimensión altura - dividimos por su altura los objetos en dos grupos, cada uno con el mismo número de objetos - el punto central de la diferencia entre el más alto de los bajos (límite inferior) y el más bajo de los altos (límite superior) está en 3.5, donde situamos el umbral - consideramos la dimensión anchura - dividimos por su anchura cada conjunto en dos subconjuntos con el mismo número de objetos - reiteramos el procedimiento hasta que en cada subconjunto no quede más que un objeto Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 31

Razonamiento basado en Casos Ejemplo (3): Arbol de Prueba - Cada paso genera una prueba y un nodo en el árbol de prueba. El árbol correspondiente será: alt > 3.5? no si anch > 3? anch > 3.5? no si no si alt. > 1.5? alt. > 1.5? alt. > 5.5? alt. > 5.5? no si no si no si no si violeta rojo verde azul naranja rojo púrpura amarillo - Al final, el objeto desconocido quedará situado en una de las particiones, en la que estará el caso más próximo Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 32

Aprendizaje Subsimbólico APRENDIZAJE SUBSIMBÓLICO El resultado del aprendizaje se identifica con la configuración misma del sistema de aprendizaje. Inconvenientes de los modelos de aprendizaje subsimbólico: Ausencia de modelos que dirijan la configuración del sistema de aprendizaje Ausencia de interpretación simbólica del resultado del aprendizaje Ventajas del aprendizaje subsimbólico: Plausibilidad biológica Resolución de problemas de aprendizaje no-lineal Admite información suministrada bajo la forma de valores continuos Modelos de aprendizaje subsimbólico: Redes neuronales Algoritmos genéticos Carlos Muñoz Gutiérrez. Dpto. Lógica y Filosofía de la Ciencia 33