Inducción de Árboles de Decisión ID3, C4.5

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Inducción de Árboles de Decisión ID3, C4.5"

Transcripción

1 Inducción de Árboles de Decisión ID3, C4.5

2 Contenido 1. Representación mediante árboles de decisión 2. Algoritmo básico: divide y vencerás 3. Heurística para la selección de atributos 4. Espacio de búsqueda y bias inductivo 5. Sobreajuste 6. Mejoras a ID3 7. Poda de árboles: C Interpretación geométrica aprendizaje con árboles 9. Conclusiones y ejemplos de aplicación Inducción de árboles de decisión 2

3 1. Representación mediante árboles de decisión Descripción de instancias: pares atributo/valor Árbol de decisión Nodos no terminales: test Arcos: valores Nodos terminales: clase de decisión Clasificación instancias no vistas Recorrer árbol de decisión Inducción de árboles de decisión 3

4 Árbol de decisión Concepto: Riesgo en la concesión de crédito Ingresos 0 a 2 2 a 5 más de 5 Alto Historia Historia Desconocida Mala Buena Desconocida Mala Buena Deuda Alto Moderado Bajo Moderado Bajo Alta Alto Baja Moderado Inducción de árboles de decisión 4

5 Espacio de hipótesis Si clase de decisión binaria Cada árbol de decisión representa una función booleana Espacio de hipótesis: Conjunto de todos los árboles de decisión o de todas las funciones booleanas Tamaño espacio de hipótesis Suponiendo atributos binarios n atributos H = 2 2n funciones booleanas distintas Inducción de árboles de decisión 5

6 Tarea inducción de árboles de decisión Dados Descripción de Instancias, X, (atributos, valores) Descripción de las Hipótesis, H (espacio de árboles de decisión) Concepto objetivo, c : X {0,1} Ejemplos positivos y negativos, D, pares (<x, c(x)>) Determinar Hipótesis h de H / h(x) = c(x) para todo x de X Inducción de árboles de decisión 6

7 Datos para aplicaciones de concesión de créditos Nº Riesgo Historia Deuda Avales Ingresos 1 alto mala alta no 0 a 2M 2 alto desconocida alta no 2 a 5M 3 moderado desconocida baja no 2 a 5M 4 alto desconocida baja no 0 a 2M 5 bajo desconocida baja no más de 5M 6 bajo desconocida baja adecuados más de 5M 7 alto mala baja no 0 a 2M 8 moderado mala baja adecuados más de 5M 9 bajo buena baja no más de 5M 10 bajo buena alta adecuados más de 5M 11 alto buena alta no 0 a 2M 12 moderado buena alta no 2 a 5M 13 bajo buena alta no más de 5M 14 alto mala alta no 2 a 5M Inducción de árboles de decisión 7

8 Árbol de decisión Historia Desconocida Mala Buena Deuda Avales Deuda Alta Baja No Adecuados Alta Baja Alto Avales Alto Moderado Avales Bajo No Adecuados No Adecuados Ingresos Bajo Ingresos Bajo 0 a 2 2 a 5 más de 5 0 a 2 2 a 5 más de 5 Alto Moderado Bajo Alto Moderado Bajo Inducción de árboles de decisión 8

9 Árbol de decisión más simple Ingresos 0 a 2 2 a 5 más de 5 Alto Historia Historia Desconocida Mala Buena Desconocida Mala Buena Deuda Alto Moderado Bajo Moderado Bajo Alta Alto Baja Moderado Inducción de árboles de decisión 9

10 2. Algoritmo básico: divide y vencerás Inducción analítica (top-down) de árboles de decisión PROCEDIMIENTO Inducir_Arbol(Ejemplos, Atributos) BEGIN SI todos los elementos de Ejemplos pertenecen a la misma clase ENTONCES devolver un nodo hoja con la clase; SINO SI Atributos está vacío ENTONCES devolver nodo hoja con disyunción de clases de Ejemplos; SINO SI Ejemplos está vacío ENTONCES devolver un nodo hoja etiquetado desconocido ; SINO BEGIN seleccionar un atributo A como raíz del árbol actual; eliminar A de Atributos; PARA CADA valor V de A, BEGIN crear una rama del árbol etiquetada con V; sea particion_v elementos de Ejemplos con valor V en atributo A; colocar rama V resultado de Inducir_Arbol(particion_V, Atributos); END; END; END Inducción de árboles de decisión 10

11 3. Heurística para la selección de atributos Atributo más útil para la clasificación? Elegir atributo cuyo conocimiento aporte mayor información desde la perspectiva de clasificación Quinlan, ID3 y sucesores: heurística basada en teoría de información Inducción de árboles de decisión 11

12 Selección de atributos Qué atributo es mejor? 6+, 4-6+, 4- atributo A atributo B 5+, 1-1+, 3-3+, 1-3+, 3- Inducción de árboles de decisión 12

13 Fundamentos teoría información Universo mensajes M={m 1, m m n } con probabilidad p(m i ), i=1, n Información que aporta la recepción de un mensaje I(M)=- i=1 n p(m i )log 2 (p(m i )) Inducción de árboles de decisión 13

14 Heurística teoría información Considerar la clasificación obtenida por un árbol como un mensaje Estimar el contenido de información a priori, I(D) contenido de información de un mensaje que proporciona la clasificación de un ejemplo del conjunto de entrenamiento, D, sin conocer el valor de sus atributos Estimar el contenido de información a posteriori, o resto, Resto(A) Como antes, pero una vez conocido el valor del atributo A Seleccionar el atributo A que maximice la ganancia de información Ganancia(D, A) = I(D) Resto(A) Inducción de árboles de decisión 14

15 Información a priori I(D) Estimar la probabilidad de cada clase por la frecuencia de aparición en D Inducción de árboles de decisión 15

16 Información a posteriori Resto(A) Estimar la información promediando la estima para cada posible valor Conocemos atributo A, con K posibles valores K particiones de D, según valor de A D i : partición i-esima conjunto D Resto(A)= i=1 k D i / D I(D i ) Inducción de árboles de decisión 16

17 Datos para aplicaciones de concesión de créditos Nº Riesgo Historia Deuda Avales Ingresos 1 alto mala alta no 0 a 2M 2 alto desconocida alta no 2 a 5M 3 moderado desconocida baja no 2 a 5M 4 alto desconocida baja no 0 a 2M 5 bajo desconocida baja no más de 5M 6 bajo desconocida baja adecuados más de 5M 7 alto mala baja no 0 a 2M 8 moderado mala baja adecuados más de 5M 9 bajo buena baja no más de 5M 10 bajo buena alta adecuados más de 5M 11 alto buena alta no 0 a 2M 12 moderado buena alta no 2 a 5M 13 bajo buena alta no más de 5M 14 alto mala alta no 2 a 5M Inducción de árboles de decisión 17

18 Evaluación de la GANANCIA sobre el ejemplo riesgo alto moderado bajo frecuencias 6/14 3/14 5/14 I(D) = - 6/14log 2 (6/14) - 3/14log 2 (3/14) - 5/14log 2 (5/14) = - 6/14 *(-1.222) -3/14*(-2.222) -5/14*(-1.485) = bits GANANCIA(D, Ingresos)= I(D) - Resto(Ingresos) Resto(Ingresos) C 1 ={1, 4, 7, 11} C 2 ={2, 3, 12, 14} C 3 ={5, 6, 8, 9, 10, 13} Resto(Ingresos) = 4/14*I(C 1 ) + 4/14*I(C 2 ) + 6/14*I(C 3 ) = = 4/14*0 + 4/14*1 + 6/14*0.650 = = bits GANANCIA(D, Ingresos) = bits GANANCIA(D, Historia) =0.266 bits GANANCIA(D, Deuda) = bits GANANCIA(D, Avales) = bits Inducción de árboles de decisión 18

19 4. Espacio de búsqueda y bias inductivo Espacio de hipótesis: Conjunto de todos los árboles de decisión o de todas las funciones booleanas Tamaño espacio de hipótesis Suponiendo atributos binarios n atributos H = 2 2n funciones booleanas distintas ID3 realiza una búsqueda voraz, escalada, en la dirección de los árboles más simples a los más complejos Inducción de árboles de decisión 19

20 Bias BPA-ID3 BPA-ID3: Primero en anchura, partiendo de árbol vacío, incrementando profundidad Encuentra árbol de menor profundidad consistente con D Bias BPA-ID3 Preferir el árbol de menor profundidad. Inducción de árboles de decisión 20

21 Bias ID3 ID3: aproximación eficiente a BPA-ID3 Búsqueda heurística voraz, escalada No garantiza árbol de menor profundidad Tiende a encontrar árboles sencillos Aproximación al bias inductivo de ID3 Preferir árboles de menor profundidad. Preferir árboles que sitúan atributos que aportan más información cerca de la raíz Inducción de árboles de decisión 21

22 Bias restrictivos /de preferencia Algoritmo de eliminación de candidatos Espacio de hipótesis incompleto (por el lenguaje de representación de hipótesis elejido) Busqueda exhaustiva en el espacio de hipótesis ID3 Espacio de hipótesis completo Búsqueda heurística (incompleta): la heurística de selección de atributos impone un orden en la búsqueda de hipótesis Inducción de árboles de decisión 22

23 Por qué preferir árboles de menor profundidad? Navaja de Occam: preferir hipótesis más simples que explique los datos Árbol de decisión hipótesis más simple: árbol de menor profundidad Justificación adicional Es razonable esperar que las hipótesis más simples generalicen mejor (clasifique mejor los ejemplos no vistos) pues es razonable esperar que contengan menos atributos irrelevantes!validación experimental! ( más simple = más pequeña?) Inducción de árboles de decisión 23

24 5. Sobreajuste No siempre es una buena estrategia hacer crecer el árbol hasta que clasifique correctamente todos los ejemplo de entrenamiento Ruido en los ejemplos Podemos aprender el ruido! Pocos ejemplos Escasa descripción del concepto objetivo En ambos casos, mala generalización Inducción de árboles de decisión 24

25 Errores Error de resubstitución, e r (h) Error que comete una hipótesis sobre el conjunto de entrenamiento = ejemplos de D mal clasificados / D Error verdadero o error, e D (h) Error que comete la hipótesis sobre todo el espacio de instancias X, gobernado por la distribución de probabilidad D Inducción de árboles de decisión 25

26 Definición de sobreajuste Dado un espacio de hipótesis H, una hipótesis h H sobreajusta el conjunto de entrenamiento sii h H tal que e r (h) < e r (h ) e D (h) > e D (h ) Inducción de árboles de decisión 26

27 Impacto del sobreajuste Aplicación: aprendizaje del tipo de diabetes de los pacientes Inducción de árboles de decisión 27

28 Ejemplo sobreajuste Nº Riesgo Historia Deuda Avales Ingresos 1 alto mala alta no 0 a 2M 2 alto desconocida alta no 2 a 5M 3 moderado desconocida baja no 2 a 5M 4 alto desconocida baja no 0 a 2M 5 bajo desconocida baja no más de 5M 6 bajo desconocida baja adecuados más de 5M 7 alto mala baja no 0 a 2M 8 moderado mala baja adecuados más de 5M 9 bajo buena baja no más de 5M 10 bajo buena alta adecuados más de 5M 11 alto buena alta no 0 a 2M 12 moderado buena alta no 2 a 5M 13 bajo buena alta no más de 5M 14 alto mala alta no 2 a 5M Inducción de árboles de decisión 28

29 Ejemplo sobreajuste Ingresos 0 a 2 2 a 5 más de 5 Alto Historia Historia Desconocida Mala Buena Desconocida Mala Buena Deuda Alto Moderado Bajo Moderado Bajo Alta Alto Baja Moderado Inducción de árboles de decisión 29

30 Ejemplo sobreajuste Imaginar que añadimos un ejemplo etiquetado erróneamente como Riesgo=bajo (en vez de alto) al conjunto inicial de entrenamiento Nº Riesgo Historia Deuda Avales Ingresos 15 bajo mala alta adecuados 0 a 2M Inducción de árboles de decisión 30

31 Ejemplo sobreajuste Ingresos 0 a 2 2 a 5 más de 5 Avales Historia Historia Adecuados No Desconocida Mala Buena Desconocida Mala Buena Bajo Alto Deuda Alto Moderado Bajo Moderado Bajo Alta Alto Baja Moderado Inducción de árboles de decisión 31

32 Motivos sobreajuste Ruido en los datos Presencia de regularidades no relevantes en D Pocos datos Numerosos atributos Inducción de árboles de decisión 32

33 6. Mejoras a ID3 Dificultades en la inducción de árboles Atributos con valores continuos Atributos con valores desconocidos Atributos con numerosos valores Sobreajuste Inducción de árboles de decisión 33

34 Atributos con valores continuos Se puede discretizar dinámicamente, empleando la misma heurística utilizada para la selección de atributos Reemplazar los atributos continuos por atributos booleanos que se crean dinámicamente, introduciendo umbrales C A continuo A <c, T si a A < C Inducción de árboles de decisión 34

35 Discretización atributos continuos Presión Clase Selección de umbral, C: máxima ganancia Candidatos: valores adyacentes con distinta clase 54=(48+60)/2, 85=(80+90)/2 Para el ejemplo A >54 El nuevo atributo compite con los restantes Una vez seleccionado, son posibles discretizaciones posteriores En el ejemplo, solo A >85 Inducción de árboles de decisión 35

36 Atributos con valores desconocidos En muchos dominios, es frecuente no disponer de los valores de algún(os) atributo(s) para todos los ejemplos Solución: estimar el valor del atributo en base a los ejemplos para los cuales el atributo tiene valores conocidos Alternativas Valor más común en nodo actual Valor más común en nodo actual entre ejemplos de su misma clase Asignar probabilidades a partir de las frecuencias en nodo actual Inducción de árboles de decisión 36

37 Aproximación probabilística Modificación construcción Generalizar cardinalidad a suma de probabilidades de pertenencia a la partición Modificar definición Ganancia(D,A) = F * (I(D)- Resto(A)), siendo F el porcentaje de ejemplos con valor conocido para el atributo A Si se selecciona el atributo, asignar probabilidades a las ramas Clasificación Examinar todas las ramas para atributos con valor desconocido, obteniendose valor más probable (sumando prob. nodos hoja alcanzados) Inducción de árboles de decisión 37

38 Atributos con numerosos valores La heurística de la ganancia favorece la selección de atributos con muchos valores generan muchas particiones con pocos ejemplos de pocas clases Consecuencia: conocer el valor del atributo tiende a maximizar la ganancia Ejemplo patológico: añadir atributo DNI al ejemplo de concesión de créditos El atributo DNI proporciona la máxima ganancia de información: predice perfectamente el riesgo de los ejemplos de D Genera un árbol con un único test y profundidad 1, con un nodo hoja por cada ejemplo Capacidad de generalización nula Inducción de árboles de decisión 38

39 Razón de ganancia Estimación de la información generada al dividir D en k particiones? Atributo A con k posibles valores Información media de un mensaje que indique el valor del atributo A de un ejemplo: IDivisión(D, A)= - k D i / D * log 2 ( D i / D ) i=1 Esta expresión proporciona la información generada al dividir D en k subconjuntos Razón de Ganancia RG(D, A)= Ganancia(D, A)/IDivision(D, A) Inducción de árboles de decisión 39

40 Comportamiento Razón de Ganancia Penaliza atributos con numerosos valores y ejemplos distribuidos uniformemente n valores, 1 ejemplo por valor: IDivisión= log 2 n 2 valores, n/2 ejemplos cada valor: IDivision= 1 Dificultad si algún D i ~ D : IDivisión 0 Inducción de árboles de decisión 40

41 7. Poda de árboles: C4.5 ID3 tiende a general árboles complicados que sobreajustan los datos Ejemplo patológico 10 atributos, valores binarios, probabilidad 0.5 clase binaria, SI probabilidad 0.25, NO probabilidad 0.75 N=1000, ET 500, EP 500 produce árbol con 119 nodos y tasa error 35% un árbol, con una única hoja, NO, tendría un error esperado del 25% Inducción de árboles de decisión 41

42 Simplificación de Árboles Métodos de simplificación prepoda: no subdividir ejemplos según algún criterio inconveniente: no se sabe cual es el mejor criterio poda: reemplazar subárboles por una hoja o una de sus ramas mayor coste computacional, pero mejores resultados Inducción de árboles de decisión 42

43 Métodos de poda basados en el error Utilizan una estimación de la tasa de error de un árbol para realizar la poda comenzando por las hojas, examinar los subárboles de los nodos no terminales reemplazar cada subárbol por el nodo terminal o la rama que clasifique más casos, si esto mejora la tasa de error del subárbol como la estimación del error de un árbol disminuye al disminuir la tasa de error de cada uno de sus subárboles, este proceso genera un árbol cuya estimación de la tasa de error es minimal respecto a las distintas formas de poda Inducción de árboles de decisión 43

44 Métodos de poda basados en el error Observar que la poda del árbol siempre incrementa la tasa de error del árbol calculada sobre los ejemplos de entrenamiento Distintas familias de técnicas según el método de estimación de errores Entrenamiento y validación Métodos pesimistas Inducción de árboles de decisión 44

45 Poda mediante entrenamiento y validación Separar D en tres conjuntos disjuntos T, conjunto de entrenamiento V, conjunto de validación P, conjunto para prueba (estimación del error) Crear árbol con T, hasta valor mínimo e r Podar árbol hasta que la estimación de e D, según V, empeore Inducción de árboles de decisión 45

46 Efecto de la poda mediante entrenamiento y validación Inducción de árboles de decisión 46

47 Inconvenientes de la poda mediante entrenamiento y validación Se precisa un número elevado de datos por la necesidad de usar tres conjuntos disjuntos Alternativa: evitar el uso de V para guiar la poda Método pesimista (Quinlan 87): se basan en reemplazar subárbol por hoja si una estimación pesimista del error en la hoja es mejor que la estimación pesimista del error del subárbol Inducción de árboles de decisión 47

48 C4.5 Método de inducción de árboles basado en ID3 Mejoras para atributos continuos, desconocidos, con múltiples valores Poda pesimista Generación de reglas Última versión: C4.8 (implementado en WEKA como J4.8) Inducción de árboles de decisión 48

49 Estimación del error Suponer que la observación de E errores en N ejemplos sigue un distribución binomial Experimento base: cometer un error al clasificar un ejemplo Probabilidad: tasa de error del clasificador Observación disponible: E errores cometidos al clasificar N ejemplos de entrenamiento Fijado un nivel de confianza, c%, la distribución binomial proporciona el intervalo de confianza de la probabilidad del experimento base Inducción de árboles de decisión 49

50 Estimación pesimista del error Uc(E,N):extremo superior del intervalo de confianza Estimar el error al clasificar instancia no vista por Uc(E,N) sobre el conjunto de entrenamiento Suponer que cada hoja clasifica tantas instancias como ejemplos de entrenamiento Estimación error: N*Uc(E,N) Estimación error subárbol: suma estimación ramas Inducción de árboles de decisión 50

51 Votación congreso: árbol sin podar Inducción de árboles de decisión 51

52 Ejemplo poda Suponer subárbol education spending=no : democrat (6) education spending=yes: democrat (9) education spending=no: republican(1) Estimación del error: 6*U 25 (0, 6)+9*U 25 (0,9)+1*U 25 (0,1)= * * *0.750=3.273 Si reemplazamos el subárbol por una única hoja, etiquetada DEMOCRAT, se comete un único error y su estimación es: 16*U 25 (1,16)=16*0.175=2.512 Según este criterio, se realizaría la poda Inducción de árboles de decisión 52

53 Votación congreso: árbol podado Inducción de árboles de decisión 53

54 Interpretación geométrica del aprendizaje en árboles (I) Descripción ejemplos: vector de características Ejemplo: punto en espacio N-dimensional (N atributos) Interpretación geométrica del aprendizaje: dividir el espacio en regiones etiquetadas con una sola clase Clasificación ejemplos no vistos: según región en que se sitúen En el caso de los árboles: hiperrectangulos Inducción de árboles de decisión 54

55 Ejemplo interpretación geométrica (I) Suponer dos atributos X, Y continuos, discretizados (X < C, Y < C`) Cada test: hiperplano ortogonal al eje del atributo C` C Inducción de árboles de decisión 55

56 Ejemplo interpretación geométrica (II) Concepto objetivo: suponer recta pendiente no nula C` C Inducción de árboles de decisión 56

57 Ejemplo interpretación geométrica (III) Cuando no usar árboles Regiones con baja densidad de puntos: mucha holgura para determinar fronteras Regiones con puntos de distintas clases: distribución probabilística que no se representa bien con un árbol C` C Inducción de árboles de decisión 57

58 Conclusiones Método robusto y transportable a distintas tareas Comparable a redes de neuronas, como clasificador Árboles: menor coste computacional, conocimiento explicito Redes: mayor precisión Adecuados si Se buscan conceptos disyuntivos Se requiere conocimiento explícito Ruido (poda) Inducción de árboles de decisión 58

59 Ejemplos de aplicación Quinlan, 79, ID3, finales de ajedrez 1,4 millones posiciones, 49 atributos binarios: 715 configuraciones distintas Entrenamiento 20%, aleatorio Tasa acierto: 84% Induction of decision trees, Machine learning, 1, , 1986 Inducción de árboles de decisión 59

60 Ejemplos de aplicación Soybean (semillas de soja) R.S. Michalski and R.L. Chilausky, 1980 Diagnosis de enfermedades en las semillas de soja 19 clases (15 significativas) 35 atributos 307 Instancias Tasa error 11% (C4.5) J.W. Shavlik, R.J. Mooney, and G.G. Towell. Symbolic and neural learning algorithms: an experimental comparison, machine learning. Machine Learning, 6(2): , 1991 Inducción de árboles de decisión 60

61 Ejemplos de aplicación Quinlan, hipotiroides, principio 80 varios miles ejemplo 7 atributos continuos, 23 discretos 3-8 clases Tasa error < 1% Quinlan J. R. Comparing connectionist and symbolic learning methods. In: Rivest R. L. ed. Computational Learning Theory and Natural Learning Systems, vol.1, Cambridge, MA: MIT Press, 1994, pp Inducción de árboles de decisión 61

62 Ejemplo actual Console, Picardi, Theseider. Temporal Decision Trees: Model-based Diagnosis of Dynamic Systems On-Board. Journal of Artificial Intelligence Research 19 (2003) Árboles de decisión con restricciones temporales Aplicación: Diagnosis on board para automóviles Inducidos a partir de ejemplos generados mediante técnicas de diagnosis basada en modelos Inducción de árboles de decisión 62

ALGORITMO ID3. Objetivo

ALGORITMO ID3. Objetivo ALGORITMO ID3 Desarrollado por J. Ross Quinlan en 1983. ID3 significa Induction Decision Trees. Pertenece a la familia TDIDT (Top- Down Induction of Decision Trees). Objetivo Construir un árbol de decisión

Más detalles

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.

Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Funcionamiento: Se realiza un test en cada nodo interno del árbol, a medida que

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar

Más detalles

Métodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013

Métodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013 Métodos de Clasificación sin Métrica Reconocimiento de Patrones- 03 Métodos de Clasificación sin Métrica Datos nominales sin noción de similitud o distancia (sin orden). Escala nominal: conjunto de categorías

Más detalles

CRITERIOS DE SELECCIÓN DE MODELOS

CRITERIOS DE SELECCIÓN DE MODELOS Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,

Más detalles

Métodos basados en instancias. K-vecinos, variantes

Métodos basados en instancias. K-vecinos, variantes Métodos basados en instancias K-vecinos, variantes Contenido 1. Caracterización 2. K-vecinos más próximos 3. Mejoras al algoritmo básico 4. Bibliografía 2 1. Caracterización Forma más sencilla de aprendizaje:

Más detalles

Cómo se usa Data Mining hoy?

Cómo se usa Data Mining hoy? Cómo se usa Data Mining hoy? 1 Conocer a los clientes Detectar segmentos Calcular perfiles Cross-selling Detectar buenos clientes Evitar el churning, attrition Detección de morosidad Mejora de respuesta

Más detalles

Aprendizaje automático mediante árboles de decisión

Aprendizaje automático mediante árboles de decisión Aprendizaje automático mediante árboles de decisión Aprendizaje por inducción Los árboles de decisión son uno de los métodos de aprendizaje inductivo más usado. Hipótesis de aprendizaje inductivo: cualquier

Más detalles

Búsqueda con adversario

Búsqueda con adversario Introducción Búsqueda con adversario Uso: Decidir mejor jugada en cada momento para cierto tipo de juegos Hay diferentes tipos de juegos según sus características: Numero de jugadores, toda la información

Más detalles

Aprendizaje basado en ejemplos.

Aprendizaje basado en ejemplos. Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor

Más detalles

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria Minería de Datos Árboles de Decisión Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Otoño de 2012 Twenty questions Intuición sobre los árboles de decisión Juego

Más detalles

Bloque 1. Contenidos comunes. (Total: 3 sesiones)

Bloque 1. Contenidos comunes. (Total: 3 sesiones) 4º E.S.O. OPCIÓN A 1.1.1 Contenidos 1.1.1.1 Bloque 1. Contenidos comunes. (Total: 3 sesiones) Planificación y utilización de procesos de razonamiento y estrategias de resolución de problemas, tales como

Más detalles

Aux 6. Introducción a la Minería de Datos

Aux 6. Introducción a la Minería de Datos Aux 6. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 glhuilli@dcc.uchile.cl 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial

Más detalles

Formulación del problema de la ruta más corta en programación lineal

Formulación del problema de la ruta más corta en programación lineal Formulación del problema de la ruta más corta en programación lineal En esta sección se describen dos formulaciones de programación lineal para el problema de la ruta más corta. Las formulaciones son generales,

Más detalles

Tema 11: Inducción de Reglas p. 1/1

Tema 11: Inducción de Reglas p. 1/1 Tema 11: Inducción de Reglas Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/ Tema

Más detalles

A B MIN C D E F MAX x E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO

A B MIN C D E F MAX x E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO UNIVERSIDAD DE MÁLAGA Dpto. Lenguajes y Ciencias de la Computación RELACIÓN DE PROBLEMAS. TEMA IV. PROBLEMAS DE JUEGOS.

Más detalles

Métodos de Búsqueda para juegos humano-maquina. PROF: Lic. Ana María Huayna D.

Métodos de Búsqueda para juegos humano-maquina. PROF: Lic. Ana María Huayna D. Métodos de Búsqueda para juegos humano-maquina PROF: Lic. Ana María Huayna D. Tópicos 1. Introducción 2. Juegos 3. Estrategias de Juego 4. Algoritmo Minimax 5. Algoritmo Poda Alfa-Beta 1.- Introducción

Más detalles

JUEGOS. Área de aplicación de los algoritmos heurísticos Juegos bi-personales: oponente hostil

JUEGOS. Área de aplicación de los algoritmos heurísticos Juegos bi-personales: oponente hostil JUEGOS Área de aplicación de los algoritmos heurísticos Juegos bi-personales: oponente hostil I Oponente: Jugador: intenta mover a un estado que es el peor para Etiquetar cada nivel del espacio de búsqueda

Más detalles

4ta. Práctica. Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta. Inteligencia Artificial Prácticas 2004/2005

4ta. Práctica. Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta. Inteligencia Artificial Prácticas 2004/2005 4ta. Práctica Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta Inteligencia Artificial Prácticas 2004/2005 Decisiones Perfectas en Juegos de DOS Participantes Definición de Juego Estado Inicial:

Más detalles

CÁLCULO DE PROBABILIDADES

CÁLCULO DE PROBABILIDADES CÁLCULO DE PROBABILIDADES Tipo de asignatura: Troncal Anual. Créditos ECTS: 15 I.- INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES. (16 horas presenciales) Tema 1.- La naturaleza del cálculo de probabilidades.

Más detalles

Tema 12: Arboles de decisión

Tema 12: Arboles de decisión Razonamiento Automático Curso 2000 2001 Tema 12: Arboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Tema 9: Contraste de hipótesis.

Tema 9: Contraste de hipótesis. Estadística 84 Tema 9: Contraste de hipótesis. 9.1 Introducción. El objetivo de este tema es proporcionar métodos que permiten decidir si una hipótesis estadística debe o no ser rechazada, en base a los

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

(e) Con la poda alfa-beta se eliminan nodos que nunca serán alcanzados

(e) Con la poda alfa-beta se eliminan nodos que nunca serán alcanzados Universidad Rey Juan Carlos Curso 2014 2015 Hoja de Problemas Tema 5 1. Cuáles de las siguientes afirmaciones acerca del algoritmo Minimax son ciertas (a) El algoritmo Minimax realiza una exploración primero

Más detalles

(d) Puede haber estrategias que funcionan mejor que Minimax si el contrincante es

(d) Puede haber estrategias que funcionan mejor que Minimax si el contrincante es Universidad Rey Juan Carlos Curso 2014 2015 Hoja de Problemas Tema 5 1. Cuáles de las siguientes afirmaciones acerca del algoritmo Minimax son ciertas (a) El algoritmo Minimax realiza una exploración primero

Más detalles

Búsqueda en e.e. --> reglas para elegir entre las ramas que con más probabilidad lleven a la solución.

Búsqueda en e.e. --> reglas para elegir entre las ramas que con más probabilidad lleven a la solución. BÚSQUEDA HEURÍSTICA estudio de los métodos y reglas del descubrimiento y la invención. Búsqueda en e.e. --> reglas para elegir entre las ramas que con más probabilidad lleven a la solución. Situaciones

Más detalles

Aproximación evolutiva a la inducción constructiva basada en expresiones algebraicas

Aproximación evolutiva a la inducción constructiva basada en expresiones algebraicas Aproximación evolutiva a la inducción constructiva basada en expresiones algebraicas Manuel Baena García, Rafael Morales Bueno y Carlos Cotta Porras Workshop MOISES Septiembre 2004 1/15 Contenido Inducción

Más detalles

Tema 2. Introducción a la Estadística Bayesiana

Tema 2. Introducción a la Estadística Bayesiana 2-1 Tema 2 Introducción a la Estadística Bayesiana El teorema de Bayes Ejemplo Interpretación Ejemplo: influencia de la distribución a priori Ejemplo: densidad de flujo Probabilidad bayesiana Ejemplo:

Más detalles

UNIVERSIDAD MAYOR DE SAN SIMÓN FACULTAD DE CIENCIAS Y TECNOLOGÍA INGENIERÍA DE SISTEMAS BÚSQUEDA PRIMERO EL MEJOR

UNIVERSIDAD MAYOR DE SAN SIMÓN FACULTAD DE CIENCIAS Y TECNOLOGÍA INGENIERÍA DE SISTEMAS BÚSQUEDA PRIMERO EL MEJOR UNIVERSIDAD MAYOR DE SAN SIMÓN FACULTAD DE CIENCIAS Y TECNOLOGÍA INGENIERÍA DE SISTEMAS BÚSQUEDA PRIMERO EL MEJOR INTEGRANTES: Caricari Cala Aquilardo Villarroel Fernandez Fructuoso DOCENTE: Lic. Garcia

Más detalles

Tema 5. Muestreo y distribuciones muestrales

Tema 5. Muestreo y distribuciones muestrales 1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución

Más detalles

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith) INTERVALOS DE CONFIANZA La estadística en cómic (L. Gonick y W. Smith) EJEMPLO: Será elegido el senador Astuto? 2 tamaño muestral Estimador de p variable aleatoria poblacional? proporción de personas que

Más detalles

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso INDICE Capítulo I: Conceptos Básicos 1.- Introducción 3 2.- Definición de calidad 7 3.- Política de calidad 10 4.- Gestión de la calidad 12 5.- Sistema de calidad 12 6.- Calidad total 13 7.- Aseguramiento

Más detalles

Unidad IV: Distribuciones muestrales

Unidad IV: Distribuciones muestrales Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia

Más detalles

Aprendizaje: Boosting y Adaboost

Aprendizaje: Boosting y Adaboost Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo

Más detalles

Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos.

Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos. MATEMÁTICAS I Contenidos. Aritmética y álgebra: Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos. Resolución e interpretación gráfica de ecuaciones e

Más detalles

4. NÚMEROS PSEUDOALEATORIOS.

4. NÚMEROS PSEUDOALEATORIOS. 4. NÚMEROS PSEUDOALEATORIOS. En los experimentos de simulación es necesario generar valores para las variables aleatorias representadas estas por medio de distribuciones de probabilidad. Para poder generar

Más detalles

ALGORITMO MINIMAX. o Nodo: Representa una situación del juego. o Sucesores de un nodo: Situaciones del juego a las que se

ALGORITMO MINIMAX. o Nodo: Representa una situación del juego. o Sucesores de un nodo: Situaciones del juego a las que se ALGORITMO MINIMAX Algoritmo de decisión para minimizar la pérdida máxima aplicada en juegos de adversarios Información completa (cada jugador conoce el estado del otro) Elección del mejor movimiento para

Más detalles

1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo. Algoritmos genéticos

1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo. Algoritmos genéticos 1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo Algoritmos genéticos Introducción Propuestos por Holland, mediados 70, computación evolutiva Popularizados

Más detalles

UNLPam - Fac. Cs. Econ. y Jur.

UNLPam - Fac. Cs. Econ. y Jur. Bibliografía Anderson, Sweeney y Williams; Introducción a los modelos cuantitativos para Administración. Grupo Editorial Iberoamérica. Eppen, Gould, Schmidt, Moore, Weatherford; Investigación de Operaciones

Más detalles

Teoría de la decisión

Teoría de la decisión 1.- Un problema estadístico típico es reflejar la relación entre dos variables, a partir de una serie de Observaciones: Por ejemplo: * peso adulto altura / peso adulto k*altura * relación de la circunferencia

Más detalles

PLANES CURRICULARES GRADO9º/ 01 PERIODO

PLANES CURRICULARES GRADO9º/ 01 PERIODO PLANES CURRICULARES GRADO9º/ 01 PERIODO Grado: 9º Periodo: 01 PRIMERO Aprobado por: G. Watson - Jefe Sección Asignatura: MATEMATICAS Profesor: Gloria rueda y Jesús Vargas ESTANDARES P.A.I. I.B. A. Conocimiento

Más detalles

Análisis de Decisiones II. Tema 17 Generación de números al azar. Objetivo de aprendizaje del tema

Análisis de Decisiones II. Tema 17 Generación de números al azar. Objetivo de aprendizaje del tema Tema 17 Generación de números al azar Objetivo de aprendizaje del tema Al finalizar el tema serás capaz de: Obtener números aleatorios a partir de un proceso de generación. Validar las características

Más detalles

TEMARIO: CONTENIDOS, OBJETIVOS MÍNIMOS Y TIEMPO.

TEMARIO: CONTENIDOS, OBJETIVOS MÍNIMOS Y TIEMPO. TEMARIO: CONTENIDOS, OBJETIVOS MÍNIMOS Y TIEMPO. Se han seleccionado unos bloques de contenidos que tienen la intención de aportar una formación matemática que sea suficiente para alcanzar los objetivos

Más detalles

Ejercicio 1(10 puntos)

Ejercicio 1(10 puntos) ESTADISTICA Y SUS APLICACIONES EN CIENCIAS SOCIALES. Segundo Parcial Montevideo, 4 de julio de 2015. Nombre: Horario del grupo: C.I.: Profesor: Ejercicio 1(10 puntos) La tasa de desperdicio en una empresa

Más detalles

El Juego como Problema de Búsqueda

El Juego como Problema de Búsqueda El Juego como Problema de Búsqueda En este algoritmo identificamos dos jugadores: max y min. El objetivo es encontrar la mejor movida para max. Supondremos que max mueve inicialmente y que luego se turnan

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA 4 horas a la semana 8 créditos Semestre variable según la carrera Objetivo del curso: Analizar y resolver problemas de naturaleza aleatoria en la ingeniería, aplicando conceptos

Más detalles

1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA

1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA MODELO DE REGRESIÓN LOGÍSTICA Introducción A grandes rasgos, el objetivo de la regresión logística se puede describir de la siguiente forma: Supongamos que los individuos de una población pueden clasificarse

Más detalles

MÓDULO 1: GESTIÓN DE CARTERAS

MÓDULO 1: GESTIÓN DE CARTERAS MÓDULO 1: GESTIÓN DE CARTERAS TEST DE EVALUACIÓN 1 Una vez realizado el test de evaluación, cumplimenta la plantilla y envíala, por favor, antes del plazo fijado. En todas las preguntas sólo hay una respuesta

Más detalles

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN FUNDAMENTOS CURSO DE DOCTORADO Dr. Ramón García-Martínez * * * CONTEXTO La inteligencia de negocio propone un abordaje interdisciplinario que tomando:

Más detalles

Teorema de Bayes. mientras que B tiene una tasa de defectos del 4%.

Teorema de Bayes. mientras que B tiene una tasa de defectos del 4%. Teorema de Bayes Ejemplo: En una empresa manufacturera, una máquina A produce el 60% de la producción total, mientras que una máquina B el restante 40%. 71 El 2% de las unidades producidas por A son defectuosas,

Más detalles

Generalización como búsqueda. El problema de aprendizaje por generalización puede verse como un problema de búsqueda:

Generalización como búsqueda. El problema de aprendizaje por generalización puede verse como un problema de búsqueda: Generalización como búsqueda El problema de aprendizaje por generalización puede verse como un problema de búsqueda: El lenguaje de generalización corresponde a un espacio de hipótesis (espacio de búsqueda)

Más detalles

CONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS

CONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS Dpto. de Matemáticas IES Las Breñas 4º ESO OPCIÓN B CONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS 1: Números reales. Septiembre-2016 Números no racionales. Expresión decimal - Reconocimiento de algunos irracionales.

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

POBLACIÓN Y MUESTRAS EN LA INVESTIGACIÓN

POBLACIÓN Y MUESTRAS EN LA INVESTIGACIÓN POBLACIÓN Y MUESTRAS EN LA INVESTIGACIÓN Adela del Carpio Rivera Doctor en Medicina UNIVERSO Conjunto de individuos u objetos de los que se desea conocer algo en una investigación Población o universo

Más detalles

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos

Más detalles

4.12 Ciertos teoremas fundamentales del cálculo de probabilidades

4.12 Ciertos teoremas fundamentales del cálculo de probabilidades 1 de 9 15/10/2006 05:57 a.m. Nodo Raíz: 4. Cálculo de probabilidades y variables Siguiente: 4.14 Tests diagnósticos Previo: 4.10 Probabilidad condicionada e independencia de 4.12 Ciertos teoremas fundamentales

Más detalles

Análisis y Diseño de Algoritmos

Análisis y Diseño de Algoritmos Análisis y Diseño de Algoritmos Ordenamiento en Tiempo Lineal DR. JESÚS A. GONZÁLEZ BERNAL CIENCIAS COMPUTACIONALES INAOE Ordenamiento por Comparación (Comparison Sorts) Tiempo de ejecución HeapSort y

Más detalles

Complejidad computacional (Análisis de Algoritmos)

Complejidad computacional (Análisis de Algoritmos) Definición. Complejidad computacional (Análisis de Algoritmos) Es la rama de las ciencias de la computación que estudia, de manera teórica, la optimización de los recursos requeridos durante la ejecución

Más detalles

Capítulo 8. Análisis Discriminante

Capítulo 8. Análisis Discriminante Capítulo 8 Análisis Discriminante Técnica de clasificación donde el objetivo es obtener una función capaz de clasificar a un nuevo individuo a partir del conocimiento de los valores de ciertas variables

Más detalles

CM0244. Suficientable

CM0244. Suficientable IDENTIFICACIÓN NOMBRE ESCUELA ESCUELA DE CIENCIAS NOMBRE DEPARTAMENTO Ciencias Matemáticas ÁREA DE CONOCIMIENTO MATEMATICAS, ESTADISTICA Y AFINES NOMBRE ASIGNATURA EN ESPAÑOL ESTADÍSTICA GENERAL NOMBRE

Más detalles

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción

Más detalles

Fase 2. Estudio de mercado: ESTADÍSTICA

Fase 2. Estudio de mercado: ESTADÍSTICA 1. CONCEPTO DE ESTADÍSTICA. ESTADÍSTICA DESCRIPTIVA 2. 3. TABLA DE FRECUENCIAS 4. REPRESENTACIONES GRÁFICAS 5. TIPOS DE MEDIDAS: A. MEDIDAS DE POSICIÓN B. MEDIDAS DE DISPERSIÓN C. MEDIDAS DE FORMA 1 1.

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

TEMARIOS PRUEBAS SEMESTRALES 2015 PRIMER SEMESTRE DEPARTAMENTO DE MATEMÁTICA

TEMARIOS PRUEBAS SEMESTRALES 2015 PRIMER SEMESTRE DEPARTAMENTO DE MATEMÁTICA Saint Gaspar College Misio nero s de la Precio sa Sangre F o r m a n d o P e r s o n a s Í n t e g r a s TEMARIOS PRUEBAS SEMESTRALES 2015 PRIMER SEMESTRE DEPARTAMENTO DE MATEMÁTICA NIVEL FECHA *TEMARIO*

Más detalles

INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 29 de Abril de 2016

INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 29 de Abril de 2016 ANEXO ESTADÍSTICO 1 : COEFICIENTES DE VARIACIÓN Y ERROR ASOCIADO AL ESTIMADOR ENCUESTA NACIONAL DE EMPLEO (ENE) INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 9 de Abril de 016 1 Este anexo estadístico es una

Más detalles

6.4. APLICACIÓN DE REDES NEURONALES EN EL CÁLCULO DE LA TASA DE CONTORNEAMIENTOS Velocidad de retorno del rayo con distribución uniforme

6.4. APLICACIÓN DE REDES NEURONALES EN EL CÁLCULO DE LA TASA DE CONTORNEAMIENTOS Velocidad de retorno del rayo con distribución uniforme Aplicación de redes neuronales en el cálculo de sobretensiones y tasa de contorneamientos 233 6.4. APLICACIÓN DE REDES NEURONALES EN EL CÁLCULO DE LA TASA DE CONTORNEAMIENTOS 6.4.1. Introducción Como ya

Más detalles

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4 PS0401 - Probabilidad y Estadística DES: Ingeniería Programa(s) Educativo(s): Ingeniería de Software Tipo de materia: Obligatoria Clave de la materia: PS0401 Cuatrimestre: 4 UNIVERSIDAD AUTÓNOMA DE Área

Más detalles

Teoría de la Decisión: Decisión con incertidumbre y riesgo. Begoña Vitoriano Villanueva

Teoría de la Decisión: Decisión con incertidumbre y riesgo. Begoña Vitoriano Villanueva Teoría de la Decisión: Decisión con incertidumbre y riesgo Begoña Vitoriano Villanueva Teoría de la decisión: Introducción Decisión: elegir lo mejor entre lo posible Definir lo mejor y lo posible Lo mejor:

Más detalles

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua ESTADÍSTICA Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal Cuantitativa discreta continua DISTRIBUCIÓN DE FRECUENCIAS Frecuencia absoluta: fi Frecuencia relativa:

Más detalles

El Algoritmo E-M. José Antonio Camarena Ibarrola

El Algoritmo E-M. José Antonio Camarena Ibarrola El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas

Más detalles

Árboles. Un grafo no dirigido es un árbol si y sólo si existe una ruta unica simple entre cualquiera dos de sus vértices.

Árboles. Un grafo no dirigido es un árbol si y sólo si existe una ruta unica simple entre cualquiera dos de sus vértices. ÁRBOLES Árboles Un grafo conectado que no contiene circuitos simples. Utilizados desde 1857, por el matemático Ingles Arthur Cayley para contar ciertos tipos de componentes químicos. Un árbol es un grafo

Más detalles

Derivadas Parciales (parte 2)

Derivadas Parciales (parte 2) 40 Derivadas Parciales (parte 2) Ejercicio: Si donde y. Determinar Solución: Consideraremos ahora la situación en la que, pero cada una de las variables e es función de dos variables y. En este caso tiene

Más detalles

CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS 1 POR QUÉ SE LLAMAN CONTRASTES NO PARAMÉTRICOS? A diferencia de lo que ocurría en la inferencia paramétrica, ahora, el desconocimiento de la población que vamos

Más detalles

Se inicia con las especificaciones del módulo fotovoltaico.

Se inicia con las especificaciones del módulo fotovoltaico. Con base en las especificaciones técnicas del inversor SB 3000U y de un módulo fotovoltaico de 175 watts, indicar los valores los parámetros característicos requeridos para el dimensionamiento del sistema.

Más detalles

CONTENIDOS MÍNIMOS BLOQUE 2. NÚMEROS

CONTENIDOS MÍNIMOS BLOQUE 2. NÚMEROS CONTENIDOS Y CRITERIOS DE EVALUACIÓN DE MATEMÁTICAS 1º DE ESO. Bloque 1: Contenidos Comunes Este bloque de contenidos será desarrollado junto con los otros bloques a lo largo de todas y cada una de las

Más detalles

(b) Cuál es la desventaja principal de una heurística con aprendizaje? es más informada que otra función heurística optimista h 2 *?

(b) Cuál es la desventaja principal de una heurística con aprendizaje? es más informada que otra función heurística optimista h 2 *? UNIVERIDD REY JUN CRLO CURO 0-0 INTELIGENCI RTIFICIL Hoja de Problemas Tema Ejercicio : Conteste a las siguientes preguntas: (a) Cómo funciona una heurística con aprendizaje? olución: Una heurística con

Más detalles

Introducción a las RdP. Optimización basada en redes de Petri. Redes de Petri. Son objeto de estudio: RdP. Ejemplos:

Introducción a las RdP. Optimización basada en redes de Petri. Redes de Petri. Son objeto de estudio: RdP. Ejemplos: Seminario sobre toma de decisiones en logística y cadenas de suministro Introducción a las RdP Optimización basada en redes de Petri https://belenus.unirioja.es/~emjimene/optimizacion/transparencias.pdf

Más detalles

UNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE INGENIERÍA. práctica, Total: 85 Horas a la semana: 5 teoría: 4 prácticas: 1 Créditos:

UNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE INGENIERÍA. práctica, Total: 85 Horas a la semana: 5 teoría: 4 prácticas: 1 Créditos: UNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE INGENIERÍA Probabilidad y Estadística 18/01/10 Clave: 214 Semestre: 1 Duración del curso: semanas: 17 horas: 68 de teoría y 17 de práctica, Total: 85 Horas

Más detalles

CAPÍTULO 4 TÉCNICA PERT

CAPÍTULO 4 TÉCNICA PERT 54 CAPÍTULO 4 TÉCNICA PERT Como ya se mencionó en capítulos anteriores, la técnica CPM considera las duraciones de las actividades como determinísticas, esto es, hay el supuesto de que se realizarán con

Más detalles

Técnicas de validación estadística Bondad de ajuste

Técnicas de validación estadística Bondad de ajuste Técnicas de validación estadística Bondad de ajuste Georgina Flesia FaMAF 28 de mayo, 2013 Pruebas de bondad de ajuste Dado un conjunto de observaciones, de qué distribución provienen o cuál es la distribución

Más detalles

UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA SUR. Ingeniería Aplicada TEÓRICA SERIACIÓN 100% DE OPTATIVAS DISCIPLINARIAS

UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA SUR. Ingeniería Aplicada TEÓRICA SERIACIÓN 100% DE OPTATIVAS DISCIPLINARIAS UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA SUR DEPARTAMENTO ACADÉMICO DE SIS COMPUTACIONALES INGENIERÍA EN TECNOLOGÍA COMPUTACIONAL ASIGNATURA Algoritmo Genéticos ÁREA DE Ingeniería Aplicada CONOCIMIENTO

Más detalles

Resolución de problemas de búsqueda

Resolución de problemas de búsqueda Resolución de problemas de búsqueda Memoria de Prácticas de Segunda Entrega 26 de noviembre de 2007 Autores: Mariano Cabrero Canosa cicanosa@udc.es Elena Hernández Pereira elena@udc.es Directorio de entrega:

Más detalles

Para definir en formalmente el juego se deberá establecer:

Para definir en formalmente el juego se deberá establecer: INTRODUCCION A LA INTELIGENCIA ARTIFICIAL MÓDULO 5- JUEGOS COMO PROBLEMA DE BÚSQUEDA Referencias: Inteligencia Artificial Russell and Norvig Cap.5. Artificial Intellingence Nils Nilsson Ch.3 Se trata el

Más detalles

Unidad 1: Probabilidad

Unidad 1: Probabilidad Cuál es la probabilidad de aprobar Introducción a la Probabilidad y Estadística? - - Introducción a la Probabilidad y Estadística Unidad 1: Probabilidad Cuál es la probabilidad de no encontrarme un embotellamiento

Más detalles

Preliminares Interpolación INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL

Preliminares Interpolación INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL Contenido Preliminares 1 Preliminares Teorema 2 Contenido Preliminares Teorema 1 Preliminares Teorema 2 Teorema Preliminares Teorema Teorema: Serie de Taylor Supongamos

Más detalles

Contrastes de hipótesis. 1: Ideas generales

Contrastes de hipótesis. 1: Ideas generales Contrastes de hipótesis 1: Ideas generales 1 Inferencia Estadística paramétrica población Muestra de individuos Técnicas de muestreo X 1 X 2 X 3.. X n Inferencia Estadística: métodos y procedimientos que

Más detalles

Definición 1.1 Sea G = (V, A) un grafo no dirigido. G se denomina árbol si es conexo y no contiene ciclos.

Definición 1.1 Sea G = (V, A) un grafo no dirigido. G se denomina árbol si es conexo y no contiene ciclos. Matemática Discreta y Lógica 2 1. Árboles Árboles Definición 1.1 Sea G = (V, A) un grafo no dirigido. G se denomina árbol si es conexo y no contiene ciclos. Como un lazo es un ciclo de longitud 1, un árbol

Más detalles

RELACIÓN DE PROBLEMAS DE CLASE DE PROGRAMACIÓN LINEAL ENTERA

RELACIÓN DE PROBLEMAS DE CLASE DE PROGRAMACIÓN LINEAL ENTERA RELACIÓN DE PROBLEMAS DE CLASE DE PROGRAMACIÓN LINEAL ENTERA SIMPLEX Y LINEAL ENTERA a Resuelve el siguiente problema con variables continuas positivas utilizando el método simple a partir del vértice

Más detalles

PROBABILIDAD Y ESTADISTICA

PROBABILIDAD Y ESTADISTICA PLAN DE ESTUDIOS 2008 LICENCIADO EN INFORMÁTICA FACULTAD DE CONTADURÍA, ADMINISTRACIÓN E INFORMÁTICA ASIGNATURA: PROBABILIDAD Y ESTADISTICA ÁREA DEL MATEMÁTICAS CLAVE: I2PE1 CONOCIMIENTO: ETAPA FORMATIVA:

Más detalles

Ejemplo: El problema de la mochila. Algoritmos golosos. Algoritmos y Estructuras de Datos III. Segundo cuatrimestre 2013

Ejemplo: El problema de la mochila. Algoritmos golosos. Algoritmos y Estructuras de Datos III. Segundo cuatrimestre 2013 Técnicas de diseño de algoritmos Algoritmos y Estructuras de Datos III Segundo cuatrimestre 2013 Técnicas de diseño de algoritmos Algoritmos golosos Backtracking (búsqueda con retroceso) Divide and conquer

Más detalles

Índice. Resumen 15 Motivación 15 Desarrollos y aportes 16 Publicaciones derivadas de esta tesis doctoral 19

Índice. Resumen 15 Motivación 15 Desarrollos y aportes 16 Publicaciones derivadas de esta tesis doctoral 19 Índice Resumen 15 Motivación 15 Desarrollos y aportes 16 Publicaciones derivadas de esta tesis doctoral 19 Capítulo 1. Introducción a la Minería de Datos 21 1. Minería de datos 21 1.1. Tipos de datos 24

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis Facultad de Ciencias Sociales, UdelaR Índice 1. Introducción: hipótesis estadística, tipos de hipótesis, prueba de hipótesis 2.

Más detalles

Tema 5 Algunas distribuciones importantes

Tema 5 Algunas distribuciones importantes Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos

Más detalles

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 TEMAS A ESTUDIAR En esta guía nos dedicaremos a estudiar el tema de Estimación por intervalo y comenzaremos a estudiar las pruebas de hipótesis paramétricas.

Más detalles

Estado 3.2 (coste = 9)

Estado 3.2 (coste = 9) Búsqueda heurística Fernando Berzal, berzal@acm.org Búsqueda heurística Búsqueda primero el mejor p.ej. búsqueda de coste uniforme [UCS] Heurísticas Búsqueda greedy El algoritmo A* Heurísticas admisibles

Más detalles

Pruebas de Hipótesis. Diseño Estadístico y Herramientas para la Calidad. Pruebas de Hipótesis. Hipótesis

Pruebas de Hipótesis. Diseño Estadístico y Herramientas para la Calidad. Pruebas de Hipótesis. Hipótesis Diseño Estadístico y Herramientas para la Calidad Pruebas de Hipótesis Expositor: Dr. Juan José Flores Romero juanf@umich.mx http://lsc.fie.umich.mx/~juan M. en Calidad Total y Competitividad Pruebas de

Más detalles

13. Utilizar la fórmula del término general y de la suma de n términos consecutivos

13. Utilizar la fórmula del término general y de la suma de n términos consecutivos Contenidos mínimos 3º ESO. 1. Contenidos. Bloque I: Aritmética y álgebra. 1. Utilizar las reglas de jerarquía de paréntesis y operaciones, para efectuar cálculos con números racionales, expresados en forma

Más detalles

MODULO VIII. Semana 1 ASPECTOS DE EVALUACIÓN FINANCIERA, ECONÓMICA, SOCIAL Y AMBIENTAL.

MODULO VIII. Semana 1 ASPECTOS DE EVALUACIÓN FINANCIERA, ECONÓMICA, SOCIAL Y AMBIENTAL. MODULO VIII Semana 1 ASPECTOS DE EVALUACIÓN FINANCIERA, ECONÓMICA, SOCIAL Y AMBIENTAL Esquema de Proyecto SNIP INDICE INTRODUCCION I. ASPECTOS GENERALES II. IDENTIFICACION III. FORMULACION IV. EVALUACION

Más detalles