Inducción de Árboles de Decisión ID3, C4.5
|
|
- Milagros Susana Soler Gutiérrez
- hace 6 años
- Vistas:
Transcripción
1 Inducción de Árboles de Decisión ID3, C4.5
2 Contenido 1. Representación mediante árboles de decisión 2. Algoritmo básico: divide y vencerás 3. Heurística para la selección de atributos 4. Espacio de búsqueda y bias inductivo 5. Sobreajuste 6. Mejoras a ID3 7. Poda de árboles: C Interpretación geométrica aprendizaje con árboles 9. Conclusiones y ejemplos de aplicación Inducción de árboles de decisión 2
3 1. Representación mediante árboles de decisión Descripción de instancias: pares atributo/valor Árbol de decisión Nodos no terminales: test Arcos: valores Nodos terminales: clase de decisión Clasificación instancias no vistas Recorrer árbol de decisión Inducción de árboles de decisión 3
4 Árbol de decisión Concepto: Riesgo en la concesión de crédito Ingresos 0 a 2 2 a 5 más de 5 Alto Historia Historia Desconocida Mala Buena Desconocida Mala Buena Deuda Alto Moderado Bajo Moderado Bajo Alta Alto Baja Moderado Inducción de árboles de decisión 4
5 Espacio de hipótesis Si clase de decisión binaria Cada árbol de decisión representa una función booleana Espacio de hipótesis: Conjunto de todos los árboles de decisión o de todas las funciones booleanas Tamaño espacio de hipótesis Suponiendo atributos binarios n atributos H = 2 2n funciones booleanas distintas Inducción de árboles de decisión 5
6 Tarea inducción de árboles de decisión Dados Descripción de Instancias, X, (atributos, valores) Descripción de las Hipótesis, H (espacio de árboles de decisión) Concepto objetivo, c : X {0,1} Ejemplos positivos y negativos, D, pares (<x, c(x)>) Determinar Hipótesis h de H / h(x) = c(x) para todo x de X Inducción de árboles de decisión 6
7 Datos para aplicaciones de concesión de créditos Nº Riesgo Historia Deuda Avales Ingresos 1 alto mala alta no 0 a 2M 2 alto desconocida alta no 2 a 5M 3 moderado desconocida baja no 2 a 5M 4 alto desconocida baja no 0 a 2M 5 bajo desconocida baja no más de 5M 6 bajo desconocida baja adecuados más de 5M 7 alto mala baja no 0 a 2M 8 moderado mala baja adecuados más de 5M 9 bajo buena baja no más de 5M 10 bajo buena alta adecuados más de 5M 11 alto buena alta no 0 a 2M 12 moderado buena alta no 2 a 5M 13 bajo buena alta no más de 5M 14 alto mala alta no 2 a 5M Inducción de árboles de decisión 7
8 Árbol de decisión Historia Desconocida Mala Buena Deuda Avales Deuda Alta Baja No Adecuados Alta Baja Alto Avales Alto Moderado Avales Bajo No Adecuados No Adecuados Ingresos Bajo Ingresos Bajo 0 a 2 2 a 5 más de 5 0 a 2 2 a 5 más de 5 Alto Moderado Bajo Alto Moderado Bajo Inducción de árboles de decisión 8
9 Árbol de decisión más simple Ingresos 0 a 2 2 a 5 más de 5 Alto Historia Historia Desconocida Mala Buena Desconocida Mala Buena Deuda Alto Moderado Bajo Moderado Bajo Alta Alto Baja Moderado Inducción de árboles de decisión 9
10 2. Algoritmo básico: divide y vencerás Inducción analítica (top-down) de árboles de decisión PROCEDIMIENTO Inducir_Arbol(Ejemplos, Atributos) BEGIN SI todos los elementos de Ejemplos pertenecen a la misma clase ENTONCES devolver un nodo hoja con la clase; SINO SI Atributos está vacío ENTONCES devolver nodo hoja con disyunción de clases de Ejemplos; SINO SI Ejemplos está vacío ENTONCES devolver un nodo hoja etiquetado desconocido ; SINO BEGIN seleccionar un atributo A como raíz del árbol actual; eliminar A de Atributos; PARA CADA valor V de A, BEGIN crear una rama del árbol etiquetada con V; sea particion_v elementos de Ejemplos con valor V en atributo A; colocar rama V resultado de Inducir_Arbol(particion_V, Atributos); END; END; END Inducción de árboles de decisión 10
11 3. Heurística para la selección de atributos Atributo más útil para la clasificación? Elegir atributo cuyo conocimiento aporte mayor información desde la perspectiva de clasificación Quinlan, ID3 y sucesores: heurística basada en teoría de información Inducción de árboles de decisión 11
12 Selección de atributos Qué atributo es mejor? 6+, 4-6+, 4- atributo A atributo B 5+, 1-1+, 3-3+, 1-3+, 3- Inducción de árboles de decisión 12
13 Fundamentos teoría información Universo mensajes M={m 1, m m n } con probabilidad p(m i ), i=1, n Información que aporta la recepción de un mensaje I(M)=- i=1 n p(m i )log 2 (p(m i )) Inducción de árboles de decisión 13
14 Heurística teoría información Considerar la clasificación obtenida por un árbol como un mensaje Estimar el contenido de información a priori, I(D) contenido de información de un mensaje que proporciona la clasificación de un ejemplo del conjunto de entrenamiento, D, sin conocer el valor de sus atributos Estimar el contenido de información a posteriori, o resto, Resto(A) Como antes, pero una vez conocido el valor del atributo A Seleccionar el atributo A que maximice la ganancia de información Ganancia(D, A) = I(D) Resto(A) Inducción de árboles de decisión 14
15 Información a priori I(D) Estimar la probabilidad de cada clase por la frecuencia de aparición en D Inducción de árboles de decisión 15
16 Información a posteriori Resto(A) Estimar la información promediando la estima para cada posible valor Conocemos atributo A, con K posibles valores K particiones de D, según valor de A D i : partición i-esima conjunto D Resto(A)= i=1 k D i / D I(D i ) Inducción de árboles de decisión 16
17 Datos para aplicaciones de concesión de créditos Nº Riesgo Historia Deuda Avales Ingresos 1 alto mala alta no 0 a 2M 2 alto desconocida alta no 2 a 5M 3 moderado desconocida baja no 2 a 5M 4 alto desconocida baja no 0 a 2M 5 bajo desconocida baja no más de 5M 6 bajo desconocida baja adecuados más de 5M 7 alto mala baja no 0 a 2M 8 moderado mala baja adecuados más de 5M 9 bajo buena baja no más de 5M 10 bajo buena alta adecuados más de 5M 11 alto buena alta no 0 a 2M 12 moderado buena alta no 2 a 5M 13 bajo buena alta no más de 5M 14 alto mala alta no 2 a 5M Inducción de árboles de decisión 17
18 Evaluación de la GANANCIA sobre el ejemplo riesgo alto moderado bajo frecuencias 6/14 3/14 5/14 I(D) = - 6/14log 2 (6/14) - 3/14log 2 (3/14) - 5/14log 2 (5/14) = - 6/14 *(-1.222) -3/14*(-2.222) -5/14*(-1.485) = bits GANANCIA(D, Ingresos)= I(D) - Resto(Ingresos) Resto(Ingresos) C 1 ={1, 4, 7, 11} C 2 ={2, 3, 12, 14} C 3 ={5, 6, 8, 9, 10, 13} Resto(Ingresos) = 4/14*I(C 1 ) + 4/14*I(C 2 ) + 6/14*I(C 3 ) = = 4/14*0 + 4/14*1 + 6/14*0.650 = = bits GANANCIA(D, Ingresos) = bits GANANCIA(D, Historia) =0.266 bits GANANCIA(D, Deuda) = bits GANANCIA(D, Avales) = bits Inducción de árboles de decisión 18
19 4. Espacio de búsqueda y bias inductivo Espacio de hipótesis: Conjunto de todos los árboles de decisión o de todas las funciones booleanas Tamaño espacio de hipótesis Suponiendo atributos binarios n atributos H = 2 2n funciones booleanas distintas ID3 realiza una búsqueda voraz, escalada, en la dirección de los árboles más simples a los más complejos Inducción de árboles de decisión 19
20 Bias BPA-ID3 BPA-ID3: Primero en anchura, partiendo de árbol vacío, incrementando profundidad Encuentra árbol de menor profundidad consistente con D Bias BPA-ID3 Preferir el árbol de menor profundidad. Inducción de árboles de decisión 20
21 Bias ID3 ID3: aproximación eficiente a BPA-ID3 Búsqueda heurística voraz, escalada No garantiza árbol de menor profundidad Tiende a encontrar árboles sencillos Aproximación al bias inductivo de ID3 Preferir árboles de menor profundidad. Preferir árboles que sitúan atributos que aportan más información cerca de la raíz Inducción de árboles de decisión 21
22 Bias restrictivos /de preferencia Algoritmo de eliminación de candidatos Espacio de hipótesis incompleto (por el lenguaje de representación de hipótesis elejido) Busqueda exhaustiva en el espacio de hipótesis ID3 Espacio de hipótesis completo Búsqueda heurística (incompleta): la heurística de selección de atributos impone un orden en la búsqueda de hipótesis Inducción de árboles de decisión 22
23 Por qué preferir árboles de menor profundidad? Navaja de Occam: preferir hipótesis más simples que explique los datos Árbol de decisión hipótesis más simple: árbol de menor profundidad Justificación adicional Es razonable esperar que las hipótesis más simples generalicen mejor (clasifique mejor los ejemplos no vistos) pues es razonable esperar que contengan menos atributos irrelevantes!validación experimental! ( más simple = más pequeña?) Inducción de árboles de decisión 23
24 5. Sobreajuste No siempre es una buena estrategia hacer crecer el árbol hasta que clasifique correctamente todos los ejemplo de entrenamiento Ruido en los ejemplos Podemos aprender el ruido! Pocos ejemplos Escasa descripción del concepto objetivo En ambos casos, mala generalización Inducción de árboles de decisión 24
25 Errores Error de resubstitución, e r (h) Error que comete una hipótesis sobre el conjunto de entrenamiento = ejemplos de D mal clasificados / D Error verdadero o error, e D (h) Error que comete la hipótesis sobre todo el espacio de instancias X, gobernado por la distribución de probabilidad D Inducción de árboles de decisión 25
26 Definición de sobreajuste Dado un espacio de hipótesis H, una hipótesis h H sobreajusta el conjunto de entrenamiento sii h H tal que e r (h) < e r (h ) e D (h) > e D (h ) Inducción de árboles de decisión 26
27 Impacto del sobreajuste Aplicación: aprendizaje del tipo de diabetes de los pacientes Inducción de árboles de decisión 27
28 Ejemplo sobreajuste Nº Riesgo Historia Deuda Avales Ingresos 1 alto mala alta no 0 a 2M 2 alto desconocida alta no 2 a 5M 3 moderado desconocida baja no 2 a 5M 4 alto desconocida baja no 0 a 2M 5 bajo desconocida baja no más de 5M 6 bajo desconocida baja adecuados más de 5M 7 alto mala baja no 0 a 2M 8 moderado mala baja adecuados más de 5M 9 bajo buena baja no más de 5M 10 bajo buena alta adecuados más de 5M 11 alto buena alta no 0 a 2M 12 moderado buena alta no 2 a 5M 13 bajo buena alta no más de 5M 14 alto mala alta no 2 a 5M Inducción de árboles de decisión 28
29 Ejemplo sobreajuste Ingresos 0 a 2 2 a 5 más de 5 Alto Historia Historia Desconocida Mala Buena Desconocida Mala Buena Deuda Alto Moderado Bajo Moderado Bajo Alta Alto Baja Moderado Inducción de árboles de decisión 29
30 Ejemplo sobreajuste Imaginar que añadimos un ejemplo etiquetado erróneamente como Riesgo=bajo (en vez de alto) al conjunto inicial de entrenamiento Nº Riesgo Historia Deuda Avales Ingresos 15 bajo mala alta adecuados 0 a 2M Inducción de árboles de decisión 30
31 Ejemplo sobreajuste Ingresos 0 a 2 2 a 5 más de 5 Avales Historia Historia Adecuados No Desconocida Mala Buena Desconocida Mala Buena Bajo Alto Deuda Alto Moderado Bajo Moderado Bajo Alta Alto Baja Moderado Inducción de árboles de decisión 31
32 Motivos sobreajuste Ruido en los datos Presencia de regularidades no relevantes en D Pocos datos Numerosos atributos Inducción de árboles de decisión 32
33 6. Mejoras a ID3 Dificultades en la inducción de árboles Atributos con valores continuos Atributos con valores desconocidos Atributos con numerosos valores Sobreajuste Inducción de árboles de decisión 33
34 Atributos con valores continuos Se puede discretizar dinámicamente, empleando la misma heurística utilizada para la selección de atributos Reemplazar los atributos continuos por atributos booleanos que se crean dinámicamente, introduciendo umbrales C A continuo A <c, T si a A < C Inducción de árboles de decisión 34
35 Discretización atributos continuos Presión Clase Selección de umbral, C: máxima ganancia Candidatos: valores adyacentes con distinta clase 54=(48+60)/2, 85=(80+90)/2 Para el ejemplo A >54 El nuevo atributo compite con los restantes Una vez seleccionado, son posibles discretizaciones posteriores En el ejemplo, solo A >85 Inducción de árboles de decisión 35
36 Atributos con valores desconocidos En muchos dominios, es frecuente no disponer de los valores de algún(os) atributo(s) para todos los ejemplos Solución: estimar el valor del atributo en base a los ejemplos para los cuales el atributo tiene valores conocidos Alternativas Valor más común en nodo actual Valor más común en nodo actual entre ejemplos de su misma clase Asignar probabilidades a partir de las frecuencias en nodo actual Inducción de árboles de decisión 36
37 Aproximación probabilística Modificación construcción Generalizar cardinalidad a suma de probabilidades de pertenencia a la partición Modificar definición Ganancia(D,A) = F * (I(D)- Resto(A)), siendo F el porcentaje de ejemplos con valor conocido para el atributo A Si se selecciona el atributo, asignar probabilidades a las ramas Clasificación Examinar todas las ramas para atributos con valor desconocido, obteniendose valor más probable (sumando prob. nodos hoja alcanzados) Inducción de árboles de decisión 37
38 Atributos con numerosos valores La heurística de la ganancia favorece la selección de atributos con muchos valores generan muchas particiones con pocos ejemplos de pocas clases Consecuencia: conocer el valor del atributo tiende a maximizar la ganancia Ejemplo patológico: añadir atributo DNI al ejemplo de concesión de créditos El atributo DNI proporciona la máxima ganancia de información: predice perfectamente el riesgo de los ejemplos de D Genera un árbol con un único test y profundidad 1, con un nodo hoja por cada ejemplo Capacidad de generalización nula Inducción de árboles de decisión 38
39 Razón de ganancia Estimación de la información generada al dividir D en k particiones? Atributo A con k posibles valores Información media de un mensaje que indique el valor del atributo A de un ejemplo: IDivisión(D, A)= - k D i / D * log 2 ( D i / D ) i=1 Esta expresión proporciona la información generada al dividir D en k subconjuntos Razón de Ganancia RG(D, A)= Ganancia(D, A)/IDivision(D, A) Inducción de árboles de decisión 39
40 Comportamiento Razón de Ganancia Penaliza atributos con numerosos valores y ejemplos distribuidos uniformemente n valores, 1 ejemplo por valor: IDivisión= log 2 n 2 valores, n/2 ejemplos cada valor: IDivision= 1 Dificultad si algún D i ~ D : IDivisión 0 Inducción de árboles de decisión 40
41 7. Poda de árboles: C4.5 ID3 tiende a general árboles complicados que sobreajustan los datos Ejemplo patológico 10 atributos, valores binarios, probabilidad 0.5 clase binaria, SI probabilidad 0.25, NO probabilidad 0.75 N=1000, ET 500, EP 500 produce árbol con 119 nodos y tasa error 35% un árbol, con una única hoja, NO, tendría un error esperado del 25% Inducción de árboles de decisión 41
42 Simplificación de Árboles Métodos de simplificación prepoda: no subdividir ejemplos según algún criterio inconveniente: no se sabe cual es el mejor criterio poda: reemplazar subárboles por una hoja o una de sus ramas mayor coste computacional, pero mejores resultados Inducción de árboles de decisión 42
43 Métodos de poda basados en el error Utilizan una estimación de la tasa de error de un árbol para realizar la poda comenzando por las hojas, examinar los subárboles de los nodos no terminales reemplazar cada subárbol por el nodo terminal o la rama que clasifique más casos, si esto mejora la tasa de error del subárbol como la estimación del error de un árbol disminuye al disminuir la tasa de error de cada uno de sus subárboles, este proceso genera un árbol cuya estimación de la tasa de error es minimal respecto a las distintas formas de poda Inducción de árboles de decisión 43
44 Métodos de poda basados en el error Observar que la poda del árbol siempre incrementa la tasa de error del árbol calculada sobre los ejemplos de entrenamiento Distintas familias de técnicas según el método de estimación de errores Entrenamiento y validación Métodos pesimistas Inducción de árboles de decisión 44
45 Poda mediante entrenamiento y validación Separar D en tres conjuntos disjuntos T, conjunto de entrenamiento V, conjunto de validación P, conjunto para prueba (estimación del error) Crear árbol con T, hasta valor mínimo e r Podar árbol hasta que la estimación de e D, según V, empeore Inducción de árboles de decisión 45
46 Efecto de la poda mediante entrenamiento y validación Inducción de árboles de decisión 46
47 Inconvenientes de la poda mediante entrenamiento y validación Se precisa un número elevado de datos por la necesidad de usar tres conjuntos disjuntos Alternativa: evitar el uso de V para guiar la poda Método pesimista (Quinlan 87): se basan en reemplazar subárbol por hoja si una estimación pesimista del error en la hoja es mejor que la estimación pesimista del error del subárbol Inducción de árboles de decisión 47
48 C4.5 Método de inducción de árboles basado en ID3 Mejoras para atributos continuos, desconocidos, con múltiples valores Poda pesimista Generación de reglas Última versión: C4.8 (implementado en WEKA como J4.8) Inducción de árboles de decisión 48
49 Estimación del error Suponer que la observación de E errores en N ejemplos sigue un distribución binomial Experimento base: cometer un error al clasificar un ejemplo Probabilidad: tasa de error del clasificador Observación disponible: E errores cometidos al clasificar N ejemplos de entrenamiento Fijado un nivel de confianza, c%, la distribución binomial proporciona el intervalo de confianza de la probabilidad del experimento base Inducción de árboles de decisión 49
50 Estimación pesimista del error Uc(E,N):extremo superior del intervalo de confianza Estimar el error al clasificar instancia no vista por Uc(E,N) sobre el conjunto de entrenamiento Suponer que cada hoja clasifica tantas instancias como ejemplos de entrenamiento Estimación error: N*Uc(E,N) Estimación error subárbol: suma estimación ramas Inducción de árboles de decisión 50
51 Votación congreso: árbol sin podar Inducción de árboles de decisión 51
52 Ejemplo poda Suponer subárbol education spending=no : democrat (6) education spending=yes: democrat (9) education spending=no: republican(1) Estimación del error: 6*U 25 (0, 6)+9*U 25 (0,9)+1*U 25 (0,1)= * * *0.750=3.273 Si reemplazamos el subárbol por una única hoja, etiquetada DEMOCRAT, se comete un único error y su estimación es: 16*U 25 (1,16)=16*0.175=2.512 Según este criterio, se realizaría la poda Inducción de árboles de decisión 52
53 Votación congreso: árbol podado Inducción de árboles de decisión 53
54 Interpretación geométrica del aprendizaje en árboles (I) Descripción ejemplos: vector de características Ejemplo: punto en espacio N-dimensional (N atributos) Interpretación geométrica del aprendizaje: dividir el espacio en regiones etiquetadas con una sola clase Clasificación ejemplos no vistos: según región en que se sitúen En el caso de los árboles: hiperrectangulos Inducción de árboles de decisión 54
55 Ejemplo interpretación geométrica (I) Suponer dos atributos X, Y continuos, discretizados (X < C, Y < C`) Cada test: hiperplano ortogonal al eje del atributo C` C Inducción de árboles de decisión 55
56 Ejemplo interpretación geométrica (II) Concepto objetivo: suponer recta pendiente no nula C` C Inducción de árboles de decisión 56
57 Ejemplo interpretación geométrica (III) Cuando no usar árboles Regiones con baja densidad de puntos: mucha holgura para determinar fronteras Regiones con puntos de distintas clases: distribución probabilística que no se representa bien con un árbol C` C Inducción de árboles de decisión 57
58 Conclusiones Método robusto y transportable a distintas tareas Comparable a redes de neuronas, como clasificador Árboles: menor coste computacional, conocimiento explicito Redes: mayor precisión Adecuados si Se buscan conceptos disyuntivos Se requiere conocimiento explícito Ruido (poda) Inducción de árboles de decisión 58
59 Ejemplos de aplicación Quinlan, 79, ID3, finales de ajedrez 1,4 millones posiciones, 49 atributos binarios: 715 configuraciones distintas Entrenamiento 20%, aleatorio Tasa acierto: 84% Induction of decision trees, Machine learning, 1, , 1986 Inducción de árboles de decisión 59
60 Ejemplos de aplicación Soybean (semillas de soja) R.S. Michalski and R.L. Chilausky, 1980 Diagnosis de enfermedades en las semillas de soja 19 clases (15 significativas) 35 atributos 307 Instancias Tasa error 11% (C4.5) J.W. Shavlik, R.J. Mooney, and G.G. Towell. Symbolic and neural learning algorithms: an experimental comparison, machine learning. Machine Learning, 6(2): , 1991 Inducción de árboles de decisión 60
61 Ejemplos de aplicación Quinlan, hipotiroides, principio 80 varios miles ejemplo 7 atributos continuos, 23 discretos 3-8 clases Tasa error < 1% Quinlan J. R. Comparing connectionist and symbolic learning methods. In: Rivest R. L. ed. Computational Learning Theory and Natural Learning Systems, vol.1, Cambridge, MA: MIT Press, 1994, pp Inducción de árboles de decisión 61
62 Ejemplo actual Console, Picardi, Theseider. Temporal Decision Trees: Model-based Diagnosis of Dynamic Systems On-Board. Journal of Artificial Intelligence Research 19 (2003) Árboles de decisión con restricciones temporales Aplicación: Diagnosis on board para automóviles Inducidos a partir de ejemplos generados mediante técnicas de diagnosis basada en modelos Inducción de árboles de decisión 62
ALGORITMO ID3. Objetivo
ALGORITMO ID3 Desarrollado por J. Ross Quinlan en 1983. ID3 significa Induction Decision Trees. Pertenece a la familia TDIDT (Top- Down Induction of Decision Trees). Objetivo Construir un árbol de decisión
Más detallesProyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.
Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Funcionamiento: Se realiza un test en cada nodo interno del árbol, a medida que
Más detallesAprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Más detallesTécnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar
Más detallesMétodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013
Métodos de Clasificación sin Métrica Reconocimiento de Patrones- 03 Métodos de Clasificación sin Métrica Datos nominales sin noción de similitud o distancia (sin orden). Escala nominal: conjunto de categorías
Más detallesCRITERIOS DE SELECCIÓN DE MODELOS
Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,
Más detallesMétodos basados en instancias. K-vecinos, variantes
Métodos basados en instancias K-vecinos, variantes Contenido 1. Caracterización 2. K-vecinos más próximos 3. Mejoras al algoritmo básico 4. Bibliografía 2 1. Caracterización Forma más sencilla de aprendizaje:
Más detallesCómo se usa Data Mining hoy?
Cómo se usa Data Mining hoy? 1 Conocer a los clientes Detectar segmentos Calcular perfiles Cross-selling Detectar buenos clientes Evitar el churning, attrition Detección de morosidad Mejora de respuesta
Más detallesAprendizaje automático mediante árboles de decisión
Aprendizaje automático mediante árboles de decisión Aprendizaje por inducción Los árboles de decisión son uno de los métodos de aprendizaje inductivo más usado. Hipótesis de aprendizaje inductivo: cualquier
Más detallesBúsqueda con adversario
Introducción Búsqueda con adversario Uso: Decidir mejor jugada en cada momento para cierto tipo de juegos Hay diferentes tipos de juegos según sus características: Numero de jugadores, toda la información
Más detallesAprendizaje basado en ejemplos.
Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor
Más detallesMinería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria
Minería de Datos Árboles de Decisión Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Otoño de 2012 Twenty questions Intuición sobre los árboles de decisión Juego
Más detallesBloque 1. Contenidos comunes. (Total: 3 sesiones)
4º E.S.O. OPCIÓN A 1.1.1 Contenidos 1.1.1.1 Bloque 1. Contenidos comunes. (Total: 3 sesiones) Planificación y utilización de procesos de razonamiento y estrategias de resolución de problemas, tales como
Más detallesAux 6. Introducción a la Minería de Datos
Aux 6. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 glhuilli@dcc.uchile.cl 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial
Más detallesFormulación del problema de la ruta más corta en programación lineal
Formulación del problema de la ruta más corta en programación lineal En esta sección se describen dos formulaciones de programación lineal para el problema de la ruta más corta. Las formulaciones son generales,
Más detallesTema 11: Inducción de Reglas p. 1/1
Tema 11: Inducción de Reglas Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/ Tema
Más detallesA B MIN C D E F MAX x E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO
E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO UNIVERSIDAD DE MÁLAGA Dpto. Lenguajes y Ciencias de la Computación RELACIÓN DE PROBLEMAS. TEMA IV. PROBLEMAS DE JUEGOS.
Más detallesMétodos de Búsqueda para juegos humano-maquina. PROF: Lic. Ana María Huayna D.
Métodos de Búsqueda para juegos humano-maquina PROF: Lic. Ana María Huayna D. Tópicos 1. Introducción 2. Juegos 3. Estrategias de Juego 4. Algoritmo Minimax 5. Algoritmo Poda Alfa-Beta 1.- Introducción
Más detallesJUEGOS. Área de aplicación de los algoritmos heurísticos Juegos bi-personales: oponente hostil
JUEGOS Área de aplicación de los algoritmos heurísticos Juegos bi-personales: oponente hostil I Oponente: Jugador: intenta mover a un estado que es el peor para Etiquetar cada nivel del espacio de búsqueda
Más detalles4ta. Práctica. Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta. Inteligencia Artificial Prácticas 2004/2005
4ta. Práctica Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta Inteligencia Artificial Prácticas 2004/2005 Decisiones Perfectas en Juegos de DOS Participantes Definición de Juego Estado Inicial:
Más detallesCÁLCULO DE PROBABILIDADES
CÁLCULO DE PROBABILIDADES Tipo de asignatura: Troncal Anual. Créditos ECTS: 15 I.- INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES. (16 horas presenciales) Tema 1.- La naturaleza del cálculo de probabilidades.
Más detallesTema 12: Arboles de decisión
Razonamiento Automático Curso 2000 2001 Tema 12: Arboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla
Más detallesTema 9: Contraste de hipótesis.
Estadística 84 Tema 9: Contraste de hipótesis. 9.1 Introducción. El objetivo de este tema es proporcionar métodos que permiten decidir si una hipótesis estadística debe o no ser rechazada, en base a los
Más detallesTeorema Central del Límite (1)
Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico
Más detalles(e) Con la poda alfa-beta se eliminan nodos que nunca serán alcanzados
Universidad Rey Juan Carlos Curso 2014 2015 Hoja de Problemas Tema 5 1. Cuáles de las siguientes afirmaciones acerca del algoritmo Minimax son ciertas (a) El algoritmo Minimax realiza una exploración primero
Más detalles(d) Puede haber estrategias que funcionan mejor que Minimax si el contrincante es
Universidad Rey Juan Carlos Curso 2014 2015 Hoja de Problemas Tema 5 1. Cuáles de las siguientes afirmaciones acerca del algoritmo Minimax son ciertas (a) El algoritmo Minimax realiza una exploración primero
Más detallesBúsqueda en e.e. --> reglas para elegir entre las ramas que con más probabilidad lleven a la solución.
BÚSQUEDA HEURÍSTICA estudio de los métodos y reglas del descubrimiento y la invención. Búsqueda en e.e. --> reglas para elegir entre las ramas que con más probabilidad lleven a la solución. Situaciones
Más detallesAproximación evolutiva a la inducción constructiva basada en expresiones algebraicas
Aproximación evolutiva a la inducción constructiva basada en expresiones algebraicas Manuel Baena García, Rafael Morales Bueno y Carlos Cotta Porras Workshop MOISES Septiembre 2004 1/15 Contenido Inducción
Más detallesTema 2. Introducción a la Estadística Bayesiana
2-1 Tema 2 Introducción a la Estadística Bayesiana El teorema de Bayes Ejemplo Interpretación Ejemplo: influencia de la distribución a priori Ejemplo: densidad de flujo Probabilidad bayesiana Ejemplo:
Más detallesUNIVERSIDAD MAYOR DE SAN SIMÓN FACULTAD DE CIENCIAS Y TECNOLOGÍA INGENIERÍA DE SISTEMAS BÚSQUEDA PRIMERO EL MEJOR
UNIVERSIDAD MAYOR DE SAN SIMÓN FACULTAD DE CIENCIAS Y TECNOLOGÍA INGENIERÍA DE SISTEMAS BÚSQUEDA PRIMERO EL MEJOR INTEGRANTES: Caricari Cala Aquilardo Villarroel Fernandez Fructuoso DOCENTE: Lic. Garcia
Más detallesTema 5. Muestreo y distribuciones muestrales
1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución
Más detallesINTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)
INTERVALOS DE CONFIANZA La estadística en cómic (L. Gonick y W. Smith) EJEMPLO: Será elegido el senador Astuto? 2 tamaño muestral Estimador de p variable aleatoria poblacional? proporción de personas que
Más detallesINDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso
INDICE Capítulo I: Conceptos Básicos 1.- Introducción 3 2.- Definición de calidad 7 3.- Política de calidad 10 4.- Gestión de la calidad 12 5.- Sistema de calidad 12 6.- Calidad total 13 7.- Aseguramiento
Más detallesUnidad IV: Distribuciones muestrales
Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia
Más detallesAprendizaje: Boosting y Adaboost
Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo
Más detallesNúmeros reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos.
MATEMÁTICAS I Contenidos. Aritmética y álgebra: Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos. Resolución e interpretación gráfica de ecuaciones e
Más detalles4. NÚMEROS PSEUDOALEATORIOS.
4. NÚMEROS PSEUDOALEATORIOS. En los experimentos de simulación es necesario generar valores para las variables aleatorias representadas estas por medio de distribuciones de probabilidad. Para poder generar
Más detallesALGORITMO MINIMAX. o Nodo: Representa una situación del juego. o Sucesores de un nodo: Situaciones del juego a las que se
ALGORITMO MINIMAX Algoritmo de decisión para minimizar la pérdida máxima aplicada en juegos de adversarios Información completa (cada jugador conoce el estado del otro) Elección del mejor movimiento para
Más detalles1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo. Algoritmos genéticos
1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo Algoritmos genéticos Introducción Propuestos por Holland, mediados 70, computación evolutiva Popularizados
Más detallesUNLPam - Fac. Cs. Econ. y Jur.
Bibliografía Anderson, Sweeney y Williams; Introducción a los modelos cuantitativos para Administración. Grupo Editorial Iberoamérica. Eppen, Gould, Schmidt, Moore, Weatherford; Investigación de Operaciones
Más detallesTeoría de la decisión
1.- Un problema estadístico típico es reflejar la relación entre dos variables, a partir de una serie de Observaciones: Por ejemplo: * peso adulto altura / peso adulto k*altura * relación de la circunferencia
Más detallesPLANES CURRICULARES GRADO9º/ 01 PERIODO
PLANES CURRICULARES GRADO9º/ 01 PERIODO Grado: 9º Periodo: 01 PRIMERO Aprobado por: G. Watson - Jefe Sección Asignatura: MATEMATICAS Profesor: Gloria rueda y Jesús Vargas ESTANDARES P.A.I. I.B. A. Conocimiento
Más detallesAnálisis de Decisiones II. Tema 17 Generación de números al azar. Objetivo de aprendizaje del tema
Tema 17 Generación de números al azar Objetivo de aprendizaje del tema Al finalizar el tema serás capaz de: Obtener números aleatorios a partir de un proceso de generación. Validar las características
Más detallesTEMARIO: CONTENIDOS, OBJETIVOS MÍNIMOS Y TIEMPO.
TEMARIO: CONTENIDOS, OBJETIVOS MÍNIMOS Y TIEMPO. Se han seleccionado unos bloques de contenidos que tienen la intención de aportar una formación matemática que sea suficiente para alcanzar los objetivos
Más detallesEjercicio 1(10 puntos)
ESTADISTICA Y SUS APLICACIONES EN CIENCIAS SOCIALES. Segundo Parcial Montevideo, 4 de julio de 2015. Nombre: Horario del grupo: C.I.: Profesor: Ejercicio 1(10 puntos) La tasa de desperdicio en una empresa
Más detallesEl Juego como Problema de Búsqueda
El Juego como Problema de Búsqueda En este algoritmo identificamos dos jugadores: max y min. El objetivo es encontrar la mejor movida para max. Supondremos que max mueve inicialmente y que luego se turnan
Más detallesPROBABILIDAD Y ESTADÍSTICA
PROBABILIDAD Y ESTADÍSTICA 4 horas a la semana 8 créditos Semestre variable según la carrera Objetivo del curso: Analizar y resolver problemas de naturaleza aleatoria en la ingeniería, aplicando conceptos
Más detalles1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA
MODELO DE REGRESIÓN LOGÍSTICA Introducción A grandes rasgos, el objetivo de la regresión logística se puede describir de la siguiente forma: Supongamos que los individuos de una población pueden clasificarse
Más detallesMÓDULO 1: GESTIÓN DE CARTERAS
MÓDULO 1: GESTIÓN DE CARTERAS TEST DE EVALUACIÓN 1 Una vez realizado el test de evaluación, cumplimenta la plantilla y envíala, por favor, antes del plazo fijado. En todas las preguntas sólo hay una respuesta
Más detallesTECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN
TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN FUNDAMENTOS CURSO DE DOCTORADO Dr. Ramón García-Martínez * * * CONTEXTO La inteligencia de negocio propone un abordaje interdisciplinario que tomando:
Más detallesTeorema de Bayes. mientras que B tiene una tasa de defectos del 4%.
Teorema de Bayes Ejemplo: En una empresa manufacturera, una máquina A produce el 60% de la producción total, mientras que una máquina B el restante 40%. 71 El 2% de las unidades producidas por A son defectuosas,
Más detallesGeneralización como búsqueda. El problema de aprendizaje por generalización puede verse como un problema de búsqueda:
Generalización como búsqueda El problema de aprendizaje por generalización puede verse como un problema de búsqueda: El lenguaje de generalización corresponde a un espacio de hipótesis (espacio de búsqueda)
Más detallesCONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS
Dpto. de Matemáticas IES Las Breñas 4º ESO OPCIÓN B CONTENIDOS MÍNIMOS del ÁREA DE MATEMÁTICAS 1: Números reales. Septiembre-2016 Números no racionales. Expresión decimal - Reconocimiento de algunos irracionales.
Más detallesEL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)
EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento
Más detallesPOBLACIÓN Y MUESTRAS EN LA INVESTIGACIÓN
POBLACIÓN Y MUESTRAS EN LA INVESTIGACIÓN Adela del Carpio Rivera Doctor en Medicina UNIVERSO Conjunto de individuos u objetos de los que se desea conocer algo en una investigación Población o universo
Más detallesTEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos
Más detalles4.12 Ciertos teoremas fundamentales del cálculo de probabilidades
1 de 9 15/10/2006 05:57 a.m. Nodo Raíz: 4. Cálculo de probabilidades y variables Siguiente: 4.14 Tests diagnósticos Previo: 4.10 Probabilidad condicionada e independencia de 4.12 Ciertos teoremas fundamentales
Más detallesAnálisis y Diseño de Algoritmos
Análisis y Diseño de Algoritmos Ordenamiento en Tiempo Lineal DR. JESÚS A. GONZÁLEZ BERNAL CIENCIAS COMPUTACIONALES INAOE Ordenamiento por Comparación (Comparison Sorts) Tiempo de ejecución HeapSort y
Más detallesComplejidad computacional (Análisis de Algoritmos)
Definición. Complejidad computacional (Análisis de Algoritmos) Es la rama de las ciencias de la computación que estudia, de manera teórica, la optimización de los recursos requeridos durante la ejecución
Más detallesCapítulo 8. Análisis Discriminante
Capítulo 8 Análisis Discriminante Técnica de clasificación donde el objetivo es obtener una función capaz de clasificar a un nuevo individuo a partir del conocimiento de los valores de ciertas variables
Más detallesCM0244. Suficientable
IDENTIFICACIÓN NOMBRE ESCUELA ESCUELA DE CIENCIAS NOMBRE DEPARTAMENTO Ciencias Matemáticas ÁREA DE CONOCIMIENTO MATEMATICAS, ESTADISTICA Y AFINES NOMBRE ASIGNATURA EN ESPAÑOL ESTADÍSTICA GENERAL NOMBRE
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detallesFase 2. Estudio de mercado: ESTADÍSTICA
1. CONCEPTO DE ESTADÍSTICA. ESTADÍSTICA DESCRIPTIVA 2. 3. TABLA DE FRECUENCIAS 4. REPRESENTACIONES GRÁFICAS 5. TIPOS DE MEDIDAS: A. MEDIDAS DE POSICIÓN B. MEDIDAS DE DISPERSIÓN C. MEDIDAS DE FORMA 1 1.
Más detallesAgro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
Más detallesTEMARIOS PRUEBAS SEMESTRALES 2015 PRIMER SEMESTRE DEPARTAMENTO DE MATEMÁTICA
Saint Gaspar College Misio nero s de la Precio sa Sangre F o r m a n d o P e r s o n a s Í n t e g r a s TEMARIOS PRUEBAS SEMESTRALES 2015 PRIMER SEMESTRE DEPARTAMENTO DE MATEMÁTICA NIVEL FECHA *TEMARIO*
Más detallesINSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 29 de Abril de 2016
ANEXO ESTADÍSTICO 1 : COEFICIENTES DE VARIACIÓN Y ERROR ASOCIADO AL ESTIMADOR ENCUESTA NACIONAL DE EMPLEO (ENE) INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 9 de Abril de 016 1 Este anexo estadístico es una
Más detalles6.4. APLICACIÓN DE REDES NEURONALES EN EL CÁLCULO DE LA TASA DE CONTORNEAMIENTOS Velocidad de retorno del rayo con distribución uniforme
Aplicación de redes neuronales en el cálculo de sobretensiones y tasa de contorneamientos 233 6.4. APLICACIÓN DE REDES NEURONALES EN EL CÁLCULO DE LA TASA DE CONTORNEAMIENTOS 6.4.1. Introducción Como ya
Más detallesmatemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4
PS0401 - Probabilidad y Estadística DES: Ingeniería Programa(s) Educativo(s): Ingeniería de Software Tipo de materia: Obligatoria Clave de la materia: PS0401 Cuatrimestre: 4 UNIVERSIDAD AUTÓNOMA DE Área
Más detallesTeoría de la Decisión: Decisión con incertidumbre y riesgo. Begoña Vitoriano Villanueva
Teoría de la Decisión: Decisión con incertidumbre y riesgo Begoña Vitoriano Villanueva Teoría de la decisión: Introducción Decisión: elegir lo mejor entre lo posible Definir lo mejor y lo posible Lo mejor:
Más detallesESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua
ESTADÍSTICA Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal Cuantitativa discreta continua DISTRIBUCIÓN DE FRECUENCIAS Frecuencia absoluta: fi Frecuencia relativa:
Más detallesEl Algoritmo E-M. José Antonio Camarena Ibarrola
El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas
Más detallesÁrboles. Un grafo no dirigido es un árbol si y sólo si existe una ruta unica simple entre cualquiera dos de sus vértices.
ÁRBOLES Árboles Un grafo conectado que no contiene circuitos simples. Utilizados desde 1857, por el matemático Ingles Arthur Cayley para contar ciertos tipos de componentes químicos. Un árbol es un grafo
Más detallesDerivadas Parciales (parte 2)
40 Derivadas Parciales (parte 2) Ejercicio: Si donde y. Determinar Solución: Consideraremos ahora la situación en la que, pero cada una de las variables e es función de dos variables y. En este caso tiene
Más detallesCONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS 1 POR QUÉ SE LLAMAN CONTRASTES NO PARAMÉTRICOS? A diferencia de lo que ocurría en la inferencia paramétrica, ahora, el desconocimiento de la población que vamos
Más detallesSe inicia con las especificaciones del módulo fotovoltaico.
Con base en las especificaciones técnicas del inversor SB 3000U y de un módulo fotovoltaico de 175 watts, indicar los valores los parámetros característicos requeridos para el dimensionamiento del sistema.
Más detallesCONTENIDOS MÍNIMOS BLOQUE 2. NÚMEROS
CONTENIDOS Y CRITERIOS DE EVALUACIÓN DE MATEMÁTICAS 1º DE ESO. Bloque 1: Contenidos Comunes Este bloque de contenidos será desarrollado junto con los otros bloques a lo largo de todas y cada una de las
Más detalles(b) Cuál es la desventaja principal de una heurística con aprendizaje? es más informada que otra función heurística optimista h 2 *?
UNIVERIDD REY JUN CRLO CURO 0-0 INTELIGENCI RTIFICIL Hoja de Problemas Tema Ejercicio : Conteste a las siguientes preguntas: (a) Cómo funciona una heurística con aprendizaje? olución: Una heurística con
Más detallesIntroducción a las RdP. Optimización basada en redes de Petri. Redes de Petri. Son objeto de estudio: RdP. Ejemplos:
Seminario sobre toma de decisiones en logística y cadenas de suministro Introducción a las RdP Optimización basada en redes de Petri https://belenus.unirioja.es/~emjimene/optimizacion/transparencias.pdf
Más detallesUNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE INGENIERÍA. práctica, Total: 85 Horas a la semana: 5 teoría: 4 prácticas: 1 Créditos:
UNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE INGENIERÍA Probabilidad y Estadística 18/01/10 Clave: 214 Semestre: 1 Duración del curso: semanas: 17 horas: 68 de teoría y 17 de práctica, Total: 85 Horas
Más detallesCAPÍTULO 4 TÉCNICA PERT
54 CAPÍTULO 4 TÉCNICA PERT Como ya se mencionó en capítulos anteriores, la técnica CPM considera las duraciones de las actividades como determinísticas, esto es, hay el supuesto de que se realizarán con
Más detallesTécnicas de validación estadística Bondad de ajuste
Técnicas de validación estadística Bondad de ajuste Georgina Flesia FaMAF 28 de mayo, 2013 Pruebas de bondad de ajuste Dado un conjunto de observaciones, de qué distribución provienen o cuál es la distribución
Más detallesUNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA SUR. Ingeniería Aplicada TEÓRICA SERIACIÓN 100% DE OPTATIVAS DISCIPLINARIAS
UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA SUR DEPARTAMENTO ACADÉMICO DE SIS COMPUTACIONALES INGENIERÍA EN TECNOLOGÍA COMPUTACIONAL ASIGNATURA Algoritmo Genéticos ÁREA DE Ingeniería Aplicada CONOCIMIENTO
Más detallesResolución de problemas de búsqueda
Resolución de problemas de búsqueda Memoria de Prácticas de Segunda Entrega 26 de noviembre de 2007 Autores: Mariano Cabrero Canosa cicanosa@udc.es Elena Hernández Pereira elena@udc.es Directorio de entrega:
Más detallesPara definir en formalmente el juego se deberá establecer:
INTRODUCCION A LA INTELIGENCIA ARTIFICIAL MÓDULO 5- JUEGOS COMO PROBLEMA DE BÚSQUEDA Referencias: Inteligencia Artificial Russell and Norvig Cap.5. Artificial Intellingence Nils Nilsson Ch.3 Se trata el
Más detallesUnidad 1: Probabilidad
Cuál es la probabilidad de aprobar Introducción a la Probabilidad y Estadística? - - Introducción a la Probabilidad y Estadística Unidad 1: Probabilidad Cuál es la probabilidad de no encontrarme un embotellamiento
Más detallesPreliminares Interpolación INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL
INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL Contenido Preliminares 1 Preliminares Teorema 2 Contenido Preliminares Teorema 1 Preliminares Teorema 2 Teorema Preliminares Teorema Teorema: Serie de Taylor Supongamos
Más detallesContrastes de hipótesis. 1: Ideas generales
Contrastes de hipótesis 1: Ideas generales 1 Inferencia Estadística paramétrica población Muestra de individuos Técnicas de muestreo X 1 X 2 X 3.. X n Inferencia Estadística: métodos y procedimientos que
Más detallesDefinición 1.1 Sea G = (V, A) un grafo no dirigido. G se denomina árbol si es conexo y no contiene ciclos.
Matemática Discreta y Lógica 2 1. Árboles Árboles Definición 1.1 Sea G = (V, A) un grafo no dirigido. G se denomina árbol si es conexo y no contiene ciclos. Como un lazo es un ciclo de longitud 1, un árbol
Más detallesRELACIÓN DE PROBLEMAS DE CLASE DE PROGRAMACIÓN LINEAL ENTERA
RELACIÓN DE PROBLEMAS DE CLASE DE PROGRAMACIÓN LINEAL ENTERA SIMPLEX Y LINEAL ENTERA a Resuelve el siguiente problema con variables continuas positivas utilizando el método simple a partir del vértice
Más detallesPROBABILIDAD Y ESTADISTICA
PLAN DE ESTUDIOS 2008 LICENCIADO EN INFORMÁTICA FACULTAD DE CONTADURÍA, ADMINISTRACIÓN E INFORMÁTICA ASIGNATURA: PROBABILIDAD Y ESTADISTICA ÁREA DEL MATEMÁTICAS CLAVE: I2PE1 CONOCIMIENTO: ETAPA FORMATIVA:
Más detallesEjemplo: El problema de la mochila. Algoritmos golosos. Algoritmos y Estructuras de Datos III. Segundo cuatrimestre 2013
Técnicas de diseño de algoritmos Algoritmos y Estructuras de Datos III Segundo cuatrimestre 2013 Técnicas de diseño de algoritmos Algoritmos golosos Backtracking (búsqueda con retroceso) Divide and conquer
Más detallesÍndice. Resumen 15 Motivación 15 Desarrollos y aportes 16 Publicaciones derivadas de esta tesis doctoral 19
Índice Resumen 15 Motivación 15 Desarrollos y aportes 16 Publicaciones derivadas de esta tesis doctoral 19 Capítulo 1. Introducción a la Minería de Datos 21 1. Minería de datos 21 1.1. Tipos de datos 24
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis Facultad de Ciencias Sociales, UdelaR Índice 1. Introducción: hipótesis estadística, tipos de hipótesis, prueba de hipótesis 2.
Más detallesTema 5 Algunas distribuciones importantes
Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos
Más detallesPLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07
PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07 TEMAS A ESTUDIAR En esta guía nos dedicaremos a estudiar el tema de Estimación por intervalo y comenzaremos a estudiar las pruebas de hipótesis paramétricas.
Más detallesEstado 3.2 (coste = 9)
Búsqueda heurística Fernando Berzal, berzal@acm.org Búsqueda heurística Búsqueda primero el mejor p.ej. búsqueda de coste uniforme [UCS] Heurísticas Búsqueda greedy El algoritmo A* Heurísticas admisibles
Más detallesPruebas de Hipótesis. Diseño Estadístico y Herramientas para la Calidad. Pruebas de Hipótesis. Hipótesis
Diseño Estadístico y Herramientas para la Calidad Pruebas de Hipótesis Expositor: Dr. Juan José Flores Romero juanf@umich.mx http://lsc.fie.umich.mx/~juan M. en Calidad Total y Competitividad Pruebas de
Más detalles13. Utilizar la fórmula del término general y de la suma de n términos consecutivos
Contenidos mínimos 3º ESO. 1. Contenidos. Bloque I: Aritmética y álgebra. 1. Utilizar las reglas de jerarquía de paréntesis y operaciones, para efectuar cálculos con números racionales, expresados en forma
Más detallesMODULO VIII. Semana 1 ASPECTOS DE EVALUACIÓN FINANCIERA, ECONÓMICA, SOCIAL Y AMBIENTAL.
MODULO VIII Semana 1 ASPECTOS DE EVALUACIÓN FINANCIERA, ECONÓMICA, SOCIAL Y AMBIENTAL Esquema de Proyecto SNIP INDICE INTRODUCCION I. ASPECTOS GENERALES II. IDENTIFICACION III. FORMULACION IV. EVALUACION
Más detalles