ALGORITMO ID3. Objetivo
|
|
|
- Héctor Revuelta García
- hace 9 años
- Vistas:
Transcripción
1 ALGORITMO ID3 Desarrollado por J. Ross Quinlan en ID3 significa Induction Decision Trees. Pertenece a la familia TDIDT (Top- Down Induction of Decision Trees). Objetivo Construir un árbol de decisión que explique cada instancia de la secuencia de entrada de la manera más compacta posible a partir de una tabla de inducción.
2 En cada momento elige el mejor atributo dependiendo de una determinada heurística. Determinar las variables que portan información relevante para la solución del problema Establecer la secuencia dentro del árbol de decisión. Inconveniente Favorece indirectamente a aquellos atributos con muchos valores, los cuales no tienen que ser los más útiles. Genera árboles de decisión a partir de ejemplos de partida.
3 Conflictos en la base de conocimientos donde diferentes soluciones se alcanzan con variables con los mismos valores asociados. Manejo discreto de los valores de las variables (rangos para discretizar una variable continua). Generación de grandes árboles de decisión que no representan garantía de reglas eficientes. Aplicables sólo a problemas de clasificación y diagnóstico. La generación de conclusiones intermedias se encuentra implícito en la generación de reglas a partir de la tabla de inducción (no se aprecia discriminación en el árbol de decisión).
4 Características Crear un árbol de decisión como un método para aproximar una función objetivo de valores discretos, que es resistente al ruido en los datos y que es capaz de hallar o aprender de una disyunción de expresiones. El resultado puede expresarse como un conjunto de reglas Si-entonces. Intenta encontrar el árbol más sencillo que separa mejor los ejemplos. Es recursivo. No se realiza backtracking. Utiliza la entropía.
5 Estructura Los árboles de decisión están formados por: Nodos: Nombres o identificadores de los atributos. Ramas: Posibles valores del atributo asociado al nodo. Hojas: Conjuntos ya clasificados de ejemplos y etiquetados con el nombre de una clase. Un ejemplo de árbol de decisión es el siguiente:
6 Datos Atributos: Son los factores que influencian la clasificación o decisión. La selección de atributos debe basarse en el conocimiento acumulado por la experiencia. En este algoritmo cada atributo forma un nodo intermedio en un árbol cuyas hojas o nodos terminales son las clases o decisiones. Clase: Posibles valores de solución Ejemplos: Es el conjunto de combinaciones de atributos dados. Dado el conjunto de ejemplos, el ID3 selecciona el atributo que subdivide los ejemplos de la mejor manera.
7 Entropía: Es la medida de la incertidumbre que hay en un sistema. Es decir, ante una determinada situación, la probabilidad de que ocurra cada uno de los posibles resultados.
8 La función de entropía más usada es la binaria. Su expresión es con logaritmos base 2: I(p,n) = -(p/(p + n))*log 2 (p/(p + n))-(n/(p + n))*log 2 (n/(p + n)) Recuerde: Si 10 x =1,000 entonces x=3 Es decir, si 10 x =y entonces x=log 10 (y) Si 2 x =y entonces x=log 2 (y) Para calcular el logaritmo base 2: Si 2 x =y entonces x=log 10 (y) / log 10 (2)
9 Aplicado a la fórmula de entropía log 10 (p/p+n) / log 10 (2) Cálculo del total de la entropía de los atributos: E(A)=((p1+n1)*I(p1,n1)+(p2+n2) *I(p2,n2)+...+(pv+nv)*I(pv,nv))/ (p+n) Interpretación de la entropía: Un ejemplo de la entropía binaria podría ser sacar una bola de color blanco o negro de una bolsa. Si en la bolsa hay 3 bolas blancas y 3 negras el resultado es completamente
10 desconocido, es decir la incertidumbre es máxima, es decir la entropía es 1. Si en la bolsa hay 6 bolas negras el resultado es conocido de antemano, luego la incertidumbre no existe, y la entropía es 0. Ganancia: Es la diferencia entre la entropía de un nodo y la de uno de sus descendientes. En el fondo no es más que una heurística, que como veremos nos servirá para la elección del mejor atributo en cada nodo. Ganancia(A) = I(p,n) - E(A)
11 Un buen criterio parece ser escoger el atributo que gana la mayor información. ID3 examina todos los atributos y escoge el de máxima ganancia, forma la ramificación y usa el mismo proceso recursivamente para formar sub-árboles a partir de los v nodos generados
12 Procedimiento El árbol de decisión se recorre desde la raíz y tanto en ella como en cada uno de los demás nodos se decide cuál rama tomar basándonos en el valor de algún atributo del ejemplar que se esté clasificando, hasta llegar a un nodo terminal (hoja), que corresponde a la clase en que queda clasificado el ejemplar. Los árboles de decisión se adaptan especialmente bien a ciertos tipos de problemas. Básicamente, los casos para
13 los que son apropiados son aquellos en los que: Los ejemplos pueden ser descritos como pares valor-atributo. La función objetivo toma valores discretos. Podemos tomar hipótesis con disyunciones. Posible existencia de ruido en el conjunto de entrenamiento. Los valores de algunos atributos en los ejemplos del conjunto de entrenamiento pueden ser desconocidos.
14 Diagrama de flujo
15 Ejemplo Una persona se dispone a jugar golf y tomará su decisión de asistir considerando los siguientes factores climatológicos: Nueve objetos son clase P y cinco son clase N La información requerida para la clasificación es:
16 I(p,n) = - (9/14)*log 2 (9/14) - (5/14)*log 2 (5/14) = bits Considerando el atributo General, con sus tres valores (v=3): Para el primer valor, hay 5 objetos que lo tienen, 2 clase P y 3 clase N, entonces (Soleado): p1 = 2, n1 = 3, I(p1,n1) = Análogamente, para el segundo valor posible de A (Nublado): p2 = 4, n2 = 0, I(p2,n2) = 0 Y para el tercer valor de A (Lluvioso): p3 = 3, n3 = 2, I(p3,n3) = 0.971
17 Por lo tanto el requisito de información esperada, después de revisar este atributo es: E (General) = (5*I(p1,n1) + 4*I(p2,n2) + 5*I(p3,n3))/14 = Y la Ganancia de este atributo es: Ganancia (General) = E(General) = Y el mismo procedimiento aplicado a los otros tres atributos da: Atributo Temperatura Caliente p1 = 2, n1 =2, I(p1,n1) = 1 I(p,n) = -(2/4)*log 2 (2/4) - (2/4)*log 2 (2/4)= 1
18 Templada p1 = 4, n1 = 2, I(p1,n1) = I(p,n) = - (4/6)* log 2 (4/6) - (2/6)*log 2 (2/)=.918 Fría p1 = 3, n1 = 1, I(p1,n1) = I(p,n) = - (3/4)*log 2 (3/4) - (1/4)* log 2 (1/4)=.811 E (Temperatura) = (4*I(p1,n1) + 6*I(p2,n2) + 4*I(p3,n3))/14 E (Temperatura) = (4*(1) + 6*(.918) + 4*(.811))/14
19 E (Temperatura) = Ganancia (Temperatura) = E(Temperatura) = Ganancia (Temperatura) = =.029 Atributo Humedad Alta p1 = 3, n1 =4, I(p1,n1) =.985 I(p,n) = -(3/7)*log 2 (3/7) - (4/7)*log 2 (4/7)=.985 Normal p1 = 6, n1 = 1, I(p1,n1) = I(p,n) = -(6/7)*log 2 (6/7) - (1/7)* log 2 (1/7)=.591
20 E (Humedad) = (7*I(p1,n1) + 7*I(p2,n2))/14 E (Humedad) = (7*(.985) + 7*(.591))/14 E (Humedad) = Ganancia (Humedad) = E(Humedad) = Ganancia (Humedad)= =.151 Atributo Viento Si p1 = 3, n1 =3, I(p1,n1) = 1
21 I(p,n) = -(3/6)* log 2 (3/6) - (3/6)*log 2 (3/6)= 1 No p1 = 6, n1 = 2, I(p1,n1) = I(p,n) = -(6/8)* log 2 (6/8) - (2/8)*log 2 (2/8)=.811 E (Viento) = (6*I(p1,n1) +8*I(p2,n2) )/14 E (Viento) = (6*(1) + 8*(.811) )/14 E (Viento) = Ganancia (Viento)= E(Viento) = Ganancia (Viento)= =.048
22 Ganancia (Temperatura) = Ganancia (Humedad) = Ganancia (Viento) = Otro ejemplo Analizar los factores que tienen mayor impacto en diferentes fondos de inversión: Tasas de interés Cantidad de efectivo en Japón, Europa Occidental y los Estados Unidos El nivel de tensión internacional (p. ejem. posibles operaciones militares, incidentes de terrorismo, etc. Basándose en la lista de atributos, se obtienen los siguientes datos históricos:
23
24 Tipo de fondo de Tasas de Efectivo Tensión Valor del fondo de inversión interés inversión (Clase) Electrónica Alta Alta Media Media Electrónica Baja Alta Media Alta Electrónica Media Baja Alta Baja Acciones de valores Alta Alta Media Alta Acciones de valores Baja Alta Media Media Acciones de valores Media Baja Alta Media Bienes raíces Alta Alta Media Baja Bienes raíces Baja Alta Media Alta Bienes raíces Media Baja Alta Baja
25 Note que la última columna representa la conclusión que buscará el algoritmo, donde se identifican tres posibilidades de inversión: alta, media y baja. El siguiente paso es desarrollar el árbol de decisión obtenido de dicha tabla (aplicando el cálculo de entropía de cada atributo) La fórmula de entropía para cualquier atributo A k es: M k N H(C A k )= p(a k,j )[- p(c i a k,j ) log 2 p(c i a k,j )] j=1 i=1 donde:
26 H(C A k ) Entropía de la propiedad de clasificación del atributo A k p(a k,j ) Probabilidad de que el atributo k esté en el valor j p(c i a k,j ) Probabilidad de la clase c i cuando la variable k está en el valor j M k Número total de valores para el atributo A k ; j=1,2.. M k N Número total de clases i=1,2..n K Número total de atributos; k=1,2 K De la tabla se obtiene: Cuatro atributos (Tipo de fondo de inversión, Tasas de interés, Efectivo, Tensión), esto es K=4
27 Tres clases ( Valor del fondo de inversión: alta, media o baja); esto es N=3 Tres valores para el atributo Tipo de fondo de inversión (Electrónica, Acciones de valores o Bienes raíces); esto es M 1 =3 Tres valores para el atributo Tasas de interés (Alta, Media o Baja); esto es M 2 =3 Dos valores para el atributo Efectivo (Alta o Baja); esto es M 3 =2 Dos valores para el atributo Tensión (Alta o Media); esto es M 4 =2 El siguiente paso es calcular la entropía para cada atributo, p. ejem. para calcular la entropía del atributo Efectivo:
28 p(a 3,1 ) = probabilidad que el Efectivo sea Alto = 6/9 (el Efectivo es Alto en 6 de 9 veces) p(a 3,2 ) = probabilidad que el Efectivo sea Bajo = 3/9 p(c 1 a 3,1 ) = probabilidad de que un valor de la clase sea Alto cuando el Efectivo es Alto = 3/6 p(c 2 a 3,1 ) = probabilidad de que un valor de la clase sea Media cuando el Efectivo es Alto = 2/6 p(c 3 a 3,1 ) = probabilidad de que un valor de la clase sea Baja cuando el Efectivo es Alto = 1/6
29 p(c 1 a 3,2 ) = probabilidad de que un valor de la clase sea Alto cuando el Efectivo es Baja = 0/3 p(c 2 a 3,2 ) = probabilidad de que un valor de la clase sea Media cuando el Efectivo es Baja = 1/3 p(c 3 a 3,2 ) = probabilidad de que un valor de la clase sea Baja cuando el Efectivo es Baja = 2/3 Se sustituyen los valores en la fórmula: M k N H(C A k )= p(a k,j )[- p(c i a k,j ) log 2 p(c i a k,j )] j=1 i=1 y se obtiene:
30 H(C Efectivo)=6/9 [ -3/6 log 2 (3/6) (2/6) log 2 (2/6) (1/6) log 2 (1/6) ] + 3/9 [ -0/3 log 2 (0/3) (1/3) log 2 (1/3) (2/3) log 2 (2/3) ] = De manera similar se obtiene: H(C Tasas de interés) = H(C Tensión) = H(C Tipo de fondo de inversión) = Existe un empate en la entropía más baja entre la Tasas de interés y los Tipos de fondo de inversión. Si se rompe este empate en forma arbitraria y se construye un árbol de decisión teniendo como raíz la Tasa de interés, se presenta una clasificación inconclusa, ya que cada opción de dicho
31 atributo conduce a múltiples soluciones de las clases. Tasas de interés Alta Media Baja Clases (Soluciones) Media Alta Baja Media Alta Media Baja Baja Alta Una vez ramificado el árbol en el atributo Tasa de interés, se elimina dicha columna en la tabla original y se generan 3 sub-tablas (una cuando la Tasa de interés es Alta, otra cuando es Media y otra cuando es Baja):
32 Clasificación cuando la Tasa de Interés es Alta: Tipo de fondo de inversión Efectivo Tensión Valor del fondo de inversión (Clase) Electrónica Alta Media Media Acciones de Alta Media Alta valores Bienes raíces Alta Media Baja Una vez más es necesario calcular la entropía para cada atributo (Tipo de fondo de inversión, Efectivo y Tensión) Como resultado se obtiene que el atributo Tipo de fondo de inversión tiene la menor entropía (igual a cero).
33 Al ramificar el árbol considerando el Tipo de fondo de inversión, se obtiene: Tasas de interés Alta Media Baja TFI TFI TFI E AV BR E AV BR E AV BR Alta Media Baja M A B B M B A M A
34 De ahí se obtiene que cada rama conduce a una solución única. Por último, se describen las reglas de producción que forman el Sistema Experto: Regla 1: IF tasa_interes = alta AND tipo_fondo_inversion = electronica THEN valor=media Regla 2: IF tasa_interes = alta AND tipo_fondo_inversion = acciones_valores THEN valor=alta Regla 3: IF tasa_interes = alta AND tipo_fondo_inversion = bienes_raices THEN valor=baja
35 Regla 4: IF tasa_interes = media AND tipo_fondo_inversion = electronica THEN valor=baja Regla 5: IF tasa_interes = media AND tipo_fondo_inversion = acciones_valores THEN valor=media Regla 6: IF tasa_interes = media AND tipo_fondo_inversion = bienes_raices THEN valor=baja Regla 7: IF tasa_interes = baja AND tipo_fondo_inversion = electronica THEN valor=alta Regla 8: IF tasa_interes = baja
36 AND tipo_fondo_inversion = acciones_valores THEN valor=media Regla 9: IF tasa_interes = baja AND tipo_fondo_inversion = bienes_raices THEN valor=alta También se pueden combinar ciertas reglas: Regla 5/8: IF tipo_fondo_inversion = acciones_valores AND tasa_interes = media OR tasa_interes = baja THEN valor=media Regla 3/6: IF tipo_fondo_inversion = bienes_raices AND tasa_interes = alta OR tasa_interes = media THEN valor=baja
37 Sin embargo, algunos paquetes de desarrollo de sistemas expertos no soportan premisas con cláusulas disyuntivas.
38 Otro ejemplo Paciente Presión Arterial Urea en Sangre Gota Hipotiroidismo Administrar Tratamiento 1 Alta Alta Si No No 2 Alta Alta Si Si No 3 Normal Alta Si No Si 4 Baja Normal Si No Si 5 Baja Baja No No Si 6 Baja Baja No Si No 7 Normal Baja No Si Si 8 Alta Normal Si No No 9 Alta Baja No No Si 10 Baja Normal No No Si 11 Alta Normal No Si Si 12 Normal Normal Si Si Si 13 Normal Alta No No Si 14 Baja Normal Si Si No
39 I(p,n) = - (9/14)*log 2 (9/14) - (5/14)*log 2 (5/14) = bits Considerando el atributo Presión Arterial, con sus tres valores (v=3): Para el primer valor, hay 5 objetos que lo tienen, 2 clase Si y 3 clase No, entonces (Alta): p1 = 2, n1 = 3, I(p1,n1) = Análogamente, para el segundo valor posible de A (Normal): p2 = 4, n2 = 0, I(p2,n2) = 0 Y para el tercer valor de A (Baja): p3 = 3, n3 = 2, I(p3,n3) = Por lo tanto el requisito de información esperada, después de revisar este atributo es: E (Presion Arterial) =
40 (5*I(p1,n1) + 4*I(p2,n2) + 5*I(p3,n3))/14 = Y la Ganancia de este atributo es: Ganancia (Presion Arterial) = E(Presion Arterial) = Y el mismo procedimiento aplicado a los otros tres atributos da: Atributo Urea en Sangre UREA EN SANGRE (US) Alta Normal Baja [2+,2-] E = 1 [4+,2-] E = [3+,1-] E = Alta p1 = 2, n1 =2, I(p1,n1) = 1 I(p,n) =
41 -(2/4)*log 2 (2/4) - (2/4)*log 2 (2/4)= 1 Normal Baja p1 = 4, n1 = 2, I(p1,n1) = I(p,n) = - (4/6)* log 2 (4/6) - (2/6)*log 2 (2/6)= p1 = 3, n1 = 1, I(p1,n1) = I(p,n) = - (3/4)*log 2 (3/4) - (1/4)* log 2 (1/4)= E (Urea en Sangre) = (4*I(p1,n1) + 6*I(p2,n2) + 4*I(p3,n3))/14 E (Urea en Sangre) = (4*(1) + 6*(0.918) + 4*(0.811))/14 E (Urea en Sangre) = 0.911
42 Ganancia (Urea en Sangre) = E(Urea en Sangre) = Ganancia (Urea en Sangre) = =0.029 Atributo Gota GOTA (G) SI NO [3+, 4-] E=0.985 [6+,1-] E=0.591 Si No p1 = 3, n1 =4, I(p1,n1) = I(p,n) = -(3/7)* log2 (3/7) (4/7)* log2 (4/7) = p1 = 6, n1 = 1, I(p1,n1) = 0.591
43 I(p,n) = -(6/7)* log2 (6/7) (1/7)* log2 (1/7) = E (Gota) = (7*I(p1,n1) + 7*I(p2,n2))/14 E (Gota) = (7*(0.985) + 7*(0.591))/5 E (Gota) = Ganancia (Gota) = E(Gota) = Ganancia (Gota) = = 0.152
44 Atributo Hipotiroidismo HIPOTIROIDISMO (H) SI NO [3+,3-] E = 1 [6+,2-] E = Si p1 = 3, n1 =3, I(p1,n1) = 1 I(p,n) = -(3/6)*log 2 (3/6) - (3/6)*log 2 (3/6)= 1 No p1 = 6, n1 = 2, I(p1,n1) = I(p,n) = - (6/8)* log 2 (6/8) - (2/8)*log 2 (2/8)= 0.811
45 E (Hipotiroidismo) = (6*I(p1,n1) + 8*I(p2,n2))/14 E (Hipotiroidismo) = (3*(1) + 2*(0.811))/14 E (H) = Ganancia (Hipotiroidismo) = E(Hipotiroidismo) = Ganancia (Hipotiroidismo) = =0.048
46 Presión Arterial Normal Alta Pcte. Urea Gota Hipot. TO 1 Alta Si No No 2 Alta Sí Sí No 8 Normal Sí No No 9 Baja No No Sí 11 Normal No Sí Sí Pcte. Urea Gota Hipot. TO 3 Alta Si No Sí 7 Baja No Sí Sí 12 Normal Sí Sí Sí 13 Alta No No Sí Baja Pcte. Urea Gota Hipot. TO 4 Normal Si No Sí 5 Baja No No Sí 6 Baja No Sí No 10 Normal No No Sí 14 Normal Sí Sí No
47 Presión Arterial Alta I(p,n) = - (2/5)*log 2 (2/5) - (3/5)*log 2 (3/5) = bits Atributo Urea en Sangre UREA EN SANGRE Alta Normal Baja [+0,-2] E=0 [+1,-1] E=1 [+1,-0] E=0 Alta p1 = 0, n1 =2, I(p1,n1) = 0 I(p,n) = -(0/2)*log 2 (0/2) - (2/2)*log 2 (2/2)= 0
48 Normal Baja p1 = 1, n1 = 1, I(p1,n1) = 1 I(p,n) = - (1/2)* log 2 (1/2) - (1/2)*log 2 (1/2)= 1 p1 = 1, n1 = 0, I(p1,n1) = 0 I(p,n) = - (1/1)*log 2 (1/1) - (0/1)* log 2 (0/1)= 0 E (Urea en sangre) = (4*I(p1,n1) + 6*I(p2,n2) + 4*I(p3,n3))/5 E (Urea en sangre) = (2*(0) + 2*(1) + 1*(0))/5 E (Urea en sangre) = 0.4 Ganancia (Urea en sangre) = E(Urea en sangre) = 0.571
49 Ganancia (Urea en Sangre) = =0.571 Atributo Gota GOTA (G) SI NO [+0,-3] E=0 [+2,-0] E=0 Si p1 = 0, n1 =3, I(p1,n1) = 0 I(p,n) = -(0/3)*log 2 (0/3) - (3/3)*log 2 (3/3)= 0
50 No p1 = 2, n1 = 0, I(p1,n1) = 0 I(p,n) = - (2/2)* log 2 (2/2) - (0/2)*log 2 (0/2)= 0 E (Gota) = (3*I(p1,n1) + 2*I(p2,n2))/5 E (Gota) = (3*(0) + 2*(0))/5 E (Gota) = 0 Ganancia (Gota) = E(Gota) = Ganancia (Gota) = =0.971
51 Atributo Hipotiroidismo HIPOTIROIDISMO Si No Si [+1,-1] E=1 [+1,-2] E=0.919 p1 = 1, n1 =1, I(p1,n1) = 1 I(p,n) = -(1/2)*log 2 (1/2) - (1/2)*log 2 (1/2)= 1 No p1 = 1, n1 = 2, I(p1,n1) = 0.919
52 I(p,n) = - (1/3)* log 2 (1/3) - (2/3)*log 2 (2/3)= E (Hipotiroidismo) = (2*I(p1,n1) + 3*I(p2,n2))/5 E (Hipotiroidismo) = (2*(1) + 3*(0.919))/5 E (Hipotiroidismo) = Ganancia (Hipotiroidismo) = E(Hipotiroidismo) = Ganancia (Hipotiroidismo) = =0.020
53 PRESIÓN ARTERIAL Alta Normal Baja GOTA (G) ( ) ( ) SI Pcte. Urea Hipot. TO 1 Alta No No 2 Alta Sí No 8 Normal No No NO Pcte. Urea Hipot. TO 9 Baja No Sí 11 Normal Sí Sí
54 Gota - Si Gota - No I(p,n) = - (0/3)*log 2 (0/3) - (3/3)*log 2 (3/3) = 0 bits I(p,n) = - (2/2)*log 2 (2/2) - (0/2)*log 2 (0/2) = 0 bits PRESIÓN ARTERIAL Alta Normal Baja GOTA (G) ( ) ( ) SI NO NO SI
55 Presión Arterial Normal I(p,n) = - (4/4)*log 2 (4/4) - (0/4)*log 2 (0/4) = 0 bits PRESIÓN ARTERIAL Alta Normal Baja GOTA (G) SI ( ) SI NO NO SI
56 Presión Arterial Baja I(p,n) = - (3/5)*log 2 (3/5) - (2/5)*log 2 (2/5) = bits Atributo Urea en Sangre UREA EN SANGRE Alta Normal Baja [+0,-0] E=0 [+2,-1] E=0.918 [+1,-1] E=1 Alta p1 = 0, n1 =0, I(p1,n1) = 0 I(p,n) = -(0/0)*log 2 (0/0) - (0/0)*log 2 (0/0)= 0
57 Normal Baja p1 = 2, n1 = 1, I(p1,n1) = I(p,n) = - (2/3)* log 2 (2/3) - (1/3)*log 2 (1/3)= p1 = 1, n1 = 1, I(p1,n1) = 1 I(p,n) = - (1/2)*log 2 (1/2) - (1/2)* log 2 (1/2)= 1 E (Urea en sangre) = (0*I(p1,n1) + 3*I(p2,n2) + 2*I(p3,n3))/5 E (Urea en sangre) = (0*(0) + 3*(0.918) + 2*(1))/5 E (Urea en sangre) = Ganancia (Urea en sangre) = E(Urea en sangre) = 0.020
58 Ganancia (Urea en Sangre) = =0.020 Atributo Gota GOTA (G) SI NO [+1,-1] E=1 [+2,-1] E=0.918 Si p1 = 1, n1 =1, I(p1,n1) = 0 I(p,n) = -(1/2)*log 2 (1/2) - (1/2)*log 2 (1/2)= 1 No p1 = 2, n1 = 1, I(p1,n1) = I(p,n) = - (2/3)* log 2 (2/3) - (1/3)*log 2 (1/3)= 0.918
59 E (Gota) = (2*I(p1,n1) + 3*I(p2,n2))/5 E (Gota) = (2*(1) + 3*(0.918))/5 E (Gota) = Ganancia (Gota) = E(Gota) = Ganancia (Gota) = =0.020
60 Atributo Hipotiroidismo HIPOTIROIDISMO SI NO [+0,-2] E=0 [+3,-0] E=0 Si p1 = 0, n1 =2, I(p1,n1) = 0 I(p,n) = -(0/2)*log 2 (0/2) - (2/2)*log 2 (2/2)= 0 No p1 = 3, n1 = 0, I(p1,n1) = 0 I(p,n) = - (3/3)* log 2 (3/3) - (0/3)*log 2 (0/3)= 0 E (Hipotiroidismo) =
61 (3*I(p1,n1) + 2*I(p2,n2))/5 E (Hipotiroidismo) = (3*(0) + 2*(0))/5 E (Hipotiroidismo) = 0 Ganancia (Hipotiroidismo) = E(Hipotiroidismo) = Ganancia (Hipotiroidismo) = =0.971
62 PRESIÓN ARTERIAL Alta Normal Baja GOTA (G) SI HIPOTIROIDISMO SI NO SI NO NO SI Pcte. Urea Gota TO 4 Normal Si Si 5 Baja No Si 10 Normal no Si Pcte. Urea Gota TO 6 Baja No No 14 Normal Si No
63 Hipotiroidismo - SI I(p,n) = - (3/3)*log 2 (3/3) - (0/3)*log 2 (0/3) = 0 bits Hipotiroidismo - NO I(p,n) = - (0/2)*log 2 (0/2) - (2/2)*log 2 (2/2) = 0 bits PRESIÓN ARTERIAL Alta Normal Baja GOTA (G) SI HIPOTIROIDISMO SI NO SI NO NO SI NO SI
Aprendizaje Automático Segundo Cuatrimestre de Árboles de Decisión
Aprendizaje Automático Segundo Cuatrimestre de 2015 Árboles de Decisión Aproximación de Funciones Ejemplo: Un amigo juega al tenis los sábados. Juega o no, dependiendo del estado del tiempo. Cielo: {Sol,
Tema 8: Árboles de Clasificación
Tema 8: Árboles de Clasificación p. 1/11 Tema 8: Árboles de Clasificación Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad
Tema 8: Árboles de decisión
Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla
ARBOLES DE DECISION. Miguel Cárdenas-Montes. 1 Introducción. Objetivos: Entender como funcionan los algoritmos basados en árboles de decisión.
ARBOLES DE DECISION Miguel Cárdenas-Montes Los árboles de decisión son estructuras lógicas con amplia utilización en la toma de decisión, la predicción y la minería de datos. Objetivos: Entender como funcionan
D conjunto de N patrones etiquetados, cada uno de los cuales está caracterizado por n variables predictoras X 1,..., X n y la variable clase C.
Tema 10. Árboles de Clasificación Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco Euskal Herriko Unibertsitatea
Proyecto 6. Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial.
Árboles de decisión: Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial. Funcionamiento: Se realiza un test en cada nodo interno del árbol, a medida que
Árboles de Decisión Árboles de Sintaxis
Árboles de Decisión Árboles de Sintaxis Estructuras de Datos Andrea Rueda Pontificia Universidad Javeriana Departamento de Ingeniería de Sistemas Árboles de Decisión Árbol de Decisión Forma gráfica de
Tema 7: Aprendizaje de árboles de decisión
Inteligencia Artificial 2 Curso 2002 03 Tema 7: Aprendizaje de árboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Francisco J. Martín Mateos José L. Ruiz Reina Dpto. de Ciencias de
Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria
Minería de Datos Árboles de Decisión Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Otoño de 2012 Twenty questions Intuición sobre los árboles de decisión Juego
3. Árboles de decisión
3.1 Introducción Método para aproximación de funciones objetivo que tengan valores discretos (clasificación) Uno de los métodos mas extensamente usados para inferencia inductiva Capaz de aprender hipótesis
ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES
ÁRBOLES CRISTIAN ALFREDO MUÑOZ ÁLVAREZ JUAN DAVID LONDOÑO CASTRO JUAN PABLO CHACÓN PEÑA EDUARDO GONZALES ÁRBOL Un árbol es un grafo no dirigido, conexo, sin ciclos (acíclico), y que no contiene aristas
Inducción de Árboles de Decisión ID3, C4.5
Inducción de Árboles de Decisión ID3, C4.5 Contenido 1. Representación mediante árboles de decisión. 2. Algoritmo básico: divide y vencerás. 3. Heurística para la selección de atributos. 4. Espacio de
Análisis y Complejidad de Algoritmos. Arboles Binarios. Arturo Díaz Pérez
Análisis y Complejidad de Algoritmos Arboles Binarios Arturo Díaz Pérez Arboles Definiciones Recorridos Arboles Binarios Profundidad y Número de Nodos Arboles-1 Arbol Un árbol es una colección de elementos,
Carteras minoristas. árbol de decisión. Ejemplo: Construcción de un scoring de concesión basado en un DIRECCIÓN GENERAL DE SUPERVISIÓN
Carteras minoristas Ejemplo: Construcción de un scoring de concesión basado en un árbol de decisión Grupo de Tesorería y Modelos de Gestión de Riesgos Sergio Gavilá II Seminario sobre Basilea II Validación
MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión.
MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión. 1 Objetivos del tema Conocer en qué consiste un árbol de decisión. Aprender los problemas que pueden
Aprendizaje inductivo
Inteligencia Artificial Aprendizaje inductivo Ing. Sup. en Informática, 4º Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3.1 Introducción
Aprendizaje Automatizado. Árboles de Clasificación
Aprendizaje Automatizado Árboles de Clasificación Árboles de Clasificación Estudiaremos un algoritmo para la creación del árbol. Selección de atributos comenzando en el nodo raíz. Proceso recursivo. Árboles
Inducción de Árboles de Decisión ID3, C4.5
Inducción de Árboles de Decisión ID3, C4.5 Contenido 1. Representación mediante árboles de decisión 2. Algoritmo básico: divide y vencerás 3. Heurística para la selección de atributos 4. Espacio de búsqueda
Aprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Árboles. Un grafo no dirigido es un árbol si y sólo si existe una ruta unica simple entre cualquiera dos de sus vértices.
ÁRBOLES Árboles Un grafo conectado que no contiene circuitos simples. Utilizados desde 1857, por el matemático Ingles Arthur Cayley para contar ciertos tipos de componentes químicos. Un árbol es un grafo
Aprendizaje de árboles de decisión. Aprendizaje de árboles de decisión
Aprendizaje de árboles de decisión José M. Sempere Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia Aprendizaje de árboles de decisión 1. Introducción. Definición
ALGORITMO MINIMAX. o Nodo: Representa una situación del juego. o Sucesores de un nodo: Situaciones del juego a las que se
ALGORITMO MINIMAX Algoritmo de decisión para minimizar la pérdida máxima aplicada en juegos de adversarios Información completa (cada jugador conoce el estado del otro) Elección del mejor movimiento para
Arboles de Decisión Representación de los árboles de decisión
Capítulo 10 Arboles de Decisión Resumen En este capítulo abordaremos la solución de problemas en el contexto del aprendizaje automático, ejemplificado con el algoritmo ID3 [13] (Inductive Dicotomizer).
Aux 6. Introducción a la Minería de Datos
Aux 6. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 [email protected] 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial
4ta. Práctica. Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta. Inteligencia Artificial Prácticas 2004/2005
4ta. Práctica Búsqueda en árbol con contrincante: MiniMax con poda Alfa-Beta Inteligencia Artificial Prácticas 2004/2005 Decisiones Perfectas en Juegos de DOS Participantes Definición de Juego Estado Inicial:
Estructuras de Datos
108 Ejercicio: Genere el árbol binario de búsqueda para la siguiente secuencia de números: 8, 9, 11, 15, 19, 20, 21, 7, 3, 2, 1, 5, 6, 4, 13, 14, 10, 12, 17, 16, 18. Analice y describa lo que sucede durante
Un árbol binario T se define como un conjunto finito de elementos, llamados nodos, de forma que:
Instituto Universitario de Tecnología Industrial Rodolfo Loero Arismendi I.U.T.I.R.L.A. ÁRBOLES Sección 3DA Asignatura: Estructura de Datos Lenguaje (C). Ciudad Bolívar _ abril_ 2006. Introducción El siguiente
ÁRBOLES DE SINTAXIS. Los nodos no terminales (nodos interiores) están rotulados por los símbolos no terminales.
ÁRBOLES DE SINTAXIS ÁRBOL grafo dirigido acíclico. Los nodos no terminales (nodos interiores) están rotulados por los símbolos no terminales. Los nodos terminales (nodos hojas) están rotulados por los
Capítulo 4: Grafos Clase 4: Árboles
Capítulo 4: Grafos Clase 4: Árboles Matemática Discreta - CC3101 Profesor: Pablo Barceló P. Barceló Matemática Discreta - Cap. 4: Grafos 1 / 12 Árboles Los árboles son una clase particular de grafos que
Matemáticas Discretas L. Enrique Sucar INAOE. Teoría de Grafos. Problema de los puentes de Königsberg [Euler]
Matemáticas Discretas L. Enrique Sucar INAOE Teoría de Grafos Problema de los puentes de Königsberg [Euler] Teoría de Grafos Definición y terminología Tipos de grafos Trayectorias y circuitos Isomorfismo
Generación de variables aleatorias discretas Método de la Transformada Inversa
Generación de variables aleatorias discretas Método de la Transformada Inversa Patricia Kisbye FaMAF 30 de marzo, 2010 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Tema 12: Arboles de decisión
Razonamiento Automático Curso 2000 2001 Tema 12: Arboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla
12 ESTADÍSTICA Y PROBABILIDAD
12 ESTADÍSTICA Y PROBABILIDAD 12.1.- TABLAS DE FRECUENCIA ABSOLUTA Y RELATIVA. PARÁMETROS ESTADÍSTICOS. 12.2.- GRÁFICOS ESTADÍSTICOS 12.3.- CÁLCULO DE PROBABILIDADES. REGLA DE LAPLACE. 12.1.- TABLAS DE
Búsqueda en línea y Búsqueda multiagente
Búsqueda en línea y Búsqueda multiagente Ingeniería Informática, 4º Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani 1 Tema 2: Agentes basados en Búsqueda Resumen: 2. Agentes basados
Tema 4: Gramáticas independientes del contexto. Teoría de autómatas y lenguajes formales I
Tema 4: Gramáticas independientes del contexto Teoría de autómatas y lenguajes formales I Bibliografía Hopcroft, J. E., Motwani, R., y Ullman, J. D. Introducción a la Teoría de Autómatas, Lenguajes y Computación.
Métodos de Inteligencia Artificial
Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) [email protected] ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden Introducción Tipos de aprendizaje Aprendizaje cómo
Arboles de decisión. Area de Computación e Inteligencia Artificial
Arboles de decisión 1 Teoría de la decisión Hemos estudiado las redes bayesianas como instrumento para el diagnóstico en presencia de incertidumbre. La idea ahora es aprovechas ese diagnóstico para decidir
Árboles de decisión en aprendizaje automático y minería de datos
Árboles de decisión en aprendizaje automático y minería de datos Tratamiento Inteligente de la Información y Aplicaciones Juan A. Botía Departamento de Ingeniería de la Información y las Comunicaciones
Controla el flujo de tokens reconocidos por parte del analizador léxico. 4.2 Introduccion a las gramaticas libres de contexto y arboles de derivacion
UNIDAD IV Analisis Sintactico 4.1 Introduccion Sintaxis significa estructura del orden de las palabras en una frase. La tarea del analisis sintactico es revisar si los símbolos aparecen en el orden correcto
Aprendizaje Automático: Arboles de Decisión.
Aprendizaje Automático: Arboles de Decisión. Dr. Alejandro Guerra Hernández Universidad Veracruzana Facultad de Física e Inteligencia Artificial Maestría en Inteligencia Artificial Sebastián Camacho No.
Tema 10: Árbol binario de búsqueda
Tema 10: Árbol binario de búsqueda M. en C. Edgardo Adrián Franco Martínez http://www.eafranco.com [email protected] @edfrancom edgardoadrianfrancom (Prof. Edgardo A. Franco) 1 Contenido Árbol binario de
Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR
Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja
MATRIZ DE ARBOLES DE DECISION
MATRIZ DE ARBOLES DE DECISION Los árboles son un subconjunto importante de los grafos, y son una herramienta útil para describir estructuras que presentan algún tipo de jerarquía. Las dificultades de las
Técnicas de Minería de Datos
Técnicas de Minería de Datos Act. Humberto Ramos S. 1 Qué es Minería de datos? El desarrollo de dispositivos tecnológicos para acumular datos a bajo costo. Acumulación o registro de gran cantidad de datos.
UNIDAD Creación del Árbol Octal de un objeto sólido vía la definición CSG
UNIDAD 3 3 Creación de Árbol Octal vía la definición CSG 3.1 Creación del Árbol Octal de un objeto sólido vía la definición CSG Un árbol CSG hace uso de un conjunto de primitivas sólidas, estas primitivas
Definición 1.1 Sea G = (V, A) un grafo no dirigido. G se denomina árbol si es conexo y no contiene ciclos.
Matemática Discreta y Lógica 2 1. Árboles Árboles Definición 1.1 Sea G = (V, A) un grafo no dirigido. G se denomina árbol si es conexo y no contiene ciclos. Como un lazo es un ciclo de longitud 1, un árbol
TRABAJO PRÁCTICO III: Minería de datos. PARTE 01: Arboles de decisión (J48)
TRABAJO PRÁCTICO III: Minería de datos PARTE 01: Arboles de decisión (J48) Introducción: En este trabajo se implementa el primero de una serie de algoritmos que se presentarán durante la materia para realizar
Tema 9: Inducción de Reglas
Tema 9: Inducción de Reglas p. 1/15 Tema 9: Inducción de Reglas Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País
La máxima distancia entre dos nodos de un árbol está dada por alguna de las 3 siguientes: La máxima distancia entre dos nodos del subárbol izquierdo.
Dado un árbol binario cualquiera, calcular la máxima distancia entre dos nodos. El algoritmo debe funcionar en orden de complejidad, siendo n la cantidad de nodos. Idea del algoritmo: La máxima distancia
Definición 1: Un grafo G es una terna ordenada (V(G), E(G), Ψ
Título: Un Arbol Natural Autor: Luis R. Morera onzález Resumen En este artículo se crea un modelo para representar los números naturales mediante un grafo, el cual consiste de de un árbol binario completo
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar
Sesión 4: Teoría de Grafos
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 4: Teoría de Grafos Problema de los puentes de Königsberg [Euler] Teoría de Grafos Definición y terminología Tipos de grafos Trayectorias y
Inteligencia Artificial
I.T. en Informática de Sistemas, 3º Curso académico: 2009/2010 Profesores: Sascha Ossowski y Ramón Hermoso 1 Tema 2: Búsqueda Resumen: 2. Búsqueda 2.1. Agentes de resolución de problemas 2.2. Búsqueda
Capítulo 2: Inducción y recursión Clase 3: Definiciones recursivas e Inducción estructural
Capítulo 2: Inducción y recursión Clase 3: Definiciones recursivas e Inducción estructural Matemática Discreta - CC3101 Profesor: Pablo Barceló P. Barceló Matemática Discreta - Cap. 2: Inducción y Recursión
Árboles n-arios de búsqueda. Lección 16
Árboles n-arios de búsqueda Lección 16 Definiciones Los árboles n-arios de búsqueda (árboles de búsqueda múltiples o multicamino) son árboles de grado n definidos de la forma: si el árbol A es vacío, entonces
Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile
Arboles de Decisión (II) Carlos Hurtado L. Depto de Ciencias de la Computación, Universidad de Chile Arboles de Decisión Algoritmo de Hunt (I) Nodo interior Nodo por expandir Nodo hoja Algoritmo de Hunt
Aprendizaje automático mediante árboles de decisión
Aprendizaje automático mediante árboles de decisión Aprendizaje por inducción Los árboles de decisión son uno de los métodos de aprendizaje inductivo más usado. Hipótesis de aprendizaje inductivo: cualquier
Algoritmos glotones 2 (código de Huffman) mat-151
Algoritmos glotones 2 (código de Huffman) mat-151 Alonso Ramírez Manzanares Computación y Algoritmos 05.06.2009 Son técnicas muy efectivas para comprimir datos. Alcanzan una compresión de entre 20% y 90%
Estructuras de Datos y Algoritmos
Estructuras de Datos y Algoritmos Tema 5.1. Árboles. Árboles binarios y generales Prof. Dr. P. Javier Herrera Contenido 1. Introducción 2. Terminología 3. Árboles binarios 4. Árboles generales Tema 5.1.
Capítulo 8. Árboles. Continuar
Capítulo 8. Árboles Continuar Introducción Uno de los problemas principales para el tratamiento de los grafos es que no guardan una estructura establecida y que no respetan reglas, ya que la relación entre
Arboles de decisión. Area de Computación e Inteligencia Artificial
Arboles de decisión Teoría de la decisión Hemos estudiado las redes bayesianas como instrumento para el diagnóstico en presencia de incertidumbre. La idea ahora es aprovechar ese diagnóstico para decidir
No se permiten libros ni apuntes. Ejercicio 1 Ejercicio 2 Ejercicio 3 Ejercicio 4 TOTAL NOTA
Junio Duración: h Ejercicio Ejercicio Ejercicio Ejercicio TOTAL NOTA Ejercicio : [ puntos: respuesta acertada = +., respuesta incorrecta =.] Complete las siguientes frases y conteste a cada una con verdadero
Estructura de Datos Unidad 6: ARBOLES
Estructura de Datos Unidad 6: ARBOLES A. CONCEPTO DE ARBOL B. TIPOS DE ARBOL C. ARBOL BINARIO D. IMPLEMENTACION DE UN ARBOL BINARIO E. PROYECTO Introducción En ciencias de la informática, un árbol es una
Lenguajes y Compiladores Aspectos Formales (Parte 1) Compiladores
Facultad de Ingeniería de Sistemas Lenguajes y Aspectos Formales (Parte 1) 1 Aspectos Formales Los compiladores traducen lenguajes que están formalmente definidos a través de reglas que permiten escribir
Apellidos:... Nombre:...
Apellidos:....................................... Nombre:........................................ Introducción a la Inteligencia Artificial 1 er Parcial de Teoría 12 Noviembre 2004 Ejercicio 1: Responder
Tema 11: Inducción de Reglas p. 1/1
Tema 11: Inducción de Reglas Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/ Tema
Investigación Operativa
Investigación Operativa Unidad: Teoría de decisiones y modelos de programación lineal Docente: Johnny. Pacheco Contreras Unidad Teoría de decisiones y modelos de programación lineal. Logro Al finalizar
Árboles. Árboles. Árboles binarios de búsqueda. Árboles. Inserción en un árbol. Árbol binario de búsqueda
Árboles Árboles Mario Medina C. [email protected] Árboles Estructura recursiva Árbol vacío 0 o más árboles hijos Altura ilimitada Árbol binario A lo más dos hijos: izquierdo y derecho Árboles Árboles
INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE CÓMPUTO ÁRBOLES DE DECISIÓN. M. En C. Eduardo Bustos Farías
INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE CÓMPUTO ÁRBOLES DE DECISIÓN M. En C. Eduardo Bustos Farías 1 Árboles de decisión La Matriz de Ganancias es conveniente de utilizar para la toma de decisiones
Árboles B y B ) 20. Algoritmos y Estructuras de Datos II I.T. en Informática de Gestión/Sistemas Universidad de Huelva 63
y B + 3.8 y B+! Problema de los ABB cuando se usa almacenamiento secundario:! la búsqueda de un elemento requeriría muchos accesos a disco (un acceso a disco es extremadamente lento si lo comparamos con
Inteligencia Artificial. Integrantes Equipo # 1:
INSTITUTO TECNOLÓGICO De Nuevo Laredo Especialidad: Ingeniería en Sistemas Computacionales Catedrático: Ing. Bruno López Takeyas. Asignatura: Inteligencia Artificial. Integrantes Equipo # 1: Javier Alonso
Algoritmos y Programación II Curso 2006
Arboles: Un árbol es una colección de elementos, llamados nodos, uno de los cuales se distingue con el nombre de raíz. Los nodos mantienen entre ellos una relación que define una estructura jerárquica
Análisis de. Análisis de. Decisiones:
Análisis de : Tablas de Pagos y Árboles de Decisión Fragoso Iñiguez I Marisol Salazar Rosales Leandro Julián Noviembre, 06 Tablas de Pagos Una situación de decisión en condiciones de incertidumbre puede
Lenguajes y Compiladores Análisis Sintáctico Parte I. Teoría Lenguajes 1
Facultad de Ingeniería de Sistemas Lenguajes y Compiladores Análisis Sintáctico Parte I 1 Introducción El analizador sintáctico recibe una secuencia de tokens y decide si la secuencia está correcta o no.
Programación Estructuras Arborescentes
Programación 2 4 - Estructuras Arborescentes 1 Definición La recursión puede ser utilizada para la definición de estructuras realmente sofisticadas. Una estructura árbol (árbol general o finitario) con
Tema 6: Estructuras de datos recursivas
Tema 6: Estructuras de datos recursivas Índice 1 Listas jerárquicas...2 2 Árboles binarios... 4 3 Árboles genéricos...7 4 Referencias...10 1. Listas jerárquicas Las listas tienen la propiedad de la clausura
Universidad Nacional de Quilmes 1. Teoría de Circuitos. Métodos de resolución de circuitos
1 Teoría de Circuitos Métodos de resolución de circuitos Condición: se aplican a redes bilaterales lineales. El término bilateral se refiere a que no habrá cambios en el comportamiento de la respuesta
Lógica y Programación
Lógica y Programación Diagramas de Decisión Binarios J.-A. Alonso, F.-J. Martín-Mateos, J.-L. Ruiz-Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Lógica y Programación
El Juego como Problema de Búsqueda
El Juego como Problema de Búsqueda En este algoritmo identificamos dos jugadores: max y min. El objetivo es encontrar la mejor movida para max. Supondremos que max mueve inicialmente y que luego se turnan
Problemas de programación entera: El método Ramifica y Acota. Investigación Operativa, Grado en Estadística y Empresa, 2011/12
Problemas de programación entera: El método Ramifica y Acota Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema La estrategia Divide y vencerás Árboles de enumeración
UNLPam - Fac. Cs. Econ. y Jur.
Bibliografía Anderson, Sweeney y Williams; Introducción a los modelos cuantitativos para Administración. Grupo Editorial Iberoamérica. Eppen, Gould, Schmidt, Moore, Weatherford; Investigación de Operaciones
Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR
Tareas de la minería de datos: clasificación PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja o asocia datos
Particiones binarias del espacio (BSP)
(BSP) Contenido 1. Introducción. 2. Quadtrees. 3. Árboles BSP. 4. Aplicación al algoritmo del pintor. 5. Construcción de un árbol BSP. 6. Conclusiones. Contenido 1. Introducción. 2. Quadtrees. 3. Árboles
Tema 7: Sesgo inductivo
Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 7: Sesgo inductivo Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIC
* ANÁLISIS DE ESTRUCTURAS
UNIVERSIDAD NACIONAL DEL CALLAO FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA (FIEE) ESCUELA PROFESIONAL DE INGENIERÍA ELÉCTRICA * ANÁLISIS DE ESTRUCTURAS ING. JORGE MONTAÑO PISFIL CALLAO, 2010 INTRODUCCIÓN
El TAD Árbol. El TAD Árbol
Objetivos! Presentar el árbol como estructura de datos jerárquica! Estudiar diferentes variantes de árboles, tanto en su especificación como en su implementación Contenidos 3.1 Concepto, definiciones y
Contenido PARTE II: ESTRUCTURAS DE DATOS AVANZADAS
Contenido PARTE II: ESTRUCTURAS DE DATOS AVANZADAS TEMA 4. - La Estructura de datos Árbol 4.1. Árboles, definiciones 4.2 Árboles binarios y su representación 4.3 Operaciones básicas de un árbol binario
A B MIN C D E F MAX x E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO
E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO UNIVERSIDAD DE MÁLAGA Dpto. Lenguajes y Ciencias de la Computación RELACIÓN DE PROBLEMAS. TEMA IV. PROBLEMAS DE JUEGOS.
