Inteligencia Artificial II

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Inteligencia Artificial II"

Transcripción

1 Inteligencia Artificial II Introducción a las Redes Bayesianas J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial II - Tema 5 p. 1/71

2 Redes bayesianas Como vimos en el tema anterior, las relaciones de independencia (condicional) nos permiten reducir el tamaño de la información necesaria para especificar una DCC Las redes bayesianas (o redes de creencia) constituyen una manera práctica y compacta de representar el conocimiento incierto, basada en esta idea Inteligencia Artificial II - Tema 5 p. 2/71

3 Redes bayesianas Una red bayesiana es un grafo dirigido acíclico que consta de Un conjunto de nodos, uno por cada variable aleatoria del mundo Un conjunto de arcos dirigidos que conectan los nodos; si hay un arco de X a Y decimos que X es un padre de Y (padres(x) denota el conjunto de v.a. que son padres de X) Cada nodo X i contiene la distribución de probabilidad condicional P(X i padres(x i )) Intuitivamente, en una red bayesiana un arco entre X e Y significa una influencia directa de X sobre Y Es tarea del experto en el dominio el decidir las relaciones de dependencia directa (es decir, la topología de la red) Inteligencia Artificial II - Tema 5 p. 3/71

4 Ejemplo de red bayesiana (Russell y Norvig) P(sol) P(lluv) P(nubl) P(nieve) P(caries) Tiempo Caries Caries P(dolor) caries no caries Dolor Huecos Caries P(hueco) caries 0.9 no caries 0.2 Inteligencia Artificial II - Tema 5 p. 4/71

5 Observaciones sobre el ejemplo La topología de la red anterior nos expresa que: Caries es una causa directa de Dolor y Huecos Dolor y Huecos son condicionalmente independientes dada Caries T iempo es independiente de las restantes variables No es necesario dar la probabilidad de las negaciones de caries, dolor,... Inteligencia Artificial II - Tema 5 p. 5/71

6 Otro ejemplo (Pearl, 1990): Tenemos una alarma antirrobo instalada en una casa La alarma salta normalmente con la presencia de ladrones Pero también cuando ocurren pequeños temblores de tierra Tenemos dos vecinos en la casa, Juan y María, que han prometido llamar a la policía si oyen la alarma Juan y María podrían no llamar aunque la alarma sonara: por tener música muy alta en su casa, por ejemplo Incluso podrían llamar aunque no hubiera sonado: por confundirla con un teléfono, por ejemplo Inteligencia Artificial II - Tema 5 p. 6/71

7 Red bayesiana para el ejemplo de la alarma P(robo) Robo Terremoto P(terr) Robo Terrem P(alarma) Alarma robo robo no robo no robo terr 0.95 no terr terr no terr Alarma P(juanll) Alarma P(mariall) Juanllama Mariallama alarma 0.90 alarma 0.70 no alarma 0.05 no alarma 0.01 Inteligencia Artificial II - Tema 5 p. 7/71

8 Observaciones sobre el ejemplo La topología de la red nos expresa que: Robo y Terremoto son causas directas para Alarma También, Robo y Terremoto son causas para Juanllama y para Mariallama, pero esa influencia sólo se produce a través de Alarma: ni Juan ni María detectan directamente el robo ni los pequeños temblores de tierra En la red no se hace referencia directa, por ejemplo, a las causas por las cuales María podría no oír la alarma: éstas están implícitas en la tabla de probabilidades P(M ariallama Alarma) Inteligencia Artificial II - Tema 5 p. 8/71

9 Un tercer ejemplo (Charniak, 1991): Supongamos que quiero saber si alguien de mi familia está en casa, basándome en la siguiente información Si mi esposa sale de casa, usualmente (pero no siempre) enciende la luz de la entrada Hay otras ocasiones en las que también enciende la luz de la entrada Si no hay nadie en casa, el perro está fuera Si el perro tiene problemas intestinales, también se deja fuera Si el perro está fuera, oigo sus ladridos Podría oír ladrar y pensar que es mi perro aunque no fuera así Variables aleatorias (booleanas) en este problema: Fuera (nadie en casa), Luz (luz en la entrada), Perro (perro fuera), Inst (problemas intestinales en el perro) y Oigo (oigo al perro ladrar) Inteligencia Artificial II - Tema 5 p. 9/71

10 Red bayesiana para el ejemplo de la familia fuera de casa P(fuera) 0.15 Fuera Inst P(inst) 0.01 Fuera Inst P(perro) Fuera P(luz) fuera 0.6 no fuera 0.05 Luz Perro fuera fuera no fuera inst no inst inst no fuera no inst 0.3 Perro P(oigo) perro 0.7 no perro 0.01 Oigo Inteligencia Artificial II - Tema 5 p. 10/71

11 Las redes bayesianas representan DCCs Consideremos una red bayesiana con n variables aleatorias Y un orden entre esas variables: X 1,...,X n En lo que sigue, supondremos que: padres(x i ) {X i 1,...,X 1 } (para esto, basta con que el orden escogido sea consistente con el orden parcial que induce el grafo) P(X i X i 1,...,X 1 ) = P(X i padres(x i )) (es decir, cada variable es condicionalmente independiente de sus anteriores, dados sus padres en la red) Estas condiciones expresan formalmente nuestra intuición al representar nuestro mundo mediante la red bayesiana correspondiente En el ejemplo de la alarma, la red expresa que creemos que P(M ariallama Juanllama, Alarma, T erremoto, Robo) = P(M ariallama Alarma) Inteligencia Artificial II - Tema 5 p. 11/71

12 Las redes bayesianas representan DCCs En las anteriores condiciones, y aplicando repetidamente la regla del producto: P(X 1,...,X n ) = P(X n X n 1...,X 1 )P(X n 1...,X 1 ) = = n P(X i X i 1,...,X 1 ) = i=1 n P(X i padres(x i )) i=1 Es decir, una red bayesiana representa una DCC obtenida mediante la expresión P(X 1,...,X n ) = n i=1 P(X i padres(x i )) Por ejemplo, en el ejemplo de la alarma, la probabilidad de que la alarma suene, Juan y María llamen a la policía, pero no haya ocurrido nada es (usamos iniciales, por simplificar): P(j,m,a, r, t) = P(j a)p(m a)p(a r, t)p( r)p( t) = = = Inteligencia Artificial II - Tema 5 p. 12/71

13 Representaciones compactas Dominios localmente estructurados: Las relaciones de independencia que existen entre las variables de un dominio hacen que las redes bayesianas sean una representación mucho más compacta y eficiente de una DCC que la tabla con todas las posibles combinaciones de valores Además, para un experto en un dominio de conocimiento suele ser más natural dar probabilidades condicionales que directamente las probabilidades de la DCC Inteligencia Artificial II - Tema 5 p. 13/71

14 Representaciones compactas Con n variables, si cada variable está directamente influenciada por k variables a lo sumo, entonces una red bayesiana necesitaría n2 k números, frente a los 2 n números de la DCC Por ejemplo, Para n = 30 y k = 5, esto supone 960 números frente a 2 30 (billones) Hay veces que una variable influye directamente sobre otra, pero esta dependencia es muy tenue En ese caso, puede compensar no considerar esa dependencia, perdiendo algo de precisión en la representación, pero ganando manejabilidad Inteligencia Artificial II - Tema 5 p. 14/71

15 Algoritmo de construcción de una red bayesiana Supongamos dado un conjunto de variables aleatorias VARIABLES que representan un dominio de conocimiento (con incertidumbre) CONSTRUYE_RED(VARIABLES) 1. Sea (X_1,...X_n) una ordenación de VARIABLES 2. Sea RED una red bayesiana vacía 3. PARA i=1,...,n HACER 3.1 Añadir un nodo etiquetado con X_i a RED 3.2 Sea padres(x_i) un subconjunto minimal de {X_{i-1},...,X1} tal que existe una independencia condicional entre X_i y cada elemento de {X_{i-1},...,X1} dado padres(x_i) 3.3 Añadir en RED un arco dirigido entre cada elemento de padres(x_i) y X_i 3.4 Asignar al nodo X_i la tabla de probabilidad P(X_i padres(x_i)) 4. Devolver RED Inteligencia Artificial II - Tema 5 p. 15/71

16 Ejemplo de construcción de red bayesiana (alarma) Partiendo del orden Robo, T erremoto, Alarma, Juanllama, M ariallama, y aplicando el algoritmo anterior obtenemos la red del ejemplo: P(robo) Robo Terremoto P(terr) Robo Terrem P(alarma) Alarma robo robo no robo no robo terr 0.95 no terr terr no terr Alarma P(juanll) Alarma P(mariall) Juanllama Mariallama alarma 0.90 alarma 0.70 no alarma 0.05 no alarma 0.01 Inteligencia Artificial II - Tema 5 p. 16/71

17 Construcción de redes bayesianas Problema: elección del orden entre variables En general, deberíamos empezar por las causas originales, siguiendo con aquellas a las que influencian directamente, etc..., hasta llegar a las que no influyen directamente sobre ninguna (modelo causal) Esto hará que las tablas reflejen probabilidades causales más que diagnósticos, lo cual suele ser preferible por los expertos Inteligencia Artificial II - Tema 5 p. 17/71

18 Construcción de redes bayesianas Un orden malo puede llevar a representaciones poco eficientes Ejemplo: red izquierda (M ariallama, Juanllama, Alarma, Robo y T erremoto) y red derecha (M ariallama, Juanllama, T erremoto, Robo y Alarma) Mariallama Mariallama Juanllama Juanllama Alarma Terremoto Robo Robo Terremoto Alarma Inteligencia Artificial II - Tema 5 p. 18/71

19 Inferencia probabilística en una red bayesiana El problema de la inferencia en una red bayesiana: Calcular la probabilidad a posteriori para un conjunto de variables de consulta, dado que se han observado algunos valores para las variables de evidencia Por ejemplo, podríamos querer saber qué probabilidad hay de que realmente se haya producido un robo, sabiendo que tanto Juan como María han llamado a la policía Es decir, calcular P(Robo juanllama, mariallama) Inteligencia Artificial II - Tema 5 p. 19/71

20 Inferencia probabilística en una red bayesiana Notación: X denotará la variable de consulta (sin pérdida de generalidad supondremos sólo una variable) E denota un conjunto de variables de evidencia E 1,E 2,...,E n y e una observación concreta para esas variables Y denota al conjunto de las restantes variables de la red (variables ocultas) e y representa un conjunto cualquiera de valores para esas variables Inteligencia Artificial II - Tema 5 p. 20/71

21 Inferencia por enumeración Recordar la fórmula para la inferencia probabilística a partir de una DCC: P(X e) = αp(x,e) = α y P(X,e,y) Esta fórmula será la base para la inferencia probabilística: Puesto que una red bayesiana es una representación de una DCC, nos permite calcular cualquier probabilidad a posteriori a partir de la información de la red bayesiana Esencialmente, se trata de una suma de productos de los elementos de las tablas de las distribuciones condicionales Inteligencia Artificial II - Tema 5 p. 21/71

22 Un ejemplo de inferencia probabilística Ejemplo de la alarma (usamos iniciales por simplificar): P(R j,m) = α P(r j,m),p( r j,m) = = α P(r,t,a,j,m), P( r,t,a,j,m) = t a t a = α P(r)P(t)P(a r,t)p(j a)p(m a), t a P( r)p(t)p(a r, t)p(j a)p(m a) t a Inteligencia Artificial II - Tema 5 p. 22/71

23 Un ejemplo de inferencia probabilística En este ejemplo hay que hacer 2 4 sumas, cada una de ellas con un producto de cinco números tomados de la red bayesiana En el peor de los casos, con n variables booleanas, este cálculo toma O(n2 n ) Una primera mejora consiste en sacar factor común de aquellas probabilidades que sólo involucran variables que no aparecen en el sumatorio: P(R j,m) = α P(r) t P(t) a P(a r, t)p(j a)p(m a), P( r) t P(t) a P(a r,t)p(j a)p(m a) = = α , = 0.284, Inteligencia Artificial II - Tema 5 p. 23/71

24 Inferencia por enumeración Las operaciones realizadas en la fórmula anterior se pueden simbolizar con el siguiente árbol: P(a r,t).95 P(t).002 P(r) P(~t) P(~a r,t) P(a r,~t) P(~a r,~t).06 P(j a).90 P(j ~a).05 P(j a).90 P(j ~a).05 P(m a).70 P(m ~a).01 P(m a).70 P(m ~a).01 Inteligencia Artificial II - Tema 5 p. 24/71

25 Algoritmo de inferencia por enumeración Entrada: una v.a. X de consulta, un conjunto de valores observados e para la variables de evidencia y una red bayesiana. Salida: P(X e) FUNCION INFERENCIA_ENUMERACION(X,e,RED) 1. Sea Q(X) una distribución de probabilidad sobre X, inicialmente vacía 2. PARA cada valor x_i de X HACER 2.1 Extender e con el valor x_i para X 2.2 Hacer Q(x_i) el resultado de ENUM_AUX(VARIABLES(RED),e,RED) 3. Devolver NORMALIZA(Q(X)) Inteligencia Artificial II - Tema 5 p. 25/71

26 Algoritmo de inferencia por enumeración FUNCION ENUM_AUX(VARS,e,RED) 1. Si VARS es vacío devolver 1 2. Si no, 2.1 Hacer Y igual a PRIMERO(VARS) 2.2 Si Y tiene un valor y en e, devolver P(y padres(y,e)) ENUM_AUX(RESTO(VARS),e) Si no, devolver SUMATORIO(y,P(y padres(y,e)) ENUM_AUX(RESTO(VARS),e_y)) (donde: padres(y,e) es el conjunto de valores que toman en e los padres de Y en la RED, y e_y extiende e con el valor y para Y) Inteligencia Artificial II - Tema 5 p. 26/71

27 Algoritmo de inferencia por enumeración Observación: Para que el algoritmo funcione, VARIABLES(RED) debe devolver las variables en un orden consistente con el orden implícito en el grafo de la red (de arriba hacia abajo) Recorrido en profundidad: El algoritmo genera el árbol de operaciones anterior de arriba hacia abajo, en profundidad Por tanto, tiene un coste lineal en espacio Puede realizar cálculos repetidos En el ejemplo, P(j a)p(m a) y P(j a)p(m a) se calculan dos veces Cuando hay muchas variables, estos cálculos redundantes son inaceptables en la práctica Inteligencia Artificial II - Tema 5 p. 27/71

28 Evitando cálculos redundantes Idea para evitar el cálculo redundante: Realizar las operaciones de derecha a izquierda (o, equivalentemente, de abajo a arriba en el árbol de operaciones) Almacenar los cálculos realizados para posteriores usos En lugar de multiplicar números, multiplicaremos tablas de probabilidades Denominaremos factores a estas tablas Inteligencia Artificial II - Tema 5 p. 28/71

29 Evitando cálculos redundantes Por ejemplo, la operación P(R j,m) = αp(r) t P(t) a P(a R,t)P(j a)p(m a) puede verse como la multiplicación de cinco tablas o factores en los que hay intercaladas dos operaciones de suma o agrupamiento Se trata de hacer esas operaciones entre factores de derecha a izquierda Es el denominado algoritmo de eliminación de variables Veremos con más detalle cómo actuaría este algoritmo para calcular P(R j,m) Inteligencia Artificial II - Tema 5 p. 29/71

30 El algoritmo de eliminación de variables: un ejemplo En primer lugar, tomamos un orden fijado entre las variables de la red Un orden adecuado será esencial para la eficiencia del algoritmo (más adelante comentaremos algo más sobre el orden) En nuestro caso, tomaremos el inverso de un orden consistente con la topología de la red: M,J,A,T,R El factor correspondiente a M se obtiene a partir de la distribución condicional P(M A) Como M es una variable de evidencia y su valor está fijado a true, el factor correspondiente a P(m A), que notamos f ( A), es la tabla con componentes P(m a) y P(m a): Inteligencia Artificial II - Tema 5 p. 30/71

31 El algoritmo de eliminación de variables: un ejemplo La siguiente variable en el orden es J De manera análoga f 2 (A) (tomado de P(j A)) es el factor correspondiente Siguiente variable: A El factor correspondiente, notado f 3 (A,R,T) se obtiene a partir de P(A R,T) Ninguna de esas variables es de evidencia, y por tanto no están fijados sus valores Es una tabla con 2 2 2, una por cada combinación de valores de R (variable de consulta) A y T (variables ocultas) En este caso, esta tabla está directamente en la propia red Inteligencia Artificial II - Tema 5 p. 31/71

32 El algoritmo de eliminación de variables: un ejemplo Hasta ahora, no hemos realizado ninguna operación Sólamente hemos construido los factores Pero A es una variable oculta, así que hemos de realizar el sumatorio sobre sus valores Por tanto, multiplicamos ahora los tres factores y sumamos sobre A La multiplicación de f 1, f 2 y f 3, notada f 4 (A,R,T) se obtiene multiplicando las entradas correspondientes a los mismos valores de A, R y T Es decir, para cada valor v 1 de A, v 2 de R y v 3 de T se tiene f 4 (v 1,v 2,v 3 ) = f 1 (v 1 )f 2 (v 1 )f 3 (v 1,v 2,v 3 ) Por ejemplo: f 4 (true,false,true) = f 1 (true)f 2 (true)f 3 (true,false,true) = = Inteligencia Artificial II - Tema 5 p. 32/71

33 El algoritmo de eliminación de variables: un ejemplo Almacenamos f 4 y nos olvidamos de f 1,f 2 y f 3 Nota: aunque no es éste el caso, si alguno de los factores no tuviera a la variable A como argumento, lo conservaríamos y no participaría en la multiplicación, ni en el agrupamiento posterior Inteligencia Artificial II - Tema 5 p. 33/71

34 El algoritmo de eliminación de variables: un ejemplo Ahora hay que agrupar el valor de A en f 4 (realizar el sumatorio a ) Así, obtenemos una tabla f 5 (R,T) haciendo f 5 (v 1,v 2 ) = a f 4(a,v 1,v 2 ) para cada valor v 1 de R y v 2 de T, y variando a en los posibles valores de A Llamaremos a esta operación agrupamiento Hemos eliminado la variable A Una vez realizada la agrupación, guardamos f 5 y nos olvidamos de f 4 Inteligencia Artificial II - Tema 5 p. 34/71

35 El algoritmo de eliminación de variables: un ejemplo Continuamos con la siguiente variable T : El factor correspondiente a esta variable, que notaremos f 6 (T), es la tabla P(T) T es una variable oculta Por tanto, debemos multiplicar y agrupar, eliminando la variable T Notemos por f 7 (R) al resultado de multiplicar f 6 por f 5 y agrupar por T Podemos olvidarnos de f 5 y f 6 Inteligencia Artificial II - Tema 5 p. 35/71

36 El algoritmo de eliminación de variables: un ejemplo Ultima variable: R El factor correspondiente a esta variable, que notaremos f 8 (R), es la tabla P(R) Para finalizar: Multiplicamos los factores que nos quedan (f 7 y f 8 ) para obtener f 9 (R) y normalizamos para que sus dos entradas sumen 1 La tabla finalmente devuelta es justamente la distribución P(R j, m) Inteligencia Artificial II - Tema 5 p. 36/71

37 Observaciones sobre el algoritmo de eliminación de variables En cada momento tenemos un conjunto de factores, que va cambiando: Al añadir un nuevo factor, uno por cada variable que se considera Al multiplicar factores Al agrupar por una variable oculta Multiplicación de tablas: Si f 1 (X,Y ) y f 2 (Y,Z) son dos tablas cuyas variables en común son las de Y, se define su producto f(x,y,z) como la tabla cuyas entradas son f(x,y,z) = f 1 (x,y)f 2 (y,z) Similar a una operación join en bases de datos, multiplicando los valores correspondientes En el algoritmo de eliminación de variables, sólo multiplicaremos tablas: Previo a realizar cada operación de agrupamiento Y en el paso final Inteligencia Artificial II - Tema 5 p. 37/71

38 Observaciones sobre el algoritmo de eliminación de variables Agrupamiento de tablas: Dado un conjunto de factores, la operación de agrupar (respecto de los valores de una v.a. X) consiste en obtener otro conjunto de factores Se dejan igual aquellos que no tienen a la variable X entre sus argumentos Y el resto de factores se multiplican y se sustituyen por el resultado multiplicarlos y sumar en la tabla por cada posible valor de X Por ejemplo, si en el conjunto de factores f 1 (T),f 2 (A,R,T),f 3 (A),f 4 (A) tuvierámos que agrupar por la variable T, dejamos f 3 y f 4 y sustituimos f 1 y f 2 por el resultado de agregar (por cada valor de T ) la multiplicación de f 1 y f 2 La operación de sumar por un valor es similar a la agregación de una columna en bases de datos Inteligencia Artificial II - Tema 5 p. 38/71

39 Un paso previo de optimización: variables irrelevantes En el algoritmo de eliminación de variables, se suele realizar un paso previo de eliminación de variables irrelevantes para la consulta Ejemplo: Si la consulta a la red del ejemplo es P(J r), hay que calcular αp(r) t P(t) a P(a r,t)p (J a) m P(m a) Pero m P(m a) = 1, así que la variable M es irrelevante para la consulta Siempre podemos eliminar cualquier variable que sea una hoja de la red y que no sea de consulta ni de evidencia Y en general, se puede demostrar que toda variable que no sea antecesor (en la red) de alguna de las variables de consulta o de evidencia, es irrelevante para la consulta y por tanto puede ser eliminada Inteligencia Artificial II - Tema 5 p. 39/71

40 El algoritmo de eliminación de variables Entrada: una v.a. X de consulta, un conjunto de valores observados e para la variables de evidencia y una red bayesiana Salida: P(X e) FUNCION INFERENCIA_ELIMINACION_VARIABLES(X,e,RED) 1. Sea RED_E el resultado de eliminar de RED las variables irrelevantes para la consulta realizada 2. Sea FACTORES igual a vacío 3. Sea VARIABLES el conjunto de variables de RED_E 4. Sea VAR_ORD el conjunto de VARIABLES ordenado según un orden de eliminación 5. PARA cada V en VAR_ORD HACER 5.1 Sea FACTOR el factor correspondiente a VAR (respecto de e) 5.2 Añadir FACTOR a FACTORES 5.3 Si VAR es una variable oculta hacer FACTORES igual a AGRUPA(VAR,FACTORES) 6. Devolver NORMALIZA(MULTIPLICA(FACTORES)) Inteligencia Artificial II - Tema 5 p. 40/71

41 Otro ejemplo (Béjar) Consideremos las siguientes variables aleatorias: D: práctica deportiva habitual A: alimentación equilibrada S: presión sanguínea alta F : fumador I: ha sufrido un infarto de miocardio Las relaciones causales y el conocimiento probabilístico asociado están reflejadas en la siguiente red bayesiana Inteligencia Artificial II - Tema 5 p. 41/71

42 Otro ejemplo: red bayesiana P(d) 0.1 D A P(a) 0.4 A D P(s) P(f) 0.4 a no a a no a d d no d no d S F s S F P(i) no s s no s f f no f no f I Inteligencia Artificial II - Tema 5 p. 42/71

43 Ejemplo de inferencia probabilística Podemos usar la red bayesiana para calcular la probabilidad de ser fumador si se ha sufrido un infarto y no se hace deporte, P(F i, d) Directamente: Aplicamos la fórmula: P(F i, d) = αp(f,i, d) = α S,A P(F,i, d,a,s) Factorizamos según la red: P(F i, d) = α S,A P( d)p(a)p(s d,a)p (F)P (i S,F) Sacamos factor común: P(F i, d) = αp( d)p(f) A P(A) S P(S d,a)p (i S,F) Inteligencia Artificial II - Tema 5 p. 43/71

44 Ejemplo de inferencia probabilística Calculemos: Para F = true: P(f i, d) = α P( d) P(f) [P(a) (P(s d,a) P(i s,f) + P( s d,a) P(i s,f))+ +P( a) (P(s d, a) P(i s,f) + P( s d, a) P(i s,f))] = = α [0.4 ( )+0.6 ( )] = α Análogamente, para F = false, P( f i, d) = α 0,274 Normalizando, P(F i, d) = 0.48,0.52 Inteligencia Artificial II - Tema 5 p. 44/71

45 Aplicando eliminación de variables Seguiremos el siguiente orden de variables, inspirado en la topología de la red (de abajo a arriba): I,F,S,A,D Aunque igual otro orden sería más eficiente, pero eso no lo sabemos a priori Variable I: El factor f I (S,F) es P(i S,F) (no depende de I ya que su valor está determinado a i): S F f_{i}(s,f)=p(i S,F) s f 0.8 no s f 0.6 s no f 0.7 no s no f 0.3 FACTORES = {f I (S,F)} Inteligencia Artificial II - Tema 5 p. 45/71

46 Aplicando eliminación de variables Variable F : El factor f F (F) es P(F): F f_{f}(f)=p(f) f 0.4 no f 0.6 FACTORES = {f I (S,F),f F (F)} Inteligencia Artificial II - Tema 5 p. 46/71

47 Aplicando eliminación de variables Variable S: El factor f S (S,A) es P(S, d,a) (no depende de D ya que su valor está determinado a d): S A f_{s}(s,a)=p(s no d,a) s a 0.25 s no a 0.7 no s a 0.75 no s no a 0.3 FACTORES = {f I (S,F),f F (F),f S (S,A)} Inteligencia Artificial II - Tema 5 p. 47/71

48 Aplicando eliminación de variables Como S es una variable oculta, agrupamos por S Para ello, primero multiplicamos f I (S,F) y f S (S,A) obteniendo g(s,a,f) S A F g(f,a)=p(s no d,a) x P(i S,F) s a f 0.25 x 0.8 s no a f 0.7 x 0.8 s a no f 0.25 x 0.7 s no a no f 0.7 x 0.7 no s a f 0.75 x 0.6 no s no a f 0.3 x 0.6 no s a no f 0.75 x 0.3 no s no a no f 0.3 x 0.3 Inteligencia Artificial II - Tema 5 p. 48/71

49 Aplicando eliminación de variables Y ahora, sumamos g(s,a,f) por la variable S, obteniendo h(a,f) A F h(a,f)=sum_{s}g(s,a,f) a f 0.25 x x 0.6 = 0.65 no a f 0.7 x x 0.6 = 0.74 a no f 0.25 x x 0.3 = 0.4 no a no f 0.7 x x 0.3 = 0.58 Acabamos de eliminar la variable S FACTORES = {h(a,f),f F (F)} (nótese que f F (F) no se ha usado) Inteligencia Artificial II - Tema 5 p. 49/71

50 Aplicando eliminación de variables Variable A: El factor f A (A) es P(A): A f_{a}(a)=p(a) a 0.4 no a 0.6 FACTORES = {f A (A),h(A,F),f F (F)} Inteligencia Artificial II - Tema 5 p. 50/71

51 Aplicando eliminación de variables Como A es una variable oculta, agrupamos por A Para ello, primero multiplicamos f A (A) y h(a,f) obteniendo k(a,f) A F k(f,a)=p(a) x h(a,f) a f 0.4 x 0.65 = 0.26 no a f 0.6 x 0.74 = a no f 0.4 x 0.4 = 0.16 no a no f 0.6 x 0.58 = Inteligencia Artificial II - Tema 5 p. 51/71

52 Aplicando eliminación de variables Y ahora, sumamos k(a,f) por la variable A, obteniendo l(f) (y eliminando, por tanto, la variable S) F l(f)=sum_{a}k(a,f) f = no f = FACTORES = {l(f),f F (F)} Inteligencia Artificial II - Tema 5 p. 52/71

53 Aplicando eliminación de variables Variable D: Factor f D () (no depende de D, ya que su valor está fijado a d, por tanto se trata de una tabla con una única entrada): 0.9 FACTORES = {f D (),l(f),f F (F)} Inteligencia Artificial II - Tema 5 p. 53/71

54 Aplicando eliminación de variables Ultimo paso: multiplicamos y normalizamos Obsérvese que sólo hasta este paso hacemos uso del factor correspondiente a F Multiplicación F m(f)=f_d() x l(f) x f_f(f) f 0.9 x x 0.4 = no f 0.9 x x 0.6 = Normalizando obtenemos finalmente: P(F i, d) = 0.48, 0.52 Por tanto, la probabilidad de ser fumador, dado que se ha tenido un infarto y no se hace deporte, es del 48% Inteligencia Artificial II - Tema 5 p. 54/71

55 Complejidad del algoritmo de eliminación de variables La complejidad del algoritmo (tanto en tiempo como en espacio) está dominada por el tamaño del mayor factor obtenido durante el proceso Y en eso influye el orden en el que se consideren las variables (orden de eliminación) Podríamos usar un criterio heurístico para elegir el orden de eliminación En general, es conveniente moverse desde las hojas hacia arriba (consistentemente con la topología de la red) Si la red está simplemente conectada (poliárbol) se puede probar que la complejidad del algoritmo (en tiempo y espacio) es lineal en el tamaño de la red (el número de entradas en sus tablas) Una red está simplemente conectada si hay a lo sumo un camino (no dirigido) entre cada dos nodos Inteligencia Artificial II - Tema 5 p. 55/71

56 Complejidad de la inferencia exacta Pero en general, el algoritmo tiene complejidad exponencial (en tiempo y espacio) en el peor de los casos Cuando la inferencia exacta se hace inviable, es esencial usar métodos aproximados de inferencia Métodos estocásticos, basados en muestreos que simulan las distribuciones de probabilidad de la red Inteligencia Artificial II - Tema 5 p. 56/71

57 Muestreo Por muestreo (en ingles, sampling) respecto de una distribución de probabilidad entendemos métodos de generación de eventos, de tal manera que la probabilidad de generación de un evento dado coincide con la que indica la distribución El muestreo más sencillo: consideremos una v.a. booleana A tal que P(A) = θ,1 θ Basta con tener un método de generación aleatoria y uniforme de números x [0,1] Si se genera x < θ, se devuelve a; en caso contrario a En el límite, el número de muestras generadas con valor a entre el número de muestras totales es θ De manera sencilla, se generaliza esta idea para diseñar un procedimiento de muestreo respecto de la DCC que representa una red bayesiana. Inteligencia Artificial II - Tema 5 p. 57/71

58 Ejemplo de red bayesiana (Russell & Norvig) Consideremos las siguientes variables aleatorias booleanas: N: el cielo está nublado A: el aspersor se ha puesto en marcha LL: ha llovido HM: la hierba está mojada Las relaciones causales y el conocimiento probabilístico asociado están reflejadas en la siguiente red bayesiana Nótese que es un ejemplo de red que no está simplemente conectada. Inteligencia Artificial II - Tema 5 p. 58/71

59 Otro ejemplo: red bayesiana N P(n) 0.5 N n no n P(a) A Ll N P(ll) n 0.8 no n 0.2 N Ll P(hm) HM a no n n no n ll ll no ll no ll Inteligencia Artificial II - Tema 5 p. 59/71

60 Ejemplo de muestreo a priori Veamos cómo generar un evento aleatorio completo a partir de la DCC que especifica la red anterior Muestreo de P(N) = 0.5,0.5 ; supongamos que aplicamos el método anterior y obtenemos n Muestreo de P(A n) = 0.1,0.9 ; supongamos que se devuelve a Muestreo de P(LL n) = 0.8,0.2 ; supongamos que obtenemos ll Muestreo de P(HM a,ll) = 0.9,0.1 ; supongamos que se devuelve hm Por tanto el evento generado por muestreo ha sido el n, a,ll,hm La probabilidad de generar ese evento es = 0.324, ya que cada muestreo individual se realiza independientemente Inteligencia Artificial II - Tema 5 p. 60/71

61 Algoritmo de muestreo a priori Supongamos dada una RED bayesiana con un conjunto de variables X 1,...,X n ordenadas de manera consistente con el orden implícito en la red MUESTREO-A-PRIORI(RED) 1. PARA i=1,...,n HACER x_i el resultado de un muestreo de P(X_i padres(x_i)) 2. Devolver (x_1,...,x_n) Inteligencia Artificial II - Tema 5 p. 61/71

62 Propiedades del algoritmo de muestreo a priori Sea S MP (x 1,...,x n ) la probabilidad de que el evento (x 1,...,x n ) sea generado por MUESTREO-A-PRIORI Es fácil ver (deduciéndolo exclusivamente del algoritmo) que S MP (x 1,...,x n ) = n i=1 P(x i padres(x i )) Por tanto, si repetimos el muestreo anterior N veces y llamamos N MP (x 1,...,x n ) al número de veces que se devuelve el evento (x 1,...,x n ), entonces N MP (x 1,...,x n ) N P(x 1,...,x n ) Donde significa que en el límite (cuando N tiende a ) esa igualdad se convierte en exacta (según la ley de los grandes números) Es lo que se llama una estimación consistente Inteligencia Artificial II - Tema 5 p. 62/71

63 Muestreo con rechazo La propiedad anterior será la base para los algoritmos de inferencia no exacta que veremos a continuación Recordar que el problema de la inferencia probabilística es el de calcular P(X e) donde e denota un conjunto de valores concretos observados para algunas variables y X es la variable de consulta Muestreo con rechazo: generar muestras y calcular la proporción de eventos generados en los que e se cumple Ejemplo: para estimar P(LL a) generar 100 muestras con el algoritmo anterior; si de estas muestras hay 27 que tienen valor de A igual a a, y de estas 27 LL es ll en 8 de los casos y es ll en 19, entonces la estimación es: P(LL a) Normaliza( 8,19 ) = 0.296,0.704 La respuesta exacta sería 0.3, 0.7 Inteligencia Artificial II - Tema 5 p. 63/71

64 Algoritmo de inferencia: muestreo con rechazo Entrada: una v.a. X de consulta, un conjunto de valores observados e para la variables de evidencia, una RED bayesiana (con n variables) y número N de muestras totales a generar MUESTREO-CON-RECHAZO(X,e,RED,N) 1. Sea N[X] un vector con una componente por cada posible valor de la variable de consulta X, inicialmente todas a 0 2. PARA k=1,...,n HACER 2.1 Sea (y1,...,yn) igual a MUESTREO-A-PRIORI(RED) 2.2 SI y = (y1,...,yn) es consistente con e entonces HACER N[x] igual a N[x]+1, donde en el evento y la v.a. X toma el valor x 3. Devolver NORMALIZA(N[X]) Es fácil ver, deducido de las propiedades de MUESTREO-A-PRIORI, que este algoritmo devuelve una estimación consistente de P(X e) Problema: se rechazan demasiadas muestras (sobre todo si el número de variables de evidencia es grande) Inteligencia Artificial II - Tema 5 p. 64/71

65 Ponderación por verosimilitud Es posible diseñar un algoritmo que sólo genere muestras consistentes con la observación e Los valores de las variables de evidencia no se generan: quedan fijados de antemano Pero no todos los eventos generados pesan lo mismo: aquellos en los que la evidencia es más improbable deben contar menos Por tanto, cada evento generado va a ir a compañado de un peso igual al producto de las probabilidades condicionadas de cada valor que aparezca en e Inteligencia Artificial II - Tema 5 p. 65/71

66 Ejemplo de ponderación por verosimilitud Supongamos que queremos calcular P(LL a, hm); para generar cada muestra con su correspondiente peso w, hacemos lo siguiente (w = 1.0 inicialmente): Muestreo de P(N) = 0.5,0.5 ; supongamos que se devuelve n Como A es una variable de evidencia (cuyo valor es a) hacemos w igual a w P(a n) (es decir, w = 0.1) Muestreo de P(LL n) = 0.8,0.2 ; supongamos que se devuelve ll HM es una variable de evidencia (con valor hm); por tanto, hacemos w igual a w P(hm a,ll) (es decir, w = 0.099) Por tanto, el muestreo devolvería n,a,ll,hm con un peso igual a Este evento contaría para LL = true, pero ponderado con (intuitivamente, refleja que es poco probable que funcionen los aspersores un día de lluvia) Inteligencia Artificial II - Tema 5 p. 66/71

67 Algoritmo de inferencia: ponderación por verosimilitud Entrada: una v.a. X de consulta, un conjunto de valores observados e para la variables de evidencia, una RED bayesiana (con n variables) y un número N de muestras totales a generar PONDERACION-POR-VEROSIMILITUD(X,e,RED,N) 1. Sea W[X] un vector con una componente para cada posible valor de la variable de consulta X, inicialmente todas a 0 2. PARA k=1,...,n HACER 2.1 Sea [(y1,...,yn),w] igual a MUESTRA-PONDERADA(RED,e) 2.2 Hacer W[x] igual a W[x]+w, donde en el evento y la v.a. X toma el valor x 3. Devolver NORMALIZA(W[X]) Inteligencia Artificial II - Tema 5 p. 67/71

68 Algoritmo de inferencia: ponderación por verosimilitud MUESTRA-PONDERADA(RED,e) 1. Hacer w= PARA i=1,...,n HACER 2.1 SI la variable X_i tiene valor x_i en e ENTONCES w = w p(x_i=x_i padres(x_i)) SI NO, sea x_i el resultado de un muestreo de P(X_i padres(x_i)) 3. Devolver [(x_1,...,x_n),w] Se puede demostrar que el algoritmo PONDERACION-POR-VEROSIMILITUD devuelve una estimación consistente de la probabilidad buscada En el caso de que haya muchas variables de evidencia, el algoritmo podría degradarse, ya que la mayoría de las muestras tendrían un peso infinitesimal Inteligencia Artificial II - Tema 5 p. 68/71

69 Más sobre algoritmos de inferencia aproximada Existen muchos otros algoritmos de inferencia aproximada en redes bayesianas, más sofisticados que los vistos aquí Uno de ellos es el algoritmo Monte Carlo de cadenas de Markov En él, cada evento se genera a partir del anterior, haciendo cambios aleatorios en el valor de las variables no observadas y dejando fijo el valor de las variables de evidencia Inteligencia Artificial II - Tema 5 p. 69/71

70 Aplicaciones de las redes bayesianas Aplicaciones en empresas Microsoft: Answer Wizard (Office), diagnóstico de problemas de impresora,... Intel: Diagnóstico de fallos de procesadores HP: Diagnóstico de problemas de impresora Nasa: Ayuda a la decisión de misiones espaciales Otras aplicaciones: diagnóstico médico, e-learning,... En general, sistemas expertos que manejan incertidumbre Inteligencia Artificial II - Tema 5 p. 70/71

71 Bibliografía Russell, S. y Norvig, P. Inteligencia artificial (Un enfoque moderno), segunda edición (Prentice Hall Hispanoamericana, 2004) Cap. 14: Razonamiento Probabilístico Inteligencia Artificial II - Tema 5 p. 71/71

Tema 8: Introducción a las Redes Bayesianas

Tema 8: Introducción a las Redes Bayesianas Inteligencia Artificial II Curso 2005 2006 Tema 8: Introducción a las Redes Bayesianas José L. Ruiz Reina Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IA-II 2005

Más detalles

Representación y razonamiento con conocimiento incierto

Representación y razonamiento con conocimiento incierto Representación y razonamiento con conocimiento incierto J. L. Ruiz Reina F.J. Martín Mateos Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Incertidumbre y conocimiento.

Más detalles

Teoría de probabilidades

Teoría de probabilidades Modelos Probabilistas Teoría de probabilidades Teoría de probabilidades Definiremos como probabilidad a priori (P(a)) asociada a una proposición como el grado de creencia en ella a falta de otra información

Más detalles

Incertidumbre y conocimiento

Incertidumbre y conocimiento Incertidumbre y conocimiento SI síntoma(p,dolor-de-muelas) ENTONCES enfermedad(p,caries) Expresa esta regla un conocimiento correcto? Quizás sería mejor un conocimiento más exhaustivo: SI sintoma(p,dolor-de-muelas)

Más detalles

REDES BAYESIANAS. O Redes de creencias

REDES BAYESIANAS. O Redes de creencias REDES BAYESIANAS O Redes de creencias Probabilidades conjuntas J: juega bolos. B: barre la casa todos los días. H: se dislocó el hombro. Introducción a RB Que son: Un grafo dirigido a cíclico (DAG) en

Más detalles

Bases Formales de la Computación: Redes de Bayes (segunda parte)

Bases Formales de la Computación: Redes de Bayes (segunda parte) Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes

Más detalles

Inferencia Exacta: Ejemplo

Inferencia Exacta: Ejemplo Inferencia Exacta: Ejemplo Inferencia en Redes Bayesianas La distribución de probabilidad conjunta de la red sería: P(D, A, S, F, I ) = P(I S, F )P(F )P(S D, A)P(D)P(A) Debemos calcular P(F I = si, D =

Más detalles

Razonamiento probabilístico y redes bayesianas

Razonamiento probabilístico y redes bayesianas Razonamiento probabilístico y redes bayesianas Clasificador bayesiano Representación y semántica de las RB Blanca A. Vargas Govea vargasgovea@itesm.mx Octubre 12, 2012 Correcciones al ejercicio de clase

Más detalles

Inteligencia Artificial II Razonamiento Bayesiano

Inteligencia Artificial II Razonamiento Bayesiano Inteligencia Artificial II Razonamiento Bayesiano Dr. Alejandro Guerra-Hernández Universidad Veracruzana Centro de Investigación en Inteligencia Artificial mailto:aguerra@uv.mx http://www.uv.mx/personal/aguerra

Más detalles

SIMULACION. Urna 1. s(x) h(x) Urna 2. s(x) Dado. Urna /6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 Dado 1 1/6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6

SIMULACION. Urna 1. s(x) h(x) Urna 2. s(x) Dado. Urna /6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 Dado 1 1/6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 SIMULACION x p(x) x h(x) 6 4 5 2 3 Urna /6 2 /6 3 /6 4 /6 5 /6 6 /6 Dado /6 2 /6 3 /6 4 /6 5 /6 6 /6 x p(x) x h(x) s(x) 4 5 2 3 Urna 2 0.2 2 0.2 3 0.2 4 0.2 5 0.2 6 0.0 Dado /6.2 2 /6.2 3 /6.2 4 /6.2 5

Más detalles

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 3

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 3 Inteligencia rtificial II (urso 2012-2013) jercicios propuestos del tema 3 jercicio 1: Supongamos que tenemos cinco variables aleatorias,,, y, tales que: ˆ es independiente de. ˆ es independiente de y

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Redes Bayesianas: Parte I Introducción Representación Inferencia Propagación

Más detalles

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90] Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 10: Redes Bayesianas Inferencia 1era parte [Neapolitan 90] Inferencia en Redes Bayesianas Introducción Clases de algoritmos 1era Parte Propagación

Más detalles

Inteligencia Artificial Razonamiento probabilístico

Inteligencia Artificial Razonamiento probabilístico Inteligencia Artificial Razonamiento probabilístico Primavera 2008 profesor: Luigi Ceccaroni Inferencia probabiĺıstica Modelos Probabilistas Inferencia probabiĺıstica Las leyes de la probabilidad permiten

Más detalles

1. Método general. 2. Análisis de tiempos de ejecución. 3. Ejemplos de aplicación Problema de las 8 reinas Problema de la mochila 0/1.

1. Método general. 2. Análisis de tiempos de ejecución. 3. Ejemplos de aplicación Problema de las 8 reinas Problema de la mochila 0/1. Backtracking. Método general. 2. Análisis de tiempos de ejecución. 3. Ejemplos de aplicación. 3.. Problema de las 8 reinas. 3.2. Problema de la mochila 0/. Método general El backtracking (método de retroceso

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

Razonamiento probabilístico y Redes Bayesianas

Razonamiento probabilístico y Redes Bayesianas Inteligencia Computacional Razonamiento probabilístico y Redes Bayesianas Probabilidad y Teorema de Bayes Blanca A. Vargas Govea - vargasgovea@itesm.mx - Oct 9, 2012 Avisos: Exámenes Fecha de examen parcial

Más detalles

Redes Bayesianas. Manuel Valenzuela-Rendón. Centro de Sistemas Inteligentes Tecnológico de Monterrey, Campus Monterrey.

Redes Bayesianas. Manuel Valenzuela-Rendón. Centro de Sistemas Inteligentes Tecnológico de Monterrey, Campus Monterrey. Redes Bayesianas Manuel Valenzuela-Rendón Centro de Sistemas Inteligentes Tecnológico de Monterrey, Campus Monterrey Noviembre 2008 M. Valenzuela (Centro de Sistemas Inteligentes) Redes Bayesianas Noviembre

Más detalles

Tema 4: Aprendizaje de conceptos

Tema 4: Aprendizaje de conceptos Inteligencia Artificial II Curso 2004 2005 Tema 4: Aprendizaje de conceptos José A. Alonso Jiménez Francisco Jesús Martín Mateos José Luis Ruiz Reina Dpto. de Ciencias de la Computación e Inteligencia

Más detalles

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio Propuesta A

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio Propuesta A Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta A 1. Dada la ecuación matricial I + 3 X + A X B. Se pide:

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA Pablo Torres Facultad de Ciencias Exactas, Ingeniera y Agrimensura - Universidad Nacional de Rosario Unidad 2: Probabilidad INTRODUCCIÓN Al lanzar un dado muchas veces veremos

Más detalles

Binary Decision Diagrams

Binary Decision Diagrams Rodríguez Blanco 2006-05-18 Introduccion Equivalencia Tablas de verdad eficientes Construcción de Equivalencia Tablas de verdad eficientes Equivalencia de dos fórmulas A 1 y A 2. Construir su tabla de

Más detalles

Tema 3: Técnicas básicas de búsqueda para la resolución de problemas

Tema 3: Técnicas básicas de búsqueda para la resolución de problemas Tema 3: Técnicas básicas de búsqueda para la resolución de problemas José Luis Ruiz Reina José Antonio Alonso Franciso J. Martín Mateos Departamento de Ciencias de la Computación e Inteligencia Artificial

Más detalles

RAZONAMIENTO APROXIMADO

RAZONAMIENTO APROXIMADO RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL Ingeniería del Conocimiento Ingeniería Electrónica REALIDAD El conocimiento que necesitamos para desarrollar un Sistema basado en Conocimiento tiene

Más detalles

Redes Bayesianas (1) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile

Redes Bayesianas (1) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Redes Bayesianas (1) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Bayesian networks without tears: making Bayesian networks more accessible to the probabilistically

Más detalles

Semana 07[1/21] Sumatorias. 12 de abril de Sumatorias

Semana 07[1/21] Sumatorias. 12 de abril de Sumatorias Semana 07[/] de abril de 007 Semana 07[/] Progresiones aritméticas Progresión aritmética Es una sumatoria del tipo (A + d) es decir, donde a A + d, para valores A, d Ê. Utilizando las propiedades de sumatoria,

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Unidad V: Incertidumbre Jose Aguilar CEMISID, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve 1 Cuándo hay incertidumbre? Se dice que hay

Más detalles

1. GRAFOS : CONCEPTOS BASICOS

1. GRAFOS : CONCEPTOS BASICOS 1. GRAFOS : CONCEPTOS BASICOS Sea V un conjunto finito no vacio y sea E V x V. El par (V, E) es un grafo no dirigido, donde V es un conjunto de vértices o nodos y E es un conjunto de aristas. Denotaremos

Más detalles

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades: CAPÍTULO 2: ESPACIOS VECTORIALES 2.1- Definición y propiedades. 2.1.1-Definición: espacio vectorial. Sea un cuerpo conmutativo a cuyos elementos denominaremos escalares o números. No es necesario preocuparse

Más detalles

Conceptos. Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado.

Conceptos. Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado. Teresa Pérez P DíazD Profesora de matemática tica Conceptos Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado. Ejemplos: E : Lanzar un dado,

Más detalles

(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1

(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1 Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Septiembre 2012 - Propuesta B 1. a) Despeja la matriz X en la siguiente ecuación

Más detalles

Espacios Vectoriales

Espacios Vectoriales Leandro Marín Octubre 2010 Índice Definición y Ejemplos Paramétricas vs. Impĺıcitas Bases y Coordenadas Para definir un espacio vectorial tenemos que empezar determinando un cuerpo sobre el que esté definido

Más detalles

Álgebra Lineal. Tema 6. Transformaciones lineales y matrices

Álgebra Lineal. Tema 6. Transformaciones lineales y matrices Álgebra Lineal Tema 6. Transformaciones lineales y matrices Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S.

Más detalles

Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile

Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Tutorial NIPS (Neural Information Processing Systems Conference) 2001: Learning Bayesian Networks

Más detalles

Grafos. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Grafos 1 / 30

Grafos. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Grafos 1 / 30 Grafos AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Grafos / 0 Objetivos Al finalizar este tema tendréis que: Conocer la terminología básica de la teoría de grafos. Pasar

Más detalles

Tema 2: Métodos de Deducción para la Lógica Proposicional

Tema 2: Métodos de Deducción para la Lógica Proposicional Tema 2: Métodos de Deducción para la Lógica Proposicional Dpto. Ciencias de la Computación Inteligencia Artificial Universidad de Sevilla Lógica y Computabilidad Curso 2010 11 LC, 2010 11 Métodos de Deducción

Más detalles

Backtracking: Esquema General

Backtracking: Esquema General Backtracking Idea: Técnica para recorrer sistemáticamente todas las posibles configuraciones de un espacio asociado a soluciones candidatos de un problema computacional. Se puede pensar este espacio tiene

Más detalles

Tema AA-4: Sesgo inductivo

Tema AA-4: Sesgo inductivo Razonamiento Automático Curso 2002 2003 Tema AA-4: Sesgo inductivo Miguel A. Gutiérrez Naranjo José A. Alonso Jiménez Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

RESUMEN DE ALGORITMOS PROBABILÍSTICOS

RESUMEN DE ALGORITMOS PROBABILÍSTICOS RESUMEN DE ALGORITMOS PROBABILÍSTICOS En los algoritmos probabilísticos hay ciertas decisiones que se toman al azar bajo condiciones estadísticamente estables como una distribución uniforme. Normalmente

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Aplicaciones Lineales 1 / 47 Objetivos Al finalizar este tema tendrás que: Saber si una aplicación es

Más detalles

Parte de Algoritmos de la asignatura de Programación Master de Bioinformática. Búsqueda exhaustiva

Parte de Algoritmos de la asignatura de Programación Master de Bioinformática. Búsqueda exhaustiva Parte de Algoritmos de la asignatura de Programación Master de Bioinformática Búsqueda exhaustiva Web asignatura: http://dis.um.es/~domingo/algbio.html E-mail profesor: domingo@um.es Transparencias preparadas

Más detalles

El Algoritmo E-M. José Antonio Camarena Ibarrola

El Algoritmo E-M. José Antonio Camarena Ibarrola El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas

Más detalles

TEMA 1.- PROBABILIDAD.- CURSO

TEMA 1.- PROBABILIDAD.- CURSO TEMA 1.- PROBABILIDAD.- CURSO 2016-2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

Matemáticas 2ºBachillerato Aplicadas a las Ciencias Sociales

Matemáticas 2ºBachillerato Aplicadas a las Ciencias Sociales Matemáticas 2ºBachillerato Aplicadas a las Ciencias Sociales 1era evaluación. Determinantes DETERMINANTES Se trata de una herramienta matemática que sólo se puede utilizar cuando nos encontremos con matrices

Más detalles

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con

Más detalles

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES 1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;

Más detalles

REPASO DE Nºs REALES y RADICALES

REPASO DE Nºs REALES y RADICALES REPASO DE Nºs REALES y RADICALES 1º.- Introducción. Números Reales. Números Naturales Los números naturales son el 0, 1,,,. Hay infinitos naturales, es decir, podemos encontrar un natural tan grande como

Más detalles

Por ello, son necesarios los sistemas expertos que traten situaciones de incertidumbre.

Por ello, son necesarios los sistemas expertos que traten situaciones de incertidumbre. SISTEMAS EXPERTOS BASADOS EN PROBABILIDAD En las aplicaciones, la incertidumbre es lo común y no la excepción. Por ejemplo, una pregunta típica en diagnóstico médico es: dado que el paciente presenta unos

Más detalles

Incertidumbre. Dr. Jesús Antonio González Bernal

Incertidumbre. Dr. Jesús Antonio González Bernal Incertidumbre Universidad Politécnica de Puebla Dr. Jesús Antonio González Bernal Introducción In which we see what an agent should do when not all is crystal clear. R&N, pg 462 2 Introducción Sea la acción

Más detalles

Tema 7: Sesgo inductivo

Tema 7: Sesgo inductivo Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 7: Sesgo inductivo Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IIC

Más detalles

Arboles de decisión. Area de Computación e Inteligencia Artificial

Arboles de decisión. Area de Computación e Inteligencia Artificial Arboles de decisión Teoría de la decisión Hemos estudiado las redes bayesianas como instrumento para el diagnóstico en presencia de incertidumbre. La idea ahora es aprovechar ese diagnóstico para decidir

Más detalles

Notación de probabilidad

Notación de probabilidad Notación de probabilidad Se usarán mayúsculas para indicar variables estocásticas y minúsculas para indicar los valores que pueden tomar. P (A = verdadero) =P (A = a) =P (a) P (A = falso) =P (A = a) =P

Más detalles

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN FUNDAMENTOS CURSO DE DOCTORADO Dr. Ramón García-Martínez * * * CONTEXTO La inteligencia de negocio propone un abordaje interdisciplinario que tomando:

Más detalles

Semana 14 [1/19] Polinomios. 8 de junio de Polinomios

Semana 14 [1/19] Polinomios. 8 de junio de Polinomios Semana 14 [1/19] 8 de junio de 2007 División Semana 14 [2/19] Teorema de la División Al ser (K[x], +, ) un anillo, ocurre un fenómeno similar al de : Las divisiones deben considerar un posible resto. Teorema

Más detalles

Inducción Matemática Conjuntos Funciones. Matemática Discreta. Agustín G. Bonifacio UNSL. Repaso de Inducción, Conjuntos y Funciones

Inducción Matemática Conjuntos Funciones. Matemática Discreta. Agustín G. Bonifacio UNSL. Repaso de Inducción, Conjuntos y Funciones UNSL Repaso de Inducción, y Inducción Matemática (Sección 1.7 del libro) Supongamos que queremos demostrar enunciados del siguiente tipo: P(n) : La suma de los primeros n números naturales es n(n+1)

Más detalles

Solución de Problemas Mediante Búsqueda (2) Carlos Hurtado Depto de Ciencias de la Computación, Universidad de Chile

Solución de Problemas Mediante Búsqueda (2) Carlos Hurtado Depto de Ciencias de la Computación, Universidad de Chile Solución de Problemas Mediante Búsqueda (2) Carlos Hurtado Depto de Ciencias de la Computación, Universidad de Chile Manhattan Bike Curier (Acíclico) Ref. Curso IA U. of Toronto Algoritmo Genérico de Búsqueda

Más detalles

6 Vectores. Dependencia e independencia lineal.

6 Vectores. Dependencia e independencia lineal. 6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar

Más detalles

Complejidad computacional. Algoritmos y Estructuras de Datos I. Complejidad computacional. Notación O grande

Complejidad computacional. Algoritmos y Estructuras de Datos I. Complejidad computacional. Notación O grande Complejidad computacional Algoritmos y Estructuras de Datos I Segundo cuatrimestre de 2014 Departamento de Computación - FCEyN - UBA Algoritmos - clase 10 Introducción a la complejidad computacional y

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden: Clasificador Bayesiano Clasificación Clasificador

Más detalles

Conjuntos, relaciones y funciones Susana Puddu

Conjuntos, relaciones y funciones Susana Puddu Susana Puddu 1. Repaso sobre la teoría de conjuntos. Denotaremos por IN al conjunto de los números naturales y por ZZ al de los enteros. Dados dos conjuntos A y B decimos que A está contenido en B o también

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que razonan bajo incertidumbre Introducción Repaso de probabilidad

Más detalles

Tema 3 Algebra. Ecuaciones. Sistemas de ecuaciones: Inecuaciones Índice

Tema 3 Algebra. Ecuaciones. Sistemas de ecuaciones: Inecuaciones Índice Tema 3 Algebra. Ecuaciones. Sistemas de ecuaciones: Inecuaciones Índice 1. ECUACIONES... 2 1.1. Ecuaciones de primer grado... 2 1.2. Ecuaciones de segundo grado... 3 1.2.1. Ecuación de segundo grado completa...

Más detalles

INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M.

INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la estimación mediante Intervalos de Confianza, que es otro de los tres grandes

Más detalles

A B MIN C D E F MAX x E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO

A B MIN C D E F MAX x E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO E.T.S.I. INFORMÁTICA 4º CURSO. INTELIGENCIA ARTIFICIAL E INGENIERÍA DEL CONOCIMIENTO UNIVERSIDAD DE MÁLAGA Dpto. Lenguajes y Ciencias de la Computación RELACIÓN DE PROBLEMAS. TEMA IV. PROBLEMAS DE JUEGOS.

Más detalles

Tema 7: Aprendizaje de árboles de decisión

Tema 7: Aprendizaje de árboles de decisión Inteligencia Artificial 2 Curso 2002 03 Tema 7: Aprendizaje de árboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Francisco J. Martín Mateos José L. Ruiz Reina Dpto. de Ciencias de

Más detalles

Búsqueda en línea y Búsqueda multiagente

Búsqueda en línea y Búsqueda multiagente Búsqueda en línea y Búsqueda multiagente Ingeniería Informática, 4º Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani 1 Tema 2: Agentes basados en Búsqueda Resumen: 2. Agentes basados

Más detalles

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo, Uruguay

Más detalles

Matrices. En este capítulo: matrices, determinantes. matriz inversa

Matrices. En este capítulo: matrices, determinantes. matriz inversa Matrices En este capítulo: matrices, determinantes matriz inversa 1 1.1 Matrices De manera informal una matriz es un rectángulo de números dentro de unos paréntesis. A = a 1,1 a 1,2 a 1,3 a 2,1 a 2,2 a

Más detalles

Algebra lineal y conjuntos convexos

Algebra lineal y conjuntos convexos Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar

Más detalles

Matemática 2. Clase práctica de coordenadas y cambio de base

Matemática 2. Clase práctica de coordenadas y cambio de base atemática Clase práctica de coordenadas y cambio de base Nota iren este apunte por su cuenta y consulten las dudas que les surjan Ya pueden terminar la práctica Coordenadas en espacios vectoriales de dimensión

Más detalles

ESTALMAT-Andalucía Actividades 09/10

ESTALMAT-Andalucía Actividades 09/10 Veteranos Sesión Conjunta. Sesión: on line Fecha: Curso 2009-2010 Título: Problemas sobre fracciones egipcias. En este documento mostramos algunas soluciones de los alumnos y alumnas Veteranos de 1º y

Más detalles

INAPROXIMABILIDAD. Curso: Algoritmos de aproximación Docente: Pablo Romero Estudiante: Daniel La Buonora Octubre de 2016

INAPROXIMABILIDAD. Curso: Algoritmos de aproximación Docente: Pablo Romero Estudiante: Daniel La Buonora Octubre de 2016 INAPROXIMABILIDAD Curso: Algoritmos de aproximación Docente: Pablo Romero Estudiante: Daniel La Buonora Octubre de 2016 Plan de la presentación - Definición de inaproximabilidad - Ejemplo con el problema

Más detalles

Apellidos:... Nombre:...

Apellidos:... Nombre:... Apellidos:....................................... Nombre:........................................ Introducción a la Inteligencia Artificial 1 er Parcial de Teoría 12 Noviembre 2004 Ejercicio 1: Responder

Más detalles

Estadística I Guión de la Práctica 2 Probabilidad y modelos probabilísticos; Introducción a la inferencia estadística

Estadística I Guión de la Práctica 2 Probabilidad y modelos probabilísticos; Introducción a la inferencia estadística Estadística I Guión de la Práctica Probabilidad y modelos probabilísticos; Introducción a la inferencia estadística 1. Simulación de las variables aleatorias En Excel podemos simular valores de variables

Más detalles

TEMA 1.- PROBABILIDAD.-CURSO 2016/2017

TEMA 1.- PROBABILIDAD.-CURSO 2016/2017 TEMA 1.- PROBABILIDAD.-CURSO 2016/2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

Tema 2: Representación de problemas como espacios de estados

Tema 2: Representación de problemas como espacios de estados Tema 2: Representación de problemas como espacios de estados José Luis Ruiz Reina José Antonio Alonso Franciso J. Martín Mateos Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad

Más detalles

Arboles de decisión. Area de Computación e Inteligencia Artificial

Arboles de decisión. Area de Computación e Inteligencia Artificial Arboles de decisión 1 Teoría de la decisión Hemos estudiado las redes bayesianas como instrumento para el diagnóstico en presencia de incertidumbre. La idea ahora es aprovechas ese diagnóstico para decidir

Más detalles

Tema 1: Distribuciones en el muestreo

Tema 1: Distribuciones en el muestreo Tema 1: Distribuciones en el muestreo 1 (transparencias de A. Jach http://www.est.uc3m.es/ajach/) Muestras aleatorias Estadísticos Concepto de distribución muestral Media muestral Distribución muestral

Más detalles

Tema 8: Árboles de decisión

Tema 8: Árboles de decisión Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Más detalles

Tema 2 Algebra. Expresiones algebraicas Índice

Tema 2 Algebra. Expresiones algebraicas Índice Tema 2 Algebra. Expresiones algebraicas Índice 1. Expresiones algebraicas comunes... 2 2. Valor numérico de una expresión algebraica... 2 3. Tipos de expresiones algebraicas... 2 4. Monomios... 2 4.1.

Más detalles

Materia: Matemática de Octavo Tema: Conjunto Q (Números Racionales)

Materia: Matemática de Octavo Tema: Conjunto Q (Números Racionales) Materia: Matemática de Octavo Tema: Conjunto Q (Números Racionales) Vamos a recordar los conjuntos numéricos estudiados hasta el momento. (1.) Conjunto de los números Naturales Son aquellos que utilizamos

Más detalles

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de

Más detalles

SIN CALCULADORA! Este método es bastante extendido pero no es conocido por todos, por lo que vamos a comenzar por él.

SIN CALCULADORA! Este método es bastante extendido pero no es conocido por todos, por lo que vamos a comenzar por él. SIN CALCULADORA! Durante mis años como profesor de matemáticas de ESO y Bachillerato, por desgracia, me he encontrado frecuentemente con alumnos que, ante preguntas como 12 por 10 ó 250 entre 10, echan

Más detalles

Tema 7: Problemas clásicos de Programación Lineal

Tema 7: Problemas clásicos de Programación Lineal Tema 7: Problemas clásicos de Programación Lineal 1.- Características generales de un problema de transporte y asignación Surgen con frecuencia en diferentes contextos de la vida real. Requieren un número

Más detalles

UNIDAD DE APRENDIZAJE II

UNIDAD DE APRENDIZAJE II UNIDAD DE APRENDIZAJE II NÚMEROS RACIONALES Jerarquía de Operaciones En matemáticas una operación es una acción realizada sobre un número (en el caso de la raíz y potencia) o donde se involucran dos números

Más detalles

lasmatemáticas.eu Pedro Castro Ortega materiales de matemáticas

lasmatemáticas.eu Pedro Castro Ortega materiales de matemáticas º ESO 1. Expresiones algebraicas En matemáticas es muy común utilizar letras para expresar un resultado general. Por ejemplo, el área de un b h triángulo es base por altura dividido por dos y se expresa

Más detalles

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación

Más detalles

Números naturales y recursividad

Números naturales y recursividad Números naturales y recursividad Rafael F. Isaacs G. * Fecha: 12 de abril de 2004 Números naturales Cuál es el primer conjunto de números que estudiamos desde la escuela primaria? Se sabe que los números

Más detalles

Tema 2.- Formas Cuadráticas.

Tema 2.- Formas Cuadráticas. Álgebra. 004 005. Ingenieros Industriales. Departamento de Matemática Aplicada II. Universidad de Sevilla. Tema.- Formas Cuadráticas. Definición y representación matricial. Clasificación de las formas

Más detalles

TEMA 1.- POLINOMIOS Y FRACCIONES ALGEBRAICAS

TEMA 1.- POLINOMIOS Y FRACCIONES ALGEBRAICAS TEMA 1.- POLINOMIOS Y FRACCIONES ALGEBRAICAS 1.- POLINOMIOS Recordemos que un monomio es una expresión algebraica (combinación de letras y números) en la que las únicas operaciones que aparecen entre las

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Ximo Beneyto Tema: Pàgina : 49 APLICACIONES LINEALES Definición : Sean (E(K), +, A) y (F(K), +, A), Espacios Vectoriales construídos sobre un mismo cuerpo K, una aplicación f:e 6

Más detalles

Inferencia. Mauricio Olivares. 19 de junio de 2015 ITAM

Inferencia. Mauricio Olivares. 19 de junio de 2015 ITAM Inferencia Mauricio Olivares ITAM 19 de junio de 2015 Recuerda de nuestra clase anterior que m(x) = α + βx. Recuerda de nuestra clase anterior que m(x) = α + βx. Esta es una relación poblacional, no hay

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 13

Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models

Más detalles

Tema 2. Fundamentos Teóricos de la. programación dinámica Teorema de Optimalidad de Mitten

Tema 2. Fundamentos Teóricos de la. programación dinámica Teorema de Optimalidad de Mitten Tema 2 Fundamentos Teóricos de la Programación Dinámica 2.1. Teorema de Optimalidad de Mitten El objetivo básico en la programación dinámica consiste en descomponer un problema de optimización en k variables

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

viene dada por la sumatoria de las N observaciones, dividida por el tamaño de la

viene dada por la sumatoria de las N observaciones, dividida por el tamaño de la REPASO La siguiente unidad de este curso se trata de estimación puntual. Para comprender estos contenidos es bueno recordar que la varianza de una población y de una muestra se mide de manera distinta.

Más detalles

Tema 4: Búsqueda informada mediante técnicas heurísticas

Tema 4: Búsqueda informada mediante técnicas heurísticas Tema 4: Búsqueda informada mediante técnicas heurísticas José Luis Ruiz Reina José Antonio Alonso Franciso J. Martín Mateos 1 Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad

Más detalles

CURSO CERO DE MATEMATICAS. Apuntes elaborados por Domingo Pestana Galván. y José Manuel Rodríguez García

CURSO CERO DE MATEMATICAS. Apuntes elaborados por Domingo Pestana Galván. y José Manuel Rodríguez García INGENIEROS INDUSTRIALES Y DE TELECOMUNICACIONES CURSO CERO DE MATEMATICAS Apuntes elaborados por Domingo Pestana Galván y José Manuel Rodríguez García UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica

Más detalles

Sesión 14: Redes de Decisión

Sesión 14: Redes de Decisión Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 14: Redes de Decisión un agente racional ideal es aquel que, para cada posible secuencia de percepciones, realiza la acción que maximiza su

Más detalles

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico.

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico. Tema 1: Matrices El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico. 1. Terminología Comenzamos con la definición de matriz

Más detalles