Manejo de Incertidumbre

Documentos relacionados
Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]

Sesión 8: Redes Bayesianas - Representación

Bases Formales de la Computación: Redes de Bayes (segunda parte)

Modelos Gráficos Probabilistas: Principios y Aplicaciones. L. Enrique Sucar INAOE

Razonamiento bajo incertidumbre

Métodos de Inteligencia Artificial

REDES BAYESIANAS. O Redes de creencias

Universidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso)

Por ello, son necesarios los sistemas expertos que traten situaciones de incertidumbre.

MYCIN es un sistema experto desarrollado a principios de la década de 1970 por Edward Shortliffe, en la Universidad de Stanford.

Redes Bayesianas. Manuel Valenzuela-Rendón. Centro de Sistemas Inteligentes Tecnológico de Monterrey, Campus Monterrey.

Curso de Inteligencia Artificial

Razonamiento probabilístico y redes bayesianas. Semántica de las RB Inferencia exacta Blanca A. Vargas Govea Octubre 16, 2012

Teoría de probabilidades

Inferencia en Modelos Gráficos para detección de Tópicos (LDA)

Métodos de Inteligencia Artificial

Inteligencia Artificial II Razonamiento Bayesiano

Inteligencia en Redes de Comunicaciones - 05 Razonamiento bajo incertidumbre

Sesión 14: Redes de Decisión

Tema 6 Razonamiento aproximado

Conferencia C1 MODELOS DE REDES PROBABILÍSTICAS EN SISTEMAS EXPERTOS

Sesión 7: Campos de Markov

Incertidumbre y conocimiento

GeNie: entorno de desarrollo para la construcción de modelos gráficos de decisión Decision Systems Laboratory, University of Pittsburgh.

RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL

Sistemas Expertos basados en probabilidad (2010/2011)

e Inteligencia Artificial

Matemáticas Discretas L. Enrique Sucar INAOE. Teoría de Grafos. Problema de los puentes de Königsberg [Euler]

OTRAS OPCIONES DE PREDICCIÓN

Sesión 4: Teoría de Grafos

Tema 7: Razonamiento con incertidumbre

Aprendizaje de intervalos para Redes Bayesianas de Nodos Temporales

Sesión 8: Campos de Markov

Notación de probabilidad

Apellidos:... Nombre:...

Razonamiento probabilístico y Redes Bayesianas

Tópicos Avanzados: Inteligencia Computacional I

Ingeniería Programa(s) Educativo(s): Tipo de materia:

Capítulo 5 Introducción a la teoría de grafos

RAZONAMIENTO APROXIMADO

Razonamiento probabilístico y redes bayesianas

Visión de Alto Nivel. Dr. Luis Enrique Sucar INAOE. ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento

Inteligencia Artificial II

Universidad Nacional de Educación a Distancia. Ingeniería Técnica en Informática de Sistemas. Introducción a la Inteligencia Artificial (2º curso)

ANÁLISIS CUANTITATIVO. SISTEMAS EXPERTOS. Jorge Estévez Grupo ER

Matemáticas Discretas

Incertidumbre. Dr. Jesús Antonio González Bernal

Redes bayesianas temporales para reconocimiento de escenarios

Tópicos Avanzados: Inteligencia Computacional I

Inteligencia Artificial

RAZONAMIENTO APROXIMADO

Alumno: Julián Argil Profesora: Dr. Ana Lilia Laureano Cruces

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores

Sistemas Expertos basados en probabilidad (2010/2011)

Formas clausulares Teoría de Herbrand Algoritmo de Herbrand Semidecidibilidad. Teoría de Herbrand. Lógica Computacional

FACULTAD DE CIENCIAS EXACTAS, INGENIERIA Y AGRIMENSURA INTRODUCCION A LA INTELIGENCIA ARTIFICIAL L.C.C. PRACTICA RA 2007

Predicción de potencia en el parque eólico de Villonaco, Loja, Ecuador. Alberto Reyes y Tania Guerrero INER Ecuador

INTRODUCCION A LA INTELIGENCIA ARTIFICIAL

Robots Autónomos. Depto. de Ciencia de la Computación e Inteligencia Artificial

Sesión 2: Teoría de Probabilidad

Sesión 2: Teoría de Probabilidad

Determinar la incertidumbre al momento de desarrollar aplicativos en inteligencia artificial, haciendo uso de estructuras probabilísticas..

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

Probabilidad. Aprendizaje Bayesiano. Clasificador. Bayesiano. Redes Bayesianas. Aprendizaje. Eduardo Morales. de Redes Bayesianas INAOE (INAOE) 1 / 86

Tenemos una red bayesiana formada por siete variables binarias y los siguientes enlaces: A , A , B , B , C , D , E y F . Dada la evidencia { A 1 y E

Procesos estocásticos Cadenas de Márkov

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Sesión 10: Redes Bayesianas Aprendizaje

Una pregunta pendiente

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

Aprendizaje Automatizado

Arboles de decisión. Area de Computación e Inteligencia Artificial

CONTENIDO. 1.- Introducción a la Inteligencia Artificial (IA) 2.- Lógica de predicados. 3.- Búsqueda de soluciones

Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL

Clasificación Bayesiana

Universidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso)

Bases Formales de la Computación: Sesión 1. Probabilidad Discreta

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Generación de variables aleatorias discretas Método de la Transformada Inversa

Tema 8: Teorema de Herbrand. Tableros en lógica de primer orden

Inteligencia Artificial e Ingeniería del Conocimiento

Relaciones. Estructuras Discretas. Relaciones. Relaciones en un Conjunto. Propiedades de Relaciones en A Reflexividad

Generación de variables aleatorias discretas Método de la Transformada Inversa

Bloque I: Estadística y Probabilidad

PROBABILIDAD Y ESTADÍSTICA

Investigación sobre los temas: Incertidumbre, Factores de la Incertidumbre, Razonamiento Aproximado y Razonamiento Inexacto.

CONTRASTE DE HIPÓTESIS

Eduardo Morales, Hugo Jair Escalante

2. Conceptos Básicos de Probabilidad. ESTADÍSTICA Esp. Paola G. Herrera S.

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo

Introducción a la Teoría de la Información

Matemáticas Discretas Probabilidad

Búsqueda en espacio de estados

Sistemas Expertos basados en probabilidad (2011/2012)

Sesión 6: Clasificadores Bayesianos

Transcripción:

Inteligencia Artificial Manejo de Incertidumbre Sesión 7 Eduardo Morales / L. Enrique Sucar

Introducción Los sistemas inteligentes deben ser capaces de representar y razonar con incertidumbre. Existen varias causas de incertidumbre que tienen que ver con la información, el conocimiento y la representación.

Información Incompleta Poco confiable Ruido, distorsión

Conocimiento Impreciso Contradictorio

Representación No adecuada Falta de poder descriptivo

Ejemplos de dominios con incertidumbre Diagnóstico médico o industrial Predicción financiera Exploración minera / petrolera Interpretación de imágenes (visión) Reconocimiento de voz Monitoreo / control de procesos industriales complejos Robótica

Ejemplo de Incertidumbre Un robot móvil tiene incertidumbre respecto a lo que obtiene de sus sensores y de su posición en el mundo

Efectos de Incertidumbre Se pierden varias propiedades de los sistemas que no tienen incertidumbre, basados en lógicas o reglas, lo cual hace el manejo de incertidumbre más complejo. Las principales dos características que, en general, ya no aplican son: 1. Modularidad 2. Monotonicidad

Modularidad Un sistema de reglas es modular, ya que para saber la verdad de una regla sólo tiene que considerarla a ésta, sin importar el resto del conocimiento. Pero si hay incertidumbre ya no puedo considerar la regla por si sola, debo tomar en cuenta otras reglas

Monotonicidad Un sistema es monotónico si al agregar nueva información a su base de datos, no se alteran las conclusiones que seguían de la base de datos original.

Si hay incertidumbre ya no puedo considerar que la certeza en una hipótesis ya no puede cambiar, debo tomar en cuenta otras reglas que involucren a dicha hipótesis.

Técnicas No-numéricas * Lógicas no-monotónicas * Sistemas de mantenimiento de verdad (TMS, ATMS) * Teoría de endosos

Técnicas Numéricas * Empíricas (MYCIN, Prospector) * Métodos aproximados * Lógica difusa * Teoría de Dempster-Shafer * Probabilísticas - Redes Bayesianas

Conceptos de Probabilidad Recordaremos algunos conceptos de probabilidad relevantes, en particular: Probabilidad Condicional Independencia Teorema de Bayes

Probabilidad Condicional Para cada h,e Ω con P(e) 0, la probabilidad condicional de h dado e: P(h$e) (probabilidad a posteriori) es: P(h$e) = P(h e) P(e)

Teorema de Bayes En la práctica P(h$e) no se obtiene fácilmente, sin embargo P(e$h) sí. Para obtenerla utilizamos el Teorema de Bayes: P(h$e) = P(e$h) P ( h ) P(e)

Independencia Los eventos e 1,,e n son independientes si: P(e... e 1 n )= P(e 1 ) P(e n ) Los eventos e 1,,e n son condicionalmente independientes dado un evento h, si: P(e 1... e n $h)= P(e 1 $h) P(e n $ h ) Independencia marginal: P(h $e)= P( h ). Independencia condicional: P(h $ k,e)= P( h $ k).

Probabilidad en Sistemas Expertos Sean H ={ h 1,,h n } el conjunto de n posibles hipótesis y E ={e 1,,e m }, m posibles evidencias. En general lo que queremos encontrar es la h Η más probable dado e E.

Se tiene que calcular P(h$e ) para cada subconjunto de h Η y seleccionar la de mayor probabilidad utilizando el teorema de Bayes.

En general: Opción1 : exhaustivo = = n j j j jk j i i jk j jk j i h P h e e P h P h e e P e e h P 1 1 1 1 ) ( ) ( ) ( ) ( ) (

Para aplicar Bayes, se requiere calcular las probabilidades condicionales P(e$h i ) para cada combinación de evidencias (en general no se pueden calcular de sus componentes individuales). Esto implica que se tienen que conocer un número exponencial de probabilidades!!

Las evidencias son condicionalmente independientes. Opción 2: independencia Con ésto, solo se requieren m x n probabilidades condicionales y n - 1 probabilidades a priori. = = n l l l jk l j i i jk i j jk j i h P h e P h e P h P h e P h e P e e h P 1 1 1 1 ) ( ) ( ) ( ) ( ) ( ) ( ) (

Conclusión En la opción 1 el sistema se vuelve demasiado complejo, mientras que la opción 2 puede no ser realista para muchas aplicaciones. Una alternativa es buscar un compromiso entre ambos extremos, esto se logra mediante las redes Bayesianas.

Técnicas numéricas Las primeras técnicas que surgen, cuando menos dentro del área de sistemas expertos, son técnicas empíricas o ad-hoc orientadas a resolver aplicaciones específicas y sin un fuerte fundamento teórico. Las más conocidas son las que corresponden a dos de los primeros sistemas expertos:

PROSPECTOR (exploración minera) MYCIN (diagnóstico de enfermedades infecciosas en la sangre)

Sistemas basados en reglas En sistemas basados en reglas se tiene en general una estructura similar a la siguiente:

Si: se observa cierta evidencia E Entonces: se concluye cierta hipótesis H con probabilidad (certeza,...) P De aquí surgen varias interrogantes: Cómo obtener estas medidas? Cómo combinar estas medidas? Cómo interpretar estas medidas?

MYCIN Las técnicas desarrolladas en MYCIN y Prospector son similares, ambas consideran sistemas basados en reglas a los que se les adicionan Factores de Certeza o Probabilidades Subjetivas, respectivamente. Veremos brevemente el método de MYCIN.

MYCIN define un Factor de Certeza que se asocia a cada regla y cada evidencia, y se definen un conjunto de reglas para combinar estos factores.

Reglas de combinación 1. Propagación (f prop ) o reglas en serie: { CF(, ) } CF ( h, e ) = CF( h, e) max 0, e e 2. AND (conjunción), OR (disjunción) de evidencias ( f and, f or ): CF( e CF( e 1 1 and or e 2 e 2, e ) =, e ) = min max { CF( e, e ), CF( e, e ) } { CF( e, e ), CF( e, e ) } 1 1 2 2

3. Co-Conclusión (f co ) o reglas en paralelo:!!!! "!!!! # $!!!! %!!!! & ' = < ( ( + ( + ( ( ( < ( ( ( + ( = > ( ( ( + ( = ( ( 1,2 0, ), ( if )), ( )(1, ( ), ( 0 ), ( ), ( 1 if ) }, ( ),, ( min{ 1 ), ( ), ( 1,2 0, ), ( if )), ( )(1, ( ), ( ) co, ( 1 2 1 2 1 2 1 2 1 1 2 1 2 1 i e h CF e h CF e h CF e h CF e h CF e h CF e h CF e h CF e h CF e h CF i e h CF e h CF e h CF e h CF e e h CF i i

Ejemplo R1: IF A and (B or C) Then H cf 0.8 R2: If D and F Then B cf 0.6 R3: If F or G Then H cf 0.4 R4: If A Then D cf 0.75 R5: If I Then G cf 0.3 Se conoce: CF(A,Ev) = 1, CF(C,Ev) = 0.5, CF(F,Ev) = 0.7, CF(I,Ev) = -0.4

Desventajas: Aunque pretendía apartarse de probabilidad, se ha demostrado [Heckerman 86] que la técnica de MYCIN corresponde a un subconjunto de probabilidad con una serie de suposiciones implícitas:

La evidencia es condicionalmente independiente de la hipótesis y su negación. La red de inferencia debe corresponder a un árbol para que los resultados sean coherentes. Las fórmulas para conjunción y disjunción (min y max ) sólo son válidas si uno de los términos es subconjunto del otro.

Estas suposiciones no son válidas en muchas aplicaciones por lo que el método de MYCIN no se puede generalizar.

Redes Bayesianas

Introducción Las redes bayesianas son una representación gráfica de dependencias para razonamiento probabilístico, en la cual los nodos y arcos representan: Nodo: Variable proposicional. Arcos: Dependencia probabilística.

Definición: Una red bayesiana (RB) es un grafo acíclico dirigido (DAG) en la cual cada nodo representa una variable y cada arco una dependencia probabilística, en la cual se especifica la probabilidad condicional de cada variable dados sus padres. La variable a la que apunta el arco es dependiente (causa-efecto) de la que está en el origen de éste.

Ejemplo de RB! Contagio! Influenza! Fiebre! Dolor-Cabeza!

Podemos interpretar a una RB de dos formas: 1. Distribución de probabilidad: Representa la distribución de la probabilidad conjunta de las variables representadas en la red. Por ejemplo: P(C, I, F, D) = P(C) P(I C) P(F I) P (D I)

2. Base de reglas: Cada arco representa un conjunto de reglas que asocian las variables involucradas, Por ejemplo: Si I entonces F Dichas reglas están cuantificadas por las probabilidades respectivas.

Estructura La topología o estructura de la red nos da información sobre las dependencias probabilísticas entre las variables. La red también representa las independencias condicionales de una variable (o conjunto de variables) dada otra(s) variable(s).

Ej.: {FA} es cond. indep. de {FV,FE,ND} dado {FB} Esto es: P(FA FV,FE,ND,FB)= P( FA FB) Esto se representa gráficamente por el nodo FB separando al nodo FA del resto de las variables.

Independencias condicionales En una RB todas la relaciones de independencia condicional representadas en el grafo corresponden a relaciones de independencia en la distribución de probabilidad. Dichas independencias simplifican la representación del conocimiento (menos parámetros) y el razonamiento (propagación de las probabilidades).

Representación Gráfica Una red bayesiana representa en forma gráfica las dependencias e independencias entre variables aleatorias, en particular las independencias condicionales Independencia en la distribución P(X Y,Z) = P(X Z) Independencia en el grafo X separada de Y por Z

Separación D El conjunto de variables A es independiente del conjunto B dado el conjunto C, si no existe trayectoria entre A y B en que 1. Todos los nodos convergentes están o tienen descendientes en C 2. Todos los demás nodos están fuera de C

Separación D Tres casos básicos Arcos divergentes Arcos en secuencia Arcos convergentes

Separación D casos básicos caso 1: Secuencia: X! Z! Y! caso 2: Divergentes:! X! Z! Y! caso 3: Convergentes:! X! Z! Y!

Ejemplos Separación-D A! B! C! D! F! G! E! I(A,CD,F)?! I(A,CD,B)?! I(BD,A,C)?! I(A,G,B)?! I(A,D,G)?! I(C,BEG,D)?!

Cobija de Markov La cobija de Markov de un nodo es el conjunto de nodos que lo hacen independiente del resto de la red Para una RB la cobija de Markov está formada por: Nodos padre Nodos hijo Otros padres de los hijos

Cobija de Markov A! B! C! D! E! F! G! CM (D)?!

Parámetros Complementa la definición de una red bayesiana las probabilidades condicionales de cada variable dados sus padres. Nodos raíz: vector de probabilidades marginales Otros nodos: matriz de probabilidades condicionales dados sus padres

Ejemplo! P(T C)! P(C)! Tifoidea! Comida! P(G)! Gripe! Reacciones! P(R T)! Fiebre! P(F T,G)! Dolor! P(D T,G)!

P(C)! Ins Sal 0.2 0.8 Comida! P(T C)! Tifoidea! P(G)! Gripe! Reacciones! P(R T)! Fiebre! P(F T,G)! Dolor! P(D T,G)!

Ins Sal Si.7.1 No.3.9 P(T C)! Tifoidea! P(C)! Comida! Ins Sal 0.2 0.8 P(G)! Gripe! Reacciones! Fiebre! Dolor! P(R T)! P(F T,G)! P(D T,G)!

Ins Sal Si.7.1 No.3.9 P(T C)! Tifoidea! P(C)! Comida! Ins Sal 0.2 0.8 P(G)! Gripe! P(R T)! Reacciones! Fiebre! Dolor! P(D T,G)! P(F T,G)! Si, Si Si,No No,Si No,No F 0.8 0.6 0.5 0.1 ~F 0.2 0.4 0.5 0.9

Propagación de Probabilidades El razonamiento probabilístico o propagación de probabilidades consiste en propagar de los efectos de la evidencia a través de la red para conocer la probabilidad a posteriori de las variables.

La propagación consiste en darle valores a ciertas variables (evidencia), y obtener la probabilidad posterior de las demás variables dadas las variables conocidas (instanciadas).

Algoritmos Los algoritmos de propagación dependen de la estructura de la red: Árboles Poliárboles Redes multiconectadas

Propagación en Árboles. Cada nodo corresponde a una variable discreta, A={A 1,A 2,,A n ) con su respectiva matriz de probabilidad condicional, P(B A)=P(B j A i )

Dada cierta evidencia E representada por la instanciación de ciertas variables- la probabilidad posterior de cualquier variable B, por el teorema de Bayes: P( B i E)=P( Bi ) P(E B i ) / P( E )

Evidencia Ya que la estructura de la red es un árbol, el Nodo B la separa en dos subárboles, por lo que podemos dividir la evidencia en dos grupos: E-: Datos en el árbol que cuya raíz es B E+: Datos en el resto del árbol

Entonces: P( B i E ) = P ( B i ) P ( E -,E + B i ) / P(E) Pero dado que ambos son independientes y aplicando nuevamente Bayes: P( B i E ) = α P ( B i E + ) P(E - B i ) Donde α es una constante de normalización.

Evidencia H E+ A I C B D E F G E-

Definiciones: Si definimos los siguientes términos: λ (B i )= P ( E - B i ) π (B i )= P (B i E + ) Entonces: P(B i E )= α π (B i ) λ (B i )

Algoritmo En base a las ecuaciones anteriores se integra un algoritmo de propagación de probabilidades en árboles. Cada nodo guarda los valores de los vectores π y λ, así como las matrices de probabilidad P.

La propagación se hace por un mecanismo de paso de mensajes, en donde cada nodo envía los mensajes correspondientes a su padre e hijos: Mensaje al padre (hacia arriba) -- nodo B a su padre A: λ = B( A i) P( Bj Ai ) λ( Bj ) j

Mensaje a los hijos (hacia abajo) -- nodo B a su hijo S k : π k ( B ) = απ( B ) λ ( B i j l j l k )

Al instanciarse ciertos nodos, éstos envían mensajes a sus padres e hijos, y se propagan hasta a llegar a la raíz u hojas, o hasta encontrar un nodo instanciado. Así que la propagación se hace en un solo paso en un tiempo proporcional al diámetro de la red.

Esto se puede hacer en forma iterativa, instanciando ciertas variables y propagando su efecto; y luego instanciando otras y propagando la nueva información, combinando ambas evidencias.

Propagación λ* λ A (H) H λ Ι (H) λ C (A) A λ B (A) I C λ D (B) B λ E (B) λ F (D) D λ G (D) E F G

Propagación π* π H (A) H π Η (I) π A (C) A π A (B) I C π B (D) B π B (E) π D (F) D π D (G) E F G

Nodos no conocidos: λ (B i ) = [1,1, ] *π (B i ) = [1,1, ] Condiciones Iniciales Nodos asignados (conocidos): ** *λ (B i ) = [0,0,..1, 0,, 0] (1 para valor asignado) *π (B i ) = [0,0,..1, 0,, 0] (1 para valor asignado) Nodo raíz: *π (A) = P(A), (probabilidad marginal inicial)

Ejemplo P(F E) 0.9 0.5 0.1 0.5 P(E C) 0.9 0.7 0.1 0.3 Fiebre Enf. Comida Dolor P(C) 0.8 0.2 P(D E) 0.7 0.4 0.3 0.6

Ejemplo Comida F=si λ=[1,0] Fiebre Enf. Dolor λ=[1,1]

Ejemplo λ F = [1,0] * [.9.5.1.5] = [.9.5] Fiebre Enf. Comida Dolor λ D = [1,1] * [.7.4.3.6] = [1 1] P(F E) 0.9 0.5 0.1 0.5 P(D E) 0.7 0.4 0.3 0.6

Ejemplo λ(c) = [.9.5] * [.9.7.1.3] = [.86.78] λ(e) = [.9.5] * [1 1] = [.9.5] Fiebre Enf. Comida Dolor P(E C) 0.9 0.7 0.1 0.3 P(F E) 0.9 0.5 0.1 0.5 P(D E) 0.7 0.4 0.3 0.6

Ejemplo π(e) = [.8.2] * [.9.7.1.3] = [.86.14] Fiebre Enf. π(c) = [.8.2] Comida Dolor P(E C) 0.9 0.7 0.1 0.3 P(F E) 0.9 0.5 0.1 0.5 P(D E) 0.7 0.4 0.3 0.6

Ejemplo π(e) = [.86.14] Fiebre Enf. π(c) = [.8.2] Comida π(d) = [.86.14] * [.9.5] [.7.4.3.6] = [.5698.2742] Dolor P(D E) 0.7 0.4 0.3 0.6

Ejemplo π(e) = [.86.14] λ(e) = [.9.5] P(E)=α[.774.070] P(E)= [.917.083] Fiebre Enf. π(c) = [.8.2] Comida λ(c) = [.86.78] P(C)=α[.688.156] P(C)= [.815.185] Dolor π(d) = [.57.27] λ(d)=[1,1] P(D)=α[.57.27] P(D)= [.67.33]

Propagación en Redes Multiconectadas Una red multiconectada es un grafo no conectado en forma sencilla, es decir, en el que hay múltiples trayectorias entre nodos (MCG). En este tipo de RP los métodos anteriores ya no aplican, pero existen otras técnicas alternativas: Condicionamiento Simulación estocástica Agrupamiento

Complejidad En general, la propagación en una red probabilística con una estructura compleja es un problema de complejidad NP-duro [Cooper 90]; sin embargo, en muchas aplicaciones prácticas la estructura de la red no es tan compleja y los tiempos de propagación son razonables.

Construcción del Modelo Para construir una red bayesiana de un dominio particular existen dos enfoques básicos: 1. Adquisición de conocimiento con ayuda de expertos 2. Aprendizaje a partir de datos, que incluye dos aspectos: Obtener la estructura de la red aprendizaje estructural Obtener las probabilidades asociadas aprendizaje paramétrico 85

Ejemplo de Propagación en Redes Bayesianas Demostración

Conclusiones La redes bayesianas son un método adecuado para representar y razonar con incertidumbre. Se han desarrollado diversas aplicaciones basadas en redes bayesianas en áreas como diagnóstico médico e industrial, robótica, sistemas de soporte de decisiones, tutores inteligentes, etc.; e incluso los ayudantes de Office están en parte basados en redes bayesianas.

Actualmente hay desarrollos en varios áreas, incluyendo la inclusión de aspectos temporales (redes dinámicas), manejo de variables continuas, aprendizaje paramétrico y estructural, métodos aproximados de propagación, representaciones más expresivas que combinan lógica y probabilidad, etc.

Conclusiones Existen, básicamente, otras dos alternativas bien fundamentadas para el manejo de incertidumbre: teoría de Dempster-Shafer y Lógica Difusa. La teoría de Dempster-Shafer permite diferenciar entre ignorancia e iguales probabilidades, aunque para problemas grandes se vuelve demasiado compleja.

La lógica difusa tiene la ventaja de que permite representar más facilmente ciertos conceptos no bien definidos y, en particular las reglas difusas se asemejan a los sistemas basados en reglas. Sin embargo, tiene la dificultad de que falta de una semántica clara.

Tarea Identifica en que aspectos de tu problema hay incertidumbre Especifica una red bayesiana para (parte) de tu problema, incluyendo la estructura y las probabilidades asociadas Puntos extra: implementa tu modelo usando alguna herramienta para redes bayesianas como Hugin