Inferencia Exacta: Ejemplo

Documentos relacionados
Algoritmo de eliminación de variables - Factores

Teoría de probabilidades

Inteligencia Artificial Razonamiento probabilístico

Bases Formales de la Computación: Redes de Bayes (segunda parte)

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]

Programación dinámica: un último ejemplo

Razonamiento probabilístico y redes bayesianas. Semántica de las RB Inferencia exacta Blanca A. Vargas Govea Octubre 16, 2012

Métodos de Inteligencia Artificial

Relación de Ejercicios. Programación Paralela 4º de Grado en Ingeniería Informática.

Multiplicación de matrices simétricas

Tenemos una red bayesiana formada por siete variables binarias y los siguientes enlaces: A , A , B , B , C , D , E y F . Dada la evidencia { A 1 y E

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov

Matemáticas 2.º Bachillerato. Matemáticas 2.º Bachillerato. Matemáticas 2.º Bachillerato. Ejemplo:

Tema 5. Muestreo y distribuciones muestrales

REDES BAYESIANAS. O Redes de creencias

Álgebra Lineal - Grado de Estadística. Examen final 26 de junio de 2013 APELLIDOS, NOMBRE:

Reyes bayesianas. J. L. Ruiz Reina, F.J. Martín Mateos et al. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Relaciones IIC1253. IIC1253 Relaciones 1 / 32

Para hacer el b, primero pasamos a binómica, luego a polar y, por fin, operamos. ( 1) = 32i

Fecha: 19 de octubre de Fecha entrada en vigor: 24 de enero de Sustituye a: Circular 03/06

Sistemas Lineales y Matrices

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio Propuesta A

Satisfacción de restricciones. Representación 1. Algoritmos. Notas. Componentes del estado:

Determinantes. Definiciones básicas sobre determinantes. José de Jesús Angel Angel.

Ejercicios de Matrices y Determinantes.

Inteligencia Artificial II

Determinantes. Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A).


Splines (funciones polinomiales por trozos)

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

El número asintótico de cuadrados mágicos de primos

TEMA VI 1. MÉTODO DE ELIMINACIÓN DE GAUSS Y GAUSS JORDAN PARA RESOLVER SISTEMAS DE ECUACIONES LINEALES.

Operaciones con matrices

5, calcula el valor de los siguientes determinantes:

Redes bayesianas temporales para reconocimiento de escenarios

Problemas Sesión 5: Matrices I

Apuntes de Teórico PROGRAMACIÓN 3

Introducción a la Teoría de Códigos

Tema 5: Sistemas de ecuaciones lineales.

Matrices y determinantes

INTRODUCCIÓN A LOS MÉTODOS NUMÉRICOS

Una pregunta pendiente

Dr. Francisco Javier Tapia Moreno. Octubre 14 de 2015.

APROXIMACION NUMERICA DE SISTEMA DE ECUACIONES NO LINEALES Profesor: Jaime Álvarez Maldonado

V 1 (2, 8) Considera el siguiente problema de programación lineal: Minimizar la función F = x + 6y, sujeta a las siguientes restricciones:

Matrices y Sistemas de Ecuaciones lineales

Maribel Martínez y Ginés Ciudad-Real Fichas para mejorar la atención MATRIZ DE LETRAS

Sistema de ecuaciones lineales


Computación Cuántica Topológica PARTE 1

Álgebra Lineal - Grado de Estadística. Examen final 27 de junio de 2014 APELLIDOS, NOMBRE:

Modelos Alternativos de RI. UCR ECCI CI-2414 Recuperación de Información Prof. Kryscia Daviana Ramírez Benavides

Tema 8: Introducción a las Redes Bayesianas

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino

Algebra lineal y conjuntos convexos

Redes Bayesianas. Manuel Valenzuela-Rendón. Centro de Sistemas Inteligentes Tecnológico de Monterrey, Campus Monterrey.

Tema 3 o - Sistemas de Ecuaciones Lineales

Matrices Invertibles y Elementos de Álgebra Matricial

CURSO MIÉRCOLES. Introducción al lenguaje matemático AULA 2. Física Básica I AULA 11. Cálculo Diferencial AULA 2 PA 2 AULA 2

Vectores y matrices. Problemas para examen

Matemáticas 2ºBachillerato Aplicadas a las Ciencias Sociales

AUTÓMATAS PROBABILÍSTICOS O ESTOCÁSTICOS

TEMA-1 CONCEPTOS BÁSICOS Y ORGANIZACIÓN DE DATOS INTRODUCCIÓN:

Álgebra Lineal Ma1010

Modelos de transporte: Problema del vendedor viajero. M. En C. Eduardo Bustos Farías

Tema: Programación Dinámica.

Programación Funcional Lisp-Scheme

Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES

Programación Dinámica

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo

TEST DE DETERMINANTES

Relación 4 - Conocimiento probabilístico

OCW-V.Muto Eliminación Gaussiana y sustitución hacia atrás Cap. XIV CAPITULO XIV. ELIMINACION GAUSSIANA Y SUSTITUCION HACIA ATRAS

RESOLUCIÓN DE SISTEMAS LINEALES

Matriz Inversa. donde II es la matriz identidad (matriz diagonal con aa 11 = 1).

Manejo de Incertidumbre

Ejemplo: El problema de la mochila. Algoritmos golosos. Algoritmos y Estructuras de Datos III. Segundo cuatrimestre 2013

Determinantes. = a 11a 22 a 12 a 21 = ( 3) ( 5) ( 4) 7 = 15 ( 28) = = 43

Matrices 1. Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

Unidad 2 Determinantes

Tema: Programación Dinámica.

Curso: Inferencia Estadística (ICO 8306) Profesores: Esteban Calvo Ayudantes: José T. Medina ESTIMACIÓN POR INTERVALO

1. Expresiones polinómicas con una indeterminada

Operaciones de comunicación

Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes

Todos los Pares de Rutas más Cortas (All-Pairs Shortest Paths) DR. JESÚS A. GONZÁLEZ BERNAL CIENCIAS COMPUTACIONALES INAOE

Modelo posibilista: Objetivos. Conjuntos difusos. Conjuntos difusos/lógica difusa. Notas

Representación y razonamiento con conocimiento incierto

Inteligencia Artificial (IS). Curso Trabajo sobre Inferencia en Redes Bayesianas

Curso de Inteligencia Artificial

Maestría en Bioinformática Probabilidad y Estadística: Clase 13

Formas canónicas reales

Inversa de una matriz

Análisis de algoritmos

Transcripción:

Inferencia Exacta: Ejemplo Inferencia en Redes Bayesianas La distribución de probabilidad conjunta de la red sería: P(D, A, S, F, I ) = P(I S, F )P(F )P(S D, A)P(D)P(A) Debemos calcular P(F I = si, D = no), por lo tanto tenemos P(F I = s, D = n) = αp(f, I = s, D = n) = α P(D = n, A, S, F, I = s) A {e, e} S {a,n} = αp(d = n)p(f ) P(A) P(S D = n, A)P(I = s S, F ) A {e, e} S {a,n} Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 25 / 39

Inferencia en Redes Bayesianas Inferencia Exacta: Ejemplo Si enumeramos todas las posibilidades y las sumamos de acuerdo con la distribución de probabilidad conjunta tenemos que: P(Fumador Infarto = si, Deporte = no) = α 0,9 0,4 (0,4 (0,25 0,8 + 0,75 0, 6) + 0,6 (0,7 0,8 + 0,3 0,6)), 0,9 0,6 (0,4 (0,25 0,7 + 0, 75 0,3) + 0,6 (0,7 0,7 + 0,3 0,3) = α 0,253, 0, 274 = 0, 48, 0,52 Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 26 / 39

Algoritmo de eliminación de variables Algoritmo de eliminación de variables El algoritmo de eliminación de variables intenta evitar la repetición de cálculos que realiza la inferencia por enumeración El algoritmo utiliza técnicas de programación dinámica de manera que se guardan cálculos intermedios para cada variable para reutilizarlos (factores) El cálculo de la probabilidad de la pregunta se realiza evaluando la expresión de la distribución de probabilidad conjunta de izquierda a derecha Los factores correspondientes a cada variable se van acumulando según se necesita La ventaja de este algoritmo es que las variables no relevantes desaparecen al ser factores constantes Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 27 / 39

Algoritmo de eliminación de variables Algoritmo de eliminación de variables funcion ELIMINACION-Q(X,e,rb) retorna distribucion sobre X factores=[]; vars=reverse(vars(rb)) para cada var en vars hacer factores=concatena(factores,calcula-factor(var,e )) si var es variable oculta entonces factores=producto-y-suma(var,factores) retorna NORMALIZA(PRODUCTO(factores)) CALCULA-FACTOR genera el factor correspondiente a la variable en la función de la distribución de probabilidad conjunta PRODUCTO-Y-SUMA multiplica los factores y suma respecto a la variable oculta PRODUCTO multiplica un conjunto de factores Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 28 / 39

Algoritmo de eliminación de variables Algoritmo de eliminación de variables - Factores Un factor corresponde a la probabilidad de un conjunto de variables dadas las variables ocultas Se representa por una tabla que para cada combinación de variables ocultas da la probabilidad de las variables del factor Y Z C C 0.2 f X (Y, Z)= C F 0.4 F C 0.8 F F 0.6 Los factores tienen dos operaciones: suma y producto Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 29 / 39

Suma de Factores Redes Bayesianas Algoritmo de eliminación de variables La suma se aplica a un factor y sobre una variable oculta del factor. Como restado obtenemos una matriz reducida en la que las filas del mismo valor se han acumulado f X Z (Y ) = Y Z f X (Y, Z)= C 0.6 F 1.4 Es igual que una operación de agregación sobre una columna en bases de datos Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 30 / 39

Producto de Factores Redes Bayesianas Algoritmo de eliminación de variables El producto de factores permite juntar varios factores entre ellos utilizando las variables ocultas comunes f X1 X 2 (Y, W, Z) = f X1 (Y, Z) f X2 (Z, W )= Y Z Z W Y Z W C C 0.2 C C 0.3 C C C 0,2 0,3 C F 0.8 C F 0.7 C C F 0,2 0,7 F C 0.4 F C 0.1 C F C 0,8 0,1 F F 0.6 F F 0.9 C F F 0,8 0,9 F C C 0,4 0,3 F C F 0,4 0,7 F F C 0,6 0,9 F F F 0,6 0,3 Es igual que una operación de join en una base de datos multiplicando los valores de las columnas de datos Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 31 / 39

Volveremos a calcular P(Fumador Infarto = si, Deporte = no) a partir de la distribución de probabilidad conjunta: P(D, A, S, F, I ) = P(I S, F )P(F )P(S D, A)P(D)P(A) Debemos calcular P(F I = si, D = no), por lo tanto tenemos P(F I = s, D = n) = αp(i = s, F, D = n) = α P(D = n, A, S, F, I = s) A {e, e} S {a,n} En esta ocasión no sacamos factores comunes para seguir el algoritmo αp(d = n) P(A) P(S D = n, A)P(F )P(I = s S, F ) A {e, e} S {a,n} Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 32 / 39

El algoritmo empieza calculando el factor para la variable Infarto (P(I = s S, F )), esta tiene fijo su valor a si, depende de las variables Presión Sanguinea y Fumador f I (S, F )= S F a s 0.8 a n 0.7 n s 0.6 n n 0.3 La variable fumador (P(F )) no depende de ninguna otra variable, al ser la variable que preguntamos el factor incluye todos los valores f F (F )= F s 0.4 n 0.6 Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 33 / 39

La variable Presión Sanguinea (P(S D = n, A)), depende de las variable Deporte que tiene fijo su valor a no y Alimentación. Esta es una variable oculta, por lo que se debe calcular para todos sus valores f S (S, A)= S A a e 0.25 a e 0.7 n e 0.75 n e 0.3 Al ser la variable Presión Sanguinea una variable oculta debemos acumular todos los factores que hemos calculado f S (S, A) f F (F ) f I (S, F ) Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 34 / 39

S F a s 0.8 0.4 f FI (S, F ) = f F (F ) f I (S, F )= a n 0.7 0.6 n s 0.6 0.4 n n 0.3 0.6 S F A a s e 0.8 0.4 0.25 a s e 0.8 0.4 0.7 a n e 0.7 0.6 0.25 f FIS (S, F, A) = f FI (S, F ) f S (S, A)= a n e 0.7 0.6 0.7 n s e 0.6 0.4 0.75 n s e 0.6 0.4 0.3 n n e 0.3 0.6 0.75 n n e 0.3 0.6 0.3 Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 35 / 39

Y ahora sumamos sobre todos los valores de la variable S para obtener el factor correspondiente a la variable Presión Sanguinea f FI S (F, A) = S {a,n} f FIS(S, F, A) = F A s e 0.8 0.4 0.25 + 0.6 0.4 0.75 = 0.26 s e 0.8 0.4 0.7 + 0.6 0.4 0.3 = 0.296 n e 0.7 0.6 0.25 + 0.3 0.6 0.75 = 0.24 n e 0.7 0.6 0.7 + 0.3 0.6 0.3 = 0.348 Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 36 / 39

El factor de la variable Alimentación (P(A)) no depende de ninguna variable, al ser una variable oculta generamos todas las posibilidades f A (A)= F e 0.4 e 0.6 Ahora debemos acumular todos los factores calculados f AFI S (A) = f A (A) f FI S (F, A)= F A s e 0.26 0.4 = 0.104 s e 0.296 0.6 = 0.177 n e 0.24 0.4 = 0.096 n e 0.348 0.6 = 0.208 Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 37 / 39

Y ahora sumamos sobre todos los valores de la variable A para obtener el factor correspondiente a la variable Alimentación f AFI S (F ) = A {e, e} f AFI S (A) = F S 0.104 + 0.177 = 0.281 n 0.096 + 0.208 = 0.304 Y por último la variable Deporte (P(D = n)) tiene el valor fijado a no y dado que no depende de la variable fumador se puede obviar, ya que es un factor constante. Ahora, si normalizamos a 1 P(F I = s, D = n) = F S 0.48 n 0.52 Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 38 / 39

Complejidad de la inferencia exacta La complejidad del algoritmo de eliminación de variables depende del tamaño del mayor factor, que depende del orden en el que se evalúan las variables y la topología de la red El orden de evaluación que escogeremos será el topológico según el grafo La complejidad de la inferencia exacta es NP-hard en el caso general Si la red bayesiana cumple que para cada par de nodos hay un único camino no dirigido (poliárbol) entonces se puede calcular en tiempo lineal Para obtener resultados en el caso general se recurre a algoritmos aproximados basados en técnicas de muestreo Javier Béjar (LSI - FIB - UPC) Razonamiento Aproximado IA - Curso 2005/2006 39 / 39