Inteligencia Artificial II

Documentos relacionados
Incertidumbre y conocimiento

Tema 7: Razonamiento con incertidumbre

Representación y razonamiento con conocimiento incierto

Razonamiento probabilístico y Redes Bayesianas

Aprendizaje de modelos probabiĺısticos

Incertidumbre. Dr. Jesús Antonio González Bernal

Reyes bayesianas. J. L. Ruiz Reina, F.J. Martín Mateos et al. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Tema 7: Razonamiento con incertidumbre

Teoría de probabilidades

Redes Bayesianas. Manuel Valenzuela-Rendón. Centro de Sistemas Inteligentes Tecnológico de Monterrey, Campus Monterrey.

Inteligencia Artificial II Razonamiento Bayesiano

CI5438. Inteligencia Artificial II Clase 9: Incertidumbre Cap 13 Ru. Cap 13 Russel & Norvig

Representación y razonamiento con conocimiento incierto

Métodos de Inteligencia Artificial

Curso de Inteligencia Artificial

Representación y razonamiento con conocimiento incierto

Bases Formales de la Computación: Redes de Bayes (segunda parte)

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

Por ello, son necesarios los sistemas expertos que traten situaciones de incertidumbre.

Alumno: Julián Argil Profesora: Dr. Ana Lilia Laureano Cruces

Notación de probabilidad

2. Conceptos Básicos de Probabilidad. ESTADÍSTICA Esp. Paola G. Herrera S.

Aprendizaje de modelos probabiĺısticos

Sistemas Expertos basados en probabilidad (2010/2011)

Tema 3: Cálculo de Probabilidades Unidad 1: Introducción y Concepto

Inferencia en Modelos Gráficos para detección de Tópicos (LDA)

Universidad Mariano Gálvez Estadística y probabilidad para Ingeniería Sección B. UNIDAD 2 PROBABILIDAD

Tema 3: Demostraciones proposicionales

Sesión 2: Teoría de Probabilidad

Sistemas Inteligentes. Tema B2T1 Razonamiento probabilístico

Razonamiento probabilístico y redes bayesianas. Semántica de las RB Inferencia exacta Blanca A. Vargas Govea Octubre 16, 2012

Sesión 2: Teoría de Probabilidad

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD. Universidad Europea de Madrid. Todos los derechos reservados.

Tema 3. Probabilidad y variables aleatorias

Inteligencia en Redes de Comunicaciones - 05 Razonamiento bajo incertidumbre

Sistemas Expertos basados en probabilidad (2010/2011)

Tema: Razonamiento con Incertidumbre.

Métodos de Inteligencia Artificial

Parte A. Ing. Roque Castillo Investigación y Salud III

Repaso de Probabilidad y Estadística

Matemáticas Discretas Lógica

Lógica de predicados

Cálculo de predicados. Lógica de predicados. Cálculo de predicados. Cálculo de predicados 08/06/2011

Razonamiento probabilístico y Redes Bayesianas

Determinar la incertidumbre al momento de desarrollar aplicativos en inteligencia artificial, haciendo uso de estructuras probabilísticas..

Lógica Matemática. Tema: Tautología, contradicción y evaluación de la validez

Tipos de fenómenos. Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw.

Razonamiento probabilístico y redes bayesianas

Desarrollo e impacto de la Estadística Bayesiana

Inteligencia Artificial Incertidumbre

Razonamiento bajo incertidumbre

Estadística I Tema 4: Probabilidad

CIENCIAS FORMALES CIENCIAS FÁCTICAS

Matemáticas Discretas Probabilidad

Tablas de Verdad L Ó G I C A P R O P O S I C I O N A L

Lógica Proposicional. Cátedra de Matemática

Probabilidades. Gerardo Arroyo Brenes

Departamento de Inteligencia Artificial Facultad de Informática Universidad Politécnica de Madrid

Sesión 8: Redes Bayesianas - Representación

Asignaturas antecedentes y subsecuentes

Probabilidad Condicional. Dr. José Dionicio Zacarias Flores

LÓGICA FORMAL TEORIAS DE PRIMER ORDEN. Sintaxis y semántica

e Inteligencia Artificial

Tema 2: (Tecnologías Informáticas) Curso Dpto. Ciencias de la Computación Inteligencia Artificial Universidad de Sevilla

Clasificación. Clasificadores Bayesianos

RAZONAMIENTO LÓGICO LECCIÓN 1: ANÁLISIS DEL LENGUAJE ORDINARIO. La lógica se puede clasificar como:

ALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO I LOGICA Y CONJUNTOS.

Tema 4. Axiomática del Cálculo de Probabilidades

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]

Experimento Aleatorio o ensayo

Capítulo 5: Probabilidad e inferencia

Extensiones de los Modelos Gráficos (2010/2011)

Procesos estocásticos Cadenas de Márkov

RAZONAMIENTO APROXIMADO

Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro

Lógica y Programación

Tema 4: Aprendizaje de conceptos

Teoremas: Condiciones Necesarias, Condiciones Suficientes y Condiciones Necesarias y Suficientes

Tema 1: Sintaxis y Semántica de la Lógica Proposicional

Lógica y Programación

Estadística I Tema 4: Probabilidad

Tema 1: Introducción a la Estadística Bayesiana

Tema 7: Introducción al aprendizaje automático

Distribuciones de probabilidad

PROBABILIDAD Y ESTADÍSTICA

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores

Apellidos:... Nombre:...

RAZONAMIENTO APROXIMADO

2. Introducción a la Lógica proposicional y Teoría de conjuntos

1 CÁLCULO DE PROBABILIDADES

Algebras booleanas. B2) Leyes Distributivas. Cada operación es distributiva con respecto a la otra:

Tema 4. Probabilidad Condicionada

Lógica y Programación

Ampliación Matemática Discreta. Justo Peralta López

LÓGICA DE PROPOSICIONAL Y PREDICADOS INGENIERÍA DE SISTEMAS

ESTADÍSTICA DE LA PROBABILIDAD GUIA 2: CÁLCULO BÁSICO DE PROBABILIDADES Y REGLAS DE PROBABILIDAD DOCENTE: SERGIO ANDRÉS NIETO DUARTE

Matemáticas Básicas para Computación

Transcripción:

Inteligencia Artificial II Razonamiento con incertidumbre J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial II - Tema 5 p. 1/41

Contenido Incertidumbre y conocimiento Variables aleatorias Probabilidad incondicional Probabilidad condicional: inferencia probabilística Independencia La regla de Bayes Independencia condicional Ejemplos de razonamiento probabilístico Inteligencia Artificial II - Tema 5 p. 2/41

Incertidumbre y conocimiento Ejemplo de regla Si SINTOMA=DOLOR DE MUELAS Entonces ENFERMEDAD=CARIES Expresa esta regla un conocimiento correcto? Quizás sería mejor un conocimiento más exhaustivo Si SINTOMA=DOLOR DE MUELAS Entonces ENFERMEDAD=CARIES O ENFERMEDAD=SINUSITIS O ENFERMEDAD=MUELA DEL JUICIO O... Inteligencia Artificial II - Tema 5 p. 3/41

Inconvenientes del conocimiento categórico Por qué a veces el conocimiento exacto y preciso no nos sirve? Posibles razones Demasiado trabajo ser exhaustivo Desconocimiento teórico: no tenemos información completa Desconocimiento práctico: aún conociendo todas las reglas, no podemos aplicarlas Inteligencia Artificial II - Tema 5 p. 4/41

Incertidumbre y conocimiento Otra forma de expresar el conocimiento: grado de creencia Creemos, basándonos en nuestras percepciones, que un paciente que tenga dolor de muelas, tiene caries con una probabilidad del 80% En teoría de la probabilidad, se expresa como P(Caries = true Dolor = true) = 0.8 La probabilidad expresa el grado de creencia, no el grado de verdad Por tanto, la probabilidad puede cambiar a medida que se conocen nuevas evidencias La teoría de la probabilidad servirá como medio de representación de conocimiento incierto Inteligencia Artificial II - Tema 5 p. 5/41

Variables aleatorias Variables aleatorias: una parte del mundo cuyo estado podemos desconocer Ejemplo: la variable aleatoria Caries describe el hecho de que un paciente pueda o no tener caries Nuestra descripción del mundo vendrá dada por un conjunto de variables aleatorias Una variable aleatoria puede tomar diferentes valores de su dominio Los posibles valores de Caries son true y false Notación: variables aleatorias en mayúsculas y sus valores en minúsculas Inteligencia Artificial II - Tema 5 p. 6/41

Variables aleatorias Tipos de variables aleatorias: Booleanas (notación: caries y caries son equivalentes a Caries = true y Caries = f alse, respectivamente) Discretas (incluyen a las booleanas) Continuas En lo que sigue, nos centraremos en las variables discretas Inteligencia Artificial II - Tema 5 p. 7/41

Proposiciones Usando las conectivas proposicionales y las variables aleatorias, podemos expresar proposiciones Ejemplos: caries dolor Caries = true Tiempo = nublado Tirada1 = 5 (Tirada2 = 4 Tirada2 = 5 Tirada2 = 6) Asignaremos probabilidades a las proposiciones para expresar nuestro grado de creencia en las mismas Inteligencia Artificial II - Tema 5 p. 8/41

Eventos atómicos Dado un conjunto de variables aleatorias que describen nuestro mundo, un evento atómico es un tipo particular de proposición Conjunción de proposiciones elementales, que expresan un valor concreto para todas y cada una de las variables Ejemplo: si Caries y Dolor son todas las variables aleatorias en nuestra descripción del mundo, los posibles eventos atómicos son caries dolor caries dolor caries dolor caries dolor Inteligencia Artificial II - Tema 5 p. 9/41

Eventos atómicos Características de los eventos atómicos: Mútuamente excluyentes Todos los eventos atómicos son exhaustivos (alguno debe ocurrir) Un evento atómico implica la verdad o falsedad de toda proposición Toda proposición es equivalente a la disyunción de un conjunto de eventos atómicos: por ejemplo, caries es equivalente a (caries dolor) (caries dolor) Inteligencia Artificial II - Tema 5 p. 10/41

Probabilidad incondicional Probabilidad incondicional (o a priori) asociada a una proposición a Grado de creencia sobre a, en ausencia de cualquier otra información o evidencia, notada P(a) Ejemplo: P(caries) = 0.1, P(caries dolor) = 0.05 Notación: P(caries, dolor) es equivalente a P(caries dolor) Distribución de probabilidad de una variable aleatoria Ejemplo: Tiempo es una v.a. con valores lluvia, sol, nubes y nieve; una distribución de probabilidad viene dada por las probabilidades de que la variable pueda tomar los diferentes valores P(Tiempo = sol) = 0.7, P(Tiempo = lluvia) = 0.2, P(Tiempo = nubes) = 0.08, P(Tiempo = nieve) = 0.02 Inteligencia Artificial II - Tema 5 p. 11/41

Probabilidad incondicional Notación: usaremos P (en negrita), para expresar de manera compacta una distribución de probabilidad (fijado un orden entre sus valores) Ejemplo: P(Tiempo) = 0.7,0.2,0.08,0.02 Distribución de probabilidad conjunta: probabilidad de cada combinación de valores de dos o más variables aleatorias Notación P(X,Y ): manera compacta de denotar a una tabla con esas probabilidades P(Tiempo,Caries) denota una tabla con 4 2 entradas Distribución de probabilidad conjunta y completa (DCC): probabilidad de cada evento atómico Una DCC es una especificación completa de la incertidumbre que se tiene sobre el mundo descrito Inteligencia Artificial II - Tema 5 p. 12/41

Probabilidad condicional Probabilidad condicional (o a posteriori) asociada a a dada b (a y b proposiciones): Grado de creencia sobre a, dado que todo lo que sabemos es que b ocurre, notada P(a b) Ejemplo: P(caries dolor) = 0.8 significa que una vez sabido que un paciente tiene dolor de muelas (y sólamente sabemos eso), nuestra creencia es que el paciente tendrá caries con probabilidad 0.8 Inteligencia Artificial II - Tema 5 p. 13/41

Probabilidad condicional Relación entre probabilidad condicional e incondicional: P(a b) = P(a b) P(b), o también P(a b) = P(a b)p(b) (regla del producto) O, análogamente, P(a b) = P(b a)p(a) Notación P(X Y ) para expresar la tabla de probabilidades condicionales Forma compacta de la regla del producto: P(X,Y ) = P(X Y )P(Y ) Nota: la fórmula anterior no expresa un producto de matrices, sino la relación existente entre las correspondientes entradas de las tablas Inteligencia Artificial II - Tema 5 p. 14/41

Probabilidad condicional vs implicación lógica La probabilidad condicional formaliza el hecho de que los grados de creencia se actualizan a medida que se van conociendo nuevas evidencias en el mundo incierto La probabilidad condicional no es lo mismo que una implicación lógica con incertidumbre P(a b) = 0.8 no es lo mismo que decir que siempre que b sea verdad, entonces P(a) = 0.8 Ya que P(a b) refleja que b es la única evidencia conocida Inteligencia Artificial II - Tema 5 p. 15/41

Axiomas de probabilidad Interpretación de la función P Frecuentista: casos posibles entre casos totales Subjetiva: grado de creencia basado en nuestras percepciones Axiomas sobre la función de probabilidad 0 P(a) 1 P(true) = 1 y P(false) = 0 donde true y false representan a cualquier proposición tautológica o insatisfactible, respectivamente P(a b) = P(a) + P(b) P(a b) Inteligencia Artificial II - Tema 5 p. 16/41

Cálculo de probabilidades El cálculo de probabilidades se construye sobre los tres axiomas anteriores. Por ejemplo: P( a) = 1 P(a) n i=1 P(D = d i) = 1, siendo D una v.a. y d i,i = 1,...,n sus posibles valores P(a) = e i e(a) P(e i), siendo a una proposición y e(a) el conjunto de eventos atómicos cuya disyunción es equivalente a a Inteligencia Artificial II - Tema 5 p. 17/41

Inferencia probabilística Por inferencia probabilística entendemos el cálculo de la probabilidad de una proposición dada condicionada por la observación de determinadas evidencias Es decir, cálculos del tipo P(a b) donde a es la proposición que se consulta y b es la proposición que se ha observado El conocimiento base vendrá dado por una DCC (representada de alguna manera eficiente, como ya veremos) Ejemplo de DCC: dolor dolor dolor dolor hueco hueco hueco hueco caries 0.108 0.012 0.072 0.008 caries 0.016 0.064 0.144 0.576 Inteligencia Artificial II - Tema 5 p. 18/41

Inferencia probabilística a partir de una DCC Cálculo de probabilidades incondicionales basado en la ecuación P(a) = e i e(a) P(e i) P(caries dolor) = P(caries,dolor,hueco) + P(caries,dolor, hueco) + P(caries, dolor, hueco) + P(caries, dolor, hueco) + P( caries, dolor, hueco) + P( caries, dolor, hueco) = 0.108 + 0.012 + 0.072 + 0.008 + 0.016 + 0.064 = 0.28 P(caries) = P(caries,dolor,hueco) + P(caries,dolor, hueco) + P(caries, dolor, hueco) + P(caries, dolor, hueco) = 0.108 + 0.012 + 0.072 + 0.008 = 0.2 Inteligencia Artificial II - Tema 5 p. 19/41

Inferencia probabilística a partir de una DCC En general: P(Y ) = z Notación P(Y,z) (regla de marginalización) Y es un vector de variables aleatorias, simbolizando cualquier combinación de valores de esas variables z representa una combinación de valores concretos para un conjunto Z de variables aleatorias (las restantes) Hay un sumando para cada posible z Variante: P(Y ) = z P(Y z) P(z) (regla de condicionantes) Inteligencia Artificial II - Tema 5 p. 20/41

Inferencia probabilística a partir de una DCC Podemos calcular probabilidades condicionales usando la DCC Por ejemplo: probabilidad de tener caries, observado que hay dolor P(caries dolor) = P(caries dolor) P(dolor) = = 0.108 + 0.012 0.108 + 0.012 + 0.016 + 0.064 = 0.6 Como comprobación podemos calcular el opuesto, de la misma manera P( caries dolor) = P( caries dolor) P(dolor) = = 0.016 + 0.064 0.108 + 0.012 + 0.016 + 0.064 = 0.4 Inteligencia Artificial II - Tema 5 p. 21/41

Inferencia probabilística a partir de una DCC P(dolor) puede verse como una constante que normaliza la distribución P(Caries dolor) haciendo que sume 1: P(Caries dolor) = αp(caries, dolor) = = α[p(caries,dolor,hueco) + P(Caries,dolor, hueco)] = = α[ 0.108, 0.016 + 0.012, 0.064 ] = α 0.12, 0.08 = 0.6, 0.4 Inteligencia Artificial II - Tema 5 p. 22/41

Inferencia probabilística a partir de una DCC En general, dada una variable aleatoria X, un conjunto de variables observadas E (con valor concreto e), se tiene: P(X e) = αp(x,e) = α y P(X,e,y) un sumando para cada combinación y de valores de las variables restantes Y no observadas α es una constante de normalización, que hace que la distribución de probabilidades sume 1 Inteligencia Artificial II - Tema 5 p. 23/41

Inferencia probabilística a partir de una DCC Dada una DCC, la fórmula anterior nos da un método para realizar inferencia probabilística Problema en la práctica: exponencialidad Con n variables, procesar la DCC necesita un tiempo O(2 n ) En un problema real, podría haber cientos o miles de variables Sin embargo, veremos que la posible independencia existente entre los eventos que describen las distintas variables aleatorias nos puede ayudar a reducir esta complejidad Inteligencia Artificial II - Tema 5 p. 24/41

Independencia probabilística En muchos casos prácticos, algunas de las variables de un problema son independientes entre sí Ejemplo: P(Tiempo = nublado dolor,caries,hueco) = P(Tiempo = nublado) Si la variable Tiempo (con 4 posibles valores) formara parte de una descripción en la que están Caries, Hueco y Dolor: No necesitaríamos una tabla con 32 entradas para describir la DCC, sino dos tablas independientes (8+4 entradas) Esto reduce la complejidad de la representación Inteligencia Artificial II - Tema 5 p. 25/41

Independencia probabilística Dos variables aleatorias X e Y son independientes si P(X Y ) = P(X) (equivalentemente, P(Y X) = P(Y ) ó P(X,Y ) = P(X) P(Y )) En general, dos proposiciones a y b son independientes si P(a b) = P(a) Asumir independencia entre ciertas variables ayuda a que la representación del mundo sea más manejable Reduce la exponencialidad (factorización del problema) El asumir que dos variables son independientes está basado normalmente en el conocimiento previo del dominio que se modela Inteligencia Artificial II - Tema 5 p. 26/41

La regla de Bayes De P(a b) = P(a b)p(b) = P(b a)p(a) podemos deducir la siguiente fórmula, conocida como regla de Bayes P(b a) = P(a b)p(b) P(a) Regla de Bayes para variables aleatorias: P(Y X) = P(X Y )P(Y ) P(X) recuérdese que esta notación representa un conjunto de ecuaciones, una para cada valor específico de las variables Generalización, en presencia de un conjunto e de observaciones: P(Y X,e) = P(X Y,e)P(Y e) P(X e) Inteligencia Artificial II - Tema 5 p. 27/41

Uso de la regla de Bayes La regla de Bayes nos permite diagnosticar en función de nuestro conocimiento de relaciones causales Ejemplo: Sabemos que la probabilidad de que un paciente de meningitis tenga el cuello hinchado es 0.5 (relación causal) También sabemos la probabilidad (incondicional) de tener 1 meningitis ( ) y de tener el cuello hinchado (0.05) 50000 Estas probabilidades provienen del conocimiento y la experiencia La regla de Bayes nos permite diagnosticar la probabilidad de tener meningitis una vez que se ha observado que el paciente tiene el cuello hinchado P(m h) = P(h m)p(m) P(h) = 0.5 1 50000 0.05 = 0.0002 Inteligencia Artificial II - Tema 5 p. 28/41

Uso de la regla de Bayes Una variante del ejemplo anterior: Si M es una variable aleatoria booleana, podríamos calcular con la siguiente fórmula, donde α es el factor de normalización P(M h) = α P(h m)p(m),p(h m)p( m) Respecto de lo anterior, esto evita el cálculo de P(m) pero obliga a saber P(h m) Versión para variables aleatorias: P(Y X) = αp(x Y )P(Y ) Inteligencia Artificial II - Tema 5 p. 29/41

Uso de la regla de Bayes Por qué calcular el diagnóstico en función del conocimiento causal y no al revés? Porque es más fácil y robusto disponer de probabilidades causales que de probabilidades de diagnóstico La información probabilística está generalmente disponible en la forma P(ef ecto causa) Y usamos la regla de Bayes para calcular P(causa efecto) Inteligencia Artificial II - Tema 5 p. 30/41

La regla de Bayes: combinando evidencias Cuando manejamos varias variables para representar distintas evidencias (y es lo habitual), el uso de la regla de Bayes puede necesitar una cantidad exponencial de probabilidades de tipo P(ef ecto causa) Un ejemplo Supongamos que tenemos evidencias sobre oquedades en los dientes (Hueco) y sobre dolor en el paciente (Dolor), y queremos diagnosticar si tiene caries (Caries) Por la regla de Bayes: P(Caries Dolor, Hueco) = αp(dolor, Hueco Caries)P (Caries) Inteligencia Artificial II - Tema 5 p. 31/41

Evidencias múltiples y exponencialidad En general, si se tienen n variables booleanas de evidencia, deberiamos tener 2 n probabilidades condicionales (por cada valor de una variable de diagnóstico) en nuestra base de conocimiento Esta exponencialidad no se maneja bien desde el punto de vista práctico Nuevamente, asumir cierta noción de independencia entre variables simplificará la cuestión Inteligencia Artificial II - Tema 5 p. 32/41

Independencia condicional Sin embargo, en nuestro ejemplo Dolor y Hueco no son independientes Ambas dependen de Caries Pero son independientes una vez conocido el valor de Caries Es decir: P(Dolor Hueco, Caries) = P(Dolor Caries) o equivalentemente P(Hueco Dolor, Caries) = P(Hueco Caries) También equivalente: P(Hueco, Dolor Caries) = P(Hueco Caries)P (Dolor Caries) En general, dos v.a. X e Y son independientes dada una v.a. Z si P(X,Y Z) = P(X Z)P (Y Z) O equivalentemente P(X Y,Z) = P(X Z) ó P(Y X,Z) = P(Y Z) Inteligencia Artificial II - Tema 5 p. 33/41

Independencia condicional La existencia de relaciones de independencia condicional simplifica la inferencia probabilística P(Caries Dolor, Hueco) = = αp(dolor Caries)P (Hueco Caries)P(Caries) Sólo es necesario saber las probabilidades causales de cada variable por separado Esto reduce la exponencialidad Inteligencia Artificial II - Tema 5 p. 34/41

Independencia condicional La independencia condicional entre algunas variables es esencial para un almacenamiento eficiente de las DCCs. Por ejemplo P(Dolor, Hueco, Caries) = P(Dolor, Hueco Caries)P (Caries) = = P(Dolor Caries)P (Hueco Caries)P (Caries) En lugar de tener una tabla con 7 números independientes sólo necesitamos 5 números independientes (en tres tablas) Inteligencia Artificial II - Tema 5 p. 35/41

Independencia condicional Si Caries tuviera n efectos independientes entre sí (dado Caries), el tamaño de la representación de la DCC crece O(n) en lugar de O(2 n ) En general, con una Causa con n efectos E i independientes entre sí dado Causa, se tiene P(Causa,E 1,...,E n ) = P(Causa) i P(E i Causa) No siempre se dan estas condiciones de independencia tan fuertes, aunque a veces compensa asumirlas Inteligencia Artificial II - Tema 5 p. 36/41

Ejemplo Consideremos la siguiente información sobre el cáncer de mama Un 1% de las mujeres de más de 40 años que se hacen un chequeo tienen cáncer de mama Un 80% de las que tienen cáncer de mama se detectan con una mamografía El 9.6% de las que no tienen cáncer de mama, al realizarse una mamografía se le diagnostica cáncer erróneamente Inteligencia Artificial II - Tema 5 p. 37/41

Ejemplo Pregunta 1: cuál es la probabilidad de tener cáncer si la mamografía así lo diagnostica? Variables aleatorias: C (tener cáncer de mama) y M (mamografía positiva) P(C m) = αp(c,m) = αp(m C)P(C) = α P(m c)p(c),p(m c)p( c) = α 0.8 0.01,0.096 0.99 = α 0.008, 0.09504 = 0.0776, 0.9223 Luego el 7.8% de las mujeres diagnosticadas positivamente con mamografía tendrán realmente cáncer de mama Inteligencia Artificial II - Tema 5 p. 38/41

Ejemplo Pregunta 2: cuál es la probabilidad de tener cáncer si tras dos mamografías consecutivas en ambas se diagnostica cáncer? Variables aleatorias: M 1 (primera mamografía positiva) y M 2 (segunda mamografía positiva) Obviamente, no podemos asumir independencia incondicional entre M 1 y M 2 Pero es plausible asumir independencia condicional de M 1 y M 2 dada C Por tanto, P(C m 1,m 2 ) = αp(c,m 1,m 2 ) = αp(m 1,m 2 C)P (C) = αp(m 1 C)P(m 2 C)P(C) = α P(m 1 c)p(m 2 c)p(c),p(m 2 c)p(m 2 c)p( c) = α 0.8 0.8 0.01,0.096 0.096 0.99 = 0.412,0.588 Luego aproximadamente el 41% de las mujeres doblemente diagnosticadas positivamente con mamografía tendrán realmente cáncer de mama Inteligencia Artificial II - Tema 5 p. 39/41

Redes Bayesianas En general, las relaciones de independencia condicional permiten simplificar drásticamente las DCCs, haciendo que se puedan usar en la práctica Las Redes Bayesianas constituyen un método de representación de DCCs que saca partido a las relaciones de independencia condicional Permitiendo un tratamiento manejable de la inferencia probabilística Es lo que veremos en el próximo tema Inteligencia Artificial II - Tema 5 p. 40/41

Bibliografía Russell, S. y Norvig, P. Inteligencia artificial (Un enfoque moderno) (Prentice Hall Hispanoamericana, 1996) Cap. 13: Incertidumbre Inteligencia Artificial II - Tema 5 p. 41/41