Manejo de Incertidumbre
|
|
- Pablo Quintana Hidalgo
- hace 7 años
- Vistas:
Transcripción
1 Inteligencia Artificial Manejo de Incertidumbre Sesión 7 Eduardo Morales / L. Enrique Sucar
2 Introducción Los sistemas inteligentes deben ser capaces de representar y razonar con incertidumbre. Existen varias causas de incertidumbre que tienen que ver con la información, el conocimiento y la representación.
3 Información Incompleta Poco confiable Ruido, distorsión
4 Conocimiento Impreciso Contradictorio
5 Representación No adecuada Falta de poder descriptivo
6 Ejemplos de dominios con incertidumbre Diagnóstico médico o industrial Predicción financiera Exploración minera / petrolera Interpretación de imágenes (visión) Reconocimiento de voz Monitoreo / control de procesos industriales complejos Robótica
7 Ejemplo de Incertidumbre Un robot móvil tiene incertidumbre respecto a lo que obtiene de sus sensores y de su posición en el mundo
8 Efectos de Incertidumbre Se pierden varias propiedades de los sistemas que no tienen incertidumbre, basados en lógicas o reglas, lo cual hace el manejo de incertidumbre más complejo. Las principales dos características que, en general, ya no aplican son: 1. Modularidad 2. Monotonicidad
9 Modularidad Un sistema de reglas es modular, ya que para saber la verdad de una regla sólo tiene que considerarla a ésta, sin importar el resto del conocimiento. Pero si hay incertidumbre ya no puedo considerar la regla por si sola, debo tomar en cuenta otras reglas
10 Monotonicidad Un sistema es monotónico si al agregar nueva información a su base de datos, no se alteran las conclusiones que seguían de la base de datos original.
11 Si hay incertidumbre ya no puedo considerar que la certeza en una hipótesis ya no puede cambiar, debo tomar en cuenta otras reglas que involucren a dicha hipótesis.
12 Técnicas No-numéricas * Lógicas no-monotónicas * Sistemas de mantenimiento de verdad (TMS, ATMS) * Teoría de endosos
13 Técnicas Numéricas * Empíricas (MYCIN, Prospector) * Métodos aproximados * Lógica difusa * Teoría de Dempster-Shafer * Probabilísticas - Redes Bayesianas
14 Conceptos de Probabilidad Recordaremos algunos conceptos de probabilidad relevantes, en particular: Probabilidad Condicional Independencia Teorema de Bayes
15 Probabilidad Condicional Para cada h,e Ω con P(e) 0, la probabilidad condicional de h dado e: P(h$e) (probabilidad a posteriori) es: P(h$e) = P(h e) P(e)
16 Teorema de Bayes En la práctica P(h$e) no se obtiene fácilmente, sin embargo P(e$h) sí. Para obtenerla utilizamos el Teorema de Bayes: P(h$e) = P(e$h) P ( h ) P(e)
17 Independencia Los eventos e 1,,e n son independientes si: P(e... e 1 n )= P(e 1 ) P(e n ) Los eventos e 1,,e n son condicionalmente independientes dado un evento h, si: P(e 1... e n $h)= P(e 1 $h) P(e n $ h ) Independencia marginal: P(h $e)= P( h ). Independencia condicional: P(h $ k,e)= P( h $ k).
18 Probabilidad en Sistemas Expertos Sean H ={ h 1,,h n } el conjunto de n posibles hipótesis y E ={e 1,,e m }, m posibles evidencias. En general lo que queremos encontrar es la h Η más probable dado e E.
19 Se tiene que calcular P(h$e ) para cada subconjunto de h Η y seleccionar la de mayor probabilidad utilizando el teorema de Bayes.
20 En general: Opción1 : exhaustivo = = n j j j jk j i i jk j jk j i h P h e e P h P h e e P e e h P ) ( ) ( ) ( ) ( ) (
21 Para aplicar Bayes, se requiere calcular las probabilidades condicionales P(e$h i ) para cada combinación de evidencias (en general no se pueden calcular de sus componentes individuales). Esto implica que se tienen que conocer un número exponencial de probabilidades!!
22 Las evidencias son condicionalmente independientes. Opción 2: independencia Con ésto, solo se requieren m x n probabilidades condicionales y n - 1 probabilidades a priori. = = n l l l jk l j i i jk i j jk j i h P h e P h e P h P h e P h e P e e h P ) ( ) ( ) ( ) ( ) ( ) ( ) (
23 Conclusión En la opción 1 el sistema se vuelve demasiado complejo, mientras que la opción 2 puede no ser realista para muchas aplicaciones. Una alternativa es buscar un compromiso entre ambos extremos, esto se logra mediante las redes Bayesianas.
24 Técnicas numéricas Las primeras técnicas que surgen, cuando menos dentro del área de sistemas expertos, son técnicas empíricas o ad-hoc orientadas a resolver aplicaciones específicas y sin un fuerte fundamento teórico. Las más conocidas son las que corresponden a dos de los primeros sistemas expertos:
25 PROSPECTOR (exploración minera) MYCIN (diagnóstico de enfermedades infecciosas en la sangre)
26 Sistemas basados en reglas En sistemas basados en reglas se tiene en general una estructura similar a la siguiente:
27 Si: se observa cierta evidencia E Entonces: se concluye cierta hipótesis H con probabilidad (certeza,...) P De aquí surgen varias interrogantes: Cómo obtener estas medidas? Cómo combinar estas medidas? Cómo interpretar estas medidas?
28 MYCIN Las técnicas desarrolladas en MYCIN y Prospector son similares, ambas consideran sistemas basados en reglas a los que se les adicionan Factores de Certeza o Probabilidades Subjetivas, respectivamente. Veremos brevemente el método de MYCIN.
29 MYCIN define un Factor de Certeza que se asocia a cada regla y cada evidencia, y se definen un conjunto de reglas para combinar estos factores.
30 Reglas de combinación 1. Propagación (f prop ) o reglas en serie: { CF(, ) } CF ( h, e ) = CF( h, e) max 0, e e 2. AND (conjunción), OR (disjunción) de evidencias ( f and, f or ): CF( e CF( e 1 1 and or e 2 e 2, e ) =, e ) = min max { CF( e, e ), CF( e, e ) } { CF( e, e ), CF( e, e ) }
31 3. Co-Conclusión (f co ) o reglas en paralelo:!!!! "!!!! # $!!!! %!!!! & ' = < ( ( + ( + ( ( ( < ( ( ( + ( = > ( ( ( + ( = ( ( 1,2 0, ), ( if )), ( )(1, ( ), ( 0 ), ( ), ( 1 if ) }, ( ),, ( min{ 1 ), ( ), ( 1,2 0, ), ( if )), ( )(1, ( ), ( ) co, ( i e h CF e h CF e h CF e h CF e h CF e h CF e h CF e h CF e h CF e h CF i e h CF e h CF e h CF e h CF e e h CF i i
32 Ejemplo R1: IF A and (B or C) Then H cf 0.8 R2: If D and F Then B cf 0.6 R3: If F or G Then H cf 0.4 R4: If A Then D cf 0.75 R5: If I Then G cf 0.3 Se conoce: CF(A,Ev) = 1, CF(C,Ev) = 0.5, CF(F,Ev) = 0.7, CF(I,Ev) = -0.4
33 Desventajas: Aunque pretendía apartarse de probabilidad, se ha demostrado [Heckerman 86] que la técnica de MYCIN corresponde a un subconjunto de probabilidad con una serie de suposiciones implícitas:
34 La evidencia es condicionalmente independiente de la hipótesis y su negación. La red de inferencia debe corresponder a un árbol para que los resultados sean coherentes. Las fórmulas para conjunción y disjunción (min y max ) sólo son válidas si uno de los términos es subconjunto del otro.
35 Estas suposiciones no son válidas en muchas aplicaciones por lo que el método de MYCIN no se puede generalizar.
36 Redes Bayesianas
37 Introducción Las redes bayesianas son una representación gráfica de dependencias para razonamiento probabilístico, en la cual los nodos y arcos representan: Nodo: Variable proposicional. Arcos: Dependencia probabilística.
38 Definición: Una red bayesiana (RB) es un grafo acíclico dirigido (DAG) en la cual cada nodo representa una variable y cada arco una dependencia probabilística, en la cual se especifica la probabilidad condicional de cada variable dados sus padres. La variable a la que apunta el arco es dependiente (causa-efecto) de la que está en el origen de éste.
39 Ejemplo de RB! Contagio! Influenza! Fiebre! Dolor-Cabeza!
40 Podemos interpretar a una RB de dos formas: 1. Distribución de probabilidad: Representa la distribución de la probabilidad conjunta de las variables representadas en la red. Por ejemplo: P(C, I, F, D) = P(C) P(I C) P(F I) P (D I)
41 2. Base de reglas: Cada arco representa un conjunto de reglas que asocian las variables involucradas, Por ejemplo: Si I entonces F Dichas reglas están cuantificadas por las probabilidades respectivas.
42
43 Estructura La topología o estructura de la red nos da información sobre las dependencias probabilísticas entre las variables. La red también representa las independencias condicionales de una variable (o conjunto de variables) dada otra(s) variable(s).
44 Ej.: {FA} es cond. indep. de {FV,FE,ND} dado {FB} Esto es: P(FA FV,FE,ND,FB)= P( FA FB) Esto se representa gráficamente por el nodo FB separando al nodo FA del resto de las variables.
45
46 Independencias condicionales En una RB todas la relaciones de independencia condicional representadas en el grafo corresponden a relaciones de independencia en la distribución de probabilidad. Dichas independencias simplifican la representación del conocimiento (menos parámetros) y el razonamiento (propagación de las probabilidades).
47 Representación Gráfica Una red bayesiana representa en forma gráfica las dependencias e independencias entre variables aleatorias, en particular las independencias condicionales Independencia en la distribución P(X Y,Z) = P(X Z) Independencia en el grafo X separada de Y por Z
48 Separación D El conjunto de variables A es independiente del conjunto B dado el conjunto C, si no existe trayectoria entre A y B en que 1. Todos los nodos convergentes están o tienen descendientes en C 2. Todos los demás nodos están fuera de C
49 Separación D Tres casos básicos Arcos divergentes Arcos en secuencia Arcos convergentes
50 Separación D casos básicos caso 1: Secuencia: X! Z! Y! caso 2: Divergentes:! X! Z! Y! caso 3: Convergentes:! X! Z! Y!
51 Ejemplos Separación-D A! B! C! D! F! G! E! I(A,CD,F)?! I(A,CD,B)?! I(BD,A,C)?! I(A,G,B)?! I(A,D,G)?! I(C,BEG,D)?!
52 Cobija de Markov La cobija de Markov de un nodo es el conjunto de nodos que lo hacen independiente del resto de la red Para una RB la cobija de Markov está formada por: Nodos padre Nodos hijo Otros padres de los hijos
53 Cobija de Markov A! B! C! D! E! F! G! CM (D)?!
54 Parámetros Complementa la definición de una red bayesiana las probabilidades condicionales de cada variable dados sus padres. Nodos raíz: vector de probabilidades marginales Otros nodos: matriz de probabilidades condicionales dados sus padres
55 Ejemplo! P(T C)! P(C)! Tifoidea! Comida! P(G)! Gripe! Reacciones! P(R T)! Fiebre! P(F T,G)! Dolor! P(D T,G)!
56 P(C)! Ins Sal Comida! P(T C)! Tifoidea! P(G)! Gripe! Reacciones! P(R T)! Fiebre! P(F T,G)! Dolor! P(D T,G)!
57 Ins Sal Si.7.1 No.3.9 P(T C)! Tifoidea! P(C)! Comida! Ins Sal P(G)! Gripe! Reacciones! Fiebre! Dolor! P(R T)! P(F T,G)! P(D T,G)!
58 Ins Sal Si.7.1 No.3.9 P(T C)! Tifoidea! P(C)! Comida! Ins Sal P(G)! Gripe! P(R T)! Reacciones! Fiebre! Dolor! P(D T,G)! P(F T,G)! Si, Si Si,No No,Si No,No F ~F
59 Propagación de Probabilidades El razonamiento probabilístico o propagación de probabilidades consiste en propagar de los efectos de la evidencia a través de la red para conocer la probabilidad a posteriori de las variables.
60 La propagación consiste en darle valores a ciertas variables (evidencia), y obtener la probabilidad posterior de las demás variables dadas las variables conocidas (instanciadas).
61 Algoritmos Los algoritmos de propagación dependen de la estructura de la red: Árboles Poliárboles Redes multiconectadas
62 Propagación en Árboles. Cada nodo corresponde a una variable discreta, A={A 1,A 2,,A n ) con su respectiva matriz de probabilidad condicional, P(B A)=P(B j A i )
63 Dada cierta evidencia E representada por la instanciación de ciertas variables- la probabilidad posterior de cualquier variable B, por el teorema de Bayes: P( B i E)=P( Bi ) P(E B i ) / P( E )
64 Evidencia Ya que la estructura de la red es un árbol, el Nodo B la separa en dos subárboles, por lo que podemos dividir la evidencia en dos grupos: E-: Datos en el árbol que cuya raíz es B E+: Datos en el resto del árbol
65 Entonces: P( B i E ) = P ( B i ) P ( E -,E + B i ) / P(E) Pero dado que ambos son independientes y aplicando nuevamente Bayes: P( B i E ) = α P ( B i E + ) P(E - B i ) Donde α es una constante de normalización.
66 Evidencia H E+ A I C B D E F G E-
67 Definiciones: Si definimos los siguientes términos: λ (B i )= P ( E - B i ) π (B i )= P (B i E + ) Entonces: P(B i E )= α π (B i ) λ (B i )
68 Algoritmo En base a las ecuaciones anteriores se integra un algoritmo de propagación de probabilidades en árboles. Cada nodo guarda los valores de los vectores π y λ, así como las matrices de probabilidad P.
69 La propagación se hace por un mecanismo de paso de mensajes, en donde cada nodo envía los mensajes correspondientes a su padre e hijos: Mensaje al padre (hacia arriba) -- nodo B a su padre A: λ = B( A i) P( Bj Ai ) λ( Bj ) j
70 Mensaje a los hijos (hacia abajo) -- nodo B a su hijo S k : π k ( B ) = απ( B ) λ ( B i j l j l k )
71 Al instanciarse ciertos nodos, éstos envían mensajes a sus padres e hijos, y se propagan hasta a llegar a la raíz u hojas, o hasta encontrar un nodo instanciado. Así que la propagación se hace en un solo paso en un tiempo proporcional al diámetro de la red.
72 Esto se puede hacer en forma iterativa, instanciando ciertas variables y propagando su efecto; y luego instanciando otras y propagando la nueva información, combinando ambas evidencias.
73 Propagación λ* λ A (H) H λ Ι (H) λ C (A) A λ B (A) I C λ D (B) B λ E (B) λ F (D) D λ G (D) E F G
74 Propagación π* π H (A) H π Η (I) π A (C) A π A (B) I C π B (D) B π B (E) π D (F) D π D (G) E F G
75 Nodos no conocidos: λ (B i ) = [1,1, ] *π (B i ) = [1,1, ] Condiciones Iniciales Nodos asignados (conocidos): ** *λ (B i ) = [0,0,..1, 0,, 0] (1 para valor asignado) *π (B i ) = [0,0,..1, 0,, 0] (1 para valor asignado) Nodo raíz: *π (A) = P(A), (probabilidad marginal inicial)
76 Ejemplo P(F E) P(E C) Fiebre Enf. Comida Dolor P(C) P(D E)
77 Ejemplo Comida F=si λ=[1,0] Fiebre Enf. Dolor λ=[1,1]
78 Ejemplo λ F = [1,0] * [ ] = [.9.5] Fiebre Enf. Comida Dolor λ D = [1,1] * [ ] = [1 1] P(F E) P(D E)
79 Ejemplo λ(c) = [.9.5] * [ ] = [.86.78] λ(e) = [.9.5] * [1 1] = [.9.5] Fiebre Enf. Comida Dolor P(E C) P(F E) P(D E)
80 Ejemplo π(e) = [.8.2] * [ ] = [.86.14] Fiebre Enf. π(c) = [.8.2] Comida Dolor P(E C) P(F E) P(D E)
81 Ejemplo π(e) = [.86.14] Fiebre Enf. π(c) = [.8.2] Comida π(d) = [.86.14] * [.9.5] [ ] = [ ] Dolor P(D E)
82 Ejemplo π(e) = [.86.14] λ(e) = [.9.5] P(E)=α[ ] P(E)= [ ] Fiebre Enf. π(c) = [.8.2] Comida λ(c) = [.86.78] P(C)=α[ ] P(C)= [ ] Dolor π(d) = [.57.27] λ(d)=[1,1] P(D)=α[.57.27] P(D)= [.67.33]
83 Propagación en Redes Multiconectadas Una red multiconectada es un grafo no conectado en forma sencilla, es decir, en el que hay múltiples trayectorias entre nodos (MCG). En este tipo de RP los métodos anteriores ya no aplican, pero existen otras técnicas alternativas: Condicionamiento Simulación estocástica Agrupamiento
84 Complejidad En general, la propagación en una red probabilística con una estructura compleja es un problema de complejidad NP-duro [Cooper 90]; sin embargo, en muchas aplicaciones prácticas la estructura de la red no es tan compleja y los tiempos de propagación son razonables.
85 Construcción del Modelo Para construir una red bayesiana de un dominio particular existen dos enfoques básicos: 1. Adquisición de conocimiento con ayuda de expertos 2. Aprendizaje a partir de datos, que incluye dos aspectos: Obtener la estructura de la red aprendizaje estructural Obtener las probabilidades asociadas aprendizaje paramétrico 85
86 Ejemplo de Propagación en Redes Bayesianas Demostración
87 Conclusiones La redes bayesianas son un método adecuado para representar y razonar con incertidumbre. Se han desarrollado diversas aplicaciones basadas en redes bayesianas en áreas como diagnóstico médico e industrial, robótica, sistemas de soporte de decisiones, tutores inteligentes, etc.; e incluso los ayudantes de Office están en parte basados en redes bayesianas.
88 Actualmente hay desarrollos en varios áreas, incluyendo la inclusión de aspectos temporales (redes dinámicas), manejo de variables continuas, aprendizaje paramétrico y estructural, métodos aproximados de propagación, representaciones más expresivas que combinan lógica y probabilidad, etc.
89 Conclusiones Existen, básicamente, otras dos alternativas bien fundamentadas para el manejo de incertidumbre: teoría de Dempster-Shafer y Lógica Difusa. La teoría de Dempster-Shafer permite diferenciar entre ignorancia e iguales probabilidades, aunque para problemas grandes se vuelve demasiado compleja.
90 La lógica difusa tiene la ventaja de que permite representar más facilmente ciertos conceptos no bien definidos y, en particular las reglas difusas se asemejan a los sistemas basados en reglas. Sin embargo, tiene la dificultad de que falta de una semántica clara.
91 Tarea Identifica en que aspectos de tu problema hay incertidumbre Especifica una red bayesiana para (parte) de tu problema, incluyendo la estructura y las probabilidades asociadas Puntos extra: implementa tu modelo usando alguna herramienta para redes bayesianas como Hugin
Métodos de Inteligencia Artificial
Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que razonan bajo incertidumbre Introducción Repaso de probabilidad
Más detallesMétodos de Inteligencia Artificial
Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Redes Bayesianas: Parte I Introducción Representación Inferencia Propagación
Más detallesModelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 10: Redes Bayesianas Inferencia 1era parte [Neapolitan 90] Inferencia en Redes Bayesianas Introducción Clases de algoritmos 1era Parte Propagación
Más detallesSesión 8: Redes Bayesianas - Representación
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 8: Redes Bayesianas - Representación La probabilidad no es realmente sobre números, es sobre la estructura del razonamiento [G. Shafer] Redes
Más detallesBases Formales de la Computación: Redes de Bayes (segunda parte)
Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes
Más detallesModelos Gráficos Probabilistas: Principios y Aplicaciones. L. Enrique Sucar INAOE
Modelos Gráficos Probabilistas: Principios y Aplicaciones L. Enrique Sucar INAOE Información General Página del curso: http://ccc.inaoep.mx/~esucar/clases-pgm/pgm.html Correo: esucar@inaoep.mx E. Sucar,
Más detallesRazonamiento bajo incertidumbre
Inteligencia en Redes de Comunicaciones Razonamiento bajo incertidumbre Julio Villena Román jvillena@it.uc3m.es Razonamiento humano En el razonamiento humano hay que trabajar con la incertidumbre: la información
Más detallesMétodos de Inteligencia Artificial
Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Repaso Agentes Inteligentes Búsqueda Agentes basados en conocimiento Lógica
Más detallesREDES BAYESIANAS. O Redes de creencias
REDES BAYESIANAS O Redes de creencias Probabilidades conjuntas J: juega bolos. B: barre la casa todos los días. H: se dislocó el hombro. Introducción a RB Que son: Un grafo dirigido a cíclico (DAG) en
Más detallesUniversidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso)
Universidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso) Soluciones exámenes septiembre 2011 Ejercicio 1. (Valoración:
Más detallesPor ello, son necesarios los sistemas expertos que traten situaciones de incertidumbre.
SISTEMAS EXPERTOS BASADOS EN PROBABILIDAD En las aplicaciones, la incertidumbre es lo común y no la excepción. Por ejemplo, una pregunta típica en diagnóstico médico es: dado que el paciente presenta unos
Más detallesMYCIN es un sistema experto desarrollado a principios de la década de 1970 por Edward Shortliffe, en la Universidad de Stanford.
MYCIN es un sistema experto desarrollado a principios de la década de 1970 por Edward Shortliffe, en la Universidad de Stanford. Sentó las bases para la construcción de sistemas expertos. Inicialmente
Más detallesRedes Bayesianas. Manuel Valenzuela-Rendón. Centro de Sistemas Inteligentes Tecnológico de Monterrey, Campus Monterrey.
Redes Bayesianas Manuel Valenzuela-Rendón Centro de Sistemas Inteligentes Tecnológico de Monterrey, Campus Monterrey Noviembre 2008 M. Valenzuela (Centro de Sistemas Inteligentes) Redes Bayesianas Noviembre
Más detallesCurso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detallesRazonamiento probabilístico y redes bayesianas. Semántica de las RB Inferencia exacta Blanca A. Vargas Govea Octubre 16, 2012
Razonamiento probabilístico y redes bayesianas Semántica de las RB Inferencia exacta Blanca A. Vargas Govea vargasgovea@itesm.mx Octubre 16, 2012 Objetivos Conocer la semántica de las redes bayesianas.
Más detallesTeoría de probabilidades
Modelos Probabilistas Teoría de probabilidades Teoría de probabilidades Definiremos como probabilidad a priori (P(a)) asociada a una proposición como el grado de creencia en ella a falta de otra información
Más detallesInferencia en Modelos Gráficos para detección de Tópicos (LDA)
Inferencia en Modelos Gráficos para detección de Tópicos (LDA) Francisco Barreras 19 de enero de 2017 Contenido 1 Introducción y Contexto 2 Motivación 3 Definiciones y Fundamentos 4 Razonamiento y flujos
Más detallesMétodos de Inteligencia Artificial
Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden: Clasificador Bayesiano Clasificación Clasificador
Más detallesInteligencia Artificial II Razonamiento Bayesiano
Inteligencia Artificial II Razonamiento Bayesiano Dr. Alejandro Guerra-Hernández Universidad Veracruzana Centro de Investigación en Inteligencia Artificial mailto:aguerra@uv.mx http://www.uv.mx/personal/aguerra
Más detallesInteligencia en Redes de Comunicaciones - 05 Razonamiento bajo incertidumbre
El objetivo del Tema 5 es explicar el tratamiento de la incertidumbre en los sistemas de razonamiento software. 1 El razonamiento humano se caracteriza por incluir en numerosas ocasiones componentes de
Más detallesSesión 14: Redes de Decisión
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 14: Redes de Decisión un agente racional ideal es aquel que, para cada posible secuencia de percepciones, realiza la acción que maximiza su
Más detallesTema 6 Razonamiento aproximado
Tema 6 Razonamiento aproximado Ampliación de Ingeniería del Conocimiento Eva Millán 1 Esquema del tema 6.1. Introducción al razonamiento aproximado 6.2. El modelo de factores de certeza 6.3. Conjuntos
Más detallesConferencia C1 MODELOS DE REDES PROBABILÍSTICAS EN SISTEMAS EXPERTOS
V CONFERENCIA NACIONAL DE CIENCIAS DE LA COMPUTACIÓN CCBOL'98 Del 6 al 2 de Noviembre 998 en Potosí Conferencia C MODELOS DE REDES PROBABILÍSTICAS EN SISTEMAS EXPERTOS Prof. José Manuel Gutiérrez Dpto.
Más detallesSesión 7: Campos de Markov
Sesión 7: Campos de Markov Campos de Markov Introducción Modelo de Ising Representación Tipos de Modelos Redes de Markov Vecindades Algoritmos ICM, Metrópolis, Recocido Simulado Aplicaciones Visión L.E.
Más detallesIncertidumbre y conocimiento
Incertidumbre y conocimiento SI síntoma(p,dolor-de-muelas) ENTONCES enfermedad(p,caries) Expresa esta regla un conocimiento correcto? Quizás sería mejor un conocimiento más exhaustivo: SI sintoma(p,dolor-de-muelas)
Más detallesGeNie: entorno de desarrollo para la construcción de modelos gráficos de decisión Decision Systems Laboratory, University of Pittsburgh.
GeNie: entorno de desarrollo para la construcción de modelos gráficos de decisión Decision Systems Laboratory, University of Pittsburgh GeNie Modelos Gráficos Probabilísticos Modelos Gráficos: teoría de
Más detallesRAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL
RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL REALIDAD El conocimiento que necesitamos para desarrollar un Sistema basado en Conocimiento tiene muchas veces las siguientes características: NO ES
Más detallesSistemas Expertos basados en probabilidad (2010/2011)
Luis Valencia Cabrera lvalencia@us.es (http://www.cs.us.es/~lvalencia) Ciencias de la Computacion e IA (http://www.cs.us.es/) Universidad de Sevilla Sistemas Expertos basados en probabilidad (2010/2011)
Más detallese Inteligencia Artificial
Inteligencia Artificial Redes bayesianas Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla CCIA, US Inteligencia Artificial IA 1 / 90 Repaso de Teoría de Grafos
Más detallesMatemáticas Discretas L. Enrique Sucar INAOE. Teoría de Grafos. Problema de los puentes de Königsberg [Euler]
Matemáticas Discretas L. Enrique Sucar INAOE Teoría de Grafos Problema de los puentes de Königsberg [Euler] Teoría de Grafos Definición y terminología Tipos de grafos Trayectorias y circuitos Isomorfismo
Más detallesOTRAS OPCIONES DE PREDICCIÓN
OTRAS OPCIONES DE PREDICCIÓN Incertidumbre se refiere a la toma de decisiones sin contar con la información adecuada. Es un problema porque nos impide tomar la mejor decisión y muy frecuentemente nos
Más detallesSesión 4: Teoría de Grafos
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 4: Teoría de Grafos Problema de los puentes de Königsberg [Euler] Teoría de Grafos Definición y terminología Tipos de grafos Trayectorias y
Más detallesTema 7: Razonamiento con incertidumbre
Inteligencia Artificial II Curso 2005 2006 Tema 7: Razonamiento con incertidumbre José L. Ruiz Reina Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla IA-II 2005 2006
Más detallesAprendizaje de intervalos para Redes Bayesianas de Nodos Temporales
Aprendizaje de intervalos para Redes Bayesianas de Nodos Temporales Pablo F. Hernández Leal Instituto Nacional de Astrofísica, Óptica y Electrónica Coordinación de Ciencias Computacionales Resumen En este
Más detallesSesión 8: Campos de Markov
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 8: Campos de Markov la verdadera lógica de este mundo es el cálculo de probabilidades, que toma en cuanta la magnitud de las probabilidades,
Más detallesNotación de probabilidad
Notación de probabilidad Se usarán mayúsculas para indicar variables estocásticas y minúsculas para indicar los valores que pueden tomar. P (A = verdadero) =P (A = a) =P (a) P (A = falso) =P (A = a) =P
Más detallesApellidos:... Nombre:...
Apellidos:....................................... Nombre:........................................ Introducción a la Inteligencia Artificial 1 er Parcial de Teoría 12 Noviembre 2004 Ejercicio 1: Responder
Más detallesRazonamiento probabilístico y Redes Bayesianas
Inteligencia Computacional Razonamiento probabilístico y Redes Bayesianas Introducción Blanca A. Vargas Govea - vargasgovea@itesm.mx - Oct 2, 2012 Objetivo Conocer el concepto de incertidumbre y términos
Más detallesTópicos Avanzados: Inteligencia Computacional I
Tópicos Avanzados: Inteligencia Computacional I V: 17-Ene-18 Instructoras (en orden alfabético) Dra. Ma. del Pilar Gómez Gil Dra. Alicia Morales Reyes Primavera 2018 pgomez@inaoep.mx (c) 2018. P. Gómez-Gil,
Más detallesIngeniería Programa(s) Educativo(s): Tipo de materia:
UNIVERSIDAD AUTÓNOMA DE CHIHUAHUA UNIDAD ACADEMICA PROGRAMA DEL CURSO: PROBABILIDAD DES: Ingeniería Programa(s) Educativo(s): Tipo de materia: Obligatoria Clave de la materia: Semestre: 3 Área en plan
Más detallesCapítulo 5 Introducción a la teoría de grafos
Capítulo 5 Introducción a la teoría de grafos 5.1. Terminología básica y tipos de grafos Una primera aproximación a la teoría de grafos la tenemos cuando observamos un mapa de carreteras: ciudades (vértices)
Más detallesRAZONAMIENTO APROXIMADO
RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL Ingeniería del Conocimiento Ingeniería Electrónica REALIDAD El conocimiento que necesitamos para desarrollar un Sistema basado en Conocimiento tiene
Más detallesRazonamiento probabilístico y redes bayesianas
Razonamiento probabilístico y redes bayesianas Clasificador bayesiano Representación y semántica de las RB Blanca A. Vargas Govea vargasgovea@itesm.mx Octubre 12, 2012 Correcciones al ejercicio de clase
Más detallesVisión de Alto Nivel. Dr. Luis Enrique Sucar INAOE. ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento
Visión de Alto Nivel Dr. Luis Enrique Sucar INAOE esucar@inaoep.mx ccc.inaoep.mx/~esucar Sesión 5 Representación y Reconocimiento 1 Visión de Alto Nivel orillas Representación del mundo textura color Descripción
Más detallesInteligencia Artificial II
Inteligencia Artificial II Razonamiento con incertidumbre J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial II - Tema 5 p. 1/41
Más detallesUniversidad Nacional de Educación a Distancia. Ingeniería Técnica en Informática de Sistemas. Introducción a la Inteligencia Artificial (2º curso)
Universidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso) Soluciones exámenes septiembre 2010 Ejercicio 1. (Valoración:
Más detallesANÁLISIS CUANTITATIVO. SISTEMAS EXPERTOS. Jorge Estévez Grupo ER
ANÁLISIS CUANTITATIVO. SISTEMAS EXPERTOS Jorge Estévez Grupo ER "Un sistema experto es visto como la incorporación en un ordenador de un componente basado en el conocimiento, que se obtiene a partir de
Más detallesMatemáticas Discretas
Coordinación de Ciencias Computacionales - INAOE Matemáticas Discretas Cursos Propedéuticos 2011 Ciencias Computacionales INAOE Dr. Enrique Muñoz de Cote jemc@inaoep.mx http://ccc.inaoep.mx/~jemc Oficina
Más detallesIncertidumbre. Dr. Jesús Antonio González Bernal
Incertidumbre Universidad Politécnica de Puebla Dr. Jesús Antonio González Bernal Introducción In which we see what an agent should do when not all is crystal clear. R&N, pg 462 2 Introducción Sea la acción
Más detallesRedes bayesianas temporales para reconocimiento de escenarios
Redes bayesianas temporales para reconocimiento de escenarios Ahmed Ziani and Cina Motamed Visión de Alto Nivel Dr. Enrique Sucar Irvin Hussein López Nava Junio 2009 Introducción (1) Objetivo: aplicaciones
Más detallesTópicos Avanzados: Inteligencia Computacional I
C291-78 Tópicos Avanzados: Inteligencia Computacional I V: 20-Ene-16 Instructoras (en orden alfabético) Dra. Ma. del Pilar Gómez Gil Dra. Alicia Morales Reyes Primavera 2016 pgomez@inaoep.mx (c) 2016.
Más detallesInteligencia Artificial
Inteligencia Artificial Conjunto de técnicas que se aplican en el diseño de programas de computador para la resolución de problemas que por su dificultad requieren el uso de un cierto grado de inteligencia.
Más detallesRAZONAMIENTO APROXIMADO
RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL Ana Casali Hernán Gonzales Ingeniería TIA - Electrónica IE REALIDAD El conocimiento que necesitamos para desarrollar un Sistema basado en Conocimiento
Más detallesAlumno: Julián Argil Profesora: Dr. Ana Lilia Laureano Cruces
REDES BAYESIANAS REPRESENTACIÓN DEL CONOCIMIENTO Alumno: Julián Argil Profesora: Dr. Ana Lilia Laureano Cruces 09/07/2008 UNAM IIMAS Inteligencia Artificial 1 OTROS NOMBRES El nombre más común: red Bayesiana
Más detallesAnálisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Los fenómenos del mundo real se pueden clasificar en dos tipos: Determínistico:
Más detallesSistemas Expertos basados en probabilidad (2010/2011)
Luis Valencia Cabrera lvalencia@us.es (http://www.cs.us.es/~lvalencia) Ciencias de la Computacion e IA (http://www.cs.us.es/) Universidad de Sevilla Sistemas Expertos basados en probabilidad (2010/2011)
Más detallesFormas clausulares Teoría de Herbrand Algoritmo de Herbrand Semidecidibilidad. Teoría de Herbrand. Lógica Computacional
Teoría de Herbrand Lógica Computacional Departamento de Matemática Aplicada Universidad de Málaga Curso 2005/2006 Contenido 1 Formas clausulares Refutación y formas clausulares 2 Teoría de Herbrand Universo
Más detallesFACULTAD DE CIENCIAS EXACTAS, INGENIERIA Y AGRIMENSURA INTRODUCCION A LA INTELIGENCIA ARTIFICIAL L.C.C. PRACTICA RA 2007
FACULTAD DE CIENCIAS EXACTAS, INGENIERIA Y AGRIMENSURA INTRODUCCION A LA INTELIGENCIA ARTIFICIAL L.C.C. PRACTICA RA 2007 1. En el ejemplo sobre la alarma que plantea Norvig & Russell (pag 465 - presentación
Más detallesPredicción de potencia en el parque eólico de Villonaco, Loja, Ecuador. Alberto Reyes y Tania Guerrero INER Ecuador
Predicción de potencia en el parque eólico de Villonaco, Loja, Ecuador Alberto Reyes y Tania Guerrero INER Ecuador INTRODUCCIÓN El comportamiento del viento presenta alto grado de aleatoriedad, incertidumbre
Más detallesINTRODUCCION A LA INTELIGENCIA ARTIFICIAL
INTRODUCCION A LA INTELIGENCIA ARTIFICIAL MODULO 3- REPRESENTACION DEL CONOCIMIENTO Referencias: Inteligencia Artificial Russell and Norvig Cap.6,7,8, 9,10.. Artificial Intellingence Nils Nilsson Chap.
Más detallesRobots Autónomos. Depto. de Ciencia de la Computación e Inteligencia Artificial
Robots Autónomos Depto. de Ciencia de la Computación e Inteligencia Artificial Contenido Problema del mapeado Mapeado 2D Mapeado 3D Introducción al SLAM Mapeado topológico Construcción de mapas: Descripción
Más detallesSesión 2: Teoría de Probabilidad
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad las reglas mátemáticas de la probabilidad no son simplemente reglas para calcular frecuencias de variables aleatorias;
Más detallesSesión 2: Teoría de Probabilidad
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para
Más detallesDeterminar la incertidumbre al momento de desarrollar aplicativos en inteligencia artificial, haciendo uso de estructuras probabilísticas..
Sistemas expertos e inteligencia artificial, Guia 5 1 Facultad : Ingeniería Escuela : Computación Asignatura: Sistemas expertos e Inteligencia Artificial Tema: RAZONAMIENTO CON INCERTIDUMBRE. Objetivo
Más detallesAPRENDIZAJE PROBABILÍSTICO NAIVE BAYES
1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;
Más detallesProbabilidad. Aprendizaje Bayesiano. Clasificador. Bayesiano. Redes Bayesianas. Aprendizaje. Eduardo Morales. de Redes Bayesianas INAOE (INAOE) 1 / 86
Eduardo Morales INAOE (INAOE) 1 / 86 Contenido 1 2 3 4 5 (INAOE) 2 / 86 Existen diferentes interpretaciones de probabilidad, las más comunes son: Clásica: P(A) = N(A)/N Frecuencia relativa: P(A) = lím
Más detallesTenemos una red bayesiana formada por siete variables binarias y los siguientes enlaces: A , A , B , B , C , D , E y F . Dada la evidencia { A 1 y E
signatura: Técnicas vanzadas de Razonamiento arrera: Ingeniería en Informática (UN) ebrero de 2005, 1ª semana Tenemos una red bayesiana formada por siete variables binarias y los siguientes enlaces:,,,,,,
Más detallesProcesos estocásticos Cadenas de Márkov
Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el
Más detallesExamen de Teoría de (Introducción al) Reconocimiento de Formas
Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:
Más detallesSesión 10: Redes Bayesianas Aprendizaje
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 10: Redes Bayesianas Aprendizaje Preferiría descubrir una ley causal que ser rey de Persia [Democritus] Aprendizaje de Redes Bayesianas Introducción
Más detallesUna pregunta pendiente
Una pregunta pendiente Cómo podemos construir un generador (casi) uniforme para una relación? Recuerde el problema KS definido en la sección anterior y la relación: R KS = {((~a, b), ~x) ~a 2 N n y ~x
Más detallesCONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Más detallesAprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Más detallesArboles de decisión. Area de Computación e Inteligencia Artificial
Arboles de decisión Teoría de la decisión Hemos estudiado las redes bayesianas como instrumento para el diagnóstico en presencia de incertidumbre. La idea ahora es aprovechar ese diagnóstico para decidir
Más detallesCONTENIDO. 1.- Introducción a la Inteligencia Artificial (IA) 2.- Lógica de predicados. 3.- Búsqueda de soluciones
CONTENIDO 1.- Introducción a la Inteligencia Artificial (IA) 2.- Lógica de predicados 3.- Búsqueda de soluciones 4.- Lenguajes de IA e Introducción a Sistemas Expertos 1.- Introducción a la Inteligencia
Más detallesFacultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez
Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez INTRODUCCION A LA INTELIGENCIA ARTIFICIAL Contenido: Inteligencia Artificial. Definiciones y Conceptos.
Más detallesRAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL
RAZONAMIENTO APROXIMADO EN LA INTELIGENCIA ARTIFICIAL Introducción a la Inteligencia Artificial LCC Ingeniería Electrónica REALIDAD El conocimiento que necesitamos para desarrollar un Sistema basado en
Más detallesClasificación Bayesiana
Clasificación Bayesiana Naive Bayes septiembre 30, 2014 Ricardo Corral Corral rcorral@email.ifc.unam.mx Instituto de Fisiología Celular Universidad Nacional Autónoma de México Temas 1 Introducción Conceptos
Más detallesUniversidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso)
Universidad Nacional de Educación a Distancia Ingeniería Técnica en Informática de Sistemas Introducción a la Inteligencia Artificial (2º curso) Soluciones exámenes junio 2010 Semana 1. Ejercicio 1. (Valoración:
Más detallesBases Formales de la Computación: Sesión 1. Probabilidad Discreta
Bases Formales de la Computación: Sesión 1. Probabilidad Discreta Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali 11 de abril
Más detallesTareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR
Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja
Más detallesGeneración de variables aleatorias discretas Método de la Transformada Inversa
Generación de variables aleatorias discretas Método de la Transformada Inversa Patricia Kisbye FaMAF 30 de marzo, 2010 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Más detallesTema 8: Teorema de Herbrand. Tableros en lógica de primer orden
Tema 8:. en de primer orden Dpto. Ciencias de la Computación Inteligencia Artificial Universidad de Sevilla Lógica Informática (Tecnologías Informáticas) Curso 2016 17 Contenido Sea Γ un conjunto de fórmulas
Más detallesInteligencia Artificial e Ingeniería del Conocimiento
Inteligencia Artificial e Ingeniería del Conocimiento I. A. Clásica Nuevos enfoques de la I. A. Agentes Inteligentes Aprendizaje Introducción Aprendizaje inductivo decisión Planteamiento conectivista.
Más detallesRelaciones. Estructuras Discretas. Relaciones. Relaciones en un Conjunto. Propiedades de Relaciones en A Reflexividad
Estructuras Discretas Relaciones Definición: relación Relaciones Claudio Lobos, Jocelyn Simmonds clobos,jsimmond@inf.utfsm.cl Universidad Técnica Federico Santa María Estructuras Discretas INF 152 Sean
Más detallesGeneración de variables aleatorias discretas Método de la Transformada Inversa
Generación de variables aleatorias discretas Método de la Transformada Inversa Georgina Flesia FaMAF 9 de abril, 2013 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Más detallesBloque I: Estadística y Probabilidad
Bloque I: Estadística y Probabilidad 1. Probabilidad 1. Teoría de la probabilidad 2. Probabilidad condicionada 3. Dependencia e independencia de sucesos 4. Técnicas de recuento: diagramas de árbol, tablas
Más detallesPROBABILIDAD Y ESTADÍSTICA
PROBABILIDAD Y ESTADÍSTICA Pablo Torres Facultad de Ciencias Exactas, Ingeniera y Agrimensura - Universidad Nacional de Rosario Unidad 2: Probabilidad INTRODUCCIÓN Al lanzar un dado muchas veces veremos
Más detallesInvestigación sobre los temas: Incertidumbre, Factores de la Incertidumbre, Razonamiento Aproximado y Razonamiento Inexacto.
Universidad Don Bosco Facultad de Ingeniería Escuela de Computación. Investigación sobre los temas: Incertidumbre, Factores de la Incertidumbre, Razonamiento Aproximado y Razonamiento Inexacto. Catedrático:
Más detallesCONTRASTE DE HIPÓTESIS
CONTRASTE DE HIPÓTESIS Antonio Morillas A. Morillas: Contraste de hipótesis 1 CONTRASTE DE HIPÓTESIS 1. Introducción 2. Conceptos básicos 3. Región crítica óptima i. Teorema de Neyman-Pearson ii. Región
Más detallesEduardo Morales, Hugo Jair Escalante
Eduardo Morales, Hugo Jair Escalante INAOE (INAOE) 1 / 81 Contenido 1 2 3 4 5 (INAOE) 2 / 81 Existen diferentes interpretaciones de probabilidad, las más comunes son: Clásica: P(A) = N(A)/N Frecuencia
Más detalles2. Conceptos Básicos de Probabilidad. ESTADÍSTICA Esp. Paola G. Herrera S.
2. Conceptos Básicos de Probabilidad ESTADÍSTICA Esp. Paola G. Herrera S. Introducción La probabilidad es la rama de las matemáticas que estudia los fenómenos con incertidumbre. Es un mecanismo por medio
Más detallesProcesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesMatemáticas Discretas Probabilidad
Coordinación de Ciencias Computacionales - INAOE Matemáticas Discretas Probabilidad Cursos Propedéuticos 2010 Ciencias Computacionales INAOE Teoría de Probabilidad Considero que la probabilidad representa
Más detallesBúsqueda en espacio de estados
Búsqueda en espacio de estados Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial CCIA, US Búsqueda en espacio de estados IA 1 / 35 Metodología
Más detallesSistemas Expertos basados en probabilidad (2011/2012)
Luis Valencia Cabrera (coordinador) lvalencia@us.es (http://www.cs.us.es/~lvalencia) Manuel García-Quismondo mgarciaquismondo@us.es (http://www.cs.us.es/~mgarcia) Ciencias de la Computacion e IA (http://www.cs.us.es/)
Más detallesSesión 6: Clasificadores Bayesianos
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 6: Clasificadores Bayesianos La teoría de probabilidades en el fondo no es nada más que sentido común reducido a cálculos... [Pierre Simon Laplace,
Más detalles