Aprendizaje Automático. 5. Modelos gráficos. Septiembre, Index
|
|
- Concepción Moreno Velázquez
- hace 6 años
- Vistas:
Transcripción
1 Aprendizaje Automátio 5. Modelos gráfios Franiso Casauberta Nolla Enrique Vidal Ruiz Departament de Sistemas Informàtis i Computaió (DSIC) Universitat Politènia de Valènia (UPV) Aprendizaje Automátio Modelos gráfios: 5.1 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46
2 Aprendizaje Automátio Modelos gráfios: 5.2 Modelos gráfios (MG) Los MGs y onretamente las redes bayesianas fundamentan la aproximaión probabilístia a los Sistemas Inteligentes. Uno de los más famosos impulsores fue Judea Pearl ganador del ACM A.M. Turing Award en Conepto: Representaión ompata de distribuiones de probabilidad onjunta mediante grafos dirigidos (redes bayesianas) y no dirigidos (ampos aleatorios markovianos) (teoría de grafos + teoría de la probabilidad). Los MGs generalizan a las redes neuronales y a los modelos de Markov oultos entre otros. Aspetos: Inferenia: deduir distribuiones de probabilidad a partir de otras dadas Aprendizaje: obtener el modelo probabilístio a partir de observaiones Apliaiones: Diagnóstio médio, de fallos,... Visión por omputador: segmentaión de imágenes, reonstruión 3D, análisis de esenas Proesado del lenguaje natural: reonoimiento del habla, extraión de informaión textual, traduión automátia,... Robótia: planifiaión, loalizaión,... Aprendizaje Automátio Modelos gráfios: 5.3 PÁGINA INTENCIONADAMENTE EN BLANCO
3 Aprendizaje Automátio Modelos gráfios: 5.4 Algunos oneptos sobre la teoría de las probabilidades Probabilidad P (x) : P (x) = 1 Probabilidad onjunta P (x, y) : Probabilidad ondiional P (x y) : x P (x, y) = 1 x y P (x y) = 1 x y Marginales P (x) = y P (x, y), P (y) = x P (x, y) Regla de la probabilidad onjunta P (x, y) = P (x) P (y x) Regla de la adena P (x 1, x 2,..., x N ) = P (x 1 ) Regla de Bayes P (y x) P (x) = P (y) P (x y) N P (x i x 1,..., x i 1 ) i=2 Aprendizaje Automátio Modelos gráfios: 5.5 Fatorizaión de distribuiones onjuntas Una distribuión onjunta sobre tres variables puede expresarse exatamente mediante seis fatorizaiones ompletas diferentes: P (a, b, ) = P (a) P (b a) P ( a, b) = P (a) P ( a) P (b a, ) = P (b) P (a b) P ( a, b) = P (b) P ( b) P (a b, ) = P () P (a ) P (b a, ) = P () P (b ) P (a b, ) Cada fatorizaión se pueden representar mediante un grafo dirigido aílio: a a b b b a a b b a b a
4 Aprendizaje Automátio Modelos gráfios: 5.6 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.7 Redes bayesianas: ejemplos Si hay dependenias inexistentes (o despreiables), la fatorizaión exata (o aproximada) de una distribuión onjunta puede ser inompleta, lo que queda reflejado en el grafo orrespondiente. Ejemplos: P (a, b, ) = P (a, b,, d, e, f) = P (a) P (b) P ( a, b) P (a) P (b) P () P (d b, ) P (e a, b, d) P (f a, ) a a b b d f e
5 Aprendizaje Automátio Modelos gráfios: 5.8 Redes bayesianas: un ejemplo detallado P (A L) Aspersor (A) Lluvia (L) p f n s Aspersor Césped Lluvia P (L) Lluvia (L) n s Aspersor Césped Lluvia p : parado f : funiona r : reseo m: mojado n : no llueve s : sí llueve P (C A, L) Césped (C) Lluvia (L) Aspersor (A) r m n p n f s p s f Distribuión onjunta: P (L, A, C) = P (L) P (A L)P (C L, A) Ejeriio: alular P (L = l, A = a, C = ), l {n, s}, a {p, f}, {r, m}. Aprendizaje Automátio Modelos gráfios: 5.9 Un ejemplo detallado (ont.) Cuál es la probabilidad de que llueva si el ésped está mojado? P (L = s C = m) = = = P (L = s, C = m) P (C = m) a {p,f} P (L = s, A = a, C = m) P (L = l, A = a, C = m) a {p,f},l {n,s} = El ésped está mojado. Cuál es la mejor prediión: llueve o no llueve? arg max P (L = l C = m) = n l {n,s} Ejeriio: a) Calular P (A = a L = l, C = ), a {p, f}, l {n, s}, {r, m}. b) Llueve y el esped está mojado. Cuál es la mejor prediión sobre el estado del aspersor?
6 Aprendizaje Automátio Modelos gráfios: 5.10 Redes bayesianas: otro ejemplo P (P ) Poluión (P) b a P (X C) Rayos X (X) Cáner (C) n d p n p Poluión Rayos X Cáner de pulmón Fumador Disnea P (F ) Fumador (F) n s P (D C) Disnea (D) Cáner (C) n s n p Poluión Fumador Disnea Rayos X Cáner b: bajo a: alto n: no s: sí n: no s: sí n: negativo d: dudoso p: positivo n: negativo p: positivo P (C P, F ) Cáner (C) Poluión (P) Fumador (F) n p b n b s a n a s Ejeriio: Cuál es la probabilidad de que un paiente no fumador no tenga áner si la radiografía ha dado un resultado negativo pero sufre de disnea? Aprendizaje Automátio Modelos gráfios: 5.11 Redes bayesianas Una red bayesiana es un grafo dirigido y aílio ( direted ayli graph -DAG-) donde: Los nodos representan: variables aleatorias (disretas o ontínuas) distribuiones de probabilidad ondiional para ada variable x i dados los valores de las variables asoiadas a los nodos padres a(x i ) Los aros representan dependenias entre las variables Una red bayesiana on nodos x 1,..., x D probabilidad onjunta: define una distribuión de D P (x 1,..., x D ) = P (x i a(x i )) i=1
7 Aprendizaje Automátio Modelos gráfios: 5.12 Algunas redes bayesianas simples El lasifiador de Bayes (x R d y {1,..., C}): x P () P (x ) P (x, ) = P () P (x ) P ( x) = P (x, ) P (x) = P () P (x ) P ( ) P (x ) Modelos naive-bayes (x i R on 1 i d y {1,..., C}): P () x 1 x d P (x 1,..., x d, ) = P () d P (x i ) i=1 P (x 1 ) P (x d ) Aprendizaje Automátio Modelos gráfios: 5.13 Otro ejemplo de red bayesiana: modelo oulto de Markov P(q q ) 1 1 P(x q ) P(x q ) 1 P(q 2 q 1 ) 2 q q 1 2 P(q q ) 2 2 P(X Q ) 1 1 X 1 P(X Q ) 2 2 P(X Q ) 3 3 P(X Q ) 4 4 X 2 X 3 X 4 Σ = {a, b, }, x Σ Q = {q 1, q 2 } Q 1 Q 2 Q 3 Q 4 P(Q Q ) 2 1 P(Q Q ) 3 2 P(Q ) 1 P(Q Q ) 4 3 Las variables aleatorias Q i toman valores en Q y las X i en Σ, 1 i 4. Probabilidad onjunta de la red bayesiana: P (X 1 X 2 X 3 X 4, Q 1 Q 2 Q 3 Q 4 ) = P (Q 1 ) P (X 1 Q 1 ) P (Q 2 Q 1 ) P (X 2 Q 2 ) P (Q 3 Q 2 ) P (X 3 Q 3 ) P (Q 4 Q 3 ) P (X 4 Q 4 ) Probabilidad de generar la adena aab : P (X 1 = a, X 2 = a, X 3 = b, X 4 = ) = r 1,r 2,r 3,r 4 Q P (X 1 = a, X 2 = a, X 3 = b, X 4 =, Q 1 = r 1, Q 2 = r 2, Q 3 = r 3, Q 4 = r 4 ) O sea, la suma de probabilidades de generar aab mediante todas las seuenias de 4 estados.
8 Aprendizaje Automátio Modelos gráfios: 5.14 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.15 PÁGINA INTENCIONADAMENTE EN BLANCO
9 Aprendizaje Automátio Modelos gráfios: 5.16 Independenia ondiional Se die que a es ondiionalmente independiente de b dado (o también que a está D-separado de b por, y se denota omo: a b ) si: P (a, b ) = P (a )P (b ) P (a b, ) = P (a ) Se die que a es inondiionalmente independiente de b (y se denota omo: a b ) si: P (a, b) = P (a) P (b) Aprendizaje Automátio Modelos gráfios: 5.17 Reglas de independenia onditional e inonditional a b Direión ausal: a b, a / b P (a)p ( a)p (b ) P (a, b ) = = P (a )P (b ) P () pero en general P (a, b) P (a)p (b) a b Causa omún: a b, a / b P ()P (a )P (b ) P (a, b ) = = P (a )P (b ) P () pero en general P (a, b) P (a)p (b) a b Estrutura en V: a / b, a b En general P (a, b ) P (a )P (b ) pero P (a, b) = P (a)p (b)p ( a, b) = P (a)p (b)
10 Aprendizaje Automátio Modelos gráfios: 5.18 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.19 Inferenia on redes bayesianas En general, el problema onsiste en alular la probabilidad a posteriori de alguna variable x a partir de las distribuiones onjuntas asoiadas a una RB, dada alguna evidenia e (omo valores dados de otras variable) y sin importar los valores de resto de las variables f: P (x e) = P (x, e) P (e) on: P (x, e) = f P (x, e, f), P (e) = x,f P (x, e, f) El objetivo es alular efiientemente P (x, e) y P (e) Ejemplo: Calular P (x 3 ) a partir de una distribuión onjunta dada por: P (x 1, x 2, x 3, x 4 ) = P (x 2 )P (x 1 x 2 )P (x 3 x 2 )P (x 4 x 3 ) Supongamos que ada x i, i = 1, 2, 3, 4 puede tomar n valores: P (x 3 ) = x 1,x 2,x 4 P (x 2 )P (x 1 x 2 )P (x 3 x 2 )P (x 4 x 3 ) O(n 3 ) operaiones. P (x 3 ) = x 2 P (x 2 )P (x 3 x 2 ) x 1 P (x 1 x 2 ) x 4 P (x 4 x 3 ) = x 2 P (x 2 )P (x 3 x 2 ) O(n) operaiones.
11 Aprendizaje Automátio Modelos gráfios: 5.20 Inferenia on redes bayesianas Situaiones donde es útil alular las probabilidades a-posteriori: Prediión: Cuál es la probabilidad de observar un síntoma sabiendo que se tiene una determinada enfermedad? Diagnóstio: Cuál es la probabilidad de que una determinada enfermedad sea un diagnóstio orreto dados algunos síntomas? En RB, la direión de los enlaes entre variables no restringe el tipo de preguntas que se pueden haer. Aprendizaje Automátio Modelos gráfios: 5.21 Tipos de redes bayesianas La estrutura de una Red Bayesiana puede permitir iertas fatorizaiones sistemátias en los álulos asoiados a la inferenia. Dos tipos de estrutura adimiten fatorizaiones efiientes: adena y (poli-)árbol. Cadena Árbol Poli-árbol Grafo (DAG)
12 Aprendizaje Automátio Modelos gráfios: 5.22 Inferenia en una adena x i x i+1 x n-1 x n x n+1 x f-1 x f E + - xn E xn Supongamos que el último x i E + x n y el primer x f E x n están dados: P (x n x i, x f ) = P (x n, x i, x f ) P (x i, x f ) = P (x n) P (x i x n ) P (x f x n, x i ) P (x i, x f ) P (x n ) P (x i ) P (x n x i ) P (x f x n ) P (x n ) P (x i, x f ) = (Indep. ond.: x f (Regla de Bayes) = α P (x n x i ) P (x f x n ) (α = P (x i )/P (x i, x f )) x i x n ) Ejeriio: Qué ourre si también onoemos x i E + xn on i < i? Ejeriio: Qué ourre si también onoemos x f E xn on f > f? Aprendizaje Automátio Modelos gráfios: 5.23 Inferenia en una adena Propagaión de reenias ( Belief propagation ) π (x ) n λ (x ) n x i x i+1 x n-1 x n x n+1 x f-1 x f E + - xn E xn P (x n x i, x f ) = α P (x n x i ) P (x f x n ) def = α π(x n ) λ(x n ) donde π(x n ) y λ(x n ) se alulan omo: π(x i ) = 1 λ(x f ) = 1 π(x n ) = x n 1 P (x n x n 1 ) π(x n 1 ) λ(x n ) = x n+1 P (x n+1 x n ) λ(x n+1 ) Ejeriio: Obtener una expresión para P (x n )
13 Aprendizaje Automátio Modelos gráfios: 5.24 Inferenia en una adena (derivaión I) π (x ) n-1 π (x ) n x i x i+1 x n-1 x n x n+1 x f-1 x f E + - xn E xn π(x n ) = P (x n x i ) = x n 1 P (x n, x n 1 x i ) = P (x n 1 x i ) P (x n xi, x n 1 ) = P (x n 1 x i ) P (x n x n 1 ) x n 1 x n 1 = x n 1 π(x n 1 ) P (x n x n 1 ) π(x i ) = 1 Aprendizaje Automátio Modelos gráfios: 5.25 Inferenia en una adena (derivaión II) λ (x ) n λ (x ) n+1 x i x i+1 x n-1 x n x n+1 x f-1 x f E + - xn E xn λ(x n ) = P (x f x n ) = x n+1 P (x f, x n+1 x n ) = P (x n+1 x n ) P (x f x n, x n+1 ) = P (x n+1 x n ) P (x f x n+1 ) x n+1 x n+1 = x n+1 P (x n+1 x n ) λ(x n+1 ) λ(x f ) = 1
14 Aprendizaje Automátio Modelos gráfios: 5.26 Inferenia en un árbol u i λ (u ) x i j λ (x ) y j k x j π (u ) x i j π (x ) y j k E + x j y k E - x j Para alular P (x j E x + j, Ex j ) = α π(x j ) λ(x j ) m λ(x j ) = λ yk (x j ) on λ yk (x j ) = λ(y k ) P (y k x j ) y k k=1 π(x j ) = u i P (x j u i ) π xj (u i ) on π xj (u i ) = α j j λ xj (u i ) π(u i ) Aprendizaje Automátio Modelos gráfios: 5.27 Inferenia en otros tipos de grafos Poli-arboles ( Polytrees ). Los nodo pueden tener múltiples padres, pero solo puede existir un amino únio entre ualquier par de nodos: una generalizaión del algoritmo sobre un árbol. Grafos generales. Inferenia aproximada: Métodos variaionales. Métodos basados en muestreo.
15 Aprendizaje Automátio Modelos gráfios: 5.28 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.29 Campos de Markov aleatorios Un ampo de Markov aleatorio es un modelo gráfio en la que se asume un modelo simplifiado de independenia ondiional. Se define omo: Un onjunto de variables aleatorias V = {X 1,..., X D } Un grafo no-dirigido R = (V, E) El onjunto Q de todos los liqués (máximos) de R Una distribuión de probabilidad onjunta fatorizada omo: P (x 1,..., x D ) = 1 ψ C (V C ) Z C Q donde V C es el subonjunto de variables del liqué C y ψ C :Q R >0 es una funión llamada funión potential y Z es un fator de normalizaión. Ejemplo (3 liqués máximos, V 1 = {A, B, C}, V 2 = {C, D}, V 3 = {D, E}): A C B D E P (A, B, C, D, E) = 1 Z ψ 1(A, B, C) ψ 2 (C, D) ψ 3 (D, E) Un liqué es un subgrafo totalmente onetado. Es máximo si no es subgrafo de algún otro liqué.
16 Aprendizaje Automátio Modelos gráfios: 5.30 Campos de Markov aleatorios: poteniales exponeniales Si las funiones de potenial son de la familia exponenial: P (x 1,..., x D ) = 1 exp ( E(V C )) = 1 ( Z Z exp ) E(V C ) C Q C Q donde E :Q R es una funión llamada funión de energía. Un tipo de funión de energía simple puede definirse mediante funiones lineales generalizadas: E(V C ) = k θ C,k f C,k (V C ) Aprendizaje Automátio Modelos gráfios: 5.31 Un ejemplo Imagen binaria original: x, x i { 1, +1}, 1 i D (D = número de píxeles de la imagen) La imagen orrupta: y, y i { 1, +1}, 1 i D (se han alterado 10% de los píxeles) El objetivo es reuperar la imagen original a partir de la imagen orrupta
17 Aprendizaje Automátio Modelos gráfios: 5.32 Un ejemplo (Bishop. Pattern Reognition and Mahine Learning. 2006) Fuerte orrelaión entre x i y y i y i Correlaión entre x i y x j si son píxeles veinos; es deir, si i N(j), j N(i). x i Cliques máximos: C i = (x i, y i ) i; C ij = (x i, x j ) i, j N(i) Funión de energía: E(V Cij ) = β x i x j E(V Ci ) = ν x i y j } C Q E(V C ) = β i,j x i x j ν i x i y i Distribuión onjunta: P (x 1,..., x D, y 1,..., y D ) = 1 Z exp ( β i,j x i x j + ν i x i y i ) Aprendizaje Automátio Modelos gráfios: 5.33 Un ejemplo (Bishop. Pattern Reognition and Mahine Learning. 2006) A partir de la distribuión onjunta: P (x, y) P (x 1,..., x D, y 1,..., y D ) = 1 Z exp ( β i,j x i x j + ν i x i y i ) Inferenia: P (x y) = P (x, y) P (y) = exp (β i,j x ix j + ν ) i x iy i x exp 1,...,x D ( β i,j x i x j + ν ) i x i y i Expliaión más probable: ˆx (ˆx 1,..., ˆx D ) = arg max P (x y) = arg max (β x x 1,...,x D i,j x i x j + ν i x i y i ) Esto es, ˆx =
18 Aprendizaje Automátio Modelos gráfios: 5.34 Inferenia on ampos de Markov aleatorios En adenas: Algoritmo adelante-atrás ( Bakward-Forward algorithm ) En árboles: Algoritmo suma-produto En grafos generales: Algoritmo de árbol de unión ( Juntion tree algorithms ), algoritmo suma-produto ( Loopy belief propagation ) Aprendizaje Automátio Modelos gráfios: 5.35 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46
19 Aprendizaje Automátio Modelos gráfios: 5.36 Aprendizaje de redes bayesianas Dada la estrutura, aprender las distribuiones de probabilidad a partir de un onjunto de entrenamiento. Métodos basados en la maximizaión de la verosimilitud (algoritmo EM -T3-). Aprendizaje bayesiano. Aprender la estrutura a partir de un onjunto de entrenamiento. Un problema de seleión de modelos: búsqueda en el espaio de grafos. Aprendizaje Automátio Modelos gráfios: 5.37 Aprendizaje en redes bayesianas: ejemplo B es el estado de la batería (argada B = 1 o desargada B = 0) C es el estado del depósito de ombustible (lleno C = 1 o vaío C = 0) I es el estado del indiador elétrio del ombustible (lleno I = 1 o vaío I = 0) Por simpliidad se asume que las distribuiones asoiadas a las variables I y C son fijas y onoidas y hay que estimar la distribuión de B a partir de observaiones. P (B) =? P (C = 1) = 0.9 P (I = 1 B = 0, C = 0) = 0.1 P (I = 1 B = 0, C = 1) = 0.2 P (I = 1 B = 1, C = 0) = 0.2 P (I = 1 B = 1, C = 1) = 0.8 B C I P (B, C, I) = P (B) P (C) P (I B, C) P (B) viene dada por dos valores de probabilidad, p 0 = P (B = 0), p 1 = P (B = 1). Por tanto los parámetros a estimar son: Θ = (p 0, p 1 ), p 0 + p 1 = 1
20 Aprendizaje Automátio Modelos gráfios: 5.38 Aprendizaje on observaiones ompletas Sea S = {(b 1, 1, i 1 ),..., (b N, N, i N ), } un onjunto de observaiones de entrenamiento. Sean N 0 y N 1 = N N 0 los números de observaiones en las que b = 0 y b = 1, respetivamente. Se asume que S está ordenado de forma que b n = 0, 1 n N 0 y b m = 1, N N0 +1 m N. La log-verosimilitud es: L S (p 0, p 1 ) = = = N log P (b = b n, C = n, I = i n ) n=1 N log P (b = b n )P (C = n )P (I = i n B = b n, C = n ) n=1 N 0 log p 0 + n=1 N m=n 0 +1 log p 1 + K = N 0 log p 0 + N 1 log p 1 + K donde K inluye los términos independientes de p 0, p 1. Maximizaión de L S mediante multipliadores de Lagrange, omo en el ejemplo de estimaión de probs. a priori del Tema 3 ˆp 0 = N 0 N, ˆp 1 = N 1 N Ejemplos: S = {(0, 1, 1), (1, 1, 0)} ˆp 0 = 1 2, ˆp 1 = 1 2 S = {(0, 0, 1), (1, 1, 0)} ˆp 0 = 1 2, ˆp 1 = 1 2 S = {(0, 1, 1), (0, 0, 1), (1, 1, 0)} ˆp 0 = 2 3, ˆp 1 = 1 3 Aprendizaje Automátio Modelos gráfios: 5.39 Algoritmo esperanza-maximizaión (EM) (Reordatorio) Dada la muestra S = {x 1,..., x N } y variables latentes {z 1,..., z N }. Iniializaión: t = 1, Θ(1) = arbitrario. Iteraión hasta la onvergenia: Paso E: A partir de Θ(t) y para todo 1 n N, ˆq n (z n ) P (z n x n ; Θ(t)) Paso M: Maximizaión de Q(Θ, ˆq) on respeto a Θ Θ(t + 1) = arg max Θ t = t + 1 Q (Θ, ˆq) = arg max Θ N n=1 z n ˆq n (z n ) log P (x n, z n Θ)
21 Aprendizaje Automátio Modelos gráfios: 5.40 Algoritmo esperanza-maximizaión (EM) En el ejemplo, se dispone de observaiones del estado del depósito de ombustible y de lo que marque el indiador del estado de batería, pero no del verdadero estado de la batería, la muestra inompleta serán los datos observables, S = {( 1, i 1 ),..., ( N, i N )}, (x = (, i)), las variables latentes, {b 1,..., b N } (z = b) y los parámetros p 0 y p 1 (Θ = (p 0, p 1 )). Iniializaión: t = 1, p 0 (1) = arbitrario y p 1 (1) = 1 p 0 (1). Iteraión hasta la onvergenia Paso E. A partir de p 0 (t) y p 1 (t) y ada muestra 1 n N. Paso M. ˆq n (b) P (B = b C = n, I = i n ; p 0 (t), p 1 (t)) b {0, 1} (p 0 (t + 1), p 1 (t + 1)) = arg max Q (p 0, p 1, ˆq) p 0,p 1 = N 1 arg max ˆq n (b) log P (C = n, I = i n, B = b p 0, p 1 ) p 0,p 1 t = t + 1 n=1 b=0 Aprendizaje Automátio Modelos gráfios: 5.41 Aprendizaje EM on observaiones inompletas: Paso E En el paso E hay que alular, para ada observaión inompleta, la distribuión de probabilidad de la variable oulta o latente (B) dados los valores onoidos de las otras dos variables (C e I) y de los parámetros obtenido en la iteraión anterior t (p 0 (t), p 1 (t)). ˆq n (b) = P (B =b C = n, I = i n ; p 0 (t), p 1 (t)) = P (B =b, C = n, I = i n ; p 0 (t), p 1 (t)) P (C = n, I = i n ; p 0 (t), p 1 (t)) = P (B =b; p 0 (t), p 1 (t)) P (C)P (I B =b, C) P (B =0) P (C)P (I B =0, C) + P (B =1) P (C)P (I B =1, C) = p b (t) k bn p 0 (t) k 0n + p 1 (t) k 1n para b {0, 1} Donde: k 0n = P (I =i n B =0, C = n ) y k 1n = P (I =i n B =1, C = n )
22 Aprendizaje Automátio Modelos gráfios: 5.42 Aprendizaje EM on observaiones inompletas: paso M En el paso M hay que maximizar Q (p 0, p 1, ˆq), definida en base a las esperanzas aluladas en el paso E. Q (p 0, p 1, ˆq) = Donde,. = = K = N n=1 b=0 N n=1 b=0 1 ˆq n (b) log P (B = b, C = n, I = i n ; p 0, p 1 ) 1 ˆq n (b) log(p (B = b; p 0, p 1 )P (C = n )P (I = i n B = b, C = n )) N ˆq n (0) log p 0 + ˆq n (1) log p 1 + K = q 0 log p 0 + q 1 log p 1 + K n=1 N n=1 b=0 1 ˆq n (b) log(p (C = n )P (I = i n B = b, C = n )) q 0 = N ˆq n (0) y q 1 = n=1 N ˆq n (1) n=1 Aprendizaje Automátio Modelos gráfios: 5.43 Aprendizaje EM on observaiones inompletas: paso M Maximizar Q : similar a estimaión de probabilidades a priori por máxima verosimilitud (Tema 3): Funión de Lagrange: Λ(p 0, p 1, β) = Q (p 0, p 1, ˆq) + β(1 p 0 p 1 ) = q 0 log p 0 + q 1 log p 1 + K + β(1 p 0 p 1 ) Funión dual: Λ p 0 = 0 p 0 = q 0 β ; Λ = 0 p 1 = q 1 p 1 β Λ D (β) = K + β ( q 0 + q 1 ) log β = K + β N log β Donde K = K + q 0 log q 0 + q 1 log q 1 Optimizando la funión dual: dλ D dβ = 1 N β = 0 β = N Soluión final: p 0 (t + 1) p 0 = q 0 N ; p 1(t + 1) p 1 = q 1 N
23 Aprendizaje Automátio Modelos gráfios: 5.44 Aprendizaje EM on observaiones inompletas: ejemplos Sea S = {(1, 1), (1, 0)} (N = 2): Paso E: ˆq 1 (0) = 0.2p 0 (t)/(0.2p 0 (t) + 0.8p 1 (t)), ˆq 2 (0) = 0.8p 0 (t)/(0.8p 0 (t) + 0.2p 1 (t)), ˆq 1 (1) = 0.8p 0 (t)/(0.2p 0 (t) + 0.8p 1 (t)), ˆq 2 (1) = 0.2p 0 (t)/(0.8p 0 (t) + 0.2p 1 (t)). q 0 = ˆq 1 (0) + ˆq 2 (0), q 1 = ˆq 1 (1) + ˆq 2 (1). Paso M: p 0 (t + 1) = q 0 N, p 1(t + 1) = q 1 N Iniializando on p 1 (1) = 0.9, p 0 (1) = 0.1: t p 1 (t) Si ahora las observaiones son S = {(0, 1), (1, 0)}: t p 1 (t) Aprendizaje Automátio Modelos gráfios: 5.45 Algunos toolkits BNT GMTK bilmes/gmtk/ GraphLab PMTK3 probabilisti modeling toolkit for Matlab/Otave Software Pakages for Graphial Models murphyk/software/bnsoft.html
24 Aprendizaje Automátio Modelos gráfios: 5.46 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.47 Bibliografía Christopher M. Bishop: Pattern Reognition and Mahine Learning. Springer, 2006.
25 Aprendizaje Automátio Modelos gráfios: 5.48 Notaión P (x): probabilidad de x P (x, y): probabilidad onjunta de x e y P (x y): probabilidad ondiional de x dado y Para un onjunto de variables V C en un lique C, ψ C (V C ) = exp ( E(V C )) es una funión potential donde E(V C ) es una funión de energía. Una funión de energía lineal: E(V C ) = k θ C,k f C,k (V C ) donde f C,k son determinadas funiones que obtienen araterístias del lique C.
Curso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detallesExtracción de parámetros de señales acústicas
VI Congreso Iberoameriano de Aústia - FIA 8 Buenos Aires, 5, 6 y 7 de noviembre de 8 Extraión de parámetros de señales aústias Aguilar, Juan (a), Salinas, Renato (b) FIA8-A16 (a) Instituto de Aústia, Universidad
Más detallesTema 6. Clasificadores Bayesianos
Tema 6. Clasifiadores Bayesianos Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Cienias de la Computaión e Inteligenia Artifiial Universidad del País Vaso Euskal Herriko Unibertsitatea
Más detallesProblemario 1: Teoría de Conjuntos y Espacios Muestrales
UNIVERSIDAD SIMÓN BOLÍVAR CO3121 PROBABILIDADES PARA INGENIEROS PROBLEMARIO Problemario 1: Teoría de Conjuntos y Espaios Muestrales 1.1.- Trae los diagramas de Venn para verifiar que para ualquier par
Más detallesBases Formales de la Computación: Redes de Bayes (segunda parte)
Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes
Más detallesINTRODUCCIÓN A LAS MATEMÁTICAS SUPERIORES. Tema 1
INTRODUCCIÓN A LAS MATEMÁTICAS SUPERIORES Tema 1 1.1 BREE INTRODUCCIÓN A LA LÓGICA MATEMÁTICA Bibliografía: Smith, Karl J.- Introduión a la Lógia simbólia.- Grupo Editorial Iberoaméria.- Méio, 1991. Espinosa
Más detallesLa ecuación lineal de primer grado con tres incógnitas. El plano en el espacio afín
La euaión lineal de primer grado on tres inógnitas. El plano en el espaio afín En un artíulo anterior habíamos hablado sobre la euaión lineal de primer grado on dos inógnitas y sobre la reta en el plano
Más detallesTEMA 3.- DISTRIBUCIONES DE PROBABILIDAD
TEMA 3.- DISTRIBUIONES DE PROBABILIDAD 3.1 EXPERIMENTOS Y SUESOS ALEATORIOS Existen dos tipos de experimentos: deterministas y aleatorios. El primero es aquel del que se puede predeir el resultado siempre
Más detallesRecursión y Relaciones de Recurrencia. UCR ECCI CI-0111 Estructuras Discretas Prof. Kryscia Daviana Ramírez Benavides
Reursión y Relaiones de Reurrenia UCR ECCI CI-0 Estruturas Disretas Prof. Krysia Daviana Ramírez Benavides Algoritmos Reursivos Un algoritmo es reursivo si se soluiona un problema reduiéndolo a una instania
Más detallesTEXTURAS DE MOVIMIENTO: CAMPOS MARKOVIANOS MIXTOS Y SEGMENTACION
ISSN: 1697-7912. Vol. 4, Núm. 4, Otubre 2007, pp. 80-86 http://riai.isa.upv.es TEXTURAS DE MOVIMIENTO: CAMPOS MARKOVIANOS MIXTOS Y SEGMENTACION Tomás Crivelli, Bruno Cernushi Frías y Patrik Bouthemy Laboratorio
Más detallesCapítulo 2 Orígenes de la teoría cuántica
Capítulo Orígenes de la teoría uántia.1 Radiaión de uerpo negro La teoría uántia se originó entre 1900 05: 1900: Plank explia la radiaión térmia en términos de la disretizaión de la energía. 1905: Einstein
Más detallesSistemas homogéneos multicomponentes 24 de marzo de 2009 Cuestiones y problemas: C: 7.3, 5
Índie 5 CELINA GONZÁLEZ ÁNGEL JIMÉNEZ IGNACIO LÓPEZ RAFAEL NIETO Sistemas homogéneos multiomponentes 24 de marzo de 2009 Cuestiones y problemas: C: 7.3, 5 subrayados y en negrita para voluntarios punto
Más detallesIntroducción a la Química Computacional
Introduión a la Químia Computaional MÉTODO D LA VARIACION PARA ROLVR APROXIMADAMNT LA CUACIÓN D CRÖDINGR Reservados todos los derehos de reproduión. Luis A. Montero Cabrera y Rahel Crespo Otero, Universidad
Más detallesGuía # 5. Pruebas de hipótesis
INSTITUCION UNIVERSITARIA ANTONIO JOSÉ CAMACHO Asignatura: ESTADÍSTICA APLICADA 010-1 Guía # 5. Pruebas de hipótesis Temas: Pruebas de hipótesis para la media poblaional (µ) Pruebas de hipótesis para la
Más detallesElementos de Estadística Primer Examen Parcial (25%)
UNIVERSIDAD CENTRAL DE VENEZUELA Cilo Básio Departamento de Matemátia Apliada Elementos de Estadístia (0260) Martes 10 de Mayo de 2011 Profesor: José Luis Quintero FACULTAD DE INGENIERÍA Elementos de Estadístia
Más detallesRecursión y Relaciones de Recurrencia. UCR ECCI CI-1204 Matemáticas Discretas M.Sc. Kryscia Daviana Ramírez Benavides
Reursión y Relaiones de Reurrenia UCR ECCI CI-04 Matemátias Disretas M.S. Krysia Daviana Ramírez Benavides Algoritmos Reursivos Un algoritmo es reursivo si se soluiona un problema reduiéndolo a una instania
Más detalles1 2 +! $ = # 1$ $ Pensamiento Algebraico GUÍA DE PARA LOS ASPIRANTES A LA MME Temas que debe dominar:
Pensamiento lgebraio Temas que debe dominar: GUÍ DE PR LOS SPIRNTES L MME-06 Definiión, operaiones y propiedades de: Números Naturales Números Enteros Números raionales Números irraionales Números omplejos
Más detalles11.1. Ecuaciones de la dinámica de sólidos
Capítulo 11 Dinámia de sólidos Todos los modelos estudiados hasta ahora suponían que los sólidos deformables se enuentran, en todo instante, en equilibrio uasi-estátio. Esto quiere deir que, aunque éstos
Más detallesEJERCICIOS DE ALGORITMIA. FUNDAMENTOS DE PROGRAMACIÓN (GRADO EN BIOTECNOLOGÍA)
EJERCICIOS DE ALGORITMIA. UNDAMENTOS DE PROGRAMACIÓN (GRADO EN BIOTECNOLOGÍA) 1. Realizar un organigrama para dividir un segmento [a,b] en N subintervalos iguales. Como datos de entrada se emplearán a,
Más detallesSesión 8: Redes Bayesianas - Representación
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 8: Redes Bayesianas - Representación La probabilidad no es realmente sobre números, es sobre la estructura del razonamiento [G. Shafer] Redes
Más detallesPor qué k µ es un cuadrivector?
Por qué k µ es un uadrivetor? odemos deir algo aera de por qué la freuenia y el vetor número P de onda forman un uadrivetor. La respuesta orta es: onda plana en un sistema, onda plana en todos. La idea
Más detallesAPROXIMACIÓN MODAL A LA INFERENCIA DE NUEVAS TEORÍAS. Fernando Soler Toscazo & Ignacio Hernández Antón. Universidad de Sevilla
APROXIMACIÓN MODAL A LA INFERENCIA DE NUEVAS TEORÍAS Fernando Soler Tosazo & Ignaio Hernández Antón Universidad de Sevilla & Introduión Los aeramientos lógios al razonamiento
Más detallesModelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 10: Redes Bayesianas Inferencia 1era parte [Neapolitan 90] Inferencia en Redes Bayesianas Introducción Clases de algoritmos 1era Parte Propagación
Más detallesUnidad N 2: Probabilidades. Elementos de Probabilidades
Unidad N 2: Probabilidades Elementos de Probabilidades Los primeros estudios de probabilidad fueron motivados por la posibilidad de aierto o fraaso en los juegos de azar. La probabilidad es un meanismo
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 13
Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models
Más detallesUNIDAD 1.- PROBABILIDAD
UNIDAD 1.- PROBABILIDAD 1. EXPERIMENTOS ALEATORIOS. ESPACIO MUESTRAL. Definiión: Un fenómeno o experienia se die aleatorio uando al repetirlo en ondiiones análogas no se puede predeir el resultado. Si
Más detallesAnálisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
Más detallesEn el sistema S las fórmulas de aberración relativista y efecto Doppler dan
FÍSICA TEÓRICA 1 2do. Cuatrimestre 2015 Fresnel relativista Guía 6, problema 3 Se trata de enontrar las ondas reflejadas y transmitidas en el sistema del laboratorio uando una onda plana inide sobre la
Más detallesTrabajo Práctico 1 Implementación de AFDs
Trabajo Prátio 1 Implementaión de AFDs Teoría de Lenguajes 1 er uatrimestre 01 Feha de entrega: 9 de abril 1. Objetivos Este trabajo tiene omo objetivos prinipales: Familiarizarse on la implementaión de
Más detallesCONJUNTOS. Según se ha visto en el ejercicio anterior, para que la intersección de dos conjuntos A y B sea A, se tiene que verificar que A B.
CONJUNTOS 1. Si se umple: a) = b) = ) = (Convoatoria junio 2001. Examen tipo E ) Es laro que la opión orreta es la a). Cuando un onjunto está dentro de otro, la interseión es el onjunto pequeño y la unión
Más detallesDETERMINACIÓN DE LAS CORRIENTES DE INSERCIÓN EN SISTEMAS DE DISTRIBUCIÓN DE n TRANSFORMADORES.
ng. Horaio Salvañá HS ngeniería - www.hsingenieria.om.ar DETERMNACÓN DE LAS CORRENTES DE NSERCÓN EN SSTEMAS DE DSTRBUCÓN DE n TRANSFORMADORES. Autor: ng. Horaio Salvañá Objetivo: El objeto de este trabajo
Más detallesESTRUCTURA FINA DEL ÁTOMO DE HIDRÓGENO.
ESTRUCTURA FINA DEL ÁTOMO DE HIDRÓGENO. Ciertas líneas del hidrógeno y de los alalinos mostraban perfiles on varias omponentes muy próximas entre sí, indiando un desdoblamiento de los niveles de energía
Más detallesLección 4. Ecuaciones diferenciales. 4. Propiedades algebraicas de las soluciones. Fórmulas de Abel y Liouville.
GRADO DE INGENIERÍA AEROESPACIAL. CURSO 0. 4. Proiedades algebraias de las soluiones. Fórmulas de Abel y Liouville. A lo largo de esta seión suondremos que P, Q y R son funiones ontinuas en un intervalo
Más detallesMatemáticas III Andalucía-Tech. Integrales múltiples
Matemátias III Andaluía-Teh Tema 4 Integrales múltiples Índie. Preliminares. Funión Gamma funión Beta. Integrales dobles.. Integral doble de un ampo esalar sobre un retángulo................ Integral doble
Más detallesAnálisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos
Más detallesPRODUCTOS Y COCIENTES NOTABLES
INSTITUCION EDUCATIVA LA PRESENTACION NOMBRE ALUMNA: AREA : MATEMATICAS ASIGNATURA: MATEMATICAS DOCENTE: HUGO HERNAN BEDOYA TIPO DE GUIA: CONCEPTUAL - EJERCITACION PERIODO GRADO FECHA DURACION 0 DE Julio
Más detallesSistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov.
Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema BT7: Algoritmo de Viterbi. Estimación de modelos de Markov. DSIC UPV: Octubre, 8 SIN-TemaBT7 índice
Más detallesSeminario de problemas. Curso Hoja 18
Seminario de problemas. Curso 016-17. Hoja 18 111. Demuestra que una ondiión neesaria y sufiiente para que un triángulo sea isóseles es que tenga dos medianas iguales. Soluión: Vamos a utilizar un resultado
Más detallesINSTRUCCIONES GENERALES Y VALORACIÓN
MADRID / SEPTIEMBRE 000. LOGSE / MATEMÁTICAS APLICADAS A LAS INSTRUCCIONES GENERALES Y VALORACIÓN INSTRUCCIONES: El eamen presenta dos opiones A y B; el alumno deberá elegir una de ellas y ontestar razonadamente
Más detallesExamen final de Cálculo Integral
xamen final de Cálulo Integral 6 de septiembre de 1 (Soluiones) Cuestiones C 1 Apliando el teorema 1.15 y definiión 1. de los apuntes se onluye inmediatamente que el valor de la integral oinide on la longitud
Más detallesProgramación y Métodos Numéricos Ejercicios Enero Junio 2018
Programaión y Métodos Numérios Ejeriios Enero Junio 18 EJERCICIO 1 En ada aso, evaluar la expresión dada, realizando las operaiones paso a paso de auerdo al orden de preedenia de los operadores aritmétios.
Más detallesIlustración 1 Imagen obtenida al aplicar el algoritmo LBP a una imagen monoespectral. 5.1 Análisis de texturas con patrones locales binarios
101 Capítulo 5 5. El Algoritmo Lbp Ilustraión 1 Imagen obtenida al apliar el algoritmo LB a una imagen monoespetral 5.1 Análisis de texturas on patrones loales binarios La textura en una imagen puede proveer
Más detalles4. RELACIONES CONSTITUTIVAS. LEY DE HOOKE GENERALIZADA
4. RLACIONS CONSTITUTIVAS. LY D HOOK GNRALIZADA 4. Ley de Hooke. Robert Hooke planteó en 678 que existe proporionalidad entre las fuerzas apliadas a un uerpo elástio y las deformaiones produidas por dihas
Más detallesProcesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas
Más detallesINFERENCIA ESTADÍSTICA
INFERENCIA ESTADÍSTICA DECISIÓN ESTADÍSTICA. CONTRASTE DE HIPÓTESIS. Introduión 1 La Inferenia Estadístia persigue la obtenión de onlusiones sobre un gran número de datos, en base a la observaión de una
Más detalles2.0 Contenidos, objetivos y palabras claves.
8 Unidad 3: Teoría elemental de probabilidades 0 Contenidos, objetivos y palabras laves Contenidos: 30 Contenidos, objetivos y palabras laves 8 3 Experimento determinístio y aleatorio Espaio muestral ontable
Más detallesEjercicios de Arquitectura de Computadoras
Ejeriios de Arquitetura de Computadoras José Garzía 9 Arquitetura de Computadora Ejeriios de la Seión de Proesamiento Explique qué es el rebose uando se suman dos números sin signo y ómo puede ser detetado
Más detallesClase 2. Las ecuaciones de Maxwell en presencia de dieléctricos.
Clase Las euaiones de Maxwell en presenia de dielétrios. A diferenia de los metales (ondutores elétrios) existen otro tipo de materiales (dielétrios) en los que las argas elétrias no son desplazadas por
Más detallesPráctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut
Práctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut 8.1 Para cada uno de los siguientes conjuntos, encontrar una desigualdad válida que agregada a la formulación
Más detallesTeoría de Sistemas y Señales
Universidad Naional de Rosario Faultad de Cienias Exatas, Ingeniería y Agrimensura Esuela de Ingeniería Eletrónia Teoría de Sistemas y Señales Trabajo Prátio Nº 3 Análisis Freuenial de Señales Problemas
Más detallesRadiación electromagnética
C A P Í T U L O Radiaión eletromagnétia.1. ENUNCIADOS Y SOLUCIONES DE LOS PROBLEMAS 1. El ampo elétrio de una onda eletromagnétia plana en el vaío viene dado, en unidades del sistema internaional (SI),
Más detallesde distribución mediante redes neuronales Felier Fernández
Pronóstio de las pérdidas en redes de distribuión mediante redes neuronales Felier Fernández Sergio de la Fé Dante Miraglia Reibido: Otubre del 2004 Aprobado: Diiembre del 2004 Resumen / Abstrat energétia
Más detallesIncertidumbres. Tipos de instrumentos. Algunas formas de expresar las incertidumbres
Inertidumres Es posile otener el valor real (exato) de una magnitud a través de mediiones? Aunque pareza sorprende, la respuesta a esta pregunta es NO. El proeso de mediión involura neesariamente el uso
Más detallesModelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 5: Modelos Ocultos de Markov Modelos Ocultos de Markov Cadenas de Markov Preguntas básicas Aplicación: orden en Google Modelos Ocultos de Markov
Más detallesSIMULACION. Urna 1. s(x) h(x) Urna 2. s(x) Dado. Urna /6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 Dado 1 1/6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6
SIMULACION x p(x) x h(x) 6 4 5 2 3 Urna /6 2 /6 3 /6 4 /6 5 /6 6 /6 Dado /6 2 /6 3 /6 4 /6 5 /6 6 /6 x p(x) x h(x) s(x) 4 5 2 3 Urna 2 0.2 2 0.2 3 0.2 4 0.2 5 0.2 6 0.0 Dado /6.2 2 /6.2 3 /6.2 4 /6.2 5
Más detallesUNIDAD 2.- PROBABILIDAD CONDICIONADA
UNIDAD.- PROBABILIDAD CONDICIONADA. PROBABILIDAD CONDICIONADA. SUCESOS DEPENDIENTES E INDEPENDIENTES Las probabilidades ondiionadas se alulan una vez que se ha inorporado informaión adiional a la situaión
Más detallesRESOLUCIÓN DE ACTIVIDADES
RESOLUCIÓN DE ACTIVIDADES Atividades iniiales. Expresa en notaión matriial y resuelve por el método de Gauss los sistemas de euaiones siguientes: Las resoluión de los sistemas puede expresarse de la forma
Más detallesRedes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile
Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Tutorial NIPS (Neural Information Processing Systems Conference) 2001: Learning Bayesian Networks
Más detallesModelos de Markov Ocultos (HMM)
Modelos de Markov Ocultos (HMM) Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento
Más detallesAprendizaje Automático
Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática
Más detallesSESIÓN DE APRENDIZAJE
INSTITUCIÓN EDUCATIVA INMACULADA DE LA MERCED SESIÓN DE APRENDIZAJE APRENDIZAJE ESPERADO Determina la regla de orrespondenia de una funión Representa e Identifia funiones Resuelve operaiones on funiones
Más detallesANÁLISIS DE LA EXTENSIÓN DE LA GRÁFICA DE UNA FUNCIÓN
ANÁLISIS DE LA EXTENSIÓN DE LA GRÁFICA DE UNA FUNCIÓN Sugerenias al Profesor: Trabajar úniamente on funiones polinomiales y raionales, alarando que generalmente al bosquejar sus gráfias solo se muestra
Más detallesPRÁCTICA I. Ejercicios Teóricos
PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las
Más detallesTÍTULO: ANÁLISIS ESPECTRAL EN RAYOS X DEL SISTEMA BINARIO DE ALTA MASA 4U /QV Nor
"Análisis espetral en rayos X del sistema binario de alta masa 4U 1538 52/QV Nor", por José Joaquín Ro José Joaquín Rodes Roa Tesis leída en junio de 2007 TÍTULO: ANÁLISIS ESPECTRAL EN RAYOS X DEL SISTEMA
Más detallesPerceptron Multicapa
OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 3 Pereptron Multiapa Redes de Neuronas. Pereptron Multiapa Pereptron Multiapa Introduión Arquitetura Aprendizaje: Algoritmo
Más detalles7. Administración de bases de datos
7. Administraión de bases de datos INTRODUCCIÓN En este módulo de 152 horas pedagógias se espera que los y las estudiantes desarrollen las ompetenias neesarias para efetuar operaiones más omplejas en los
Más detallesExamen de Teoría de (Introducción al) Reconocimiento de Formas
Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:
Más detallesSesión 7: Campos de Markov
Sesión 7: Campos de Markov Campos de Markov Introducción Modelo de Ising Representación Tipos de Modelos Redes de Markov Vecindades Algoritmos ICM, Metrópolis, Recocido Simulado Aplicaciones Visión L.E.
Más detallesDepartamento de Ciencias e Ingeniería de la Computación Lenguajes Formales y Autómatas
Departamento de Cienias e Ingeniería de la Computaión Lenguajes Formales y Autómatas Segundo Cuatrimestre de 2011 Trabajo Prátio N 3 Conjuntos y Relaiones Feha sugerida para finalizar este prátio: 23/09/2011
Más detallesOptimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR
Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad
Más detallesIntegración de formas diferenciales
Capítulo 9 Integraión de formas difereniales. Complejos en R n En esta seión definiremos los objetos más simples en R n : los ubos, y los omplejos que forman. Es en estos objetos donde, más adelantes,
Más detallesPérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.
Pérdida Esperada Uno de los objetivos de este estudio es construir una función de pérdidas para el portafolio de la cartera de préstamos que ofrece la entidad G&T Continental, basados en el comportamiento
Más detallesFORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD
FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD Jorge M. Galbiati pág. DISTRIBUCION BINOMIAL 2 DISTRIBUCION POISSON 4 DISTRIBUCION HIPERGEOMETRICA 5 DISTRIBUCION GEOMETRICA 7 DISTRIBUCION NORMAL 8 DISTRIBUCION
Más detallesTema 6: Introducción a la Inferencia Bayesiana
Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de
Más detallesProbabilidad y estadística
Probabilidad y estadístia Apliaiones a la ingeniería y las ienias Eduardo Gutiérrez González Profesor de matemátias de la UPIICSA IPN Seión de Estudios de Posgrado e Investigaión Olga Vladimirovna Panteleeva
Más detallesArboles de decisión. Area de Computación e Inteligencia Artificial
Arboles de decisión Teoría de la decisión Hemos estudiado las redes bayesianas como instrumento para el diagnóstico en presencia de incertidumbre. La idea ahora es aprovechar ese diagnóstico para decidir
Más detallesLas poligonales en forma general pueden ser clasificadas según sus formas en:
Agrimensura Faena - Unne átedra: Topografía Poligonometría Una poligonal esta formada por una suesión de líneas enlazadas entre si por medio del ángulo que forman entre si las líneas. Las poligonales en
Más detallesRelación de Problemas. Tema 5
Relación de Problemas. Tema 5. Supongamos que tenemos una muestra aleatoria simple de tamaño n de una v.a. X que sigue una distribución geométrica con función de probabilidad P (X = k) = p( p) k Calcular
Más detallesINSTITUTO DE PROFESORES ARTIGAS
INSTITUTO D PROFSORS RTIGS SPILIDD MTMÁTI GOMTRÍ UNIDD FIH 3: Teorema de Thales y más. 3.1 Teorema de Thales. 3. Teorema de las bisetries. 3.3 irunferenia de polonio. 3.4 riterios de semejanza de triángulos.
Más detallesEstadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10
Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,
Más detallesAnálisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través
Más detallesAPRENDIZAJE PROBABILÍSTICO NAIVE BAYES
1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;
Más detallesLA ESTACIÓN TOPOGRÁFICA Y SU EMPLEO
TOPOGRAFÍA Y GEODESIA Prátia Número 8 LA ESTACIÓN TOPOGRÁFICA Y SU EMPLEO Alumnos que forman el Grupo:.-.- 3.- 4.- Grupo: Feha: Observaiones: TOPOGRAFÍA Y GEODESIA (Plan de Estudios 00). . JUSTIFICACIÓN
Más detallesTeoria y Cuestiones. [a n cos (nx)+b n sin (nx)]
Ingeniero Industrial Asignatura: Transformadas Integrales y Euaiones en Derivadas Pariales Convoatoria de Febrero del 2004 Teoria y Cuestiones 1. Consideremos la funión ½ 0 si
Más detallesDoctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04)
4.6 El filtro de Kalman Introducción Filtro de Kalman discreto Algoritmo: predicción + corrección Características probabilísticas El filtro de Kalman extendido Filtros de Partículas Conclusiones Introducción
Más detallesTema 8: Métodos de cadenas de Markov Monte Carlo
Tema 8: Métodos de cadenas de Markov Monte Carlo Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Introducción Los métodos de cadenas
Más detalles4. Cubicación de materiales e insumos
4. Cubiaión de materiales e insumos INTRODUCCIÓN Este módulo de 76 horas pedagógias tiene omo propósito que los y las estudiantes desarrollen los onoimientos neesarios para la orreta ubiaión de diversas
Más detallesICNC: Longitudes de pandeo de columnas: Método riguroso
CC: ongitudes de pandeo de olumnas: método riguroso S008a-S-U CC: ongitudes de pandeo de olumnas: Método riguroso sta CC proporiona informaión respeto al álulo de la longitud de pandeo de olumnas, para
Más detallesPor ejemplo, lanzar un dado o una moneda son experimentos aleatorios.
1.- EXPERIMENTOS ALEATORIOS. SUCESOS Experimento aleatorio Es aquel uyo resultado depende del azar y, aunque onoemos todos los resultados, no se puede predeir de antemano el resultado que se va a obtener.
Más detallesRegresión Lineal Múltiple
Unidad 4 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 35 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable respuesta
Más detallesExamen Final Tema A Cálculo Vectorial Mayo 23 de 2017
Examen Final Tema A Cálulo Vetorial Mayo 3 de 17 Este es un examen individual, no se permite el uso de libros, apuntes, aluladoras o ualquier otro medio eletrónio. Reuerde apagar y guardar su teléfono
Más detallesALGUNAS INCONGRUENCIAS CONCEPTUALES SOBRE LA NOCIÓN DE LINEALIDAD
Categoría1.Análisisdeldisursomatemátioesolar ALGUNASINCONGRUENCIASCONCEPTUALESSOBRELANOCIÓNDELINEALIDAD CarlosRondero,AnnaTaraseno,JuanAlbertoAosta UniversidadAutónomadeEstadodeHidalgo.(Méxio) Méxio aostah@uaeh.reduaeh.mx,rondero@uaeh.reduaeh.mx,anataras@uaeh.edu.mx
Más detallesTRANSFERENCIA DE CALOR POR CONVECCIÓN Departamento de Ingeniería Mecánica Universidad de Santiago de Chile. Diego Vasco C.
TRANSFERENCIA DE CALOR POR CONVECCIÓN Departamento de Ingeniería Meánia Universidad de Santiago de Chile 2015 Diego Vaso C. INTRODUCCIÓN El meanismo de transferenia de alor por onveión surge por el movimiento
Más detalles