Aprendizaje Automático. 5. Modelos gráficos. Septiembre, Index

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Aprendizaje Automático. 5. Modelos gráficos. Septiembre, Index"

Transcripción

1 Aprendizaje Automátio 5. Modelos gráfios Franiso Casauberta Nolla Enrique Vidal Ruiz Departament de Sistemas Informàtis i Computaió (DSIC) Universitat Politènia de Valènia (UPV) Aprendizaje Automátio Modelos gráfios: 5.1 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46

2 Aprendizaje Automátio Modelos gráfios: 5.2 Modelos gráfios (MG) Los MGs y onretamente las redes bayesianas fundamentan la aproximaión probabilístia a los Sistemas Inteligentes. Uno de los más famosos impulsores fue Judea Pearl ganador del ACM A.M. Turing Award en Conepto: Representaión ompata de distribuiones de probabilidad onjunta mediante grafos dirigidos (redes bayesianas) y no dirigidos (ampos aleatorios markovianos) (teoría de grafos + teoría de la probabilidad). Los MGs generalizan a las redes neuronales y a los modelos de Markov oultos entre otros. Aspetos: Inferenia: deduir distribuiones de probabilidad a partir de otras dadas Aprendizaje: obtener el modelo probabilístio a partir de observaiones Apliaiones: Diagnóstio médio, de fallos,... Visión por omputador: segmentaión de imágenes, reonstruión 3D, análisis de esenas Proesado del lenguaje natural: reonoimiento del habla, extraión de informaión textual, traduión automátia,... Robótia: planifiaión, loalizaión,... Aprendizaje Automátio Modelos gráfios: 5.3 PÁGINA INTENCIONADAMENTE EN BLANCO

3 Aprendizaje Automátio Modelos gráfios: 5.4 Algunos oneptos sobre la teoría de las probabilidades Probabilidad P (x) : P (x) = 1 Probabilidad onjunta P (x, y) : Probabilidad ondiional P (x y) : x P (x, y) = 1 x y P (x y) = 1 x y Marginales P (x) = y P (x, y), P (y) = x P (x, y) Regla de la probabilidad onjunta P (x, y) = P (x) P (y x) Regla de la adena P (x 1, x 2,..., x N ) = P (x 1 ) Regla de Bayes P (y x) P (x) = P (y) P (x y) N P (x i x 1,..., x i 1 ) i=2 Aprendizaje Automátio Modelos gráfios: 5.5 Fatorizaión de distribuiones onjuntas Una distribuión onjunta sobre tres variables puede expresarse exatamente mediante seis fatorizaiones ompletas diferentes: P (a, b, ) = P (a) P (b a) P ( a, b) = P (a) P ( a) P (b a, ) = P (b) P (a b) P ( a, b) = P (b) P ( b) P (a b, ) = P () P (a ) P (b a, ) = P () P (b ) P (a b, ) Cada fatorizaión se pueden representar mediante un grafo dirigido aílio: a a b b b a a b b a b a

4 Aprendizaje Automátio Modelos gráfios: 5.6 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.7 Redes bayesianas: ejemplos Si hay dependenias inexistentes (o despreiables), la fatorizaión exata (o aproximada) de una distribuión onjunta puede ser inompleta, lo que queda reflejado en el grafo orrespondiente. Ejemplos: P (a, b, ) = P (a, b,, d, e, f) = P (a) P (b) P ( a, b) P (a) P (b) P () P (d b, ) P (e a, b, d) P (f a, ) a a b b d f e

5 Aprendizaje Automátio Modelos gráfios: 5.8 Redes bayesianas: un ejemplo detallado P (A L) Aspersor (A) Lluvia (L) p f n s Aspersor Césped Lluvia P (L) Lluvia (L) n s Aspersor Césped Lluvia p : parado f : funiona r : reseo m: mojado n : no llueve s : sí llueve P (C A, L) Césped (C) Lluvia (L) Aspersor (A) r m n p n f s p s f Distribuión onjunta: P (L, A, C) = P (L) P (A L)P (C L, A) Ejeriio: alular P (L = l, A = a, C = ), l {n, s}, a {p, f}, {r, m}. Aprendizaje Automátio Modelos gráfios: 5.9 Un ejemplo detallado (ont.) Cuál es la probabilidad de que llueva si el ésped está mojado? P (L = s C = m) = = = P (L = s, C = m) P (C = m) a {p,f} P (L = s, A = a, C = m) P (L = l, A = a, C = m) a {p,f},l {n,s} = El ésped está mojado. Cuál es la mejor prediión: llueve o no llueve? arg max P (L = l C = m) = n l {n,s} Ejeriio: a) Calular P (A = a L = l, C = ), a {p, f}, l {n, s}, {r, m}. b) Llueve y el esped está mojado. Cuál es la mejor prediión sobre el estado del aspersor?

6 Aprendizaje Automátio Modelos gráfios: 5.10 Redes bayesianas: otro ejemplo P (P ) Poluión (P) b a P (X C) Rayos X (X) Cáner (C) n d p n p Poluión Rayos X Cáner de pulmón Fumador Disnea P (F ) Fumador (F) n s P (D C) Disnea (D) Cáner (C) n s n p Poluión Fumador Disnea Rayos X Cáner b: bajo a: alto n: no s: sí n: no s: sí n: negativo d: dudoso p: positivo n: negativo p: positivo P (C P, F ) Cáner (C) Poluión (P) Fumador (F) n p b n b s a n a s Ejeriio: Cuál es la probabilidad de que un paiente no fumador no tenga áner si la radiografía ha dado un resultado negativo pero sufre de disnea? Aprendizaje Automátio Modelos gráfios: 5.11 Redes bayesianas Una red bayesiana es un grafo dirigido y aílio ( direted ayli graph -DAG-) donde: Los nodos representan: variables aleatorias (disretas o ontínuas) distribuiones de probabilidad ondiional para ada variable x i dados los valores de las variables asoiadas a los nodos padres a(x i ) Los aros representan dependenias entre las variables Una red bayesiana on nodos x 1,..., x D probabilidad onjunta: define una distribuión de D P (x 1,..., x D ) = P (x i a(x i )) i=1

7 Aprendizaje Automátio Modelos gráfios: 5.12 Algunas redes bayesianas simples El lasifiador de Bayes (x R d y {1,..., C}): x P () P (x ) P (x, ) = P () P (x ) P ( x) = P (x, ) P (x) = P () P (x ) P ( ) P (x ) Modelos naive-bayes (x i R on 1 i d y {1,..., C}): P () x 1 x d P (x 1,..., x d, ) = P () d P (x i ) i=1 P (x 1 ) P (x d ) Aprendizaje Automátio Modelos gráfios: 5.13 Otro ejemplo de red bayesiana: modelo oulto de Markov P(q q ) 1 1 P(x q ) P(x q ) 1 P(q 2 q 1 ) 2 q q 1 2 P(q q ) 2 2 P(X Q ) 1 1 X 1 P(X Q ) 2 2 P(X Q ) 3 3 P(X Q ) 4 4 X 2 X 3 X 4 Σ = {a, b, }, x Σ Q = {q 1, q 2 } Q 1 Q 2 Q 3 Q 4 P(Q Q ) 2 1 P(Q Q ) 3 2 P(Q ) 1 P(Q Q ) 4 3 Las variables aleatorias Q i toman valores en Q y las X i en Σ, 1 i 4. Probabilidad onjunta de la red bayesiana: P (X 1 X 2 X 3 X 4, Q 1 Q 2 Q 3 Q 4 ) = P (Q 1 ) P (X 1 Q 1 ) P (Q 2 Q 1 ) P (X 2 Q 2 ) P (Q 3 Q 2 ) P (X 3 Q 3 ) P (Q 4 Q 3 ) P (X 4 Q 4 ) Probabilidad de generar la adena aab : P (X 1 = a, X 2 = a, X 3 = b, X 4 = ) = r 1,r 2,r 3,r 4 Q P (X 1 = a, X 2 = a, X 3 = b, X 4 =, Q 1 = r 1, Q 2 = r 2, Q 3 = r 3, Q 4 = r 4 ) O sea, la suma de probabilidades de generar aab mediante todas las seuenias de 4 estados.

8 Aprendizaje Automátio Modelos gráfios: 5.14 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.15 PÁGINA INTENCIONADAMENTE EN BLANCO

9 Aprendizaje Automátio Modelos gráfios: 5.16 Independenia ondiional Se die que a es ondiionalmente independiente de b dado (o también que a está D-separado de b por, y se denota omo: a b ) si: P (a, b ) = P (a )P (b ) P (a b, ) = P (a ) Se die que a es inondiionalmente independiente de b (y se denota omo: a b ) si: P (a, b) = P (a) P (b) Aprendizaje Automátio Modelos gráfios: 5.17 Reglas de independenia onditional e inonditional a b Direión ausal: a b, a / b P (a)p ( a)p (b ) P (a, b ) = = P (a )P (b ) P () pero en general P (a, b) P (a)p (b) a b Causa omún: a b, a / b P ()P (a )P (b ) P (a, b ) = = P (a )P (b ) P () pero en general P (a, b) P (a)p (b) a b Estrutura en V: a / b, a b En general P (a, b ) P (a )P (b ) pero P (a, b) = P (a)p (b)p ( a, b) = P (a)p (b)

10 Aprendizaje Automátio Modelos gráfios: 5.18 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.19 Inferenia on redes bayesianas En general, el problema onsiste en alular la probabilidad a posteriori de alguna variable x a partir de las distribuiones onjuntas asoiadas a una RB, dada alguna evidenia e (omo valores dados de otras variable) y sin importar los valores de resto de las variables f: P (x e) = P (x, e) P (e) on: P (x, e) = f P (x, e, f), P (e) = x,f P (x, e, f) El objetivo es alular efiientemente P (x, e) y P (e) Ejemplo: Calular P (x 3 ) a partir de una distribuión onjunta dada por: P (x 1, x 2, x 3, x 4 ) = P (x 2 )P (x 1 x 2 )P (x 3 x 2 )P (x 4 x 3 ) Supongamos que ada x i, i = 1, 2, 3, 4 puede tomar n valores: P (x 3 ) = x 1,x 2,x 4 P (x 2 )P (x 1 x 2 )P (x 3 x 2 )P (x 4 x 3 ) O(n 3 ) operaiones. P (x 3 ) = x 2 P (x 2 )P (x 3 x 2 ) x 1 P (x 1 x 2 ) x 4 P (x 4 x 3 ) = x 2 P (x 2 )P (x 3 x 2 ) O(n) operaiones.

11 Aprendizaje Automátio Modelos gráfios: 5.20 Inferenia on redes bayesianas Situaiones donde es útil alular las probabilidades a-posteriori: Prediión: Cuál es la probabilidad de observar un síntoma sabiendo que se tiene una determinada enfermedad? Diagnóstio: Cuál es la probabilidad de que una determinada enfermedad sea un diagnóstio orreto dados algunos síntomas? En RB, la direión de los enlaes entre variables no restringe el tipo de preguntas que se pueden haer. Aprendizaje Automátio Modelos gráfios: 5.21 Tipos de redes bayesianas La estrutura de una Red Bayesiana puede permitir iertas fatorizaiones sistemátias en los álulos asoiados a la inferenia. Dos tipos de estrutura adimiten fatorizaiones efiientes: adena y (poli-)árbol. Cadena Árbol Poli-árbol Grafo (DAG)

12 Aprendizaje Automátio Modelos gráfios: 5.22 Inferenia en una adena x i x i+1 x n-1 x n x n+1 x f-1 x f E + - xn E xn Supongamos que el último x i E + x n y el primer x f E x n están dados: P (x n x i, x f ) = P (x n, x i, x f ) P (x i, x f ) = P (x n) P (x i x n ) P (x f x n, x i ) P (x i, x f ) P (x n ) P (x i ) P (x n x i ) P (x f x n ) P (x n ) P (x i, x f ) = (Indep. ond.: x f (Regla de Bayes) = α P (x n x i ) P (x f x n ) (α = P (x i )/P (x i, x f )) x i x n ) Ejeriio: Qué ourre si también onoemos x i E + xn on i < i? Ejeriio: Qué ourre si también onoemos x f E xn on f > f? Aprendizaje Automátio Modelos gráfios: 5.23 Inferenia en una adena Propagaión de reenias ( Belief propagation ) π (x ) n λ (x ) n x i x i+1 x n-1 x n x n+1 x f-1 x f E + - xn E xn P (x n x i, x f ) = α P (x n x i ) P (x f x n ) def = α π(x n ) λ(x n ) donde π(x n ) y λ(x n ) se alulan omo: π(x i ) = 1 λ(x f ) = 1 π(x n ) = x n 1 P (x n x n 1 ) π(x n 1 ) λ(x n ) = x n+1 P (x n+1 x n ) λ(x n+1 ) Ejeriio: Obtener una expresión para P (x n )

13 Aprendizaje Automátio Modelos gráfios: 5.24 Inferenia en una adena (derivaión I) π (x ) n-1 π (x ) n x i x i+1 x n-1 x n x n+1 x f-1 x f E + - xn E xn π(x n ) = P (x n x i ) = x n 1 P (x n, x n 1 x i ) = P (x n 1 x i ) P (x n xi, x n 1 ) = P (x n 1 x i ) P (x n x n 1 ) x n 1 x n 1 = x n 1 π(x n 1 ) P (x n x n 1 ) π(x i ) = 1 Aprendizaje Automátio Modelos gráfios: 5.25 Inferenia en una adena (derivaión II) λ (x ) n λ (x ) n+1 x i x i+1 x n-1 x n x n+1 x f-1 x f E + - xn E xn λ(x n ) = P (x f x n ) = x n+1 P (x f, x n+1 x n ) = P (x n+1 x n ) P (x f x n, x n+1 ) = P (x n+1 x n ) P (x f x n+1 ) x n+1 x n+1 = x n+1 P (x n+1 x n ) λ(x n+1 ) λ(x f ) = 1

14 Aprendizaje Automátio Modelos gráfios: 5.26 Inferenia en un árbol u i λ (u ) x i j λ (x ) y j k x j π (u ) x i j π (x ) y j k E + x j y k E - x j Para alular P (x j E x + j, Ex j ) = α π(x j ) λ(x j ) m λ(x j ) = λ yk (x j ) on λ yk (x j ) = λ(y k ) P (y k x j ) y k k=1 π(x j ) = u i P (x j u i ) π xj (u i ) on π xj (u i ) = α j j λ xj (u i ) π(u i ) Aprendizaje Automátio Modelos gráfios: 5.27 Inferenia en otros tipos de grafos Poli-arboles ( Polytrees ). Los nodo pueden tener múltiples padres, pero solo puede existir un amino únio entre ualquier par de nodos: una generalizaión del algoritmo sobre un árbol. Grafos generales. Inferenia aproximada: Métodos variaionales. Métodos basados en muestreo.

15 Aprendizaje Automátio Modelos gráfios: 5.28 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.29 Campos de Markov aleatorios Un ampo de Markov aleatorio es un modelo gráfio en la que se asume un modelo simplifiado de independenia ondiional. Se define omo: Un onjunto de variables aleatorias V = {X 1,..., X D } Un grafo no-dirigido R = (V, E) El onjunto Q de todos los liqués (máximos) de R Una distribuión de probabilidad onjunta fatorizada omo: P (x 1,..., x D ) = 1 ψ C (V C ) Z C Q donde V C es el subonjunto de variables del liqué C y ψ C :Q R >0 es una funión llamada funión potential y Z es un fator de normalizaión. Ejemplo (3 liqués máximos, V 1 = {A, B, C}, V 2 = {C, D}, V 3 = {D, E}): A C B D E P (A, B, C, D, E) = 1 Z ψ 1(A, B, C) ψ 2 (C, D) ψ 3 (D, E) Un liqué es un subgrafo totalmente onetado. Es máximo si no es subgrafo de algún otro liqué.

16 Aprendizaje Automátio Modelos gráfios: 5.30 Campos de Markov aleatorios: poteniales exponeniales Si las funiones de potenial son de la familia exponenial: P (x 1,..., x D ) = 1 exp ( E(V C )) = 1 ( Z Z exp ) E(V C ) C Q C Q donde E :Q R es una funión llamada funión de energía. Un tipo de funión de energía simple puede definirse mediante funiones lineales generalizadas: E(V C ) = k θ C,k f C,k (V C ) Aprendizaje Automátio Modelos gráfios: 5.31 Un ejemplo Imagen binaria original: x, x i { 1, +1}, 1 i D (D = número de píxeles de la imagen) La imagen orrupta: y, y i { 1, +1}, 1 i D (se han alterado 10% de los píxeles) El objetivo es reuperar la imagen original a partir de la imagen orrupta

17 Aprendizaje Automátio Modelos gráfios: 5.32 Un ejemplo (Bishop. Pattern Reognition and Mahine Learning. 2006) Fuerte orrelaión entre x i y y i y i Correlaión entre x i y x j si son píxeles veinos; es deir, si i N(j), j N(i). x i Cliques máximos: C i = (x i, y i ) i; C ij = (x i, x j ) i, j N(i) Funión de energía: E(V Cij ) = β x i x j E(V Ci ) = ν x i y j } C Q E(V C ) = β i,j x i x j ν i x i y i Distribuión onjunta: P (x 1,..., x D, y 1,..., y D ) = 1 Z exp ( β i,j x i x j + ν i x i y i ) Aprendizaje Automátio Modelos gráfios: 5.33 Un ejemplo (Bishop. Pattern Reognition and Mahine Learning. 2006) A partir de la distribuión onjunta: P (x, y) P (x 1,..., x D, y 1,..., y D ) = 1 Z exp ( β i,j x i x j + ν i x i y i ) Inferenia: P (x y) = P (x, y) P (y) = exp (β i,j x ix j + ν ) i x iy i x exp 1,...,x D ( β i,j x i x j + ν ) i x i y i Expliaión más probable: ˆx (ˆx 1,..., ˆx D ) = arg max P (x y) = arg max (β x x 1,...,x D i,j x i x j + ν i x i y i ) Esto es, ˆx =

18 Aprendizaje Automátio Modelos gráfios: 5.34 Inferenia on ampos de Markov aleatorios En adenas: Algoritmo adelante-atrás ( Bakward-Forward algorithm ) En árboles: Algoritmo suma-produto En grafos generales: Algoritmo de árbol de unión ( Juntion tree algorithms ), algoritmo suma-produto ( Loopy belief propagation ) Aprendizaje Automátio Modelos gráfios: 5.35 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46

19 Aprendizaje Automátio Modelos gráfios: 5.36 Aprendizaje de redes bayesianas Dada la estrutura, aprender las distribuiones de probabilidad a partir de un onjunto de entrenamiento. Métodos basados en la maximizaión de la verosimilitud (algoritmo EM -T3-). Aprendizaje bayesiano. Aprender la estrutura a partir de un onjunto de entrenamiento. Un problema de seleión de modelos: búsqueda en el espaio de grafos. Aprendizaje Automátio Modelos gráfios: 5.37 Aprendizaje en redes bayesianas: ejemplo B es el estado de la batería (argada B = 1 o desargada B = 0) C es el estado del depósito de ombustible (lleno C = 1 o vaío C = 0) I es el estado del indiador elétrio del ombustible (lleno I = 1 o vaío I = 0) Por simpliidad se asume que las distribuiones asoiadas a las variables I y C son fijas y onoidas y hay que estimar la distribuión de B a partir de observaiones. P (B) =? P (C = 1) = 0.9 P (I = 1 B = 0, C = 0) = 0.1 P (I = 1 B = 0, C = 1) = 0.2 P (I = 1 B = 1, C = 0) = 0.2 P (I = 1 B = 1, C = 1) = 0.8 B C I P (B, C, I) = P (B) P (C) P (I B, C) P (B) viene dada por dos valores de probabilidad, p 0 = P (B = 0), p 1 = P (B = 1). Por tanto los parámetros a estimar son: Θ = (p 0, p 1 ), p 0 + p 1 = 1

20 Aprendizaje Automátio Modelos gráfios: 5.38 Aprendizaje on observaiones ompletas Sea S = {(b 1, 1, i 1 ),..., (b N, N, i N ), } un onjunto de observaiones de entrenamiento. Sean N 0 y N 1 = N N 0 los números de observaiones en las que b = 0 y b = 1, respetivamente. Se asume que S está ordenado de forma que b n = 0, 1 n N 0 y b m = 1, N N0 +1 m N. La log-verosimilitud es: L S (p 0, p 1 ) = = = N log P (b = b n, C = n, I = i n ) n=1 N log P (b = b n )P (C = n )P (I = i n B = b n, C = n ) n=1 N 0 log p 0 + n=1 N m=n 0 +1 log p 1 + K = N 0 log p 0 + N 1 log p 1 + K donde K inluye los términos independientes de p 0, p 1. Maximizaión de L S mediante multipliadores de Lagrange, omo en el ejemplo de estimaión de probs. a priori del Tema 3 ˆp 0 = N 0 N, ˆp 1 = N 1 N Ejemplos: S = {(0, 1, 1), (1, 1, 0)} ˆp 0 = 1 2, ˆp 1 = 1 2 S = {(0, 0, 1), (1, 1, 0)} ˆp 0 = 1 2, ˆp 1 = 1 2 S = {(0, 1, 1), (0, 0, 1), (1, 1, 0)} ˆp 0 = 2 3, ˆp 1 = 1 3 Aprendizaje Automátio Modelos gráfios: 5.39 Algoritmo esperanza-maximizaión (EM) (Reordatorio) Dada la muestra S = {x 1,..., x N } y variables latentes {z 1,..., z N }. Iniializaión: t = 1, Θ(1) = arbitrario. Iteraión hasta la onvergenia: Paso E: A partir de Θ(t) y para todo 1 n N, ˆq n (z n ) P (z n x n ; Θ(t)) Paso M: Maximizaión de Q(Θ, ˆq) on respeto a Θ Θ(t + 1) = arg max Θ t = t + 1 Q (Θ, ˆq) = arg max Θ N n=1 z n ˆq n (z n ) log P (x n, z n Θ)

21 Aprendizaje Automátio Modelos gráfios: 5.40 Algoritmo esperanza-maximizaión (EM) En el ejemplo, se dispone de observaiones del estado del depósito de ombustible y de lo que marque el indiador del estado de batería, pero no del verdadero estado de la batería, la muestra inompleta serán los datos observables, S = {( 1, i 1 ),..., ( N, i N )}, (x = (, i)), las variables latentes, {b 1,..., b N } (z = b) y los parámetros p 0 y p 1 (Θ = (p 0, p 1 )). Iniializaión: t = 1, p 0 (1) = arbitrario y p 1 (1) = 1 p 0 (1). Iteraión hasta la onvergenia Paso E. A partir de p 0 (t) y p 1 (t) y ada muestra 1 n N. Paso M. ˆq n (b) P (B = b C = n, I = i n ; p 0 (t), p 1 (t)) b {0, 1} (p 0 (t + 1), p 1 (t + 1)) = arg max Q (p 0, p 1, ˆq) p 0,p 1 = N 1 arg max ˆq n (b) log P (C = n, I = i n, B = b p 0, p 1 ) p 0,p 1 t = t + 1 n=1 b=0 Aprendizaje Automátio Modelos gráfios: 5.41 Aprendizaje EM on observaiones inompletas: Paso E En el paso E hay que alular, para ada observaión inompleta, la distribuión de probabilidad de la variable oulta o latente (B) dados los valores onoidos de las otras dos variables (C e I) y de los parámetros obtenido en la iteraión anterior t (p 0 (t), p 1 (t)). ˆq n (b) = P (B =b C = n, I = i n ; p 0 (t), p 1 (t)) = P (B =b, C = n, I = i n ; p 0 (t), p 1 (t)) P (C = n, I = i n ; p 0 (t), p 1 (t)) = P (B =b; p 0 (t), p 1 (t)) P (C)P (I B =b, C) P (B =0) P (C)P (I B =0, C) + P (B =1) P (C)P (I B =1, C) = p b (t) k bn p 0 (t) k 0n + p 1 (t) k 1n para b {0, 1} Donde: k 0n = P (I =i n B =0, C = n ) y k 1n = P (I =i n B =1, C = n )

22 Aprendizaje Automátio Modelos gráfios: 5.42 Aprendizaje EM on observaiones inompletas: paso M En el paso M hay que maximizar Q (p 0, p 1, ˆq), definida en base a las esperanzas aluladas en el paso E. Q (p 0, p 1, ˆq) = Donde,. = = K = N n=1 b=0 N n=1 b=0 1 ˆq n (b) log P (B = b, C = n, I = i n ; p 0, p 1 ) 1 ˆq n (b) log(p (B = b; p 0, p 1 )P (C = n )P (I = i n B = b, C = n )) N ˆq n (0) log p 0 + ˆq n (1) log p 1 + K = q 0 log p 0 + q 1 log p 1 + K n=1 N n=1 b=0 1 ˆq n (b) log(p (C = n )P (I = i n B = b, C = n )) q 0 = N ˆq n (0) y q 1 = n=1 N ˆq n (1) n=1 Aprendizaje Automátio Modelos gráfios: 5.43 Aprendizaje EM on observaiones inompletas: paso M Maximizar Q : similar a estimaión de probabilidades a priori por máxima verosimilitud (Tema 3): Funión de Lagrange: Λ(p 0, p 1, β) = Q (p 0, p 1, ˆq) + β(1 p 0 p 1 ) = q 0 log p 0 + q 1 log p 1 + K + β(1 p 0 p 1 ) Funión dual: Λ p 0 = 0 p 0 = q 0 β ; Λ = 0 p 1 = q 1 p 1 β Λ D (β) = K + β ( q 0 + q 1 ) log β = K + β N log β Donde K = K + q 0 log q 0 + q 1 log q 1 Optimizando la funión dual: dλ D dβ = 1 N β = 0 β = N Soluión final: p 0 (t + 1) p 0 = q 0 N ; p 1(t + 1) p 1 = q 1 N

23 Aprendizaje Automátio Modelos gráfios: 5.44 Aprendizaje EM on observaiones inompletas: ejemplos Sea S = {(1, 1), (1, 0)} (N = 2): Paso E: ˆq 1 (0) = 0.2p 0 (t)/(0.2p 0 (t) + 0.8p 1 (t)), ˆq 2 (0) = 0.8p 0 (t)/(0.8p 0 (t) + 0.2p 1 (t)), ˆq 1 (1) = 0.8p 0 (t)/(0.2p 0 (t) + 0.8p 1 (t)), ˆq 2 (1) = 0.2p 0 (t)/(0.8p 0 (t) + 0.2p 1 (t)). q 0 = ˆq 1 (0) + ˆq 2 (0), q 1 = ˆq 1 (1) + ˆq 2 (1). Paso M: p 0 (t + 1) = q 0 N, p 1(t + 1) = q 1 N Iniializando on p 1 (1) = 0.9, p 0 (1) = 0.1: t p 1 (t) Si ahora las observaiones son S = {(0, 1), (1, 0)}: t p 1 (t) Aprendizaje Automátio Modelos gráfios: 5.45 Algunos toolkits BNT GMTK bilmes/gmtk/ GraphLab PMTK3 probabilisti modeling toolkit for Matlab/Otave Software Pakages for Graphial Models murphyk/software/bnsoft.html

24 Aprendizaje Automátio Modelos gráfios: 5.46 Index 1 Introduión a los modelos gráfios 1 2 Redes bayesianas 6 3 Independenia ondiional 14 4 Inferenia en redes bayesianas 18 5 Campos de Markov aleatorios 28 6 Aprendizaje de modelos gráfios 35 7 Bibliografía y notaión 46 Aprendizaje Automátio Modelos gráfios: 5.47 Bibliografía Christopher M. Bishop: Pattern Reognition and Mahine Learning. Springer, 2006.

25 Aprendizaje Automátio Modelos gráfios: 5.48 Notaión P (x): probabilidad de x P (x, y): probabilidad onjunta de x e y P (x y): probabilidad ondiional de x dado y Para un onjunto de variables V C en un lique C, ψ C (V C ) = exp ( E(V C )) es una funión potential donde E(V C ) es una funión de energía. Una funión de energía lineal: E(V C ) = k θ C,k f C,k (V C ) donde f C,k son determinadas funiones que obtienen araterístias del lique C.

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

Extracción de parámetros de señales acústicas

Extracción de parámetros de señales acústicas VI Congreso Iberoameriano de Aústia - FIA 8 Buenos Aires, 5, 6 y 7 de noviembre de 8 Extraión de parámetros de señales aústias Aguilar, Juan (a), Salinas, Renato (b) FIA8-A16 (a) Instituto de Aústia, Universidad

Más detalles

Tema 6. Clasificadores Bayesianos

Tema 6. Clasificadores Bayesianos Tema 6. Clasifiadores Bayesianos Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Cienias de la Computaión e Inteligenia Artifiial Universidad del País Vaso Euskal Herriko Unibertsitatea

Más detalles

Problemario 1: Teoría de Conjuntos y Espacios Muestrales

Problemario 1: Teoría de Conjuntos y Espacios Muestrales UNIVERSIDAD SIMÓN BOLÍVAR CO3121 PROBABILIDADES PARA INGENIEROS PROBLEMARIO Problemario 1: Teoría de Conjuntos y Espaios Muestrales 1.1.- Trae los diagramas de Venn para verifiar que para ualquier par

Más detalles

Bases Formales de la Computación: Redes de Bayes (segunda parte)

Bases Formales de la Computación: Redes de Bayes (segunda parte) Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes

Más detalles

INTRODUCCIÓN A LAS MATEMÁTICAS SUPERIORES. Tema 1

INTRODUCCIÓN A LAS MATEMÁTICAS SUPERIORES. Tema 1 INTRODUCCIÓN A LAS MATEMÁTICAS SUPERIORES Tema 1 1.1 BREE INTRODUCCIÓN A LA LÓGICA MATEMÁTICA Bibliografía: Smith, Karl J.- Introduión a la Lógia simbólia.- Grupo Editorial Iberoaméria.- Méio, 1991. Espinosa

Más detalles

La ecuación lineal de primer grado con tres incógnitas. El plano en el espacio afín

La ecuación lineal de primer grado con tres incógnitas. El plano en el espacio afín La euaión lineal de primer grado on tres inógnitas. El plano en el espaio afín En un artíulo anterior habíamos hablado sobre la euaión lineal de primer grado on dos inógnitas y sobre la reta en el plano

Más detalles

TEMA 3.- DISTRIBUCIONES DE PROBABILIDAD

TEMA 3.- DISTRIBUCIONES DE PROBABILIDAD TEMA 3.- DISTRIBUIONES DE PROBABILIDAD 3.1 EXPERIMENTOS Y SUESOS ALEATORIOS Existen dos tipos de experimentos: deterministas y aleatorios. El primero es aquel del que se puede predeir el resultado siempre

Más detalles

Recursión y Relaciones de Recurrencia. UCR ECCI CI-0111 Estructuras Discretas Prof. Kryscia Daviana Ramírez Benavides

Recursión y Relaciones de Recurrencia. UCR ECCI CI-0111 Estructuras Discretas Prof. Kryscia Daviana Ramírez Benavides Reursión y Relaiones de Reurrenia UCR ECCI CI-0 Estruturas Disretas Prof. Krysia Daviana Ramírez Benavides Algoritmos Reursivos Un algoritmo es reursivo si se soluiona un problema reduiéndolo a una instania

Más detalles

TEXTURAS DE MOVIMIENTO: CAMPOS MARKOVIANOS MIXTOS Y SEGMENTACION

TEXTURAS DE MOVIMIENTO: CAMPOS MARKOVIANOS MIXTOS Y SEGMENTACION ISSN: 1697-7912. Vol. 4, Núm. 4, Otubre 2007, pp. 80-86 http://riai.isa.upv.es TEXTURAS DE MOVIMIENTO: CAMPOS MARKOVIANOS MIXTOS Y SEGMENTACION Tomás Crivelli, Bruno Cernushi Frías y Patrik Bouthemy Laboratorio

Más detalles

Capítulo 2 Orígenes de la teoría cuántica

Capítulo 2 Orígenes de la teoría cuántica Capítulo Orígenes de la teoría uántia.1 Radiaión de uerpo negro La teoría uántia se originó entre 1900 05: 1900: Plank explia la radiaión térmia en términos de la disretizaión de la energía. 1905: Einstein

Más detalles

Sistemas homogéneos multicomponentes 24 de marzo de 2009 Cuestiones y problemas: C: 7.3, 5

Sistemas homogéneos multicomponentes 24 de marzo de 2009 Cuestiones y problemas: C: 7.3, 5 Índie 5 CELINA GONZÁLEZ ÁNGEL JIMÉNEZ IGNACIO LÓPEZ RAFAEL NIETO Sistemas homogéneos multiomponentes 24 de marzo de 2009 Cuestiones y problemas: C: 7.3, 5 subrayados y en negrita para voluntarios punto

Más detalles

Introducción a la Química Computacional

Introducción a la Química Computacional Introduión a la Químia Computaional MÉTODO D LA VARIACION PARA ROLVR APROXIMADAMNT LA CUACIÓN D CRÖDINGR Reservados todos los derehos de reproduión. Luis A. Montero Cabrera y Rahel Crespo Otero, Universidad

Más detalles

Guía # 5. Pruebas de hipótesis

Guía # 5. Pruebas de hipótesis INSTITUCION UNIVERSITARIA ANTONIO JOSÉ CAMACHO Asignatura: ESTADÍSTICA APLICADA 010-1 Guía # 5. Pruebas de hipótesis Temas: Pruebas de hipótesis para la media poblaional (µ) Pruebas de hipótesis para la

Más detalles

Elementos de Estadística Primer Examen Parcial (25%)

Elementos de Estadística Primer Examen Parcial (25%) UNIVERSIDAD CENTRAL DE VENEZUELA Cilo Básio Departamento de Matemátia Apliada Elementos de Estadístia (0260) Martes 10 de Mayo de 2011 Profesor: José Luis Quintero FACULTAD DE INGENIERÍA Elementos de Estadístia

Más detalles

Recursión y Relaciones de Recurrencia. UCR ECCI CI-1204 Matemáticas Discretas M.Sc. Kryscia Daviana Ramírez Benavides

Recursión y Relaciones de Recurrencia. UCR ECCI CI-1204 Matemáticas Discretas M.Sc. Kryscia Daviana Ramírez Benavides Reursión y Relaiones de Reurrenia UCR ECCI CI-04 Matemátias Disretas M.S. Krysia Daviana Ramírez Benavides Algoritmos Reursivos Un algoritmo es reursivo si se soluiona un problema reduiéndolo a una instania

Más detalles

1 2 +! $ = # 1$ $ Pensamiento Algebraico GUÍA DE PARA LOS ASPIRANTES A LA MME Temas que debe dominar:

1 2 +! $ = # 1$ $ Pensamiento Algebraico GUÍA DE PARA LOS ASPIRANTES A LA MME Temas que debe dominar: Pensamiento lgebraio Temas que debe dominar: GUÍ DE PR LOS SPIRNTES L MME-06 Definiión, operaiones y propiedades de: Números Naturales Números Enteros Números raionales Números irraionales Números omplejos

Más detalles

11.1. Ecuaciones de la dinámica de sólidos

11.1. Ecuaciones de la dinámica de sólidos Capítulo 11 Dinámia de sólidos Todos los modelos estudiados hasta ahora suponían que los sólidos deformables se enuentran, en todo instante, en equilibrio uasi-estátio. Esto quiere deir que, aunque éstos

Más detalles

EJERCICIOS DE ALGORITMIA. FUNDAMENTOS DE PROGRAMACIÓN (GRADO EN BIOTECNOLOGÍA)

EJERCICIOS DE ALGORITMIA. FUNDAMENTOS DE PROGRAMACIÓN (GRADO EN BIOTECNOLOGÍA) EJERCICIOS DE ALGORITMIA. UNDAMENTOS DE PROGRAMACIÓN (GRADO EN BIOTECNOLOGÍA) 1. Realizar un organigrama para dividir un segmento [a,b] en N subintervalos iguales. Como datos de entrada se emplearán a,

Más detalles

Sesión 8: Redes Bayesianas - Representación

Sesión 8: Redes Bayesianas - Representación Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 8: Redes Bayesianas - Representación La probabilidad no es realmente sobre números, es sobre la estructura del razonamiento [G. Shafer] Redes

Más detalles

Por qué k µ es un cuadrivector?

Por qué k µ es un cuadrivector? Por qué k µ es un uadrivetor? odemos deir algo aera de por qué la freuenia y el vetor número P de onda forman un uadrivetor. La respuesta orta es: onda plana en un sistema, onda plana en todos. La idea

Más detalles

APROXIMACIÓN MODAL A LA INFERENCIA DE NUEVAS TEORÍAS. Fernando Soler Toscazo & Ignacio Hernández Antón. Universidad de Sevilla

APROXIMACIÓN MODAL A LA INFERENCIA DE NUEVAS TEORÍAS. Fernando Soler Toscazo & Ignacio Hernández Antón. Universidad de Sevilla APROXIMACIÓN MODAL A LA INFERENCIA DE NUEVAS TEORÍAS Fernando Soler Tosazo & Ignaio Hernández Antón Universidad de Sevilla & Introduión Los aeramientos lógios al razonamiento

Más detalles

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90] Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 10: Redes Bayesianas Inferencia 1era parte [Neapolitan 90] Inferencia en Redes Bayesianas Introducción Clases de algoritmos 1era Parte Propagación

Más detalles

Unidad N 2: Probabilidades. Elementos de Probabilidades

Unidad N 2: Probabilidades. Elementos de Probabilidades Unidad N 2: Probabilidades Elementos de Probabilidades Los primeros estudios de probabilidad fueron motivados por la posibilidad de aierto o fraaso en los juegos de azar. La probabilidad es un meanismo

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 13

Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models

Más detalles

UNIDAD 1.- PROBABILIDAD

UNIDAD 1.- PROBABILIDAD UNIDAD 1.- PROBABILIDAD 1. EXPERIMENTOS ALEATORIOS. ESPACIO MUESTRAL. Definiión: Un fenómeno o experienia se die aleatorio uando al repetirlo en ondiiones análogas no se puede predeir el resultado. Si

Más detalles

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1

Más detalles

En el sistema S las fórmulas de aberración relativista y efecto Doppler dan

En el sistema S las fórmulas de aberración relativista y efecto Doppler dan FÍSICA TEÓRICA 1 2do. Cuatrimestre 2015 Fresnel relativista Guía 6, problema 3 Se trata de enontrar las ondas reflejadas y transmitidas en el sistema del laboratorio uando una onda plana inide sobre la

Más detalles

Trabajo Práctico 1 Implementación de AFDs

Trabajo Práctico 1 Implementación de AFDs Trabajo Prátio 1 Implementaión de AFDs Teoría de Lenguajes 1 er uatrimestre 01 Feha de entrega: 9 de abril 1. Objetivos Este trabajo tiene omo objetivos prinipales: Familiarizarse on la implementaión de

Más detalles

CONJUNTOS. Según se ha visto en el ejercicio anterior, para que la intersección de dos conjuntos A y B sea A, se tiene que verificar que A B.

CONJUNTOS. Según se ha visto en el ejercicio anterior, para que la intersección de dos conjuntos A y B sea A, se tiene que verificar que A B. CONJUNTOS 1. Si se umple: a) = b) = ) = (Convoatoria junio 2001. Examen tipo E ) Es laro que la opión orreta es la a). Cuando un onjunto está dentro de otro, la interseión es el onjunto pequeño y la unión

Más detalles

DETERMINACIÓN DE LAS CORRIENTES DE INSERCIÓN EN SISTEMAS DE DISTRIBUCIÓN DE n TRANSFORMADORES.

DETERMINACIÓN DE LAS CORRIENTES DE INSERCIÓN EN SISTEMAS DE DISTRIBUCIÓN DE n TRANSFORMADORES. ng. Horaio Salvañá HS ngeniería - www.hsingenieria.om.ar DETERMNACÓN DE LAS CORRENTES DE NSERCÓN EN SSTEMAS DE DSTRBUCÓN DE n TRANSFORMADORES. Autor: ng. Horaio Salvañá Objetivo: El objeto de este trabajo

Más detalles

ESTRUCTURA FINA DEL ÁTOMO DE HIDRÓGENO.

ESTRUCTURA FINA DEL ÁTOMO DE HIDRÓGENO. ESTRUCTURA FINA DEL ÁTOMO DE HIDRÓGENO. Ciertas líneas del hidrógeno y de los alalinos mostraban perfiles on varias omponentes muy próximas entre sí, indiando un desdoblamiento de los niveles de energía

Más detalles

Lección 4. Ecuaciones diferenciales. 4. Propiedades algebraicas de las soluciones. Fórmulas de Abel y Liouville.

Lección 4. Ecuaciones diferenciales. 4. Propiedades algebraicas de las soluciones. Fórmulas de Abel y Liouville. GRADO DE INGENIERÍA AEROESPACIAL. CURSO 0. 4. Proiedades algebraias de las soluiones. Fórmulas de Abel y Liouville. A lo largo de esta seión suondremos que P, Q y R son funiones ontinuas en un intervalo

Más detalles

Matemáticas III Andalucía-Tech. Integrales múltiples

Matemáticas III Andalucía-Tech. Integrales múltiples Matemátias III Andaluía-Teh Tema 4 Integrales múltiples Índie. Preliminares. Funión Gamma funión Beta. Integrales dobles.. Integral doble de un ampo esalar sobre un retángulo................ Integral doble

Más detalles

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos

Más detalles

PRODUCTOS Y COCIENTES NOTABLES

PRODUCTOS Y COCIENTES NOTABLES INSTITUCION EDUCATIVA LA PRESENTACION NOMBRE ALUMNA: AREA : MATEMATICAS ASIGNATURA: MATEMATICAS DOCENTE: HUGO HERNAN BEDOYA TIPO DE GUIA: CONCEPTUAL - EJERCITACION PERIODO GRADO FECHA DURACION 0 DE Julio

Más detalles

Sistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov.

Sistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov. Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema BT7: Algoritmo de Viterbi. Estimación de modelos de Markov. DSIC UPV: Octubre, 8 SIN-TemaBT7 índice

Más detalles

Seminario de problemas. Curso Hoja 18

Seminario de problemas. Curso Hoja 18 Seminario de problemas. Curso 016-17. Hoja 18 111. Demuestra que una ondiión neesaria y sufiiente para que un triángulo sea isóseles es que tenga dos medianas iguales. Soluión: Vamos a utilizar un resultado

Más detalles

INSTRUCCIONES GENERALES Y VALORACIÓN

INSTRUCCIONES GENERALES Y VALORACIÓN MADRID / SEPTIEMBRE 000. LOGSE / MATEMÁTICAS APLICADAS A LAS INSTRUCCIONES GENERALES Y VALORACIÓN INSTRUCCIONES: El eamen presenta dos opiones A y B; el alumno deberá elegir una de ellas y ontestar razonadamente

Más detalles

Examen final de Cálculo Integral

Examen final de Cálculo Integral xamen final de Cálulo Integral 6 de septiembre de 1 (Soluiones) Cuestiones C 1 Apliando el teorema 1.15 y definiión 1. de los apuntes se onluye inmediatamente que el valor de la integral oinide on la longitud

Más detalles

Programación y Métodos Numéricos Ejercicios Enero Junio 2018

Programación y Métodos Numéricos Ejercicios Enero Junio 2018 Programaión y Métodos Numérios Ejeriios Enero Junio 18 EJERCICIO 1 En ada aso, evaluar la expresión dada, realizando las operaiones paso a paso de auerdo al orden de preedenia de los operadores aritmétios.

Más detalles

Ilustración 1 Imagen obtenida al aplicar el algoritmo LBP a una imagen monoespectral. 5.1 Análisis de texturas con patrones locales binarios

Ilustración 1 Imagen obtenida al aplicar el algoritmo LBP a una imagen monoespectral. 5.1 Análisis de texturas con patrones locales binarios 101 Capítulo 5 5. El Algoritmo Lbp Ilustraión 1 Imagen obtenida al apliar el algoritmo LB a una imagen monoespetral 5.1 Análisis de texturas on patrones loales binarios La textura en una imagen puede proveer

Más detalles

4. RELACIONES CONSTITUTIVAS. LEY DE HOOKE GENERALIZADA

4. RELACIONES CONSTITUTIVAS. LEY DE HOOKE GENERALIZADA 4. RLACIONS CONSTITUTIVAS. LY D HOOK GNRALIZADA 4. Ley de Hooke. Robert Hooke planteó en 678 que existe proporionalidad entre las fuerzas apliadas a un uerpo elástio y las deformaiones produidas por dihas

Más detalles

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas

Más detalles

INFERENCIA ESTADÍSTICA

INFERENCIA ESTADÍSTICA INFERENCIA ESTADÍSTICA DECISIÓN ESTADÍSTICA. CONTRASTE DE HIPÓTESIS. Introduión 1 La Inferenia Estadístia persigue la obtenión de onlusiones sobre un gran número de datos, en base a la observaión de una

Más detalles

2.0 Contenidos, objetivos y palabras claves.

2.0 Contenidos, objetivos y palabras claves. 8 Unidad 3: Teoría elemental de probabilidades 0 Contenidos, objetivos y palabras laves Contenidos: 30 Contenidos, objetivos y palabras laves 8 3 Experimento determinístio y aleatorio Espaio muestral ontable

Más detalles

Ejercicios de Arquitectura de Computadoras

Ejercicios de Arquitectura de Computadoras Ejeriios de Arquitetura de Computadoras José Garzía 9 Arquitetura de Computadora Ejeriios de la Seión de Proesamiento Explique qué es el rebose uando se suman dos números sin signo y ómo puede ser detetado

Más detalles

Clase 2. Las ecuaciones de Maxwell en presencia de dieléctricos.

Clase 2. Las ecuaciones de Maxwell en presencia de dieléctricos. Clase Las euaiones de Maxwell en presenia de dielétrios. A diferenia de los metales (ondutores elétrios) existen otro tipo de materiales (dielétrios) en los que las argas elétrias no son desplazadas por

Más detalles

Práctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut

Práctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut Práctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut 8.1 Para cada uno de los siguientes conjuntos, encontrar una desigualdad válida que agregada a la formulación

Más detalles

Teoría de Sistemas y Señales

Teoría de Sistemas y Señales Universidad Naional de Rosario Faultad de Cienias Exatas, Ingeniería y Agrimensura Esuela de Ingeniería Eletrónia Teoría de Sistemas y Señales Trabajo Prátio Nº 3 Análisis Freuenial de Señales Problemas

Más detalles

Radiación electromagnética

Radiación electromagnética C A P Í T U L O Radiaión eletromagnétia.1. ENUNCIADOS Y SOLUCIONES DE LOS PROBLEMAS 1. El ampo elétrio de una onda eletromagnétia plana en el vaío viene dado, en unidades del sistema internaional (SI),

Más detalles

de distribución mediante redes neuronales Felier Fernández

de distribución mediante redes neuronales Felier Fernández Pronóstio de las pérdidas en redes de distribuión mediante redes neuronales Felier Fernández Sergio de la Fé Dante Miraglia Reibido: Otubre del 2004 Aprobado: Diiembre del 2004 Resumen / Abstrat energétia

Más detalles

Incertidumbres. Tipos de instrumentos. Algunas formas de expresar las incertidumbres

Incertidumbres. Tipos de instrumentos. Algunas formas de expresar las incertidumbres Inertidumres Es posile otener el valor real (exato) de una magnitud a través de mediiones? Aunque pareza sorprende, la respuesta a esta pregunta es NO. El proeso de mediión involura neesariamente el uso

Más detalles

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 5: Modelos Ocultos de Markov Modelos Ocultos de Markov Cadenas de Markov Preguntas básicas Aplicación: orden en Google Modelos Ocultos de Markov

Más detalles

SIMULACION. Urna 1. s(x) h(x) Urna 2. s(x) Dado. Urna /6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 Dado 1 1/6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6

SIMULACION. Urna 1. s(x) h(x) Urna 2. s(x) Dado. Urna /6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 Dado 1 1/6 2 1/6 3 1/6 4 1/6 5 1/6 6 1/6 SIMULACION x p(x) x h(x) 6 4 5 2 3 Urna /6 2 /6 3 /6 4 /6 5 /6 6 /6 Dado /6 2 /6 3 /6 4 /6 5 /6 6 /6 x p(x) x h(x) s(x) 4 5 2 3 Urna 2 0.2 2 0.2 3 0.2 4 0.2 5 0.2 6 0.0 Dado /6.2 2 /6.2 3 /6.2 4 /6.2 5

Más detalles

UNIDAD 2.- PROBABILIDAD CONDICIONADA

UNIDAD 2.- PROBABILIDAD CONDICIONADA UNIDAD.- PROBABILIDAD CONDICIONADA. PROBABILIDAD CONDICIONADA. SUCESOS DEPENDIENTES E INDEPENDIENTES Las probabilidades ondiionadas se alulan una vez que se ha inorporado informaión adiional a la situaión

Más detalles

RESOLUCIÓN DE ACTIVIDADES

RESOLUCIÓN DE ACTIVIDADES RESOLUCIÓN DE ACTIVIDADES Atividades iniiales. Expresa en notaión matriial y resuelve por el método de Gauss los sistemas de euaiones siguientes: Las resoluión de los sistemas puede expresarse de la forma

Más detalles

Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile

Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Tutorial NIPS (Neural Information Processing Systems Conference) 2001: Learning Bayesian Networks

Más detalles

Modelos de Markov Ocultos (HMM)

Modelos de Markov Ocultos (HMM) Modelos de Markov Ocultos (HMM) Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento

Más detalles

Aprendizaje Automático

Aprendizaje Automático Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática

Más detalles

SESIÓN DE APRENDIZAJE

SESIÓN DE APRENDIZAJE INSTITUCIÓN EDUCATIVA INMACULADA DE LA MERCED SESIÓN DE APRENDIZAJE APRENDIZAJE ESPERADO Determina la regla de orrespondenia de una funión Representa e Identifia funiones Resuelve operaiones on funiones

Más detalles

ANÁLISIS DE LA EXTENSIÓN DE LA GRÁFICA DE UNA FUNCIÓN

ANÁLISIS DE LA EXTENSIÓN DE LA GRÁFICA DE UNA FUNCIÓN ANÁLISIS DE LA EXTENSIÓN DE LA GRÁFICA DE UNA FUNCIÓN Sugerenias al Profesor: Trabajar úniamente on funiones polinomiales y raionales, alarando que generalmente al bosquejar sus gráfias solo se muestra

Más detalles

PRÁCTICA I. Ejercicios Teóricos

PRÁCTICA I. Ejercicios Teóricos PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las

Más detalles

TÍTULO: ANÁLISIS ESPECTRAL EN RAYOS X DEL SISTEMA BINARIO DE ALTA MASA 4U /QV Nor

TÍTULO: ANÁLISIS ESPECTRAL EN RAYOS X DEL SISTEMA BINARIO DE ALTA MASA 4U /QV Nor "Análisis espetral en rayos X del sistema binario de alta masa 4U 1538 52/QV Nor", por José Joaquín Ro José Joaquín Rodes Roa Tesis leída en junio de 2007 TÍTULO: ANÁLISIS ESPECTRAL EN RAYOS X DEL SISTEMA

Más detalles

Perceptron Multicapa

Perceptron Multicapa OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 3 Pereptron Multiapa Redes de Neuronas. Pereptron Multiapa Pereptron Multiapa Introduión Arquitetura Aprendizaje: Algoritmo

Más detalles

7. Administración de bases de datos

7. Administración de bases de datos 7. Administraión de bases de datos INTRODUCCIÓN En este módulo de 152 horas pedagógias se espera que los y las estudiantes desarrollen las ompetenias neesarias para efetuar operaiones más omplejas en los

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

Sesión 7: Campos de Markov

Sesión 7: Campos de Markov Sesión 7: Campos de Markov Campos de Markov Introducción Modelo de Ising Representación Tipos de Modelos Redes de Markov Vecindades Algoritmos ICM, Metrópolis, Recocido Simulado Aplicaciones Visión L.E.

Más detalles

Departamento de Ciencias e Ingeniería de la Computación Lenguajes Formales y Autómatas

Departamento de Ciencias e Ingeniería de la Computación Lenguajes Formales y Autómatas Departamento de Cienias e Ingeniería de la Computaión Lenguajes Formales y Autómatas Segundo Cuatrimestre de 2011 Trabajo Prátio N 3 Conjuntos y Relaiones Feha sugerida para finalizar este prátio: 23/09/2011

Más detalles

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad

Más detalles

Integración de formas diferenciales

Integración de formas diferenciales Capítulo 9 Integraión de formas difereniales. Complejos en R n En esta seión definiremos los objetos más simples en R n : los ubos, y los omplejos que forman. Es en estos objetos donde, más adelantes,

Más detalles

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado. Pérdida Esperada Uno de los objetivos de este estudio es construir una función de pérdidas para el portafolio de la cartera de préstamos que ofrece la entidad G&T Continental, basados en el comportamiento

Más detalles

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD Jorge M. Galbiati pág. DISTRIBUCION BINOMIAL 2 DISTRIBUCION POISSON 4 DISTRIBUCION HIPERGEOMETRICA 5 DISTRIBUCION GEOMETRICA 7 DISTRIBUCION NORMAL 8 DISTRIBUCION

Más detalles

Tema 6: Introducción a la Inferencia Bayesiana

Tema 6: Introducción a la Inferencia Bayesiana Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de

Más detalles

Probabilidad y estadística

Probabilidad y estadística Probabilidad y estadístia Apliaiones a la ingeniería y las ienias Eduardo Gutiérrez González Profesor de matemátias de la UPIICSA IPN Seión de Estudios de Posgrado e Investigaión Olga Vladimirovna Panteleeva

Más detalles

Arboles de decisión. Area de Computación e Inteligencia Artificial

Arboles de decisión. Area de Computación e Inteligencia Artificial Arboles de decisión Teoría de la decisión Hemos estudiado las redes bayesianas como instrumento para el diagnóstico en presencia de incertidumbre. La idea ahora es aprovechar ese diagnóstico para decidir

Más detalles

Las poligonales en forma general pueden ser clasificadas según sus formas en:

Las poligonales en forma general pueden ser clasificadas según sus formas en: Agrimensura Faena - Unne átedra: Topografía Poligonometría Una poligonal esta formada por una suesión de líneas enlazadas entre si por medio del ángulo que forman entre si las líneas. Las poligonales en

Más detalles

Relación de Problemas. Tema 5

Relación de Problemas. Tema 5 Relación de Problemas. Tema 5. Supongamos que tenemos una muestra aleatoria simple de tamaño n de una v.a. X que sigue una distribución geométrica con función de probabilidad P (X = k) = p( p) k Calcular

Más detalles

INSTITUTO DE PROFESORES ARTIGAS

INSTITUTO DE PROFESORES ARTIGAS INSTITUTO D PROFSORS RTIGS SPILIDD MTMÁTI GOMTRÍ UNIDD FIH 3: Teorema de Thales y más. 3.1 Teorema de Thales. 3. Teorema de las bisetries. 3.3 irunferenia de polonio. 3.4 riterios de semejanza de triángulos.

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través

Más detalles

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES 1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;

Más detalles

LA ESTACIÓN TOPOGRÁFICA Y SU EMPLEO

LA ESTACIÓN TOPOGRÁFICA Y SU EMPLEO TOPOGRAFÍA Y GEODESIA Prátia Número 8 LA ESTACIÓN TOPOGRÁFICA Y SU EMPLEO Alumnos que forman el Grupo:.-.- 3.- 4.- Grupo: Feha: Observaiones: TOPOGRAFÍA Y GEODESIA (Plan de Estudios 00). . JUSTIFICACIÓN

Más detalles

Teoria y Cuestiones. [a n cos (nx)+b n sin (nx)]

Teoria y Cuestiones. [a n cos (nx)+b n sin (nx)] Ingeniero Industrial Asignatura: Transformadas Integrales y Euaiones en Derivadas Pariales Convoatoria de Febrero del 2004 Teoria y Cuestiones 1. Consideremos la funión ½ 0 si

Más detalles

Doctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04)

Doctorado en Tecnologías de las Comunicaciones - Procesado Digital de Señales en Comunicaciones (Curso 2003/04) 4.6 El filtro de Kalman Introducción Filtro de Kalman discreto Algoritmo: predicción + corrección Características probabilísticas El filtro de Kalman extendido Filtros de Partículas Conclusiones Introducción

Más detalles

Tema 8: Métodos de cadenas de Markov Monte Carlo

Tema 8: Métodos de cadenas de Markov Monte Carlo Tema 8: Métodos de cadenas de Markov Monte Carlo Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Introducción Los métodos de cadenas

Más detalles

4. Cubicación de materiales e insumos

4. Cubicación de materiales e insumos 4. Cubiaión de materiales e insumos INTRODUCCIÓN Este módulo de 76 horas pedagógias tiene omo propósito que los y las estudiantes desarrollen los onoimientos neesarios para la orreta ubiaión de diversas

Más detalles

ICNC: Longitudes de pandeo de columnas: Método riguroso

ICNC: Longitudes de pandeo de columnas: Método riguroso CC: ongitudes de pandeo de olumnas: método riguroso S008a-S-U CC: ongitudes de pandeo de olumnas: Método riguroso sta CC proporiona informaión respeto al álulo de la longitud de pandeo de olumnas, para

Más detalles

Por ejemplo, lanzar un dado o una moneda son experimentos aleatorios.

Por ejemplo, lanzar un dado o una moneda son experimentos aleatorios. 1.- EXPERIMENTOS ALEATORIOS. SUCESOS Experimento aleatorio Es aquel uyo resultado depende del azar y, aunque onoemos todos los resultados, no se puede predeir de antemano el resultado que se va a obtener.

Más detalles

Regresión Lineal Múltiple

Regresión Lineal Múltiple Unidad 4 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 35 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable respuesta

Más detalles

Examen Final Tema A Cálculo Vectorial Mayo 23 de 2017

Examen Final Tema A Cálculo Vectorial Mayo 23 de 2017 Examen Final Tema A Cálulo Vetorial Mayo 3 de 17 Este es un examen individual, no se permite el uso de libros, apuntes, aluladoras o ualquier otro medio eletrónio. Reuerde apagar y guardar su teléfono

Más detalles

ALGUNAS INCONGRUENCIAS CONCEPTUALES SOBRE LA NOCIÓN DE LINEALIDAD

ALGUNAS INCONGRUENCIAS CONCEPTUALES SOBRE LA NOCIÓN DE LINEALIDAD Categoría1.Análisisdeldisursomatemátioesolar ALGUNASINCONGRUENCIASCONCEPTUALESSOBRELANOCIÓNDELINEALIDAD CarlosRondero,AnnaTaraseno,JuanAlbertoAosta UniversidadAutónomadeEstadodeHidalgo.(Méxio) Méxio aostah@uaeh.reduaeh.mx,rondero@uaeh.reduaeh.mx,anataras@uaeh.edu.mx

Más detalles

TRANSFERENCIA DE CALOR POR CONVECCIÓN Departamento de Ingeniería Mecánica Universidad de Santiago de Chile. Diego Vasco C.

TRANSFERENCIA DE CALOR POR CONVECCIÓN Departamento de Ingeniería Mecánica Universidad de Santiago de Chile. Diego Vasco C. TRANSFERENCIA DE CALOR POR CONVECCIÓN Departamento de Ingeniería Meánia Universidad de Santiago de Chile 2015 Diego Vaso C. INTRODUCCIÓN El meanismo de transferenia de alor por onveión surge por el movimiento

Más detalles