Modelos de Markov Ocultos (HMM)
|
|
- Marina Villanueva Ponce
- hace 6 años
- Vistas:
Transcripción
1 Modelos de Markov Ocultos (HMM) Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 1 )/ 43
2 Índice 1 Procesos de Markov de tiempo discreto Cadenas de Markov Modelos de Markov Ocultos 2 Elementos de un HMM 3 Cálculo de la probabilidad de una observación Procedimiento hacia adelante Procedimiento hacia atrás 4 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi 5 Estimación de parámetros no supervisada Algoritmo de Baum-Welch 6 Estimación de parámetros supervisada Suavizado de los prámetros 7 Tratamiento de las palabras desconocidas Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 2 )/ 43
3 Procesos de Markov de tiempo discreto Cadenas de Markov Cadenas de Markov Estados Q = {1, 2,...,N}, Instantes de tiempo t = 1, 2,...,T a22 2 a11 a21 a32 a33 1 a51 a13 a41 a35 a45 3 a a55 a54 a44 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 3 )/ 43
4 Propiedades Procesos de Markov de tiempo discreto Cadenas de Markov Propiedad del horizonte limitado Una cadena de Markov de orden n es la que utiliza n estados previos para predecir el siguiente estado. Para cadenas de orden 1, n = 1: P(q t = j q t 1 = i, q t 2 = k,...) = P(q t = j q t 1 = i) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 4 )/ 43
5 Propiedades Procesos de Markov de tiempo discreto Cadenas de Markov Propiedad del tiempo estacionario P(q t = j q t 1 = i) es independiente del tiempo. Matriz A = {a ij } de probabilidades de transición independientes del tiempo: a ij = P(q t = j q t 1 = i) = P(j i), 1 i, j N, a ij 0, i, j, N a ij = 1, i. j=1 Vector π = {π i } de probabilidad de ser el estado inicial: π i = P(q 1 = i), π i 0, 1 i N, N π i = 1. i=1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 5 )/ 43
6 Procesos de Markov de tiempo discreto Ejemplo de cadena de Markov Cadenas de Markov 0,4 0,6 0,2 A = {a ij } = 0, 4 0, 3 0, 3 0, 2 0, 6 0, 2 0, 1 0, 1 0, 8 π i = 1 3, 1 i ,3 0,3 0,2 0,1 3 0,1 0,8 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 6 )/ 43
7 Procesos de Markov de tiempo discreto Cadenas de Markov Probabilidad de observar una secuencia de estados T 1 P(o 1, o 2,...,o T ) = π o1 t=1 a oto t+1 = P(q 1 = o 1 )P(q 2 = o 2 q 1 = o 1 )P(q 3 = o 3 q 2 = o 2 )...P(q T = o T q T 1 = o T 1 ) En el ejemplo, la probabilidad de observar la secuencia de estados nublado-soleado-nublado-lluvia (2, 3, 2, 1): P(2, 3, 2, 1) = P(2)P(3 2)P(2 3)P(1 2) = π 2 a 23 a 32 a 21 = 1 0, 2 0, 1 0, 2 3 = 0, Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 7 )/ 43
8 Procesos de Markov de tiempo discreto Modelos de Markov Ocultos Modelos de Markov Ocultos En las cadenas de Markov cada estado se corresponde de manera determinista con un único suceso observable En los HMM la observación es una función probabiĺıstica del estado. Los HMM son un modelo doblemente estocástico, ya que uno de los procesos no se puede observar directamente (está oculto), sino que se puede observar sólo a través de otro conjunto de procesos estocásticos, los cuales producen la secuencia de observaciones. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 8 )/ 43
9 Ejemplo de HMM Procesos de Markov de tiempo discreto Modelos de Markov Ocultos 0,4 0,6 casa 0,6 casa 0,2 0,2 paseo 0,1 paseo 0, ,3 cafe 0,3 0,1 0,3 0,2 0,1 cafe 0,3 casa 0,1 3 paseo 0,7 cafe 0,2 0,8 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 9 )/ 43
10 Procesos de Markov de tiempo discreto Otro ejemplo de HMM Modelos de Markov Ocultos Urna 1 Urna 2 Urna 3 Urna N P(color 1) = b 11 P(color 1) = b 21 P(color 1) = b P(color 1) = b N1 P(color 2) = b 12 P(color 2) = b 22 P(color 2) = b P(color 2) = b N2 P(color 3) = b 13 P(color 3) = b 23 P(color 3) = b P(color 3) = b N3.. P(color M) = b 1M P(color M) = b 2M P(color M) = b 3M... P(color M) = b NM.. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 10 )/ 43
11 Procesos de Markov de tiempo discreto Relación con etiquetación Modelos de Markov Ocultos Bolas = palabras Urnas = etiquetas Secuencia de bolas observadas = frase Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 11 )/ 43
12 H = (π, A, B) Elementos de un HMM Q es el conjunto de estados {1, 2,...,N}. El estado actual en el instante de tiempo t se denota q t. (instante de tiempo = posición de cada palabra). V es el conjunto de los sucesos observables {v 1, v 2,...,v M }. (M= tamaño del diccionario; cada v k es una palabra distinta). Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 12 )/ 43
13 H = (π, A, B) Elementos de un HMM π = {π i } es la distribución de probabilidad del estado inicial π i = P(q 1 = i), π i 0, 1 i N N π i = 1. i=1 A = {a ij } es la distribución de probabilidad de las transiciones entre estados a ij = P(q t = j q t 1 = i) = P(j i), 1 i, j N, 1 t T N a ij = 1, j=1 i. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 13 )/ 43
14 H = (π, A, B) Elementos de un HMM B = {b j (v k )} es el conjunto de probabilidades de emisión, la distribución de probabilidad de los sucesos observables b j (v k ) = P(o t = v k q t = j) = P(v k j), b j (v k ) 0, 1 j N, 1 k M, 1 t T M b j (v k ) = 1, k=1 j Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 14 )/ 43
15 Elementos de un HMM Preguntas fundamentales Dados O = (o 1,o 2,...,o T ) y µ = (π,a,b) cómo calcular de una manera eficiente P(O µ)? (la probabilidad de la secuencia O dado el modelo µ) Dados O = (o 1,o 2,...,o T ) y µ = (π,a,b) cómo elegir la secuencia de estados S = (q 1,q 2,...,q T ) óptima? (la secuencia de estados que mejor explica la de observaciones) Dado O = (o 1,o 2,...,o T ) cómo estimar los parámetros del modelo µ que maximizan P(O µ)? (el modelo que mejor explica los datos observados) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 15 )/ 43
16 Cálculo de la probabilidad de una observación Solución ineficiente para P(O µ) Entrada: O = (o 1, o 2,...,o T ) y µ = (π, A, B) Enumerar todas las posibles secuencias de estados de longitud T Existen N T secuencias distintas S = (q 1, q 2,...,q T ) P(S µ) = π q1 a q1 q 2 a q2 q 3...a qt 1 q T T P(O S, µ) = P(o t q t, µ) = b q1 (o 1 )b q2 (o 2 )...b qt (o T ) t=1 P(O, S µ) = P(S µ)p(o S, µ) P(O µ) = S P(S µ) P(O S, µ) Ineficiencia: (2T 1)N T multiplicaciones y N T 1 sumas Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 16 )/ 43
17 Cálculo de la probabilidad de una observación Procedimiento hacia adelante Procedimiento hacia adelante α t (i) = P(o 1, o 2,...,o t, q t = i µ), 1 Inicialización: α 1 (i) = π i b i (o 1 ), 1 i N. 2 Recurrencia: [ N ] α t+1 (j) = α t (i)a ij b j (o t+1 ), t = 1, 2,...,T 1, 1 j N. i=1 3 Terminación: Eficiencia: O(N 2 T) operaciones P(O µ) = N α T (i). i=1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 17 )/ 43
18 Cálculo de la probabilidad de una observación Procedimiento hacia adelante (a) Detalle de la secuencia de operaciones necesarias para el cálculo de α t+1 (j) (b) Enrejado de T observaciones y N estados (a) (b) Observaciones o1 o2 o3 1 1 a1j ot 2 a2j ot a3j j bj(ot+1) Estados 3 anj N t t+1 α t (i) α t+1 (j) N T Tiempo Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 18 )/ 43
19 Cálculo de la probabilidad de una observación Procedimiento hacia atrás Procedimiento hacia atrás β t (i) = P(o t+1, o t+2,...,o T q t = i, µ), 1 Inicialización: 2 Recurrencia: β T (i) = 1, 1 i N N β t (i) = a ij β t+1 (j)b j (o t+1 ), t = T 1, T 2,...,1, 1 i N j=1 3 Terminación: P(O µ) = Eficiencia: O(N 2 T) operaciones N β 1 (i)π i b i (o 1 ) i=1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 19 )/ 43
20 Cálculo de la probabilidad de una observación Procedimiento hacia atrás Detalle de la secuencia de operaciones necesarias para el cálculo de β t+1 (j) ot+1 ai1 1 b1(ot+1) ai2 2 b2(ot+1) i ai3 3 b3(ot+1) ain N bn(ot+1) t t+1 β t (i) βt+1 (j) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 20 )/ 43
21 Cálculo de la secuencia de estados más probable Solución ineficiente para P(S O, µ) Selección de los estados que son individualmente más probables en cada instante de tiempo γ t (i) = P(q t = i O, µ) = P(q t = i, O µ) P(O µ) = P(q t = i, O µ) N P(q t = j, O µ) j=1 Reconstrucción de la secuencia más probable: = α t(i)β t (i) N α t (j)β t (j) j=1 q t = arg max 1 i N [γ t(i)], 1 t T Inconsistencia: podría ocurrir que dos estados i y j aparecieran contiguos en la secuencia óptima aún cuando a ij = 0 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 21 )/ 43
22 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Solución eficiente para P(S O, µ): el algoritmo de Viterbi δ t (i) = max q 1,q 2,...,q t 1 P(q 1, q 2,...,q t 1, q t = i, o 1, o 2,...,o t µ), δ t (i) almacena la probabilidad del mejor camino que termina en el estado i, teniendo en cuenta las t primeras observaciones [ δ t+1 (j) = max 1 i N δ t(i)a ij ] b j (o t+1 ) La secuencia de estados se construye a través de una traza, que se almacena en las variables ψ t (j), que recuerda el argumento que maximizó esta ecuación para cada instante t y para cada estado j. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 22 )/ 43
23 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi 1 Inicialización: 2 Recurrencia: [ δ t+1 (j) = δ 1 (i) = π i b i (o 1 ), 1 i N. max 1 i N δ t(i)a ij ] b j (o t+1 ), t = 1, 2,...,T 1, 1 j N. ψ t+1 (j) = arg max 1 i N δ t(i)a ij, t = 1, 2,...,T 1, 1 j N. 3 Terminación: q T = arg max 1 i N δ T(i). 4 Construcción hacia atrás de la secuencia de estados: q t = ψ t+1 (q t+1), t = T 1, T 2,...,1. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 23 )/ 43
24 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Observaciones v1 v1 v1 v1 v2 v2 v1 v2 1 Estados Tiempo Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 24 )/ 43
25 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 1 (1) = π 1 b 1 (v 1 ) = (0, 25)(0, 50) δ 1 (2) = π 2 b 2 (v 1 ) = (0, 50)(0, 25) δ 1 (3) = π 3 b 3 (v 1 ) = (0, 25)(0, 75) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43
26 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 2 (1) = max [δ 1 (1) a 11, δ 1 (2) a 21, δ 1 (3) a 31 ] b 1 (v 1 ) = (0, 25) (0, 50) 2 (0, 75) ψ 2 (1) = 3 δ 2 (2) = max [δ 1 (1) a 12, δ 1 (2) a 22, δ 1 (3) a 32 ] b 2 (v 1 ) = (0, 25) 2 (0, 50) (0, 75) ψ 2 (2) = 3 δ 2 (3) = max [δ 1 (1) a 13, δ 1 (2) a 23, δ 1 (3) a 33 ] b 3 (v 1 ) = (0, 25) (0, 50) (0, 75) 2 ψ 2 (3) = 2 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43
27 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 3 (1) = max [δ 2 (1) a 11, δ 2 (2) a 21, δ 2 (3) a 31 ] b 1 (v 1 ) = (0, 25) (0, 50) 3 (0, 75) 2 ψ 3 (1) = 3 δ 3 (2) = max [δ 2 (1) a 12, δ 2 (2) a 22, δ 2 (3) a 32 ] b 2 (v 1 ) = (0, 25) 2 (0, 50) 2 (0, 75) 2 ψ 3 (2) = 3 δ 3 (3) = max [δ 2 (1) a 13, δ 2 (2) a 23, δ 2 (3) a 33 ] b 3 (v 1 ) = (0, 25) (0, 50) 3 (0, 75) 2 ψ 3 (3) = 1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43
28 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 4 (1) = max [δ 3 (1) a 11, δ 3 (2) a 21, δ 3 (3) a 31 ] b 1 (v 1 ) = (0, 25) (0, 50) 5 (0, 75) 2 ψ 4 (1) = 3 δ 4 (2) = max [δ 3 (1) a 12, δ 3 (2) a 22, δ 3 (3) a 32 ] b 2 (v 1 ) = (0, 25) 2 (0, 50) 4 (0, 75) 2 ψ 4 (2) = 3 δ 4 (3) = max [δ 3 (1) a 13, δ 3 (2) a 23, δ 3 (3) a 33 ] b 3 (v 1 ) = (0, 25) (0, 50) 4 (0, 75) 3 ψ 4 (3) = 1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43
29 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 5 (1) = max [δ 4 (1) a 11, δ 4 (2) a 21, δ 4 (3) a 31 ] b 1 (v 2 ) = (0, 25) (0, 50) 6 (0, 75) 3 ψ 5 (1) = 3 δ 5 (2) = max [δ 4 (1) a 12, δ 4 (2) a 22, δ 4 (3) a 32 ] b 2 (v 2 ) = (0, 25) (0, 50) 5 (0, 75) 4 ψ 5 (2) = 3 δ 5 (3) = max [δ 4 (1) a 13, δ 4 (2) a 23, δ 4 (3) a 33 ] b 3 (v 2 ) = (0, 25) 2 (0, 50) 6 (0, 75) 2 ψ 5 (3) = 1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43
30 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 6 (1) = max [δ 5 (1) a 11, δ 5 (2) a 21, δ 5 (3) a 31 ] b 1 (v 2 ) = (0, 25) 2 (0, 50) 7 (0, 75) 3 ψ 6 (1) = 1 δ 6 (2) = max [δ 5 (1) a 12, δ 5 (2) a 22, δ 5 (3) a 32 ] b 2 (v 2 ) = (0, 25) 2 (0, 50) 5 (0, 75) 5 ψ 6 (2) = 2 δ 6 (3) = max [δ 5 (1) a 13, δ 5 (2) a 23, δ 5 (3) a 33 ] b 3 (v 2 ) = (0, 25) 2 (0, 50) 5 (0, 75) 5 ψ 6 (3) = 2 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43
31 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 7 (1) = max [δ 6 (1) a 11, δ 6 (2) a 21, δ 6 (3) a 31 ] b 1 (v 1 ) = (0, 25) 2 (0, 50) 7 (0, 75) 5 ψ 7 (1) = 3 δ 7 (2) = max [δ 6 (1) a 12, δ 6 (2) a 22, δ 6 (3) a 32 ] b 2 (v 1 ) = (0, 25) 3 (0, 50) 6 (0, 75) 5 ψ 7 (2) = 3 δ 7 (3) = max [δ 6 (1) a 13, δ 6 (2) a 23, δ 6 (3) a 33 ] b 3 (v 1 ) = (0, 25) 2 (0, 50) 5 (0, 75) 7 ψ 7 (3) = 2 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43
32 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 8 (1) = max [δ 7 (1) a 11, δ 7 (2) a 21, δ 7 (3) a 31 ] b 1 (v 2 ) = (0, 25) 2 (0, 50) 7 (0, 75) 7 ψ 8 (1) = 3 δ 8 (2) = max [δ 7 (1) a 12, δ 7 (2) a 22, δ 7 (3) a 32 ] b 2 (v 2 ) = (0, 25) 2 (0, 50) 6 (0, 75) 8 ψ 8 (2) = 3 δ 8 (3) = max [δ 7 (1) a 13, δ 7 (2) a 23, δ 7 (3) a 33 ] b 3 (v 2 ) = (0, 25) 3 (0, 50) 8 (0, 75) 5 ψ 8 (3) = 1 q8 = 2 y al reconstruir hacia atrás la secuencia de estados obtenemos S = (2, 3, 1, 3, 2, 2, 3, 2) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43
33 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi El algoritmo de Viterbi aplicado a la etiquetación palabra 1 palabra 2 palabra 3 palabra T preposición adjetivo adjetivo numeral etiqueta 0 etiqueta 0 sustantivo preposición adverbio pronombre sustantivo verbo sustantivo verbo Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 26 )/ 43
34 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Viterbi para HMM de orden 2 (trigramas) 1 Inicialización: δ 1 (i) = π i b i (o 1 ), 1 i N. 2 Recurrencia: [ δ t+1 (j, k) = δ 2 (i, j) = δ 1 (i)a ij b j (o 2 ), 1 i, j N. max 1 i N δ t(i, j)a ijk ] b k (o t+1 ), t = 2, 3,...,T 1, 1 j, k ψ t+1 (j, k) = arg max 1 i N δ t(i, j)a ijk, t = 2, 3,...,T 1, 1 j, k N. 3 Terminación: (qt 1, q T ) = arg max δ T(j, k). 1 j,k N 4 Construcción hacia atrás de la secuencia de estados: q t = ψ t+2 (q t+1, q t+2), t = T 2, T 3,...,1. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 27 )/ 43
35 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Algoritmo de Viterbi con logaritmos y sumas 0 Preproceso: π i = log (π i ), ã ij = log (a ij ), b i (o t ) = log [b i (o t )] 1 Inicialización: δ 1 (i) = log [δ 1 (i)] = π i + b i (o 1 ), 1 i N. 2 Recurrencia: [ ] δ t+1 (j) = log[δ t+1 (j)] = max [ δ t (i)+ã ij ] + b j (o t+1 ), t = 1, 2,...,T 1 i N ψ t+1 (j) = arg max 1 i N [ δ t (i)+ã ij ], t = 1, 2,...,T 1, 1 j N. 3 Terminación: q T = arg max δ T (i). 1 i N 4 Construcción hacia atrás de la secuencia de estados: q t = ψ t+1 (q t+1), t = T 1, T 2,...,1. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 28 )/ 43
36 Estimación de parámetros no supervisada Estimación de parámetros Encontrar un modelo µ = (π, A, B) que maximice P(O µ) Estimación no supervisada Estimación supervisada Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 29 )/ 43
37 Estimación de parámetros no supervisada Algoritmo de Baum-Welch Estimación no supervisada: Algoritmo de Baum-Welch El algoritmo de Baum-Welch es un caso especial del algoritmo EM (Expectation-Maximization, maximización de la esperanza) ξ t (i, j) = P(q t = i, q t+1 = j O, µ) es la probabilidad de estar en el estado i en el instante t y en el estado j en el instante t + 1 ξ t (i, j) = P(q t = i, q t+1 = j, O µ) P(O µ) = α t(i)a ij b j (o t+1 )β t+1 (j) P(O µ) = α t (i)a ij b j (o t+1 )β t+1 (j). N N α t (k)a kl b l (o t+1 )β t+1 (l) k=1 l=1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 30 )/ 43
38 Estimación de parámetros no supervisada Algoritmo de Baum-Welch ot ot i aij bj(ot+1) j 3 N a t (i) b (j) t+1 N t 1 t t+1 t+2 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 31 )/ 43
39 Estimación de parámetros no supervisada Algoritmo de Baum-Welch Retomamos γ t (i) y lo relacionamos con ξ t (i, j): γ t (i) = N ξ t (i, j). j=1 Interpretación: T 1 t=1 T 1 t=1 γ t (i) = número esperado de transiciones desde el estado i ξ t (i, j) = número esperado de transiciones desde el estado i al estado j Utilizando estas fórmulas, se puede dar un método general para reestimar los parámetros de un HMM. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 32 )/ 43
40 Estimación de parámetros no supervisada Algoritmo de Baum-Welch π i = frecuencia esperada de estar en el estado i en el el instante 1 = γ 1 (i) ā ij = no esperado de transiciones desde el estado i al estado j n o esperado de transiciones desde el estado i = T 1 t=1 T 1 ξ t (i, j) γ t (i) t=1 b j (v k ) = no esperado de veces en el estado j observando el símbolo v k n o esperado de veces en el estado j = T t=1 γ t(j) tal que o t = v k T t=1 γ t(j) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 33 )/ 43
41 Estimación de parámetros no supervisada Algoritmo iterativo Algoritmo de Baum-Welch Definimos un modelo incial µ = (π, A, B) Calculamos µ = ( π, Ā, B) mediante las ecuaciones de la transparencia anterior Reemplazamos µ por µ y repetimos la reestimación de los parámetros un cierto número de veces, hasta que no se aprecie ninguna ganancia significativa entre P(O µ) y P(O µ) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 34 )/ 43
42 Problemas Estimación de parámetros no supervisada Algoritmo de Baum-Welch Muy sensible a las condiciones de inicialización del modelo Una inicialización incorrecta puede llevar a un máximo local Solución para π y A: estimación inicial equiprobable ligeramente modificada Solución para B: Método de Jelinek, regla de Bayes suponiendo que todas las etiquetas que aparecen en el diccionario para una palabra dada son equiprobables Método de Kupiec, agrupa las palabras en clases de ambigüedad Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 35 )/ 43
43 Estimación de parámetros supervisada Estimación de parámetros supervisada Corpus etiquetado Estimación de máxima verosimilitud (maximum likelihood) π i = no de frases que comienzan por etiqueta t i n o de frases a ij = C(ti t j ) C(t i ) b j (w k ) = C(wk t j ) C(t j ) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 36 )/ 43
44 Estimación de parámetros supervisada Técnicas de suavizado (smoothing) Suavizado de los prámetros Los fenómenos que no aparecen en el corpus de entreniento dan lugar a ceros: necesidad de suavizar los parámetros. Generalmente el suavizado es lo que marca la diferencia de rendimiento entre etiquetadores probabiĺısticos. Suavizado de Laplace (add-one) Descuento de Good-Turing Interpolación Backoff Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 37 )/ 43
45 Estimación de parámetros supervisada Suavizado de Laplace (add-one) Suavizado de los prámetros Añadir 1 a todas las cuentas P(x) = C(x) N donde x es un token (palabra, etiqueta, bigrama (de palabras o etiquetas), trigrama,...) y N es el numero total de tokens en el texto P Laplace (x) = C(x) + 1 N + V donde V es el tamaño del vocabulario de tokens Alternativamente C N (x) = (C(x) + 1) N + V Inconveniente: Si V es grande y/o N pequeño deriva demasiada masa de probabilidad a tokens con pocas o ninguna apariciones Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 38 )/ 43
46 Estimación de parámetros supervisada Suavizado de Good-Turing Suavizado de los prámetros Usa las cuentas de los tokens que han sido observados una sola vez para estimar la cuenta de aquellos que nunca han sido observados Generaliza este razonamiento a los tokens observados c veces N c es el número de tokens (etiquetas, bigramas,...) con cuenta c: N c = x:c(x)=c Reemplaza la cuenta c por la cuenta suavizada c 1 c = (c + 1) N c+1 N c En la práctica se aproxima N 0 mediante N, sólo se usa c para valores pequeños de c y se usan aproximaciones para el caso de que N c+1 = 0 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 39 )/ 43
47 Interpolación Estimación de parámetros supervisada Suavizado de los prámetros P(z x, y) = λ 1 P(z x, y) + λ 2 P(z y) + λ 3 P(z) λ i = 1 Problema: calcular valores adecuados para λ i i Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 40 )/ 43
48 Backoff Estimación de parámetros supervisada Suavizado de los prámetros P (z x, y) if C(x, y, z) > 0 P katz (z x, y) = α(x, y) P katz (z y) else if C(y, z) > 0 P (z) otherwise { P P katz (z y) = (z y) if C(y, z) > 0 α(y) P katz (z) otherwise donde los P son probabilizadas suavizadas al estilo Good-Turing y los valores de los α deben ser calculados para garantizar que la masa total de probabilidad sea 1. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 41 )/ 43
49 Tratamiento de las palabras desconocidas Tratamiento de las palabras desconocidas Las probabilidades de emitir una palabra deconocida l 1...l n con etiqueta t se determinana en función de sus terminaciones P(l n i+1,...,l n t) = P(l n i+1,...,l n )P(t l n i+1,...,l n ) P(t) P(t l n i+1,...,l n ) = ˆp(t l n i+1,...,l n ) + θ i P(t l n i+2,...,l n ) 1 + θ i ˆp(t l n i+1,...,l n ) = C(t, l n i+1,...,l n ) C(l n i+1,...,l n ) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 42 )/ 43
50 Tratamiento de las palabras desconocidas Árbol de sufijos Las etiquetas posibles para cada sufijo se determinan a partir del árbol de letras de los sufijos Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 43 )/ 43
Curso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detallesBases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción
Más detallesEtiquetado gramatical
Etiquetado gramatical ITALICA Universidad de Sevilla José A. Troyano Índice Introducción Etiquetado con el modelo de Markov Etiquetado con el modelo de Markov oculto Etiquetado transformacional Precisión
Más detallesCriterio de implementación de un HMM usando LogProb. Jorge Luis Guevara Díaz Escuela de Informática
Criterio de implementación de un HMM usando LogProb Jorge Luis Guevara Díaz Escuela de Informática Introducción Introducción Modelos Ocultos de Markov - HMM Motivación Definición Algoritmo forward-backward
Más detalles2 de mar de 2004 Codificación de imágenes y v ideo
Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesAuxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13
Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud
Más detallesPROCESOS ESTOCÁSTICOS
Capítulo 10 Cadenas de Markov PROCESOS ESTOCÁSTICOS Una sucesión de observaciones X 1,X 2,... se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero
Más detallesModelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D
Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del
Más detallesECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica
ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación
Más detallesEntrenamiento discriminativo de componentes principales. ocultas de Markov aplicado a detección de estados funcionales.
Entrenamiento discriminativo de componentes principales ocultas de Markov aplicado a detección de estados funcionales en bioseñales Bonie Johana Restrepo Cuestas Universidad Tecnológica de Pereira Facultad
Más detallesEL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)
EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento
Más detallesFiltrado e identificación de parámetros mediante métodos bayesianos
Filtrado e identificación de parámetros mediante métodos bayesianos Guillermo La Mura a, Eduardo Serrano b,d, Ricardo Sirne c a Escuela de Ciencia y Tecnología - UNSAM b Centro de Matemática Aplicada -
Más detallesMETODOS ESTADÍSTICOS
METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.
Más detallesEl Algoritmo E-M. José Antonio Camarena Ibarrola
El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas
Más detallesAprendizaje de etiquetas basado en transformaciones
Aprendizaje de etiquetas basado en transformaciones El etiquetador de Brill Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel
Más detallesGeneración de variables aleatorias continuas Método de rechazo
Generación de variables aleatorias continuas Método de rechazo Georgina Flesia FaMAF 18 de abril, 2013 Método de Aceptación y Rechazo Repaso Se desea simular una v. a. X discreta, con probabilidad de masa
Más detallesRedes de Petri Estocásticas (II)
Redes de Petri Estocásticas (II) Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Formalmente una red de Petri estocástica es por tanto una 7 upla SPN=(P,T,I(),O(),H(),W(),Mo)
Más detallesAUTÓMATAS PROBABILÍSTICOS O ESTOCÁSTICOS
AUTÓMATAS PROBABILÍSTICOS O ESTOCÁSTICOS Autómatas Probabilísticos En su funcionamiento interviene el concepto de probabilidad, asociada a que se produzca una determinada transición. Son autómatas finitos
Más detallesProcesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Más detallesMÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
Más detallesModelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Más detallesAlgunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides
Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda
Más detallesIntroducción al Procesamiento de Lenguaje Natural. Grupo de PLN - InCo
Introducción al Procesamiento de Lenguaje Natural Grupo de PLN - InCo Modelos de Lenguaje But it must be recognized that the notion probability of a sentence is an entirely useless one, under any known
Más detallesGeneración de variables aleatorias discretas Método de la Transformada Inversa
Generación de variables aleatorias discretas Método de la Transformada Inversa Patricia Kisbye FaMAF 30 de marzo, 2010 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Más detallesUSO DEL FILTRO DE KALMAN PARA ESTIMAR LA TENDENCIA DE UNA SERIE
DIVISIÓN ECONÓMICA DEPARTAMENTO DE INVESTIGACIONES ECONÓMICAS INFORME TÉCNICO DIE-87-003-IT USO DEL FILTRO DE KALMAN PARA ESTIMAR LA TENDENCIA DE UNA SERIE Ana Cecilia Kikut V. OCTUBRE, 003 Entre los diferentes
Más detallesEjercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
Más detallesOPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 5 Simulación
OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA Tema 5 Simulación ORGANIZACIÓN DEL TEMA Sesiones: Introducción Ejemplos prácticos Procedimiento y evaluación de resultados INTRODUCCIÓN Simulación: Procedimiento
Más detallesProcesos estocásticos Cadenas de Márkov
Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el
Más detallesLISTA DE SÍMBOLOS. Capítulo 2 EJEMPLOS Y TEORIA DE LAS VIBRACIONES PARAMÉTRICAS 2.1 Introducción T - Periodo Ω - Frecuencia a- parámetro b- parámetro
LISTA DE SÍMBOLOS Capítulo 2 EJEMPLOS Y TEORIA DE LAS VIBRACIONES PARAMÉTRICAS 2.1 Introducción T - Periodo Ω - Frecuencia a- parámetro b- parámetro 2.1.1 Rigidez Flexiva que Difiere en dos Ejes x- Desplazamiento
Más detallesClasificación. Aurea Grané. Análisis Discriminante
Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis discriminante Análisis Discriminante y Clasificación Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid Supongamos
Más detallesTEMA 3. Algunos modelos de probabilidad de tipo discreto. 3.1 Al finalizar el tema el alumno debe conocer...
TEMA 3. Algunos modelos de probabilidad de tipo discreto En este capítulo se abordan «familias» muy específicas de probabilidad, que con cierta frecuencia se nos presentan en el mundo real. Van a ser distribuciones
Más detallesTeoría de grafos y optimización en redes
Teoría de grafos y optimización en redes José María Ferrer Caja Universidad Pontificia Comillas Definiciones básicas Grafo: Conjunto de nodos (o vértices) unidos por aristas G = (V,E) Ejemplo V = {,,,,
Más detallesDeterminación del tamaño de muestra (para una sola muestra)
STATGRAPHICS Rev. 4/5/007 Determinación del tamaño de muestra (para una sola muestra) Este procedimiento determina un tamaño de muestra adecuado para la estimación o la prueba de hipótesis con respecto
Más detallesANALISIS DE FRECUENCIA EN HIDROLOGIA JULIAN DAVID ROJO HERNANDEZ
ANALISIS DE FRECUENCIA EN HIDROLOGIA JULIAN DAVID ROJO HERNANDEZ Probabilidad - Período de retorno y riesgo La probabilidad de ocurrencia de un fenómeno en hidrología puede citarse de varias Formas: El
Más detallesProbabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid
Probabilidad II Algunas distribuciones notables Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid La distribución normal f (x; µ, σ) = 1 σ 2π e 1 2( x µ σ ) 2, x R, µ R, σ > 0 E(X
Más detallesBases Formales de la Computación: Redes de Bayes (segunda parte)
Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes
Más detallesDistribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas
Distribuciones Probabilísticas Curso de Estadística TAE,005 J.J. Gómez Cadenas Distribución Binomial Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo
Más detallesModelo del Lenguaje. N-gramas.
Modelo del Lenguaje. N-gramas. Introducción a las Tecnologías del Habla 2 o cuatrimestre 214 Agustín Gravano Las acciones se... Predicción de palabras Predicción de palabras Las acciones se derrumbaron
Más detallesMétodos directos para resolver sistemas de ecuaciones lineales
Métodos directos para resolver sistemas de ecuaciones lineales Problemas para examen Si en algún problema se pide calcular el número de flops (operaciones aritméticas con punto flotante), entonces en el
Más detallesPreparación de los datos de entrada
Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:
Más detallesCONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Más detallesESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio
ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza
Más detallesSimulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12
Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación
Más detallesIntroducción a los códigos compresores
Introducción a los códigos compresores Parte I de la Lección 2, Compresores sin pérdidas, de CTI Ramiro Moreno Chiral Dpt. Matemàtica (UdL) Febrero de 2010 Ramiro Moreno (Matemàtica, UdL) Introducción
Más detallesCálculo de Probabilidades II Preguntas Tema 1
Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga
Más detallesProgramación y Métodos Numéricos Errores de de redondeo en en la la representación de de números reales: INTRODUCCIÓN Y MOTIVACIÓN
Programación y Métodos Numéricos Errores de de redondeo en en la la representación de de números reales: INTRODUCCIÓN Y MOTIVACIÓN Carlos Conde LázaroL Arturo Hidalgo LópezL Alfredo López L Benito Febrero,
Más detallesClustering para la inicialización de HMM en RAH. Jorge Luis Guevara Díaz
Clustering para la inicialización de HMM en RAH Jorge Luis Guevara Díaz Introducción Introducción Definicion de RAH Formulación Arquitectura Extracción de características Modelo acústico Modelo del lenguaje
Más detallesRESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES
UNIDD 4 RESOLUCIÓN DE SISTEMS MEDINTE DETERMINNTES Página 00 Resolución de sistemas mediante determinantes x y Resuelve, aplicando x = e y =, los siguientes sistemas de ecuaciones: x 5y = 7 5x + 4y = 6x
Más detallesPRÁCTICA I. Ejercicios Teóricos
PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las
Más detalles10.1 Enfoque Bayesiano del problema de la estimación
Chapter 10 Estimadores de Bayes 10.1 Enfoque Bayesiano del problema de la estimación puntual Consideremos nuevamente un problema estadístico de estimación paramétrico. Se observa un vector X = X 1,...,
Más detallesCC40A Complejidad de Kolmogorov
CC40A Complejidad de Kolmogorov Ricardo Baeza Yates, Rodrigo Paredes Dept. de Ciencias de la Computación, Universidad de Chile. 1. Definiciones Básicas La Complejidad de Kolmogorov (CK) de un string s
Más detallesTema 6: Introducción a la Inferencia Bayesiana
Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de
Más detallesEl Movimiento Browniano en la modelización del par EUR/USD
MÁSTER UNIVERSITARIO EN DIRECCIÓN FINANCIERA Y FISCAL TESINA FIN DE MÁSTER El Movimiento Browniano en la modelización del par EUR/USD Autor: José Vicente González Cervera Directores: Dr. Juan Carlos Cortés
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detalles( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE
Estudiamos algunos ejemplos de distribuciones de variables aleatorias continuas. De ellas merecen especial mención las derivadas de la distribución normal (χ, t de Student y F de Snedecor), por su importancia
Más detallesTema 6: Modelos de probabilidad.
Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos
Más detallesEjercicios resueltos del capítulo 4
Ejercicios resueltos del capítulo 4 Ejercicios impares resueltos..a Calcular los autovalores y subespacios invariantes asociados a la matriz: A = Calculamos el polinomio característico y resolvemos: λ
Más detallesEXPERIMENTO ALEATORIO
EXPERIMENTO ALEATORIO En concepto de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, en otras palabras,
Más detallesEjercicios de optimización sin restricciones
Ejercicios de optimización sin restricciones Programación Matemática Licenciatura en Ciencias y Técnicas Estadísticas Curso 5/6 Indica la dirección que el método de Newton (sin modificaciones calcularía
Más detalles1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.
Capítulo 5 Campos finitos 5.1. Introducción Presentaremos algunos conceptos básicos de la teoría de los campos finitos. Para mayor información, consultar el texto de McEliece [61] o el de Lidl y Niederreiter
Más detallesAnálisis basado en constituyentes El problema de la ambigüedad Análisis basado en dependencias. Pasos deductivos Ítems finales Ejemplo.
Análisis sintáctico Miguel A. Alonso Carlos Gómez Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Carlos Gómez, Jesús Vilares (Departamento
Más detallesJ. Vilares El Modelo Probabilístico: Características y Modelos Derivados p. 1
El Modelo Probabilístico: Características y Modelos Derivados Jesús Vilares Grupo de Lengua y Sociedad de la Información (LYS) Universidade da Coruña jvilares@udc.es J. Vilares El Modelo Probabilístico:
Más detallesANÁLISIS DE FRECUENCIAS
ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE
Más detallesCadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
Más detallesConjunto R 3 y operaciones lineales en R 3
Conjunto R 3 y operaciones lineales en R 3 Objetivos. Definir el conjunto R 3 y operaciones lineales en R 3. Requisitos. Conjunto de los números reales R, propiedades de las operaciones aritméticas en
Más detallesModelos para variables categóricas
Gabriel V. Montes-Rojas Modelo logit multinomial Supongamos que la variable dependiente toma muchos valores, ej. y = 0, 1, 2..., J, aunque los valores de y no representan ningún orden en particular. Éste
Más detallesESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la Estimación Puntual, que es uno de los tres grandes conjuntos de técnicas que
Más detalles4. Modelos Multivariantes
4. Curso 2011-2012 Estadística Distribución conjunta de variables aleatorias Definiciones (v. a. discretas) Distribución de probabilidad conjunta de dos variables aleatorias X, Y Función de distribución
Más detallesCONTENIDO Prefacio CAPITULO 1: Qué es la investigación de operaciones? CAPITULO 2: Introducción a la programación lineal...
CONTENIDO Prefacio XV CAPITULO 1: Qué es la investigación de operaciones? 1 1.1 Modelos de investigación de operaciones 1 1.2 Solución del modelo de investigación de operaciones.. 4 1.3 Modelos de colas
Más detallesTema 2 Primeros Modelos Computacionales
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple
Más detallesCapítulo 2 Juegos estáticos con información asimétrica
Capítulo Juegos estáticos con información asimétrica January 1, 011 1 El equilibrio Bayesiano Definición 1.1. Un juego Bayesiano G consta de los siguientes elementos, G = (N, A, T, p, u) Un conjunto de
Más detallesEconometría II Grado en finanzas y contabilidad
Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es
Más detallesTagging. POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias.
Tagging POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias PLN Tagging 1 POS Tagging Las palabras, tomadas en forma aislada, son ambiguas
Más detallesCADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico
PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar
Más detallesVARIABLES ALEATORIAS CONTINUAS
VARIABLES ALEATORIAS CONTINUAS El zoo binomial: las probabilidades en la distribución binomial. Tutorial 5, sección 2 X = número de éxitos al repetir n veces un experimento con probabilidaf de éxito p
Más detallesModelos ocultos de Markov para el reconocimiento automático del habla. Una breve introducción
Modelos ocultos de Markov para el reconocimiento automático del habla Una breve introducción Sugerencias y correcciones a: d.milone@ieee.org de marzo de 00 Modelos para el reconocimiento del habla Los
Más detallesRectas y Planos en el Espacio
Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. septiembre 2012 Verónica Briceño V. () Rectas y Planos en el Espacio septiembre 2012 1 / 20 En esta Presentación... En esta
Más detalles0 en otro caso. P (X > 0) P ( 0.5 < X < 0.5) P ( X > 0.25) x 3 si 0 x < 2. 1 si 2 x P(X 1) P(0.5 X 1) P(0.5 < X 1 X < 1) f X (x) = (1+αx) 2
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0.75(1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:
Más detallesRectas y Planos en el Espacio
Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. octubre 2013 En esta Presentación... En esta Presentación veremos: Rectas En esta Presentación... En esta Presentación veremos:
Más detallesSon una clase particular de los algoritmos evolutivos.
Algoritmos Genéticos (AGs) Los AGs son técnicas de resolución para problemas de Búsqueda Optimización Aprendizaje en máquinas Son una clase particular de los algoritmos evolutivos. Los AGs intentan resolver
Más detallesTEMA 4 Modelos discretos elementales. Ecuaciones en diferencias
TEMA 4 Modelos discretos elementales. Ecuaciones en diferencias Chelo Ferreira González Avicenna (980-1037) 1. Introducción. Modelos matemáticos 2. Métodos numéricos. Resolución de sistemas lineales y
Más detallesEl Juego como Problema de Búsqueda
El Juego como Problema de Búsqueda En este algoritmo identificamos dos jugadores: max y min. El objetivo es encontrar la mejor movida para max. Supondremos que max mueve inicialmente y que luego se turnan
Más detallesTópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones
Tópicos Selectos en Aprendizaje Maquinal Guía de Trabajos Prácticos N 1 (2da. parte) Algoritmos para Reconocimiento de Patrones 20 de Octubre de 2010 1. Objetivos Introducir conceptos básicos de aprendizaje
Más detallesTema 15: Combinación de clasificadores
Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial
Más detallesCAPITULO 1: PERSPECTIVE GENERAL DE LA
CONTENIDO CAPITULO 1: PERSPECTIVE GENERAL DE LA INVESTIGACION DE OPERACIONES 1 1.1 Modelos matemáticos de investigación de operaciones. 1 1.2 Técnicas de investigación de operaciones 3 1.3 Modelado de
Más detallesIntroducción. Algoritmos y Complejidad. Algoritmos y Algoritmia. Introducción. Problemas e instancias. Pablo R. Fillottrani
Introducción Introducción Pablo R. Fillottrani Depto. Ciencias e Ingeniería de la Computación Universidad Nacional del Sur Algoritmos y Algoritmia Problemas e instancias Primer Cuatrimestre 2014 Algoritmos
Más detallesNicolás Rivera. 20 de Marzo de 2012
Gramáticas Libre de Contexto Aleatorias. Nicolás Rivera 20 de Marzo de 2012 Pontificia Universidad Católica de Chile Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción
Más detallesGRADO de TELECOMUNICACIONES
GRADO de TELECOMUNICACIONES ESTADISTICA 2009-2010 PRACTICA 2. PROBABILIDAD Y VARIABLES ALEATORIAS OBJETIVOS: Introducción a la probabilidad y a las variables aleatorias 1. Probabilidad 1. Simular 1000
Más detallesProf. Nathaly Moreno Salas Ing. Victor Trejo TURBOMÁQUINAS TÉRMICAS CT-3412
8.3 TURBINAS AXIALES Prof. Nathaly Moreno Salas Ing. Victor Trejo TURBOMÁQUINAS TÉRMICAS CT-34 CONTENIDO Correlación de Rendimiento de Smith (965) Estimación de Rendimiento Correlación de Soderberg Operación
Más detallesEstimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas
Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas Economía Aplicada III (UPV/EHU) OCW 2013 Contents 1 Mínimos Cuadrados en 2 Etapas 2 Mínimos Cuadrados en 2 Etapas El método de Mínimos Cuadrados
Más detallesCÁLCULO DE PROBABILIDADES
CÁLCULO DE PROBABILIDADES Tipo de asignatura: Troncal Anual. Créditos ECTS: 15 I.- INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES. (16 horas presenciales) Tema 1.- La naturaleza del cálculo de probabilidades.
Más detallesEstimación del Probit Ordinal y del Logit Multinomial
Estimación del Probit Ordinal y del Logit Multinomial Microeconomía Cuantitativa R. Mora Departmento de Economía Universidad Carlos III de Madrid Esquema Introducción 1 Introducción 2 3 Introducción El
Más detallesLa Teoría de Hückel: Antecedentes
La Teoría de Hückel: Antecedentes c = Las ecuaciones seculares: s [ H as ESas ] (un conjunto de ecuaciones simultáneas para todos los átomos) s () a, s las etiquetas de los átomos c s los coeficientes
Más detallesProgramación Evolutiva
Introducción a la Computación Evolutiva Quinta Clase: Programación Evolutiva Programación Evolutiva Desarrollada en USA durante los años 60 Autores principales: D. Fogel Aplicada típicamente a: PE tradicional:
Más detallesIdentificación mediante el método de los mínimos cuadrados
Ingeniería de Control Identificación mediante el método de los mínimos cuadrados Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos relevantes aprendidos previamente:
Más detallesÍndice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables
Pág. N. 1 Índice general Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN 1.1 Diseño 1.2 Descriptiva 1.3 Inferencia Diseño Población Muestra Individuo (Observación, Caso, Sujeto) Variables Ejercicios de Población
Más detallesCadenas de Markov y aplicaciones en biología computacional. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica
Cadenas de Markov y aplicaciones en biología computacional Departament d Estadística U.B. Estadística i Bioinformàtica Esquema del tema Modelos de secuencias biológicas Cadenas de Markov Definición y conceptos
Más detalles(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1
Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Septiembre 2012 - Propuesta B 1. a) Despeja la matriz X en la siguiente ecuación
Más detalles