Modelos de Markov Ocultos (HMM)

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Modelos de Markov Ocultos (HMM)"

Transcripción

1 Modelos de Markov Ocultos (HMM) Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 1 )/ 43

2 Índice 1 Procesos de Markov de tiempo discreto Cadenas de Markov Modelos de Markov Ocultos 2 Elementos de un HMM 3 Cálculo de la probabilidad de una observación Procedimiento hacia adelante Procedimiento hacia atrás 4 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi 5 Estimación de parámetros no supervisada Algoritmo de Baum-Welch 6 Estimación de parámetros supervisada Suavizado de los prámetros 7 Tratamiento de las palabras desconocidas Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 2 )/ 43

3 Procesos de Markov de tiempo discreto Cadenas de Markov Cadenas de Markov Estados Q = {1, 2,...,N}, Instantes de tiempo t = 1, 2,...,T a22 2 a11 a21 a32 a33 1 a51 a13 a41 a35 a45 3 a a55 a54 a44 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 3 )/ 43

4 Propiedades Procesos de Markov de tiempo discreto Cadenas de Markov Propiedad del horizonte limitado Una cadena de Markov de orden n es la que utiliza n estados previos para predecir el siguiente estado. Para cadenas de orden 1, n = 1: P(q t = j q t 1 = i, q t 2 = k,...) = P(q t = j q t 1 = i) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 4 )/ 43

5 Propiedades Procesos de Markov de tiempo discreto Cadenas de Markov Propiedad del tiempo estacionario P(q t = j q t 1 = i) es independiente del tiempo. Matriz A = {a ij } de probabilidades de transición independientes del tiempo: a ij = P(q t = j q t 1 = i) = P(j i), 1 i, j N, a ij 0, i, j, N a ij = 1, i. j=1 Vector π = {π i } de probabilidad de ser el estado inicial: π i = P(q 1 = i), π i 0, 1 i N, N π i = 1. i=1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 5 )/ 43

6 Procesos de Markov de tiempo discreto Ejemplo de cadena de Markov Cadenas de Markov 0,4 0,6 0,2 A = {a ij } = 0, 4 0, 3 0, 3 0, 2 0, 6 0, 2 0, 1 0, 1 0, 8 π i = 1 3, 1 i ,3 0,3 0,2 0,1 3 0,1 0,8 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 6 )/ 43

7 Procesos de Markov de tiempo discreto Cadenas de Markov Probabilidad de observar una secuencia de estados T 1 P(o 1, o 2,...,o T ) = π o1 t=1 a oto t+1 = P(q 1 = o 1 )P(q 2 = o 2 q 1 = o 1 )P(q 3 = o 3 q 2 = o 2 )...P(q T = o T q T 1 = o T 1 ) En el ejemplo, la probabilidad de observar la secuencia de estados nublado-soleado-nublado-lluvia (2, 3, 2, 1): P(2, 3, 2, 1) = P(2)P(3 2)P(2 3)P(1 2) = π 2 a 23 a 32 a 21 = 1 0, 2 0, 1 0, 2 3 = 0, Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 7 )/ 43

8 Procesos de Markov de tiempo discreto Modelos de Markov Ocultos Modelos de Markov Ocultos En las cadenas de Markov cada estado se corresponde de manera determinista con un único suceso observable En los HMM la observación es una función probabiĺıstica del estado. Los HMM son un modelo doblemente estocástico, ya que uno de los procesos no se puede observar directamente (está oculto), sino que se puede observar sólo a través de otro conjunto de procesos estocásticos, los cuales producen la secuencia de observaciones. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 8 )/ 43

9 Ejemplo de HMM Procesos de Markov de tiempo discreto Modelos de Markov Ocultos 0,4 0,6 casa 0,6 casa 0,2 0,2 paseo 0,1 paseo 0, ,3 cafe 0,3 0,1 0,3 0,2 0,1 cafe 0,3 casa 0,1 3 paseo 0,7 cafe 0,2 0,8 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 9 )/ 43

10 Procesos de Markov de tiempo discreto Otro ejemplo de HMM Modelos de Markov Ocultos Urna 1 Urna 2 Urna 3 Urna N P(color 1) = b 11 P(color 1) = b 21 P(color 1) = b P(color 1) = b N1 P(color 2) = b 12 P(color 2) = b 22 P(color 2) = b P(color 2) = b N2 P(color 3) = b 13 P(color 3) = b 23 P(color 3) = b P(color 3) = b N3.. P(color M) = b 1M P(color M) = b 2M P(color M) = b 3M... P(color M) = b NM.. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 10 )/ 43

11 Procesos de Markov de tiempo discreto Relación con etiquetación Modelos de Markov Ocultos Bolas = palabras Urnas = etiquetas Secuencia de bolas observadas = frase Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 11 )/ 43

12 H = (π, A, B) Elementos de un HMM Q es el conjunto de estados {1, 2,...,N}. El estado actual en el instante de tiempo t se denota q t. (instante de tiempo = posición de cada palabra). V es el conjunto de los sucesos observables {v 1, v 2,...,v M }. (M= tamaño del diccionario; cada v k es una palabra distinta). Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 12 )/ 43

13 H = (π, A, B) Elementos de un HMM π = {π i } es la distribución de probabilidad del estado inicial π i = P(q 1 = i), π i 0, 1 i N N π i = 1. i=1 A = {a ij } es la distribución de probabilidad de las transiciones entre estados a ij = P(q t = j q t 1 = i) = P(j i), 1 i, j N, 1 t T N a ij = 1, j=1 i. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 13 )/ 43

14 H = (π, A, B) Elementos de un HMM B = {b j (v k )} es el conjunto de probabilidades de emisión, la distribución de probabilidad de los sucesos observables b j (v k ) = P(o t = v k q t = j) = P(v k j), b j (v k ) 0, 1 j N, 1 k M, 1 t T M b j (v k ) = 1, k=1 j Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 14 )/ 43

15 Elementos de un HMM Preguntas fundamentales Dados O = (o 1,o 2,...,o T ) y µ = (π,a,b) cómo calcular de una manera eficiente P(O µ)? (la probabilidad de la secuencia O dado el modelo µ) Dados O = (o 1,o 2,...,o T ) y µ = (π,a,b) cómo elegir la secuencia de estados S = (q 1,q 2,...,q T ) óptima? (la secuencia de estados que mejor explica la de observaciones) Dado O = (o 1,o 2,...,o T ) cómo estimar los parámetros del modelo µ que maximizan P(O µ)? (el modelo que mejor explica los datos observados) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 15 )/ 43

16 Cálculo de la probabilidad de una observación Solución ineficiente para P(O µ) Entrada: O = (o 1, o 2,...,o T ) y µ = (π, A, B) Enumerar todas las posibles secuencias de estados de longitud T Existen N T secuencias distintas S = (q 1, q 2,...,q T ) P(S µ) = π q1 a q1 q 2 a q2 q 3...a qt 1 q T T P(O S, µ) = P(o t q t, µ) = b q1 (o 1 )b q2 (o 2 )...b qt (o T ) t=1 P(O, S µ) = P(S µ)p(o S, µ) P(O µ) = S P(S µ) P(O S, µ) Ineficiencia: (2T 1)N T multiplicaciones y N T 1 sumas Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 16 )/ 43

17 Cálculo de la probabilidad de una observación Procedimiento hacia adelante Procedimiento hacia adelante α t (i) = P(o 1, o 2,...,o t, q t = i µ), 1 Inicialización: α 1 (i) = π i b i (o 1 ), 1 i N. 2 Recurrencia: [ N ] α t+1 (j) = α t (i)a ij b j (o t+1 ), t = 1, 2,...,T 1, 1 j N. i=1 3 Terminación: Eficiencia: O(N 2 T) operaciones P(O µ) = N α T (i). i=1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 17 )/ 43

18 Cálculo de la probabilidad de una observación Procedimiento hacia adelante (a) Detalle de la secuencia de operaciones necesarias para el cálculo de α t+1 (j) (b) Enrejado de T observaciones y N estados (a) (b) Observaciones o1 o2 o3 1 1 a1j ot 2 a2j ot a3j j bj(ot+1) Estados 3 anj N t t+1 α t (i) α t+1 (j) N T Tiempo Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 18 )/ 43

19 Cálculo de la probabilidad de una observación Procedimiento hacia atrás Procedimiento hacia atrás β t (i) = P(o t+1, o t+2,...,o T q t = i, µ), 1 Inicialización: 2 Recurrencia: β T (i) = 1, 1 i N N β t (i) = a ij β t+1 (j)b j (o t+1 ), t = T 1, T 2,...,1, 1 i N j=1 3 Terminación: P(O µ) = Eficiencia: O(N 2 T) operaciones N β 1 (i)π i b i (o 1 ) i=1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 19 )/ 43

20 Cálculo de la probabilidad de una observación Procedimiento hacia atrás Detalle de la secuencia de operaciones necesarias para el cálculo de β t+1 (j) ot+1 ai1 1 b1(ot+1) ai2 2 b2(ot+1) i ai3 3 b3(ot+1) ain N bn(ot+1) t t+1 β t (i) βt+1 (j) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 20 )/ 43

21 Cálculo de la secuencia de estados más probable Solución ineficiente para P(S O, µ) Selección de los estados que son individualmente más probables en cada instante de tiempo γ t (i) = P(q t = i O, µ) = P(q t = i, O µ) P(O µ) = P(q t = i, O µ) N P(q t = j, O µ) j=1 Reconstrucción de la secuencia más probable: = α t(i)β t (i) N α t (j)β t (j) j=1 q t = arg max 1 i N [γ t(i)], 1 t T Inconsistencia: podría ocurrir que dos estados i y j aparecieran contiguos en la secuencia óptima aún cuando a ij = 0 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 21 )/ 43

22 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Solución eficiente para P(S O, µ): el algoritmo de Viterbi δ t (i) = max q 1,q 2,...,q t 1 P(q 1, q 2,...,q t 1, q t = i, o 1, o 2,...,o t µ), δ t (i) almacena la probabilidad del mejor camino que termina en el estado i, teniendo en cuenta las t primeras observaciones [ δ t+1 (j) = max 1 i N δ t(i)a ij ] b j (o t+1 ) La secuencia de estados se construye a través de una traza, que se almacena en las variables ψ t (j), que recuerda el argumento que maximizó esta ecuación para cada instante t y para cada estado j. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 22 )/ 43

23 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi 1 Inicialización: 2 Recurrencia: [ δ t+1 (j) = δ 1 (i) = π i b i (o 1 ), 1 i N. max 1 i N δ t(i)a ij ] b j (o t+1 ), t = 1, 2,...,T 1, 1 j N. ψ t+1 (j) = arg max 1 i N δ t(i)a ij, t = 1, 2,...,T 1, 1 j N. 3 Terminación: q T = arg max 1 i N δ T(i). 4 Construcción hacia atrás de la secuencia de estados: q t = ψ t+1 (q t+1), t = T 1, T 2,...,1. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 23 )/ 43

24 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Observaciones v1 v1 v1 v1 v2 v2 v1 v2 1 Estados Tiempo Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 24 )/ 43

25 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 1 (1) = π 1 b 1 (v 1 ) = (0, 25)(0, 50) δ 1 (2) = π 2 b 2 (v 1 ) = (0, 50)(0, 25) δ 1 (3) = π 3 b 3 (v 1 ) = (0, 25)(0, 75) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43

26 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 2 (1) = max [δ 1 (1) a 11, δ 1 (2) a 21, δ 1 (3) a 31 ] b 1 (v 1 ) = (0, 25) (0, 50) 2 (0, 75) ψ 2 (1) = 3 δ 2 (2) = max [δ 1 (1) a 12, δ 1 (2) a 22, δ 1 (3) a 32 ] b 2 (v 1 ) = (0, 25) 2 (0, 50) (0, 75) ψ 2 (2) = 3 δ 2 (3) = max [δ 1 (1) a 13, δ 1 (2) a 23, δ 1 (3) a 33 ] b 3 (v 1 ) = (0, 25) (0, 50) (0, 75) 2 ψ 2 (3) = 2 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43

27 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 3 (1) = max [δ 2 (1) a 11, δ 2 (2) a 21, δ 2 (3) a 31 ] b 1 (v 1 ) = (0, 25) (0, 50) 3 (0, 75) 2 ψ 3 (1) = 3 δ 3 (2) = max [δ 2 (1) a 12, δ 2 (2) a 22, δ 2 (3) a 32 ] b 2 (v 1 ) = (0, 25) 2 (0, 50) 2 (0, 75) 2 ψ 3 (2) = 3 δ 3 (3) = max [δ 2 (1) a 13, δ 2 (2) a 23, δ 2 (3) a 33 ] b 3 (v 1 ) = (0, 25) (0, 50) 3 (0, 75) 2 ψ 3 (3) = 1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43

28 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 4 (1) = max [δ 3 (1) a 11, δ 3 (2) a 21, δ 3 (3) a 31 ] b 1 (v 1 ) = (0, 25) (0, 50) 5 (0, 75) 2 ψ 4 (1) = 3 δ 4 (2) = max [δ 3 (1) a 12, δ 3 (2) a 22, δ 3 (3) a 32 ] b 2 (v 1 ) = (0, 25) 2 (0, 50) 4 (0, 75) 2 ψ 4 (2) = 3 δ 4 (3) = max [δ 3 (1) a 13, δ 3 (2) a 23, δ 3 (3) a 33 ] b 3 (v 1 ) = (0, 25) (0, 50) 4 (0, 75) 3 ψ 4 (3) = 1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43

29 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 5 (1) = max [δ 4 (1) a 11, δ 4 (2) a 21, δ 4 (3) a 31 ] b 1 (v 2 ) = (0, 25) (0, 50) 6 (0, 75) 3 ψ 5 (1) = 3 δ 5 (2) = max [δ 4 (1) a 12, δ 4 (2) a 22, δ 4 (3) a 32 ] b 2 (v 2 ) = (0, 25) (0, 50) 5 (0, 75) 4 ψ 5 (2) = 3 δ 5 (3) = max [δ 4 (1) a 13, δ 4 (2) a 23, δ 4 (3) a 33 ] b 3 (v 2 ) = (0, 25) 2 (0, 50) 6 (0, 75) 2 ψ 5 (3) = 1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43

30 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 6 (1) = max [δ 5 (1) a 11, δ 5 (2) a 21, δ 5 (3) a 31 ] b 1 (v 2 ) = (0, 25) 2 (0, 50) 7 (0, 75) 3 ψ 6 (1) = 1 δ 6 (2) = max [δ 5 (1) a 12, δ 5 (2) a 22, δ 5 (3) a 32 ] b 2 (v 2 ) = (0, 25) 2 (0, 50) 5 (0, 75) 5 ψ 6 (2) = 2 δ 6 (3) = max [δ 5 (1) a 13, δ 5 (2) a 23, δ 5 (3) a 33 ] b 3 (v 2 ) = (0, 25) 2 (0, 50) 5 (0, 75) 5 ψ 6 (3) = 2 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43

31 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 7 (1) = max [δ 6 (1) a 11, δ 6 (2) a 21, δ 6 (3) a 31 ] b 1 (v 1 ) = (0, 25) 2 (0, 50) 7 (0, 75) 5 ψ 7 (1) = 3 δ 7 (2) = max [δ 6 (1) a 12, δ 6 (2) a 22, δ 6 (3) a 32 ] b 2 (v 1 ) = (0, 25) 3 (0, 50) 6 (0, 75) 5 ψ 7 (2) = 3 δ 7 (3) = max [δ 6 (1) a 13, δ 6 (2) a 23, δ 6 (3) a 33 ] b 3 (v 1 ) = (0, 25) 2 (0, 50) 5 (0, 75) 7 ψ 7 (3) = 2 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43

32 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Ejemplo de funcionamiento del algoritmo de Viterbi Dado el modelo µ = (π, A, B) con Q = {1, 2, 3}, V = {v 1, v 2 }, π = 0, 25 0, 50 0, 25 A = 0, 25 0, 25 0, , 25 0, 75 0, 50 0, 50 0 B = 0, 50 0, 50 0, 25 0, 75 0, 75 0, 25 los cálculos para encontrar la secuencia de estados más probable dada la observación O = (v 1, v 1, v 1, v 1, v 2, v 2, v 1, v 2 ) de longitud T = 8 son δ 8 (1) = max [δ 7 (1) a 11, δ 7 (2) a 21, δ 7 (3) a 31 ] b 1 (v 2 ) = (0, 25) 2 (0, 50) 7 (0, 75) 7 ψ 8 (1) = 3 δ 8 (2) = max [δ 7 (1) a 12, δ 7 (2) a 22, δ 7 (3) a 32 ] b 2 (v 2 ) = (0, 25) 2 (0, 50) 6 (0, 75) 8 ψ 8 (2) = 3 δ 8 (3) = max [δ 7 (1) a 13, δ 7 (2) a 23, δ 7 (3) a 33 ] b 3 (v 2 ) = (0, 25) 3 (0, 50) 8 (0, 75) 5 ψ 8 (3) = 1 q8 = 2 y al reconstruir hacia atrás la secuencia de estados obtenemos S = (2, 3, 1, 3, 2, 2, 3, 2) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 25 )/ 43

33 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi El algoritmo de Viterbi aplicado a la etiquetación palabra 1 palabra 2 palabra 3 palabra T preposición adjetivo adjetivo numeral etiqueta 0 etiqueta 0 sustantivo preposición adverbio pronombre sustantivo verbo sustantivo verbo Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 26 )/ 43

34 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Viterbi para HMM de orden 2 (trigramas) 1 Inicialización: δ 1 (i) = π i b i (o 1 ), 1 i N. 2 Recurrencia: [ δ t+1 (j, k) = δ 2 (i, j) = δ 1 (i)a ij b j (o 2 ), 1 i, j N. max 1 i N δ t(i, j)a ijk ] b k (o t+1 ), t = 2, 3,...,T 1, 1 j, k ψ t+1 (j, k) = arg max 1 i N δ t(i, j)a ijk, t = 2, 3,...,T 1, 1 j, k N. 3 Terminación: (qt 1, q T ) = arg max δ T(j, k). 1 j,k N 4 Construcción hacia atrás de la secuencia de estados: q t = ψ t+2 (q t+1, q t+2), t = T 2, T 3,...,1. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 27 )/ 43

35 Cálculo de la secuencia de estados más probable Algoritmo de Viterbi Algoritmo de Viterbi con logaritmos y sumas 0 Preproceso: π i = log (π i ), ã ij = log (a ij ), b i (o t ) = log [b i (o t )] 1 Inicialización: δ 1 (i) = log [δ 1 (i)] = π i + b i (o 1 ), 1 i N. 2 Recurrencia: [ ] δ t+1 (j) = log[δ t+1 (j)] = max [ δ t (i)+ã ij ] + b j (o t+1 ), t = 1, 2,...,T 1 i N ψ t+1 (j) = arg max 1 i N [ δ t (i)+ã ij ], t = 1, 2,...,T 1, 1 j N. 3 Terminación: q T = arg max δ T (i). 1 i N 4 Construcción hacia atrás de la secuencia de estados: q t = ψ t+1 (q t+1), t = T 1, T 2,...,1. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 28 )/ 43

36 Estimación de parámetros no supervisada Estimación de parámetros Encontrar un modelo µ = (π, A, B) que maximice P(O µ) Estimación no supervisada Estimación supervisada Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 29 )/ 43

37 Estimación de parámetros no supervisada Algoritmo de Baum-Welch Estimación no supervisada: Algoritmo de Baum-Welch El algoritmo de Baum-Welch es un caso especial del algoritmo EM (Expectation-Maximization, maximización de la esperanza) ξ t (i, j) = P(q t = i, q t+1 = j O, µ) es la probabilidad de estar en el estado i en el instante t y en el estado j en el instante t + 1 ξ t (i, j) = P(q t = i, q t+1 = j, O µ) P(O µ) = α t(i)a ij b j (o t+1 )β t+1 (j) P(O µ) = α t (i)a ij b j (o t+1 )β t+1 (j). N N α t (k)a kl b l (o t+1 )β t+1 (l) k=1 l=1 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 30 )/ 43

38 Estimación de parámetros no supervisada Algoritmo de Baum-Welch ot ot i aij bj(ot+1) j 3 N a t (i) b (j) t+1 N t 1 t t+1 t+2 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 31 )/ 43

39 Estimación de parámetros no supervisada Algoritmo de Baum-Welch Retomamos γ t (i) y lo relacionamos con ξ t (i, j): γ t (i) = N ξ t (i, j). j=1 Interpretación: T 1 t=1 T 1 t=1 γ t (i) = número esperado de transiciones desde el estado i ξ t (i, j) = número esperado de transiciones desde el estado i al estado j Utilizando estas fórmulas, se puede dar un método general para reestimar los parámetros de un HMM. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 32 )/ 43

40 Estimación de parámetros no supervisada Algoritmo de Baum-Welch π i = frecuencia esperada de estar en el estado i en el el instante 1 = γ 1 (i) ā ij = no esperado de transiciones desde el estado i al estado j n o esperado de transiciones desde el estado i = T 1 t=1 T 1 ξ t (i, j) γ t (i) t=1 b j (v k ) = no esperado de veces en el estado j observando el símbolo v k n o esperado de veces en el estado j = T t=1 γ t(j) tal que o t = v k T t=1 γ t(j) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 33 )/ 43

41 Estimación de parámetros no supervisada Algoritmo iterativo Algoritmo de Baum-Welch Definimos un modelo incial µ = (π, A, B) Calculamos µ = ( π, Ā, B) mediante las ecuaciones de la transparencia anterior Reemplazamos µ por µ y repetimos la reestimación de los parámetros un cierto número de veces, hasta que no se aprecie ninguna ganancia significativa entre P(O µ) y P(O µ) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 34 )/ 43

42 Problemas Estimación de parámetros no supervisada Algoritmo de Baum-Welch Muy sensible a las condiciones de inicialización del modelo Una inicialización incorrecta puede llevar a un máximo local Solución para π y A: estimación inicial equiprobable ligeramente modificada Solución para B: Método de Jelinek, regla de Bayes suponiendo que todas las etiquetas que aparecen en el diccionario para una palabra dada son equiprobables Método de Kupiec, agrupa las palabras en clases de ambigüedad Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 35 )/ 43

43 Estimación de parámetros supervisada Estimación de parámetros supervisada Corpus etiquetado Estimación de máxima verosimilitud (maximum likelihood) π i = no de frases que comienzan por etiqueta t i n o de frases a ij = C(ti t j ) C(t i ) b j (w k ) = C(wk t j ) C(t j ) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 36 )/ 43

44 Estimación de parámetros supervisada Técnicas de suavizado (smoothing) Suavizado de los prámetros Los fenómenos que no aparecen en el corpus de entreniento dan lugar a ceros: necesidad de suavizar los parámetros. Generalmente el suavizado es lo que marca la diferencia de rendimiento entre etiquetadores probabiĺısticos. Suavizado de Laplace (add-one) Descuento de Good-Turing Interpolación Backoff Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 37 )/ 43

45 Estimación de parámetros supervisada Suavizado de Laplace (add-one) Suavizado de los prámetros Añadir 1 a todas las cuentas P(x) = C(x) N donde x es un token (palabra, etiqueta, bigrama (de palabras o etiquetas), trigrama,...) y N es el numero total de tokens en el texto P Laplace (x) = C(x) + 1 N + V donde V es el tamaño del vocabulario de tokens Alternativamente C N (x) = (C(x) + 1) N + V Inconveniente: Si V es grande y/o N pequeño deriva demasiada masa de probabilidad a tokens con pocas o ninguna apariciones Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 38 )/ 43

46 Estimación de parámetros supervisada Suavizado de Good-Turing Suavizado de los prámetros Usa las cuentas de los tokens que han sido observados una sola vez para estimar la cuenta de aquellos que nunca han sido observados Generaliza este razonamiento a los tokens observados c veces N c es el número de tokens (etiquetas, bigramas,...) con cuenta c: N c = x:c(x)=c Reemplaza la cuenta c por la cuenta suavizada c 1 c = (c + 1) N c+1 N c En la práctica se aproxima N 0 mediante N, sólo se usa c para valores pequeños de c y se usan aproximaciones para el caso de que N c+1 = 0 Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 39 )/ 43

47 Interpolación Estimación de parámetros supervisada Suavizado de los prámetros P(z x, y) = λ 1 P(z x, y) + λ 2 P(z y) + λ 3 P(z) λ i = 1 Problema: calcular valores adecuados para λ i i Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 40 )/ 43

48 Backoff Estimación de parámetros supervisada Suavizado de los prámetros P (z x, y) if C(x, y, z) > 0 P katz (z x, y) = α(x, y) P katz (z y) else if C(y, z) > 0 P (z) otherwise { P P katz (z y) = (z y) if C(y, z) > 0 α(y) P katz (z) otherwise donde los P son probabilizadas suavizadas al estilo Good-Turing y los valores de los α deben ser calculados para garantizar que la masa total de probabilidad sea 1. Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 41 )/ 43

49 Tratamiento de las palabras desconocidas Tratamiento de las palabras desconocidas Las probabilidades de emitir una palabra deconocida l 1...l n con etiqueta t se determinana en función de sus terminaciones P(l n i+1,...,l n t) = P(l n i+1,...,l n )P(t l n i+1,...,l n ) P(t) P(t l n i+1,...,l n ) = ˆp(t l n i+1,...,l n ) + θ i P(t l n i+2,...,l n ) 1 + θ i ˆp(t l n i+1,...,l n ) = C(t, l n i+1,...,l n ) C(l n i+1,...,l n ) Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 42 )/ 43

50 Tratamiento de las palabras desconocidas Árbol de sufijos Las etiquetas posibles para cada sufijo se determinan a partir del árbol de letras de los sufijos Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento Modelos de de Markov Computación, Ocultos (HMM) Facultad de Informática, Universidade da Coruña 43 )/ 43

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción

Más detalles

Etiquetado gramatical

Etiquetado gramatical Etiquetado gramatical ITALICA Universidad de Sevilla José A. Troyano Índice Introducción Etiquetado con el modelo de Markov Etiquetado con el modelo de Markov oculto Etiquetado transformacional Precisión

Más detalles

Criterio de implementación de un HMM usando LogProb. Jorge Luis Guevara Díaz Escuela de Informática

Criterio de implementación de un HMM usando LogProb. Jorge Luis Guevara Díaz Escuela de Informática Criterio de implementación de un HMM usando LogProb Jorge Luis Guevara Díaz Escuela de Informática Introducción Introducción Modelos Ocultos de Markov - HMM Motivación Definición Algoritmo forward-backward

Más detalles

2 de mar de 2004 Codificación de imágenes y v ideo

2 de mar de 2004 Codificación de imágenes y v ideo Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13 Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud

Más detalles

PROCESOS ESTOCÁSTICOS

PROCESOS ESTOCÁSTICOS Capítulo 10 Cadenas de Markov PROCESOS ESTOCÁSTICOS Una sucesión de observaciones X 1,X 2,... se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero

Más detalles

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Entrenamiento discriminativo de componentes principales. ocultas de Markov aplicado a detección de estados funcionales.

Entrenamiento discriminativo de componentes principales. ocultas de Markov aplicado a detección de estados funcionales. Entrenamiento discriminativo de componentes principales ocultas de Markov aplicado a detección de estados funcionales en bioseñales Bonie Johana Restrepo Cuestas Universidad Tecnológica de Pereira Facultad

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

Filtrado e identificación de parámetros mediante métodos bayesianos

Filtrado e identificación de parámetros mediante métodos bayesianos Filtrado e identificación de parámetros mediante métodos bayesianos Guillermo La Mura a, Eduardo Serrano b,d, Ricardo Sirne c a Escuela de Ciencia y Tecnología - UNSAM b Centro de Matemática Aplicada -

Más detalles

METODOS ESTADÍSTICOS

METODOS ESTADÍSTICOS METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.

Más detalles

El Algoritmo E-M. José Antonio Camarena Ibarrola

El Algoritmo E-M. José Antonio Camarena Ibarrola El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas

Más detalles

Aprendizaje de etiquetas basado en transformaciones

Aprendizaje de etiquetas basado en transformaciones Aprendizaje de etiquetas basado en transformaciones El etiquetador de Brill Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel

Más detalles

Generación de variables aleatorias continuas Método de rechazo

Generación de variables aleatorias continuas Método de rechazo Generación de variables aleatorias continuas Método de rechazo Georgina Flesia FaMAF 18 de abril, 2013 Método de Aceptación y Rechazo Repaso Se desea simular una v. a. X discreta, con probabilidad de masa

Más detalles

Redes de Petri Estocásticas (II)

Redes de Petri Estocásticas (II) Redes de Petri Estocásticas (II) Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Formalmente una red de Petri estocástica es por tanto una 7 upla SPN=(P,T,I(),O(),H(),W(),Mo)

Más detalles

AUTÓMATAS PROBABILÍSTICOS O ESTOCÁSTICOS

AUTÓMATAS PROBABILÍSTICOS O ESTOCÁSTICOS AUTÓMATAS PROBABILÍSTICOS O ESTOCÁSTICOS Autómatas Probabilísticos En su funcionamiento interviene el concepto de probabilidad, asociada a que se produzca una determinada transición. Son autómatas finitos

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Modelos Estocásticos I Tercer Examen Parcial Respuestas Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado

Más detalles

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

Introducción al Procesamiento de Lenguaje Natural. Grupo de PLN - InCo

Introducción al Procesamiento de Lenguaje Natural. Grupo de PLN - InCo Introducción al Procesamiento de Lenguaje Natural Grupo de PLN - InCo Modelos de Lenguaje But it must be recognized that the notion probability of a sentence is an entirely useless one, under any known

Más detalles

Generación de variables aleatorias discretas Método de la Transformada Inversa

Generación de variables aleatorias discretas Método de la Transformada Inversa Generación de variables aleatorias discretas Método de la Transformada Inversa Patricia Kisbye FaMAF 30 de marzo, 2010 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:

Más detalles

USO DEL FILTRO DE KALMAN PARA ESTIMAR LA TENDENCIA DE UNA SERIE

USO DEL FILTRO DE KALMAN PARA ESTIMAR LA TENDENCIA DE UNA SERIE DIVISIÓN ECONÓMICA DEPARTAMENTO DE INVESTIGACIONES ECONÓMICAS INFORME TÉCNICO DIE-87-003-IT USO DEL FILTRO DE KALMAN PARA ESTIMAR LA TENDENCIA DE UNA SERIE Ana Cecilia Kikut V. OCTUBRE, 003 Entre los diferentes

Más detalles

Ejercicio 1. Ejercicio 2

Ejercicio 1. Ejercicio 2 Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función

Más detalles

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 5 Simulación

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 5 Simulación OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA Tema 5 Simulación ORGANIZACIÓN DEL TEMA Sesiones: Introducción Ejemplos prácticos Procedimiento y evaluación de resultados INTRODUCCIÓN Simulación: Procedimiento

Más detalles

Procesos estocásticos Cadenas de Márkov

Procesos estocásticos Cadenas de Márkov Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el

Más detalles

LISTA DE SÍMBOLOS. Capítulo 2 EJEMPLOS Y TEORIA DE LAS VIBRACIONES PARAMÉTRICAS 2.1 Introducción T - Periodo Ω - Frecuencia a- parámetro b- parámetro

LISTA DE SÍMBOLOS. Capítulo 2 EJEMPLOS Y TEORIA DE LAS VIBRACIONES PARAMÉTRICAS 2.1 Introducción T - Periodo Ω - Frecuencia a- parámetro b- parámetro LISTA DE SÍMBOLOS Capítulo 2 EJEMPLOS Y TEORIA DE LAS VIBRACIONES PARAMÉTRICAS 2.1 Introducción T - Periodo Ω - Frecuencia a- parámetro b- parámetro 2.1.1 Rigidez Flexiva que Difiere en dos Ejes x- Desplazamiento

Más detalles

Clasificación. Aurea Grané. Análisis Discriminante

Clasificación. Aurea Grané. Análisis Discriminante Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis discriminante Análisis Discriminante y Clasificación Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid Supongamos

Más detalles

TEMA 3. Algunos modelos de probabilidad de tipo discreto. 3.1 Al finalizar el tema el alumno debe conocer...

TEMA 3. Algunos modelos de probabilidad de tipo discreto. 3.1 Al finalizar el tema el alumno debe conocer... TEMA 3. Algunos modelos de probabilidad de tipo discreto En este capítulo se abordan «familias» muy específicas de probabilidad, que con cierta frecuencia se nos presentan en el mundo real. Van a ser distribuciones

Más detalles

Teoría de grafos y optimización en redes

Teoría de grafos y optimización en redes Teoría de grafos y optimización en redes José María Ferrer Caja Universidad Pontificia Comillas Definiciones básicas Grafo: Conjunto de nodos (o vértices) unidos por aristas G = (V,E) Ejemplo V = {,,,,

Más detalles

Determinación del tamaño de muestra (para una sola muestra)

Determinación del tamaño de muestra (para una sola muestra) STATGRAPHICS Rev. 4/5/007 Determinación del tamaño de muestra (para una sola muestra) Este procedimiento determina un tamaño de muestra adecuado para la estimación o la prueba de hipótesis con respecto

Más detalles

ANALISIS DE FRECUENCIA EN HIDROLOGIA JULIAN DAVID ROJO HERNANDEZ

ANALISIS DE FRECUENCIA EN HIDROLOGIA JULIAN DAVID ROJO HERNANDEZ ANALISIS DE FRECUENCIA EN HIDROLOGIA JULIAN DAVID ROJO HERNANDEZ Probabilidad - Período de retorno y riesgo La probabilidad de ocurrencia de un fenómeno en hidrología puede citarse de varias Formas: El

Más detalles

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad II Algunas distribuciones notables Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid La distribución normal f (x; µ, σ) = 1 σ 2π e 1 2( x µ σ ) 2, x R, µ R, σ > 0 E(X

Más detalles

Bases Formales de la Computación: Redes de Bayes (segunda parte)

Bases Formales de la Computación: Redes de Bayes (segunda parte) Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes

Más detalles

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas Distribuciones Probabilísticas Curso de Estadística TAE,005 J.J. Gómez Cadenas Distribución Binomial Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo

Más detalles

Modelo del Lenguaje. N-gramas.

Modelo del Lenguaje. N-gramas. Modelo del Lenguaje. N-gramas. Introducción a las Tecnologías del Habla 2 o cuatrimestre 214 Agustín Gravano Las acciones se... Predicción de palabras Predicción de palabras Las acciones se derrumbaron

Más detalles

Métodos directos para resolver sistemas de ecuaciones lineales

Métodos directos para resolver sistemas de ecuaciones lineales Métodos directos para resolver sistemas de ecuaciones lineales Problemas para examen Si en algún problema se pide calcular el número de flops (operaciones aritméticas con punto flotante), entonces en el

Más detalles

Preparación de los datos de entrada

Preparación de los datos de entrada Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:

Más detalles

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación

Más detalles

Introducción a los códigos compresores

Introducción a los códigos compresores Introducción a los códigos compresores Parte I de la Lección 2, Compresores sin pérdidas, de CTI Ramiro Moreno Chiral Dpt. Matemàtica (UdL) Febrero de 2010 Ramiro Moreno (Matemàtica, UdL) Introducción

Más detalles

Cálculo de Probabilidades II Preguntas Tema 1

Cálculo de Probabilidades II Preguntas Tema 1 Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga

Más detalles

Programación y Métodos Numéricos Errores de de redondeo en en la la representación de de números reales: INTRODUCCIÓN Y MOTIVACIÓN

Programación y Métodos Numéricos Errores de de redondeo en en la la representación de de números reales: INTRODUCCIÓN Y MOTIVACIÓN Programación y Métodos Numéricos Errores de de redondeo en en la la representación de de números reales: INTRODUCCIÓN Y MOTIVACIÓN Carlos Conde LázaroL Arturo Hidalgo LópezL Alfredo López L Benito Febrero,

Más detalles

Clustering para la inicialización de HMM en RAH. Jorge Luis Guevara Díaz

Clustering para la inicialización de HMM en RAH. Jorge Luis Guevara Díaz Clustering para la inicialización de HMM en RAH Jorge Luis Guevara Díaz Introducción Introducción Definicion de RAH Formulación Arquitectura Extracción de características Modelo acústico Modelo del lenguaje

Más detalles

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES UNIDD 4 RESOLUCIÓN DE SISTEMS MEDINTE DETERMINNTES Página 00 Resolución de sistemas mediante determinantes x y Resuelve, aplicando x = e y =, los siguientes sistemas de ecuaciones: x 5y = 7 5x + 4y = 6x

Más detalles

PRÁCTICA I. Ejercicios Teóricos

PRÁCTICA I. Ejercicios Teóricos PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las

Más detalles

10.1 Enfoque Bayesiano del problema de la estimación

10.1 Enfoque Bayesiano del problema de la estimación Chapter 10 Estimadores de Bayes 10.1 Enfoque Bayesiano del problema de la estimación puntual Consideremos nuevamente un problema estadístico de estimación paramétrico. Se observa un vector X = X 1,...,

Más detalles

CC40A Complejidad de Kolmogorov

CC40A Complejidad de Kolmogorov CC40A Complejidad de Kolmogorov Ricardo Baeza Yates, Rodrigo Paredes Dept. de Ciencias de la Computación, Universidad de Chile. 1. Definiciones Básicas La Complejidad de Kolmogorov (CK) de un string s

Más detalles

Tema 6: Introducción a la Inferencia Bayesiana

Tema 6: Introducción a la Inferencia Bayesiana Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de

Más detalles

El Movimiento Browniano en la modelización del par EUR/USD

El Movimiento Browniano en la modelización del par EUR/USD MÁSTER UNIVERSITARIO EN DIRECCIÓN FINANCIERA Y FISCAL TESINA FIN DE MÁSTER El Movimiento Browniano en la modelización del par EUR/USD Autor: José Vicente González Cervera Directores: Dr. Juan Carlos Cortés

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE Estudiamos algunos ejemplos de distribuciones de variables aleatorias continuas. De ellas merecen especial mención las derivadas de la distribución normal (χ, t de Student y F de Snedecor), por su importancia

Más detalles

Tema 6: Modelos de probabilidad.

Tema 6: Modelos de probabilidad. Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos

Más detalles

Ejercicios resueltos del capítulo 4

Ejercicios resueltos del capítulo 4 Ejercicios resueltos del capítulo 4 Ejercicios impares resueltos..a Calcular los autovalores y subespacios invariantes asociados a la matriz: A = Calculamos el polinomio característico y resolvemos: λ

Más detalles

EXPERIMENTO ALEATORIO

EXPERIMENTO ALEATORIO EXPERIMENTO ALEATORIO En concepto de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, en otras palabras,

Más detalles

Ejercicios de optimización sin restricciones

Ejercicios de optimización sin restricciones Ejercicios de optimización sin restricciones Programación Matemática Licenciatura en Ciencias y Técnicas Estadísticas Curso 5/6 Indica la dirección que el método de Newton (sin modificaciones calcularía

Más detalles

1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.

1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo. Capítulo 5 Campos finitos 5.1. Introducción Presentaremos algunos conceptos básicos de la teoría de los campos finitos. Para mayor información, consultar el texto de McEliece [61] o el de Lidl y Niederreiter

Más detalles

Análisis basado en constituyentes El problema de la ambigüedad Análisis basado en dependencias. Pasos deductivos Ítems finales Ejemplo.

Análisis basado en constituyentes El problema de la ambigüedad Análisis basado en dependencias. Pasos deductivos Ítems finales Ejemplo. Análisis sintáctico Miguel A. Alonso Carlos Gómez Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Carlos Gómez, Jesús Vilares (Departamento

Más detalles

J. Vilares El Modelo Probabilístico: Características y Modelos Derivados p. 1

J. Vilares El Modelo Probabilístico: Características y Modelos Derivados p. 1 El Modelo Probabilístico: Características y Modelos Derivados Jesús Vilares Grupo de Lengua y Sociedad de la Información (LYS) Universidade da Coruña jvilares@udc.es J. Vilares El Modelo Probabilístico:

Más detalles

ANÁLISIS DE FRECUENCIAS

ANÁLISIS DE FRECUENCIAS ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE

Más detalles

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega

Más detalles

Conjunto R 3 y operaciones lineales en R 3

Conjunto R 3 y operaciones lineales en R 3 Conjunto R 3 y operaciones lineales en R 3 Objetivos. Definir el conjunto R 3 y operaciones lineales en R 3. Requisitos. Conjunto de los números reales R, propiedades de las operaciones aritméticas en

Más detalles

Modelos para variables categóricas

Modelos para variables categóricas Gabriel V. Montes-Rojas Modelo logit multinomial Supongamos que la variable dependiente toma muchos valores, ej. y = 0, 1, 2..., J, aunque los valores de y no representan ningún orden en particular. Éste

Más detalles

ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.

ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la Estimación Puntual, que es uno de los tres grandes conjuntos de técnicas que

Más detalles

4. Modelos Multivariantes

4. Modelos Multivariantes 4. Curso 2011-2012 Estadística Distribución conjunta de variables aleatorias Definiciones (v. a. discretas) Distribución de probabilidad conjunta de dos variables aleatorias X, Y Función de distribución

Más detalles

CONTENIDO Prefacio CAPITULO 1: Qué es la investigación de operaciones? CAPITULO 2: Introducción a la programación lineal...

CONTENIDO Prefacio CAPITULO 1: Qué es la investigación de operaciones? CAPITULO 2: Introducción a la programación lineal... CONTENIDO Prefacio XV CAPITULO 1: Qué es la investigación de operaciones? 1 1.1 Modelos de investigación de operaciones 1 1.2 Solución del modelo de investigación de operaciones.. 4 1.3 Modelos de colas

Más detalles

Tema 2 Primeros Modelos Computacionales

Tema 2 Primeros Modelos Computacionales Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple

Más detalles

Capítulo 2 Juegos estáticos con información asimétrica

Capítulo 2 Juegos estáticos con información asimétrica Capítulo Juegos estáticos con información asimétrica January 1, 011 1 El equilibrio Bayesiano Definición 1.1. Un juego Bayesiano G consta de los siguientes elementos, G = (N, A, T, p, u) Un conjunto de

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es

Más detalles

Tagging. POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias.

Tagging. POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias. Tagging POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias PLN Tagging 1 POS Tagging Las palabras, tomadas en forma aislada, son ambiguas

Más detalles

CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico

CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar

Más detalles

VARIABLES ALEATORIAS CONTINUAS

VARIABLES ALEATORIAS CONTINUAS VARIABLES ALEATORIAS CONTINUAS El zoo binomial: las probabilidades en la distribución binomial. Tutorial 5, sección 2 X = número de éxitos al repetir n veces un experimento con probabilidaf de éxito p

Más detalles

Modelos ocultos de Markov para el reconocimiento automático del habla. Una breve introducción

Modelos ocultos de Markov para el reconocimiento automático del habla. Una breve introducción Modelos ocultos de Markov para el reconocimiento automático del habla Una breve introducción Sugerencias y correcciones a: d.milone@ieee.org de marzo de 00 Modelos para el reconocimiento del habla Los

Más detalles

Rectas y Planos en el Espacio

Rectas y Planos en el Espacio Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. septiembre 2012 Verónica Briceño V. () Rectas y Planos en el Espacio septiembre 2012 1 / 20 En esta Presentación... En esta

Más detalles

0 en otro caso. P (X > 0) P ( 0.5 < X < 0.5) P ( X > 0.25) x 3 si 0 x < 2. 1 si 2 x P(X 1) P(0.5 X 1) P(0.5 < X 1 X < 1) f X (x) = (1+αx) 2

0 en otro caso. P (X > 0) P ( 0.5 < X < 0.5) P ( X > 0.25) x 3 si 0 x < 2. 1 si 2 x P(X 1) P(0.5 X 1) P(0.5 < X 1 X < 1) f X (x) = (1+αx) 2 PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0.75(1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:

Más detalles

Rectas y Planos en el Espacio

Rectas y Planos en el Espacio Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. octubre 2013 En esta Presentación... En esta Presentación veremos: Rectas En esta Presentación... En esta Presentación veremos:

Más detalles

Son una clase particular de los algoritmos evolutivos.

Son una clase particular de los algoritmos evolutivos. Algoritmos Genéticos (AGs) Los AGs son técnicas de resolución para problemas de Búsqueda Optimización Aprendizaje en máquinas Son una clase particular de los algoritmos evolutivos. Los AGs intentan resolver

Más detalles

TEMA 4 Modelos discretos elementales. Ecuaciones en diferencias

TEMA 4 Modelos discretos elementales. Ecuaciones en diferencias TEMA 4 Modelos discretos elementales. Ecuaciones en diferencias Chelo Ferreira González Avicenna (980-1037) 1. Introducción. Modelos matemáticos 2. Métodos numéricos. Resolución de sistemas lineales y

Más detalles

El Juego como Problema de Búsqueda

El Juego como Problema de Búsqueda El Juego como Problema de Búsqueda En este algoritmo identificamos dos jugadores: max y min. El objetivo es encontrar la mejor movida para max. Supondremos que max mueve inicialmente y que luego se turnan

Más detalles

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones Tópicos Selectos en Aprendizaje Maquinal Guía de Trabajos Prácticos N 1 (2da. parte) Algoritmos para Reconocimiento de Patrones 20 de Octubre de 2010 1. Objetivos Introducir conceptos básicos de aprendizaje

Más detalles

Tema 15: Combinación de clasificadores

Tema 15: Combinación de clasificadores Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial

Más detalles

CAPITULO 1: PERSPECTIVE GENERAL DE LA

CAPITULO 1: PERSPECTIVE GENERAL DE LA CONTENIDO CAPITULO 1: PERSPECTIVE GENERAL DE LA INVESTIGACION DE OPERACIONES 1 1.1 Modelos matemáticos de investigación de operaciones. 1 1.2 Técnicas de investigación de operaciones 3 1.3 Modelado de

Más detalles

Introducción. Algoritmos y Complejidad. Algoritmos y Algoritmia. Introducción. Problemas e instancias. Pablo R. Fillottrani

Introducción. Algoritmos y Complejidad. Algoritmos y Algoritmia. Introducción. Problemas e instancias. Pablo R. Fillottrani Introducción Introducción Pablo R. Fillottrani Depto. Ciencias e Ingeniería de la Computación Universidad Nacional del Sur Algoritmos y Algoritmia Problemas e instancias Primer Cuatrimestre 2014 Algoritmos

Más detalles

Nicolás Rivera. 20 de Marzo de 2012

Nicolás Rivera. 20 de Marzo de 2012 Gramáticas Libre de Contexto Aleatorias. Nicolás Rivera 20 de Marzo de 2012 Pontificia Universidad Católica de Chile Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción

Más detalles

GRADO de TELECOMUNICACIONES

GRADO de TELECOMUNICACIONES GRADO de TELECOMUNICACIONES ESTADISTICA 2009-2010 PRACTICA 2. PROBABILIDAD Y VARIABLES ALEATORIAS OBJETIVOS: Introducción a la probabilidad y a las variables aleatorias 1. Probabilidad 1. Simular 1000

Más detalles

Prof. Nathaly Moreno Salas Ing. Victor Trejo TURBOMÁQUINAS TÉRMICAS CT-3412

Prof. Nathaly Moreno Salas Ing. Victor Trejo TURBOMÁQUINAS TÉRMICAS CT-3412 8.3 TURBINAS AXIALES Prof. Nathaly Moreno Salas Ing. Victor Trejo TURBOMÁQUINAS TÉRMICAS CT-34 CONTENIDO Correlación de Rendimiento de Smith (965) Estimación de Rendimiento Correlación de Soderberg Operación

Más detalles

Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas

Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas Economía Aplicada III (UPV/EHU) OCW 2013 Contents 1 Mínimos Cuadrados en 2 Etapas 2 Mínimos Cuadrados en 2 Etapas El método de Mínimos Cuadrados

Más detalles

CÁLCULO DE PROBABILIDADES

CÁLCULO DE PROBABILIDADES CÁLCULO DE PROBABILIDADES Tipo de asignatura: Troncal Anual. Créditos ECTS: 15 I.- INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES. (16 horas presenciales) Tema 1.- La naturaleza del cálculo de probabilidades.

Más detalles

Estimación del Probit Ordinal y del Logit Multinomial

Estimación del Probit Ordinal y del Logit Multinomial Estimación del Probit Ordinal y del Logit Multinomial Microeconomía Cuantitativa R. Mora Departmento de Economía Universidad Carlos III de Madrid Esquema Introducción 1 Introducción 2 3 Introducción El

Más detalles

La Teoría de Hückel: Antecedentes

La Teoría de Hückel: Antecedentes La Teoría de Hückel: Antecedentes c = Las ecuaciones seculares: s [ H as ESas ] (un conjunto de ecuaciones simultáneas para todos los átomos) s () a, s las etiquetas de los átomos c s los coeficientes

Más detalles

Programación Evolutiva

Programación Evolutiva Introducción a la Computación Evolutiva Quinta Clase: Programación Evolutiva Programación Evolutiva Desarrollada en USA durante los años 60 Autores principales: D. Fogel Aplicada típicamente a: PE tradicional:

Más detalles

Identificación mediante el método de los mínimos cuadrados

Identificación mediante el método de los mínimos cuadrados Ingeniería de Control Identificación mediante el método de los mínimos cuadrados Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos relevantes aprendidos previamente:

Más detalles

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables Pág. N. 1 Índice general Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN 1.1 Diseño 1.2 Descriptiva 1.3 Inferencia Diseño Población Muestra Individuo (Observación, Caso, Sujeto) Variables Ejercicios de Población

Más detalles

Cadenas de Markov y aplicaciones en biología computacional. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica

Cadenas de Markov y aplicaciones en biología computacional. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica Cadenas de Markov y aplicaciones en biología computacional Departament d Estadística U.B. Estadística i Bioinformàtica Esquema del tema Modelos de secuencias biológicas Cadenas de Markov Definición y conceptos

Más detalles

(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1

(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1 Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Septiembre 2012 - Propuesta B 1. a) Despeja la matriz X en la siguiente ecuación

Más detalles