Cadenas de Markov Ocultas

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Cadenas de Markov Ocultas"

Transcripción

1 Nicolás Carrère Análisis Inteligente de Datos Departamento de Informática Universidad Técnica Federico Santa María Valparaíso, 24 de Noviembre de 2005

2

3 Temario Las cadenas de Markov pueden ser representadas como una gramática regular estocástica. Estocástica en el sentido que las transiciones entre un estado y otro no son deterministas sino que están dadas por una probabilidad.

4 Gramática Regular Temario Supongamos el siguiente vocabulario; {Bueno, Regular, Malo} (almuerzos en el comedor de la universidad). Como abreviación se usara B=Bueno, R=Regular y M=Malo. Cualquier combinación de Bs,Rs y Ms es reconocida si usamos la siguiente gramática: Figura: Gramática Regular

5 Gramática Regular - Extensión Estocástica Consideremos la misma gramática anterior, pero ahora las transiciones entre estados tienen una probabilidad. Para reflejar estas transiciones se utiliza una matriz, en este caso la matriz de transición A: 0,2 0,3 0,5 A = 0,3 0,4 0,3 (1) 0,5 0,1 0,4

6 Resultados (1/3) Temario Dado el modelo de Markov anterior, una de las preguntas que podemos hacer es la siguiente: Dado que el lunes el almuerzo fue malo, cual es la probabilidad de ver la siguiente cadena esta semana; MMRBBB? Esta probabilidad se evalúa y expresa de la siguiente manera: P(O Modelo) =P(S 1,S 1,S 2,S 3,S 3,S 3 Modelo) P[S 1 ] P[S 1 S 1 ] P[S 2 S 1 ] P[S 3 S 2 ] P[S 3 S 3 ] P[S 3 S 3 ] =π 1 a 11 a 12 a 23 a 33 a 33 =1 0,2 0,3 0,3 0,4 0,4 =2, (2)

7 Resultados (2/3) Temario Otra interesante pregunta es: Dado un estado inicial, cual es la probabilidad de que siga en ese estado exactamente d días? Esta probabilidad se puede calcular verificando la probabilidad de la siguiente observación: Usando el modelo: O = {S i 1,S i 2,S i 3,...,S i, S j S i } (3) d d+1 P(O Modelo) = (a ii ) d 1 (1 a ii ) = p i (d) (4) Que es la función de densidad de probabilidad de la cantidad de días en el estado i.

8 Resultados (3/3) Temario Finalmente seria interesante calcular cuantos días se puede esperar que las observaciones permanezcan en un mismo estado. La respuesta a esta pregunta esta dada por: d i = = d=1 d=1 dp i (d) d(a ii ) d 1 (1 a ii ) = 1 1 a ii (5) Usando el modelo: M = 1/(0.8) = 1.25 ; R = 1/(0.6) = 1.67 ;B = 1/(0.6) = 1.67

9 El modelo de Markov anterior considera que cada estado corresponde a un evento físicamente observable. Ahora en cada estado existe un probabilidad de que suceda una observación. Lo que se tiene ahora es un modelo doblemente estocástico en el cual hay un proceso subyacente que esta oculto. Este proceso solo puede ser visto a través de las observaciones. Esto es un Modelo de Markov Oculto (HMM).

10 Ejemplo del Cocinero Temario Consideremos el siguiente escenario, el modelo de Markov anteriormente descrito. El cocinero tiene dos estados de animo; Feliz y Enojado. El problema es que nosotros nunca vemos al cocinero, por lo que no sabemos su estado de animo. La única manifestación de su estado son nuestras observaciones que serian si el almuerzo esta; Malo, Regular o Bueno.

11 Elementos en un HMM 1 N, numero de estados 2 M, numero de observaciones distintas en cada estado (alfabeto). 3 A, matriz de probabilidad de transición entre estados. 4 B, matriz de probabilidad de emisión de una observación para un estado dado. 5 π, matriz de distribución de estados iniciales. Para caracterizar un HMM se necesita de dos parámetros N y M, y de tres medidas de probabilidad A, B, pi. Por conveniencia se ocupara la notación: λ = (A,B,π) (6)

12 El Modelo del Cocinero Figura: HMM Cocinero

13 Interrogantes que se debe atender 1 Dada una observación O y un modelo λ, como calculamos de forma eficiente la probabilidad de dicha observación, P(O λ), dado el modelo? 2 Dada una observación O y un modelo λ, como escogemos una secuencia de estados Q que explique de forma óptima la observación? 3 Como ajustamos los parámetros del modelo λ = (A,B,π) para maximizar P(O λ)?

14 Solución a la Interrogante 1 Por motivos de eficiencia se utiliza el algoritmo Forward-Backward ; que define la variable forward como α t (i) = P(O 1,O 2...O t,q t = S i λ) (7) Luego se tiene que P(O λ) = N i=1 α T (i) (8)

15 variable Backward Temario β t (i) = P(O t+1,o t+2...o T q T = S i,λ) (9) β T (i) =1 β t (i) = N j=1 a ij b j (O t+1 β t+1 ) (10)

16 Solución a la Interrogante 2 Esta interrogante no tiene solución exacta como la anterior, ya que depende de lo que definamos como explicación óptima. Una posible solución es la que maximiza la probabilidad de estados(individuales) correctos. Esta solución se puede expresar en términos de las variables forward-backward. γ t (i) =P(q t = S i O,λ) = α t(i)β t (i) P(O λ) = α t(i)β t (i) N i=1 α t (i)β t (i) (11) Otro manera eficiente es usar el algoritmo de Viterbi.

17 Solución a la Interrogante 3 Para esta pregunta no existe solución analítica hasta el momento. El ajuste de los parámetros es hecho con varios métodos como EM (expectation-modification) Técnicas de Gradiente Método de Baum-Welch

18 Método de Baum-Welch Este método se basa en calcular dos medidas 1 El numero esperado de transiciones desde S i 2 El numero esperado de transiciones desde S i a S j Luego el algoritmo postula que una estimación razonable de los parámetros π,a,b son: π i =frecuencia esperada un el estado S i en el tiempo 1 = γ 1 (i) a ii = numero esperado de transiciones desde S i a S j numero esperado de transiciones desde S i numero esperado de veces en el estado i observando k b i (k) = numero esperado de veces en el estado i (12)

19 ADN Temario Las cadenas de ADN están formadas por millones de nucleotidos. Para los científicos es de interés detectar las secuencias de codones. Luego es detectar las secuencias de codones que codifican un gen. Los HMM ayudan a detectar nuevos genes, así como a detectar genes falsos positivos.

20 Reconocimiento de Voz. Natural language processing. Reconocimiento de Caracteres. Clasificación. Reconocimiento de imágenes.

21 Preguntas Temario Gracias NTC/L A T E X 2ε

Maestría en Bioinformática Probabilidad y Estadística: Clase 13

Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models

Más detalles

Modelos de Markov Ocultos (HMM)

Modelos de Markov Ocultos (HMM) Modelos de Markov Ocultos (HMM) Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción

Más detalles

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 5: Modelos Ocultos de Markov Modelos Ocultos de Markov Cadenas de Markov Preguntas básicas Aplicación: orden en Google Modelos Ocultos de Markov

Más detalles

Modelos Ocultos de Markov Continuos

Modelos Ocultos de Markov Continuos Modelos Ocultos de Markov Continuos José Antonio Camarena Ibarrola Modelos Ocultos de Markov Continuos p.1/15 Idea fundamental Los Modelos Ocultos de Markov Discretos trabajan con secuencias de observaciones

Más detalles

Criterio de implementación de un HMM usando LogProb. Jorge Luis Guevara Díaz Escuela de Informática

Criterio de implementación de un HMM usando LogProb. Jorge Luis Guevara Díaz Escuela de Informática Criterio de implementación de un HMM usando LogProb Jorge Luis Guevara Díaz Escuela de Informática Introducción Introducción Modelos Ocultos de Markov - HMM Motivación Definición Algoritmo forward-backward

Más detalles

Procesamiento de voz - Reconocimiento de voz II

Procesamiento de voz - Reconocimiento de voz II Procesamiento de voz - Reconocimiento de voz II Marc S. Reßl Roxana Saint-Nom 2009 Ingeniería Electrónica Instituto Tecnológico de Buenos Aires Reconocimiento de voz Las técnicas que vimos hasta ahora

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

Organización. Autómatas probabilísticos (AEFP) Definición de Autómata. Modelo de Markov. Ejemplo de AEFP. Modelos basados en autómatas probabilísticos

Organización. Autómatas probabilísticos (AEFP) Definición de Autómata. Modelo de Markov. Ejemplo de AEFP. Modelos basados en autómatas probabilísticos Organización Modelos basados en autómatas probabilísticos Bioingeniería I Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos

Más detalles

Procesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz

Procesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz Procesos de Markov José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Cadenas de Markov Modelos

Más detalles

Revisión - soluciones. lunes 9 de octubre de 2017

Revisión - soluciones. lunes 9 de octubre de 2017 Introducción a los Procesos Estocásticos Curso 7 Revisión - soluciones lunes 9 de octubre de 7. Ejercicio (5 puntos) Considere una cadena de Markov homogénea {X n } n con espacio de S = {,,, } y matriz

Más detalles

Modelos basados en autómatas probabilísticos

Modelos basados en autómatas probabilísticos Modelos basados en autómatas probabilísticos Bioingeniería I FI-UNER Organización Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos

Más detalles

Procesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos. Dpto. Ciencias de la Computación e Inteligencia Artificial

Procesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos. Dpto. Ciencias de la Computación e Inteligencia Artificial Procesos de Markov José Luis Ruiz Reina Franciso J. Martín Mateos Dpto. Ciencias de la Computación e Inteligencia Artificial Ampliación de Inteligencia Artificial, 2014-2015 Contenido Cadenas de Markov

Más detalles

Expresiones Regulares y Gramáticas Regulares

Expresiones Regulares y Gramáticas Regulares y Gramáticas Regulares Sistemas Lineales. Universidad de Cantabria Esquema Idea 1 Idea 2 3 Problema Idea Nos preguntamos si las expresiones regulares generan los mismos lenguajes que las gramáticas regulares.

Más detalles

1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos

1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos Guión 1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos Modelo de Moore y de Mealy: Definición Una máquina secuencial (MS) es una tupla: M

Más detalles

Modelos de Markov ocultos Profile HMM. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica. MMO en Biologia Computacional

Modelos de Markov ocultos Profile HMM. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica. MMO en Biologia Computacional Modelos de Markov ocultos Profile HMM Departament d Estadística U.B. Estadística i Bioinformàtica Esquema del tema Alineamientos múltiples de secuencias (AMS) Representaciones de AMS: Patrones y Perfiles

Más detalles

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del

Más detalles

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Modelos Estocásticos I Tercer Examen Parcial Respuestas Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado

Más detalles

Teoría de Lenguajes. Clase Teórica 7 Autómatas de Pila y Lenguajes Independientes del Contexto Primer cuartimestre 2014

Teoría de Lenguajes. Clase Teórica 7 Autómatas de Pila y Lenguajes Independientes del Contexto Primer cuartimestre 2014 Teoría de Lenguajes Clase Teórica 7 Autómatas de Pila y Lenguajes Independientes del Contexto Primer cuartimestre 2014 aterial compilado por el Profesor Julio Jacobo, a lo largo de distintas ediciones

Más detalles

Sistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov.

Sistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov. Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema BT7: Algoritmo de Viterbi. Estimación de modelos de Markov. DSIC UPV: Octubre, 8 SIN-TemaBT7 índice

Más detalles

Aprendizaje por Refuerzo

Aprendizaje por Refuerzo Sesiones del Curso Máster en Ciencia y Tecnología Informática Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática Escuela Politécnica Superior Universidad Carlos III de Madrid 30 de

Más detalles

Modelos basados en autómatas probabilísticos

Modelos basados en autómatas probabilísticos Modelos basados en autómatas probabilísticos Bioingeniería I FI UNER Organización Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos

Más detalles

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 10

Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios

Más detalles

Complejidad Computacional

Complejidad Computacional Análisis y Complejidad de Algoritmos Complejidad Computacional Arturo Díaz Pérez Lenguajes formales Gramáticas formales Jerarquía de Chomski Teoría de la complejidad Una desigualdad computacional Computabilidad

Más detalles

Álgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Álgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas Álgebra Lineal Tema 2 Mínimos cuadrados II Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J S ALAS, A T ORRENTE Y EJS V ILLASEÑOR Índice general

Más detalles

Cadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM

Cadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadenas de Markov Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadena de Markov Considere variable aleratorio X 0, X 1,... tomando valores en un conjunto finito o discreto, E. Entonces {X n } n 0 es

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:

Más detalles

Estimación de variables no observables para la economía peruana

Estimación de variables no observables para la economía peruana Estimación de variables no observables para la economía peruana XXX Encuentro de Investigación del BCRP Ismael Ignacio Mendoza Mogollón imendoza@mef.gob.pe Octubre 2012 XXX Encuentro de Economistas (Institute)

Más detalles

Teoría Espectral. Stephen B. Sontz. Centro de Investigación en Matemáticas, A.C. (CIMAT) Guanajuato, Mexico

Teoría Espectral. Stephen B. Sontz. Centro de Investigación en Matemáticas, A.C. (CIMAT) Guanajuato, Mexico Teoría Espectral Stephen B. Sontz Centro de Investigación en Matemáticas, A.C. (CIMAT) Guanajuato, Mexico Mini-curso impartido en Colima 29 septiembre 2016 - Tercer día Introducción Hay dos dichos populares

Más detalles

Perfiles y modelos ocultos de Markov

Perfiles y modelos ocultos de Markov Perfiles y modelos ocultos de Markov Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 13 de junio del 2013 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Perfiles y modelos ocultos de Markov 13 de junio del 2013

Más detalles

Descripción de los Lenguajes Aceptados por Autómatas

Descripción de los Lenguajes Aceptados por Autómatas Descripción de los Lenguajes Aceptados por Autómatas Los Teoremas de Kleene Universidad de Cantabria Esquema 1 2 3 Lenguajes Aceptados por Autómatas Como repaso, tenemos un problema de respuesta Si/No

Más detalles

Redes de Petri Estocásticas (II)

Redes de Petri Estocásticas (II) Redes de Petri Estocásticas (II) Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Formalmente una red de Petri estocástica es por tanto una 7 upla SPN=(P,T,I(),O(),H(),W(),Mo)

Más detalles

Introducción a los Modelos de Markov ocultos. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica

Introducción a los Modelos de Markov ocultos. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica Introducción a los Modelos de Markov ocultos Departament d Estadística U.B. Estadística i Bioinformàtica Esquema de la exposición Introducción a los MMO Tipos de problemas que podemos resolver Aplicaciones

Más detalles

Generación de variables aleatorias continuas Método de rechazo

Generación de variables aleatorias continuas Método de rechazo Generación de variables aleatorias continuas Método de rechazo Georgina Flesia FaMAF 18 de abril, 2013 Método de Aceptación y Rechazo Repaso Se desea simular una v. a. X discreta, con probabilidad de masa

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 8

Maestría en Bioinformática Probabilidad y Estadística: Clase 8 Maestría en Bioinformática Probabilidad y Estadística: Clase 8 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Reversión temporal Cadena

Más detalles

Descomposición en forma canónica de Jordan (Segunda versión)

Descomposición en forma canónica de Jordan (Segunda versión) Descomposición en forma canónica de Jordan (Segunda versión) Francisco J. Bravo S. 1 de septiembre de 211 En esta guía se presentan los resultados necesarios para poder construir la forma de Jordan sin

Más detalles

Tema 4: Gramáticas independientes del contexto. Teoría de autómatas y lenguajes formales I

Tema 4: Gramáticas independientes del contexto. Teoría de autómatas y lenguajes formales I Tema 4: Gramáticas independientes del contexto Teoría de autómatas y lenguajes formales I Bibliografía Hopcroft, J. E., Motwani, R., y Ullman, J. D. Introducción a la Teoría de Autómatas, Lenguajes y Computación.

Más detalles

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p

Más detalles

1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.

1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo. Capítulo 5 Campos finitos 5.1. Introducción Presentaremos algunos conceptos básicos de la teoría de los campos finitos. Para mayor información, consultar el texto de McEliece [61] o el de Lidl y Niederreiter

Más detalles

PROGRAMACIÓN II AÑO 2009 TALLER 3: TEORÍA DE LENGUAJES Y AUTÓMATAS

PROGRAMACIÓN II AÑO 2009 TALLER 3: TEORÍA DE LENGUAJES Y AUTÓMATAS Licenciatura en Sistemas de Información PROGRAMACIÓN II AÑO 2009 TALLER 3: TEORÍA DE LENGUAJES Y AUTÓMATAS UNSE FCEyT 1. DESCRIPCIÓN Este taller consta de tres partes. En cada una de ellas se especifican

Más detalles

Hacia las Gramáticas Propias

Hacia las Gramáticas Propias Hacia las Gramáticas sin Ciclos Universidad de Cantabria Esquema 1 Introducción 2 3 Introducción Las gramáticas libres de contexto pueden presentar diferentes problemas. Ya hemos visto como eliminar los

Más detalles

HMMs. Área de Tratamiento de Voz y Señales, Escuela Politécnica Superior Universidad Autónoma de Madrid.

HMMs. Área de Tratamiento de Voz y Señales,   Escuela Politécnica Superior Universidad Autónoma de Madrid. HMMs Doroteo Torre Toledano y Joaquín n González Rodríguez Área de Tratamiento de Voz y Señales, http://atvs.ii.uam.es/ Escuela Politécnica Superior Universidad Autónoma de Madrid 1 Índice 1. Introducción

Más detalles

1 er Parcial Febrero 2009

1 er Parcial Febrero 2009 Autómatas y Lenguajes Formales 3 o Ingeniería Informática 1 er Parcial Febrero 2009 Normas : La duración de esta parte del examen es de 2,5 horas. Todos los ejercicios se entregarán en hojas separadas.

Más detalles

Una invitación al estudio de las cadenas de Markov

Una invitación al estudio de las cadenas de Markov Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de

Más detalles

Cadenas de Markov Cálculos probabilísticos con RCommander

Cadenas de Markov Cálculos probabilísticos con RCommander Sesión 3 Cadenas de Markov. En la teoría de la probabilidad, se conoce como cadena de Markov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende

Más detalles

Nicolás Rivera. 20 de Marzo de 2012

Nicolás Rivera. 20 de Marzo de 2012 Gramáticas Libre de Contexto Aleatorias. Nicolás Rivera 20 de Marzo de 2012 Pontificia Universidad Católica de Chile Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción

Más detalles

Etiquetación con modelos de máxima entropía

Etiquetación con modelos de máxima entropía Etiquetación con modelos de máxima entropía Miguel A. Alonso Departamento de Computación, Facultad de Informática, Universidade da Coruña 1 / 26 Índice 1 Introducción 2 Regresión Regresión lineal Regresión

Más detalles

Tema 6. Reconocimiento de voz

Tema 6. Reconocimiento de voz Tema 6. Reconocimiento de voz 6.1.- Introducción 6.2.- Problemática 6.3.- Clasificación 6.4.- Esquema de trabajo 6.5.- Técnicas de reconocimiento 6.6.- Conclusiones 6.1.- Introducción Reconocimiento de

Más detalles

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1) PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0,75 (1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:

Más detalles

Teoría de Colas Modelo G/M/1 y G/M/k

Teoría de Colas Modelo G/M/1 y G/M/k Teoría de Colas Modelo G/M/1 y G/M/k Rodrigo Salas Fuentes Universidad Técnica Federico Santa María Departamento de Informática Profesor: Héctor Allende 1 Introducción En este trabajo

Más detalles

Tema 4 - Introducción

Tema 4 - Introducción Tema 4 - Introducción 1 Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Cómo obtener estimadores? Tema

Más detalles

Análisis de Sensibilidad de los Resultados

Análisis de Sensibilidad de los Resultados Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 22 Análisis de Sensibilidad de los Resultados ICS 02 Optimización Profesor : Claudio Seebach

Más detalles

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado. Pérdida Esperada Uno de los objetivos de este estudio es construir una función de pérdidas para el portafolio de la cartera de préstamos que ofrece la entidad G&T Continental, basados en el comportamiento

Más detalles

Prof. Virginia Mazzone - Mariana Suarez

Prof. Virginia Mazzone - Mariana Suarez SISTEMAS NO LINEALES SISTEMAS DE SEGUNDO ORDEN Prof. Virginia Mazzone - Prof. Mariana Suarez 1 Introducción Método de isoclinas Ejemplos 3 Introducción Un sistema de segundo orden autónomo está representado

Más detalles

2.1 Introducción. Propiedades.

2.1 Introducción. Propiedades. 19 2 MATRICES II: DETERMINANTES En este segundo capítulo de matrices, aprenderemos a utilizar una herramienta muy importante como son los determinantes Gracias a ellos, podremos calcular la inversa de

Más detalles

Cadenas de Markov. Distribuciones estacionarias. El algoritmo PageRank.

Cadenas de Markov. Distribuciones estacionarias. El algoritmo PageRank. Sesión 5 Cadenas de Markov. Distribuciones estacionarias. El algoritmo PageRank. Recordemos que una secuencia {X n } n de variables aleatorias con valores en un espacio finito Ω se denomina cadena de Markov

Más detalles

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos

Más detalles

TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA. Alineamiento múltiple de secuencias

TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA. Alineamiento múltiple de secuencias TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA Alineamiento múltiple de secuencias Mario de J. Pérez Jiménez Grupo de investigación en Computación Natural Dpto. Ciencias de la Computación e Inteligencia Artificial

Más detalles

Milton Orlando Sarria Paja

Milton Orlando Sarria Paja Universidad Nacional de Colombia Sede Manizales Maestría en Ingeniería - Automatización Industrial Facultad de Ingeniería y Arquitectura Departamento de Ingeniería Eléctrica, Electrónica y Computación

Más detalles

CONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario

CONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario CONTENIDOS 1. Definición de Cadena de Markov en Tiempo Continuo 2. Comportamiento de transición 3. Comportamiento estacionario 4. Procesos de nacimiento y muerte 1. Definición de Cadena de Markov en Tiempo

Más detalles

Procesos estocásticos. Primera Prueba 1

Procesos estocásticos. Primera Prueba 1 08513. Procesos estocásticos. Primera Prueba 1 Problema 1. El número de partículas en una región del espacio evoluciona de la siguiente manera: en cada unidad de tiempo, cada partícula contenida en ella

Más detalles

Cadenas de Markov. José Antonio Camarena Ibarrola

Cadenas de Markov. José Antonio Camarena Ibarrola Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el

Más detalles

PROCESOS ESTOCÁSTICOS

PROCESOS ESTOCÁSTICOS Capítulo 10 Cadenas de Markov PROCESOS ESTOCÁSTICOS Una sucesión de observaciones X 1,X 2,... se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero

Más detalles

Procesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26

Procesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26 Procesos de ramificación y árboles aleatorios. Juan Carlos Pardo Millán CIMAT, Guanajuato 1/ 26 Progama: Preliminares de probabilidad. Cadenas de Markov. Caminatas aleatorias. Procesos de Bienaymé-Galton-Watson.

Más detalles

Dadas dos secuencias, X = (x 1 x 2 x m ) e Y = (y 1 y 2 y n ), encontrar la forma de alinearlas con un coste mínimo.

Dadas dos secuencias, X = (x 1 x 2 x m ) e Y = (y 1 y 2 y n ), encontrar la forma de alinearlas con un coste mínimo. Análisis y Diseño de Algoritmos Aplicaciones Aplicaciones Bioinformática: Alineación de secuencias de ADN Ingeniería del Software: Detección de clones (fragmentos de código duplicado) Procesamiento del

Más detalles

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i) Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo

Más detalles

Clustering para la inicialización de HMM en RAH. Jorge Luis Guevara Díaz

Clustering para la inicialización de HMM en RAH. Jorge Luis Guevara Díaz Clustering para la inicialización de HMM en RAH Jorge Luis Guevara Díaz Introducción Introducción Definicion de RAH Formulación Arquitectura Extracción de características Modelo acústico Modelo del lenguaje

Más detalles

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de

Más detalles

Práctica 5 Martingalas a tiempo discreto

Práctica 5 Martingalas a tiempo discreto Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.

Más detalles

La Representación de las Gramáticas

La Representación de las Gramáticas La Representación de las Gramáticas El Generador del Lenguaje Universidad de Cantabria Esquema 1 Introducción 2 3 4 Introducción Las gramáticas libres de contexto son más generales que las gramáticas regulares.

Más detalles

Econometría Aplicada

Econometría Aplicada Econometría Aplicada y función de Verosimilitud Víctor Medina Los objetivos de esta parte del curso principalmente son: 1. Dar algunos ejemplos de decisiones económicas donde la variable dependiente es

Más detalles

OPTIMIZACIÓN DINÁMICA

OPTIMIZACIÓN DINÁMICA OPTIMIZACIÓN DINÁMICA Francisco Alvarez González fralvare@ccee.ucm.es TEMA 6 Algunas aplicaciones del principio del máximo de Pontryagin 1. Modelo de Ramsey en horizonte finito sin descuento.. Recursos

Más detalles

Ingeniería de Telecomunicación. Señales y Sistemas II PRÁCTICA 1 DETECCIÓN DE SEÑALES EN PRESENCIA DE INTERFERENCIA ADITIVA GAUSSIANA

Ingeniería de Telecomunicación. Señales y Sistemas II PRÁCTICA 1 DETECCIÓN DE SEÑALES EN PRESENCIA DE INTERFERENCIA ADITIVA GAUSSIANA Ingeniería de Telecomunicación PRÁCTICA 1 DETECCIÓN DE SEÑALES EN PRESENCIA DE INTERFERENCIA ADITIVA GAUSSIANA CURSO 2008 / 2009 Departamento de Teoría de la Señal y Comunicaciones Práctica 1: Detección

Más detalles

Expresiones Regulares

Expresiones Regulares Conjuntos Regulares y Una forma diferente de expresar un lenguaje Universidad de Cantabria Conjuntos Regulares y Esquema 1 Motivación 2 Conjuntos Regulares y 3 4 Conjuntos Regulares y Motivación El problema

Más detalles

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial)

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) 1. Calcular la tasa de entropía H r de una fuente de Markov estacionaria con m símbolos, con probabilidades

Más detalles

TIPOS DE GRAMATICAS JERARQUIAS DE CHOMSKY

TIPOS DE GRAMATICAS JERARQUIAS DE CHOMSKY TIPOS DE GRAMATICAS JERARQUIAS DE CHOMSKY Para el estudio de este tema es necesario analizar dos tipos de gramáticas de la clasificación de Chomsky, las regulares y las independientes de contexto, las

Más detalles

Procesadores de Lenguaje

Procesadores de Lenguaje Procesadores de Lenguaje Repaso TALF Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Primavera de 2013 La Jerarquía de Chomsky Cuatro niveles de lenguajes formales

Más detalles

Cuadratura Gaussiana basada en polinomios ortogonales.

Cuadratura Gaussiana basada en polinomios ortogonales. Clase No. 20: MAT 251 Cuadratura Gaussiana basada en polinomios ortogonales. Dr. Alonso Ramírez Manzanares CIMAT, A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña

Más detalles

ANÁLISIS ECONÓMICO I Solucionario Examen Parcial

ANÁLISIS ECONÓMICO I Solucionario Examen Parcial UNIVERSIDAD NACIONAL DE INGENIERÍA FACULTAD DE INGENIERÍA ECONÓMICA Y CC.SS. Código Fecha / / Nota ANÁLISIS ECONÓMICO I Solucionario Examen Parcial TIEMPO ESTIMADO: 1:30 Hrs. I. Desarrolle cada concepto

Más detalles

Cadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov

Cadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov Cadenas de Markov Hace más de un siglo se escribió el primer trabajo seminal sobre Cadenas de Markov y aún siguen siendo un instrumento tremendamente útil de modelación estocástica. Su importancia obedece

Más detalles

TEMA V. Espacios vectoriales

TEMA V. Espacios vectoriales TEMA V. Espacios vectoriales 1 1. Demostrar que cada uno de los siguientes conjuntos tiene estructura de espacio vectorial sobre el cuerpo de los reales: a El conjunto (R 2, +,, R. b El conjunto (R 3,

Más detalles

Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino.

Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Se dice que un canal es ruidoso si la lectura de los datos

Más detalles

PRÁCTICA I. Ejercicios Teóricos

PRÁCTICA I. Ejercicios Teóricos PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las

Más detalles

Hacia las Gramáticas Propias II

Hacia las Gramáticas Propias II Hacia las Hacia las II Gramáticas sin Ciclos Universidad de Cantabria Outline Hacia las 1 Hacia las 2 3 Definición Hacia las Definición Diremos que una gramática libre de contexto G := (V, Σ, Q 0, P) es

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 4

Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios

Más detalles

INTRODUCCIÓN A LOS LENGUAJES

INTRODUCCIÓN A LOS LENGUAJES INTRODUCCIÓN A LOS LENGUAJES 1 Definición de lenguaje 2 Lenguajes formales 2.1 Requisitos 2.2 Aplicaciones 2.3 Especificación 2.4 Gramáticas 2.4.1 Definición y Ejemplos 2.4.2 Ambigüedad 2.4.3 Clasificación

Más detalles

Martingalas. Procesos Estocásticos. Marzo 2012 UC3M

Martingalas. Procesos Estocásticos. Marzo 2012 UC3M Martingalas Procesos Estocásticos UC3M Marzo 2012 Martingalas Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que, pensemos

Más detalles

Estadística Bayesiana

Estadística Bayesiana Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.

Más detalles

Ingeniería en Instrumentos Derivados. Opciones 1

Ingeniería en Instrumentos Derivados. Opciones 1 Ingeniería en Instrumentos Derivados Opciones 1 Alvaro Díaz Valenzuela Dottore in Matematica Magíster en Ciencias de la Ingeniería 12 de noviembre de 2010 Índice Opciones Definiciones Estrategias con Opciones

Más detalles

(x) = 1 si P (Y = 1 X = x) P (Y = 0 X = x) P (Y = 0 X = x) > P (Y = 1 X = x) P (X = x Y = 0)P (Y = 0) > P (X = x Y = 1)P (Y = 1)

(x) = 1 si P (Y = 1 X = x) P (Y = 0 X = x) P (Y = 0 X = x) > P (Y = 1 X = x) P (X = x Y = 0)P (Y = 0) > P (X = x Y = 1)P (Y = 1) 1 1. Conceptos generales de clasificación 2. Clasificador k-vecino más cercano 3. Clasificador Bayesiano óptimo 4. Análisis discriminante lineal (LDA) 5. Clasificadores lineales y el Modelo perceptrón

Más detalles

Rectas y Planos en el Espacio

Rectas y Planos en el Espacio Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. septiembre 2012 Verónica Briceño V. () Rectas y Planos en el Espacio septiembre 2012 1 / 20 En esta Presentación... En esta

Más detalles

Ancho de banda efectivo para cadenas de Markov escondidas

Ancho de banda efectivo para cadenas de Markov escondidas Ancho de banda efectivo para cadenas de Markov escondidas L.Aspirot, P.Bermolen * Marzo de 2004 Resumen Compartir recursos es uno de los objetivos en las redes modernas y un problema importante es estimar

Más detalles

Universidad Austral de Chile Escuela de Ingeniería Comercial

Universidad Austral de Chile Escuela de Ingeniería Comercial Escuela de Ingeniería Comercial Ayudantía # 03: Crecimiento, inflación Profesor: Carlos R. Pitta 1 1 cpitta@spm.uach.cl COMENTES Comente 01: En el equilibrio de mediano y largo plazo, la economía alcanza

Más detalles

Ejercicios resueltos del capítulo 4

Ejercicios resueltos del capítulo 4 Ejercicios resueltos del capítulo 4 Ejercicios impares resueltos..a Calcular los autovalores y subespacios invariantes asociados a la matriz: A = Calculamos el polinomio característico y resolvemos: λ

Más detalles