Cadenas de Markov Ocultas
|
|
- Sebastián Camacho Juárez
- hace 5 años
- Vistas:
Transcripción
1 Nicolás Carrère Análisis Inteligente de Datos Departamento de Informática Universidad Técnica Federico Santa María Valparaíso, 24 de Noviembre de 2005
2
3 Temario Las cadenas de Markov pueden ser representadas como una gramática regular estocástica. Estocástica en el sentido que las transiciones entre un estado y otro no son deterministas sino que están dadas por una probabilidad.
4 Gramática Regular Temario Supongamos el siguiente vocabulario; {Bueno, Regular, Malo} (almuerzos en el comedor de la universidad). Como abreviación se usara B=Bueno, R=Regular y M=Malo. Cualquier combinación de Bs,Rs y Ms es reconocida si usamos la siguiente gramática: Figura: Gramática Regular
5 Gramática Regular - Extensión Estocástica Consideremos la misma gramática anterior, pero ahora las transiciones entre estados tienen una probabilidad. Para reflejar estas transiciones se utiliza una matriz, en este caso la matriz de transición A: 0,2 0,3 0,5 A = 0,3 0,4 0,3 (1) 0,5 0,1 0,4
6 Resultados (1/3) Temario Dado el modelo de Markov anterior, una de las preguntas que podemos hacer es la siguiente: Dado que el lunes el almuerzo fue malo, cual es la probabilidad de ver la siguiente cadena esta semana; MMRBBB? Esta probabilidad se evalúa y expresa de la siguiente manera: P(O Modelo) =P(S 1,S 1,S 2,S 3,S 3,S 3 Modelo) P[S 1 ] P[S 1 S 1 ] P[S 2 S 1 ] P[S 3 S 2 ] P[S 3 S 3 ] P[S 3 S 3 ] =π 1 a 11 a 12 a 23 a 33 a 33 =1 0,2 0,3 0,3 0,4 0,4 =2, (2)
7 Resultados (2/3) Temario Otra interesante pregunta es: Dado un estado inicial, cual es la probabilidad de que siga en ese estado exactamente d días? Esta probabilidad se puede calcular verificando la probabilidad de la siguiente observación: Usando el modelo: O = {S i 1,S i 2,S i 3,...,S i, S j S i } (3) d d+1 P(O Modelo) = (a ii ) d 1 (1 a ii ) = p i (d) (4) Que es la función de densidad de probabilidad de la cantidad de días en el estado i.
8 Resultados (3/3) Temario Finalmente seria interesante calcular cuantos días se puede esperar que las observaciones permanezcan en un mismo estado. La respuesta a esta pregunta esta dada por: d i = = d=1 d=1 dp i (d) d(a ii ) d 1 (1 a ii ) = 1 1 a ii (5) Usando el modelo: M = 1/(0.8) = 1.25 ; R = 1/(0.6) = 1.67 ;B = 1/(0.6) = 1.67
9 El modelo de Markov anterior considera que cada estado corresponde a un evento físicamente observable. Ahora en cada estado existe un probabilidad de que suceda una observación. Lo que se tiene ahora es un modelo doblemente estocástico en el cual hay un proceso subyacente que esta oculto. Este proceso solo puede ser visto a través de las observaciones. Esto es un Modelo de Markov Oculto (HMM).
10 Ejemplo del Cocinero Temario Consideremos el siguiente escenario, el modelo de Markov anteriormente descrito. El cocinero tiene dos estados de animo; Feliz y Enojado. El problema es que nosotros nunca vemos al cocinero, por lo que no sabemos su estado de animo. La única manifestación de su estado son nuestras observaciones que serian si el almuerzo esta; Malo, Regular o Bueno.
11 Elementos en un HMM 1 N, numero de estados 2 M, numero de observaciones distintas en cada estado (alfabeto). 3 A, matriz de probabilidad de transición entre estados. 4 B, matriz de probabilidad de emisión de una observación para un estado dado. 5 π, matriz de distribución de estados iniciales. Para caracterizar un HMM se necesita de dos parámetros N y M, y de tres medidas de probabilidad A, B, pi. Por conveniencia se ocupara la notación: λ = (A,B,π) (6)
12 El Modelo del Cocinero Figura: HMM Cocinero
13 Interrogantes que se debe atender 1 Dada una observación O y un modelo λ, como calculamos de forma eficiente la probabilidad de dicha observación, P(O λ), dado el modelo? 2 Dada una observación O y un modelo λ, como escogemos una secuencia de estados Q que explique de forma óptima la observación? 3 Como ajustamos los parámetros del modelo λ = (A,B,π) para maximizar P(O λ)?
14 Solución a la Interrogante 1 Por motivos de eficiencia se utiliza el algoritmo Forward-Backward ; que define la variable forward como α t (i) = P(O 1,O 2...O t,q t = S i λ) (7) Luego se tiene que P(O λ) = N i=1 α T (i) (8)
15 variable Backward Temario β t (i) = P(O t+1,o t+2...o T q T = S i,λ) (9) β T (i) =1 β t (i) = N j=1 a ij b j (O t+1 β t+1 ) (10)
16 Solución a la Interrogante 2 Esta interrogante no tiene solución exacta como la anterior, ya que depende de lo que definamos como explicación óptima. Una posible solución es la que maximiza la probabilidad de estados(individuales) correctos. Esta solución se puede expresar en términos de las variables forward-backward. γ t (i) =P(q t = S i O,λ) = α t(i)β t (i) P(O λ) = α t(i)β t (i) N i=1 α t (i)β t (i) (11) Otro manera eficiente es usar el algoritmo de Viterbi.
17 Solución a la Interrogante 3 Para esta pregunta no existe solución analítica hasta el momento. El ajuste de los parámetros es hecho con varios métodos como EM (expectation-modification) Técnicas de Gradiente Método de Baum-Welch
18 Método de Baum-Welch Este método se basa en calcular dos medidas 1 El numero esperado de transiciones desde S i 2 El numero esperado de transiciones desde S i a S j Luego el algoritmo postula que una estimación razonable de los parámetros π,a,b son: π i =frecuencia esperada un el estado S i en el tiempo 1 = γ 1 (i) a ii = numero esperado de transiciones desde S i a S j numero esperado de transiciones desde S i numero esperado de veces en el estado i observando k b i (k) = numero esperado de veces en el estado i (12)
19 ADN Temario Las cadenas de ADN están formadas por millones de nucleotidos. Para los científicos es de interés detectar las secuencias de codones. Luego es detectar las secuencias de codones que codifican un gen. Los HMM ayudan a detectar nuevos genes, así como a detectar genes falsos positivos.
20 Reconocimiento de Voz. Natural language processing. Reconocimiento de Caracteres. Clasificación. Reconocimiento de imágenes.
21 Preguntas Temario Gracias NTC/L A T E X 2ε
Maestría en Bioinformática Probabilidad y Estadística: Clase 13
Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models
Más detallesModelos de Markov Ocultos (HMM)
Modelos de Markov Ocultos (HMM) Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento
Más detallesCurso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detallesBases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción
Más detallesModelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 5: Modelos Ocultos de Markov Modelos Ocultos de Markov Cadenas de Markov Preguntas básicas Aplicación: orden en Google Modelos Ocultos de Markov
Más detallesModelos Ocultos de Markov Continuos
Modelos Ocultos de Markov Continuos José Antonio Camarena Ibarrola Modelos Ocultos de Markov Continuos p.1/15 Idea fundamental Los Modelos Ocultos de Markov Discretos trabajan con secuencias de observaciones
Más detallesCriterio de implementación de un HMM usando LogProb. Jorge Luis Guevara Díaz Escuela de Informática
Criterio de implementación de un HMM usando LogProb Jorge Luis Guevara Díaz Escuela de Informática Introducción Introducción Modelos Ocultos de Markov - HMM Motivación Definición Algoritmo forward-backward
Más detallesProcesamiento de voz - Reconocimiento de voz II
Procesamiento de voz - Reconocimiento de voz II Marc S. Reßl Roxana Saint-Nom 2009 Ingeniería Electrónica Instituto Tecnológico de Buenos Aires Reconocimiento de voz Las técnicas que vimos hasta ahora
Más detallesExamen de Teoría de (Introducción al) Reconocimiento de Formas
Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:
Más detallesOrganización. Autómatas probabilísticos (AEFP) Definición de Autómata. Modelo de Markov. Ejemplo de AEFP. Modelos basados en autómatas probabilísticos
Organización Modelos basados en autómatas probabilísticos Bioingeniería I Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos
Más detallesProcesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz
Procesos de Markov José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Cadenas de Markov Modelos
Más detallesRevisión - soluciones. lunes 9 de octubre de 2017
Introducción a los Procesos Estocásticos Curso 7 Revisión - soluciones lunes 9 de octubre de 7. Ejercicio (5 puntos) Considere una cadena de Markov homogénea {X n } n con espacio de S = {,,, } y matriz
Más detallesModelos basados en autómatas probabilísticos
Modelos basados en autómatas probabilísticos Bioingeniería I FI-UNER Organización Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos
Más detallesProcesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos. Dpto. Ciencias de la Computación e Inteligencia Artificial
Procesos de Markov José Luis Ruiz Reina Franciso J. Martín Mateos Dpto. Ciencias de la Computación e Inteligencia Artificial Ampliación de Inteligencia Artificial, 2014-2015 Contenido Cadenas de Markov
Más detallesExpresiones Regulares y Gramáticas Regulares
y Gramáticas Regulares Sistemas Lineales. Universidad de Cantabria Esquema Idea 1 Idea 2 3 Problema Idea Nos preguntamos si las expresiones regulares generan los mismos lenguajes que las gramáticas regulares.
Más detalles1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos
Guión 1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos Modelo de Moore y de Mealy: Definición Una máquina secuencial (MS) es una tupla: M
Más detallesModelos de Markov ocultos Profile HMM. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica. MMO en Biologia Computacional
Modelos de Markov ocultos Profile HMM Departament d Estadística U.B. Estadística i Bioinformàtica Esquema del tema Alineamientos múltiples de secuencias (AMS) Representaciones de AMS: Patrones y Perfiles
Más detallesModelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D
Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del
Más detallesModelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Más detallesTeoría de Lenguajes. Clase Teórica 7 Autómatas de Pila y Lenguajes Independientes del Contexto Primer cuartimestre 2014
Teoría de Lenguajes Clase Teórica 7 Autómatas de Pila y Lenguajes Independientes del Contexto Primer cuartimestre 2014 aterial compilado por el Profesor Julio Jacobo, a lo largo de distintas ediciones
Más detallesSistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov.
Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema BT7: Algoritmo de Viterbi. Estimación de modelos de Markov. DSIC UPV: Octubre, 8 SIN-TemaBT7 índice
Más detallesAprendizaje por Refuerzo
Sesiones del Curso Máster en Ciencia y Tecnología Informática Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática Escuela Politécnica Superior Universidad Carlos III de Madrid 30 de
Más detallesModelos basados en autómatas probabilísticos
Modelos basados en autómatas probabilísticos Bioingeniería I FI UNER Organización Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos
Más detallesProcesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 10
Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios
Más detallesComplejidad Computacional
Análisis y Complejidad de Algoritmos Complejidad Computacional Arturo Díaz Pérez Lenguajes formales Gramáticas formales Jerarquía de Chomski Teoría de la complejidad Una desigualdad computacional Computabilidad
Más detallesÁlgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Tema 2 Mínimos cuadrados II Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J S ALAS, A T ORRENTE Y EJS V ILLASEÑOR Índice general
Más detallesCadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM
Cadenas de Markov Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadena de Markov Considere variable aleratorio X 0, X 1,... tomando valores en un conjunto finito o discreto, E. Entonces {X n } n 0 es
Más detallesProcesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Más detallesEstimación de variables no observables para la economía peruana
Estimación de variables no observables para la economía peruana XXX Encuentro de Investigación del BCRP Ismael Ignacio Mendoza Mogollón imendoza@mef.gob.pe Octubre 2012 XXX Encuentro de Economistas (Institute)
Más detallesTeoría Espectral. Stephen B. Sontz. Centro de Investigación en Matemáticas, A.C. (CIMAT) Guanajuato, Mexico
Teoría Espectral Stephen B. Sontz Centro de Investigación en Matemáticas, A.C. (CIMAT) Guanajuato, Mexico Mini-curso impartido en Colima 29 septiembre 2016 - Tercer día Introducción Hay dos dichos populares
Más detallesPerfiles y modelos ocultos de Markov
Perfiles y modelos ocultos de Markov Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 13 de junio del 2013 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Perfiles y modelos ocultos de Markov 13 de junio del 2013
Más detallesDescripción de los Lenguajes Aceptados por Autómatas
Descripción de los Lenguajes Aceptados por Autómatas Los Teoremas de Kleene Universidad de Cantabria Esquema 1 2 3 Lenguajes Aceptados por Autómatas Como repaso, tenemos un problema de respuesta Si/No
Más detallesRedes de Petri Estocásticas (II)
Redes de Petri Estocásticas (II) Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Formalmente una red de Petri estocástica es por tanto una 7 upla SPN=(P,T,I(),O(),H(),W(),Mo)
Más detallesIntroducción a los Modelos de Markov ocultos. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica
Introducción a los Modelos de Markov ocultos Departament d Estadística U.B. Estadística i Bioinformàtica Esquema de la exposición Introducción a los MMO Tipos de problemas que podemos resolver Aplicaciones
Más detallesGeneración de variables aleatorias continuas Método de rechazo
Generación de variables aleatorias continuas Método de rechazo Georgina Flesia FaMAF 18 de abril, 2013 Método de Aceptación y Rechazo Repaso Se desea simular una v. a. X discreta, con probabilidad de masa
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 8
Maestría en Bioinformática Probabilidad y Estadística: Clase 8 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Reversión temporal Cadena
Más detallesDescomposición en forma canónica de Jordan (Segunda versión)
Descomposición en forma canónica de Jordan (Segunda versión) Francisco J. Bravo S. 1 de septiembre de 211 En esta guía se presentan los resultados necesarios para poder construir la forma de Jordan sin
Más detallesTema 4: Gramáticas independientes del contexto. Teoría de autómatas y lenguajes formales I
Tema 4: Gramáticas independientes del contexto Teoría de autómatas y lenguajes formales I Bibliografía Hopcroft, J. E., Motwani, R., y Ullman, J. D. Introducción a la Teoría de Autómatas, Lenguajes y Computación.
Más detallesMay 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN
May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p
Más detalles1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.
Capítulo 5 Campos finitos 5.1. Introducción Presentaremos algunos conceptos básicos de la teoría de los campos finitos. Para mayor información, consultar el texto de McEliece [61] o el de Lidl y Niederreiter
Más detallesPROGRAMACIÓN II AÑO 2009 TALLER 3: TEORÍA DE LENGUAJES Y AUTÓMATAS
Licenciatura en Sistemas de Información PROGRAMACIÓN II AÑO 2009 TALLER 3: TEORÍA DE LENGUAJES Y AUTÓMATAS UNSE FCEyT 1. DESCRIPCIÓN Este taller consta de tres partes. En cada una de ellas se especifican
Más detallesHacia las Gramáticas Propias
Hacia las Gramáticas sin Ciclos Universidad de Cantabria Esquema 1 Introducción 2 3 Introducción Las gramáticas libres de contexto pueden presentar diferentes problemas. Ya hemos visto como eliminar los
Más detallesHMMs. Área de Tratamiento de Voz y Señales, Escuela Politécnica Superior Universidad Autónoma de Madrid.
HMMs Doroteo Torre Toledano y Joaquín n González Rodríguez Área de Tratamiento de Voz y Señales, http://atvs.ii.uam.es/ Escuela Politécnica Superior Universidad Autónoma de Madrid 1 Índice 1. Introducción
Más detalles1 er Parcial Febrero 2009
Autómatas y Lenguajes Formales 3 o Ingeniería Informática 1 er Parcial Febrero 2009 Normas : La duración de esta parte del examen es de 2,5 horas. Todos los ejercicios se entregarán en hojas separadas.
Más detallesUna invitación al estudio de las cadenas de Markov
Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de
Más detallesCadenas de Markov Cálculos probabilísticos con RCommander
Sesión 3 Cadenas de Markov. En la teoría de la probabilidad, se conoce como cadena de Markov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende
Más detallesNicolás Rivera. 20 de Marzo de 2012
Gramáticas Libre de Contexto Aleatorias. Nicolás Rivera 20 de Marzo de 2012 Pontificia Universidad Católica de Chile Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción
Más detallesEtiquetación con modelos de máxima entropía
Etiquetación con modelos de máxima entropía Miguel A. Alonso Departamento de Computación, Facultad de Informática, Universidade da Coruña 1 / 26 Índice 1 Introducción 2 Regresión Regresión lineal Regresión
Más detallesTema 6. Reconocimiento de voz
Tema 6. Reconocimiento de voz 6.1.- Introducción 6.2.- Problemática 6.3.- Clasificación 6.4.- Esquema de trabajo 6.5.- Técnicas de reconocimiento 6.6.- Conclusiones 6.1.- Introducción Reconocimiento de
Más detallesPROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0,75 (1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:
Más detallesTeoría de Colas Modelo G/M/1 y G/M/k
Teoría de Colas Modelo G/M/1 y G/M/k Rodrigo Salas Fuentes Universidad Técnica Federico Santa María Departamento de Informática Profesor: Héctor Allende 1 Introducción En este trabajo
Más detallesTema 4 - Introducción
Tema 4 - Introducción 1 Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Cómo obtener estimadores? Tema
Más detallesAnálisis de Sensibilidad de los Resultados
Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 22 Análisis de Sensibilidad de los Resultados ICS 02 Optimización Profesor : Claudio Seebach
Más detallesPérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.
Pérdida Esperada Uno de los objetivos de este estudio es construir una función de pérdidas para el portafolio de la cartera de préstamos que ofrece la entidad G&T Continental, basados en el comportamiento
Más detallesProf. Virginia Mazzone - Mariana Suarez
SISTEMAS NO LINEALES SISTEMAS DE SEGUNDO ORDEN Prof. Virginia Mazzone - Prof. Mariana Suarez 1 Introducción Método de isoclinas Ejemplos 3 Introducción Un sistema de segundo orden autónomo está representado
Más detalles2.1 Introducción. Propiedades.
19 2 MATRICES II: DETERMINANTES En este segundo capítulo de matrices, aprenderemos a utilizar una herramienta muy importante como son los determinantes Gracias a ellos, podremos calcular la inversa de
Más detallesCadenas de Markov. Distribuciones estacionarias. El algoritmo PageRank.
Sesión 5 Cadenas de Markov. Distribuciones estacionarias. El algoritmo PageRank. Recordemos que una secuencia {X n } n de variables aleatorias con valores en un espacio finito Ω se denomina cadena de Markov
Más detallesCONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Más detallesTÉCNICAS INTELIGENTES EN BIOINFORMÁTICA. Alineamiento múltiple de secuencias
TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA Alineamiento múltiple de secuencias Mario de J. Pérez Jiménez Grupo de investigación en Computación Natural Dpto. Ciencias de la Computación e Inteligencia Artificial
Más detallesMilton Orlando Sarria Paja
Universidad Nacional de Colombia Sede Manizales Maestría en Ingeniería - Automatización Industrial Facultad de Ingeniería y Arquitectura Departamento de Ingeniería Eléctrica, Electrónica y Computación
Más detallesCONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario
CONTENIDOS 1. Definición de Cadena de Markov en Tiempo Continuo 2. Comportamiento de transición 3. Comportamiento estacionario 4. Procesos de nacimiento y muerte 1. Definición de Cadena de Markov en Tiempo
Más detallesProcesos estocásticos. Primera Prueba 1
08513. Procesos estocásticos. Primera Prueba 1 Problema 1. El número de partículas en una región del espacio evoluciona de la siguiente manera: en cada unidad de tiempo, cada partícula contenida en ella
Más detallesCadenas de Markov. José Antonio Camarena Ibarrola
Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el
Más detallesPROCESOS ESTOCÁSTICOS
Capítulo 10 Cadenas de Markov PROCESOS ESTOCÁSTICOS Una sucesión de observaciones X 1,X 2,... se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero
Más detallesProcesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26
Procesos de ramificación y árboles aleatorios. Juan Carlos Pardo Millán CIMAT, Guanajuato 1/ 26 Progama: Preliminares de probabilidad. Cadenas de Markov. Caminatas aleatorias. Procesos de Bienaymé-Galton-Watson.
Más detallesDadas dos secuencias, X = (x 1 x 2 x m ) e Y = (y 1 y 2 y n ), encontrar la forma de alinearlas con un coste mínimo.
Análisis y Diseño de Algoritmos Aplicaciones Aplicaciones Bioinformática: Alineación de secuencias de ADN Ingeniería del Software: Detección de clones (fragmentos de código duplicado) Procesamiento del
Más detallesDefinición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)
Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo
Más detallesClustering para la inicialización de HMM en RAH. Jorge Luis Guevara Díaz
Clustering para la inicialización de HMM en RAH Jorge Luis Guevara Díaz Introducción Introducción Definicion de RAH Formulación Arquitectura Extracción de características Modelo acústico Modelo del lenguaje
Más detallesCálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov
Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de
Más detallesPráctica 5 Martingalas a tiempo discreto
Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.
Más detallesLa Representación de las Gramáticas
La Representación de las Gramáticas El Generador del Lenguaje Universidad de Cantabria Esquema 1 Introducción 2 3 4 Introducción Las gramáticas libres de contexto son más generales que las gramáticas regulares.
Más detallesEconometría Aplicada
Econometría Aplicada y función de Verosimilitud Víctor Medina Los objetivos de esta parte del curso principalmente son: 1. Dar algunos ejemplos de decisiones económicas donde la variable dependiente es
Más detallesOPTIMIZACIÓN DINÁMICA
OPTIMIZACIÓN DINÁMICA Francisco Alvarez González fralvare@ccee.ucm.es TEMA 6 Algunas aplicaciones del principio del máximo de Pontryagin 1. Modelo de Ramsey en horizonte finito sin descuento.. Recursos
Más detallesIngeniería de Telecomunicación. Señales y Sistemas II PRÁCTICA 1 DETECCIÓN DE SEÑALES EN PRESENCIA DE INTERFERENCIA ADITIVA GAUSSIANA
Ingeniería de Telecomunicación PRÁCTICA 1 DETECCIÓN DE SEÑALES EN PRESENCIA DE INTERFERENCIA ADITIVA GAUSSIANA CURSO 2008 / 2009 Departamento de Teoría de la Señal y Comunicaciones Práctica 1: Detección
Más detallesExpresiones Regulares
Conjuntos Regulares y Una forma diferente de expresar un lenguaje Universidad de Cantabria Conjuntos Regulares y Esquema 1 Motivación 2 Conjuntos Regulares y 3 4 Conjuntos Regulares y Motivación El problema
Más detallesTeoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial)
Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) 1. Calcular la tasa de entropía H r de una fuente de Markov estacionaria con m símbolos, con probabilidades
Más detallesTIPOS DE GRAMATICAS JERARQUIAS DE CHOMSKY
TIPOS DE GRAMATICAS JERARQUIAS DE CHOMSKY Para el estudio de este tema es necesario analizar dos tipos de gramáticas de la clasificación de Chomsky, las regulares y las independientes de contexto, las
Más detallesProcesadores de Lenguaje
Procesadores de Lenguaje Repaso TALF Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias Ing. Informática Primavera de 2013 La Jerarquía de Chomsky Cuatro niveles de lenguajes formales
Más detallesCuadratura Gaussiana basada en polinomios ortogonales.
Clase No. 20: MAT 251 Cuadratura Gaussiana basada en polinomios ortogonales. Dr. Alonso Ramírez Manzanares CIMAT, A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña
Más detallesANÁLISIS ECONÓMICO I Solucionario Examen Parcial
UNIVERSIDAD NACIONAL DE INGENIERÍA FACULTAD DE INGENIERÍA ECONÓMICA Y CC.SS. Código Fecha / / Nota ANÁLISIS ECONÓMICO I Solucionario Examen Parcial TIEMPO ESTIMADO: 1:30 Hrs. I. Desarrolle cada concepto
Más detallesCadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov
Cadenas de Markov Hace más de un siglo se escribió el primer trabajo seminal sobre Cadenas de Markov y aún siguen siendo un instrumento tremendamente útil de modelación estocástica. Su importancia obedece
Más detallesTEMA V. Espacios vectoriales
TEMA V. Espacios vectoriales 1 1. Demostrar que cada uno de los siguientes conjuntos tiene estructura de espacio vectorial sobre el cuerpo de los reales: a El conjunto (R 2, +,, R. b El conjunto (R 3,
Más detallesUn canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino.
Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Se dice que un canal es ruidoso si la lectura de los datos
Más detallesPRÁCTICA I. Ejercicios Teóricos
PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las
Más detallesHacia las Gramáticas Propias II
Hacia las Hacia las II Gramáticas sin Ciclos Universidad de Cantabria Outline Hacia las 1 Hacia las 2 3 Definición Hacia las Definición Diremos que una gramática libre de contexto G := (V, Σ, Q 0, P) es
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 4
Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios
Más detallesINTRODUCCIÓN A LOS LENGUAJES
INTRODUCCIÓN A LOS LENGUAJES 1 Definición de lenguaje 2 Lenguajes formales 2.1 Requisitos 2.2 Aplicaciones 2.3 Especificación 2.4 Gramáticas 2.4.1 Definición y Ejemplos 2.4.2 Ambigüedad 2.4.3 Clasificación
Más detallesMartingalas. Procesos Estocásticos. Marzo 2012 UC3M
Martingalas Procesos Estocásticos UC3M Marzo 2012 Martingalas Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que, pensemos
Más detallesEstadística Bayesiana
Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.
Más detallesIngeniería en Instrumentos Derivados. Opciones 1
Ingeniería en Instrumentos Derivados Opciones 1 Alvaro Díaz Valenzuela Dottore in Matematica Magíster en Ciencias de la Ingeniería 12 de noviembre de 2010 Índice Opciones Definiciones Estrategias con Opciones
Más detalles(x) = 1 si P (Y = 1 X = x) P (Y = 0 X = x) P (Y = 0 X = x) > P (Y = 1 X = x) P (X = x Y = 0)P (Y = 0) > P (X = x Y = 1)P (Y = 1)
1 1. Conceptos generales de clasificación 2. Clasificador k-vecino más cercano 3. Clasificador Bayesiano óptimo 4. Análisis discriminante lineal (LDA) 5. Clasificadores lineales y el Modelo perceptrón
Más detallesRectas y Planos en el Espacio
Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. septiembre 2012 Verónica Briceño V. () Rectas y Planos en el Espacio septiembre 2012 1 / 20 En esta Presentación... En esta
Más detallesAncho de banda efectivo para cadenas de Markov escondidas
Ancho de banda efectivo para cadenas de Markov escondidas L.Aspirot, P.Bermolen * Marzo de 2004 Resumen Compartir recursos es uno de los objetivos en las redes modernas y un problema importante es estimar
Más detallesUniversidad Austral de Chile Escuela de Ingeniería Comercial
Escuela de Ingeniería Comercial Ayudantía # 03: Crecimiento, inflación Profesor: Carlos R. Pitta 1 1 cpitta@spm.uach.cl COMENTES Comente 01: En el equilibrio de mediano y largo plazo, la economía alcanza
Más detallesEjercicios resueltos del capítulo 4
Ejercicios resueltos del capítulo 4 Ejercicios impares resueltos..a Calcular los autovalores y subespacios invariantes asociados a la matriz: A = Calculamos el polinomio característico y resolvemos: λ
Más detalles