Sistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov.
|
|
- Dolores Páez Montoya
- hace 5 años
- Vistas:
Transcripción
1 Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema BT7: Algoritmo de Viterbi. Estimación de modelos de Markov. DSIC UPV: Octubre, 8 SIN-TemaBT7 índice Algoritmo de Viterbi Aprendizaje: estimación de probabilidades en modelos de Markov Inicialización de la re-estimación por Viterbi DSIC UPV: Octubre, 8 Página BT7.
2 SIN-TemaBT7 Aproximación de Viterbi a P (y M) Dado un modelo oculto de Markov M = (Q, Σ, π, A, B) con estado final F, y una cadena y = y y m Σ +, la probabilidad de que M genere y es: P (y M) = P (y, z) = P (y, q,..., q m ) z Q + q,...,q m Q + Una aproximación a P (y M) es la llamada aproximación de Viterbi: P (y M) = max q,...,q m Q + P (y, q,..., q m ) La correspondiente secuencia de estados más probable es: q = ( q,..., q m ) = argmax P (y, q,..., q m ) q,...,q m Q + En general este cálculo tiene un coste exponencial ya que el número de secuencias de estados crece exponencialmente con m. DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Algoritmo de Viterbi Definimos V (q, t) como la probabilidad máxima de que un modelo oculto de Markov M alcance el estado q en el instante t, emitiendo el prefijo y... y t : V (q, t) = max q,...,q t q t =q V (q, t) puede calcularse recursivamente: V (q, t) = max q,...,q t q t =q P (y y t, q,..., q t ) P (y y t, q,..., q t ) = max q Q max q,...,q t q t =q P (y y t, q,..., q t ) A q,q B q,yt = max q Q V (q, t ) A q,q B q,yt π q B q,y si t = En general: V (q, t) = max V q Q (q, t ) A q,q B q,yt si t > DSIC UPV: Octubre, 8 Página BT7.
3 SIN-TemaBT7 Algoritmo de Viterbi (cont.) Aproximación de Viterbi a P (y M): P (y M) = max q Q V (q, y ) A q,f La función V () puede representarse como una matriz: V q,t V (q, t). Esta matriz define un grafo multietapa denominado trellis y permite el cálculo iterativo eficiente de V (q, y ) por Programación Dinámica. La correspondiente secuencia óptima de estados, q, se calcula recorriendo el trellis hacia atrás. Complejidad temporal del algoritmo: O(mb), donde m es la longitud de la cadena y b es el número de transiciones entre estados. DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Algoritmo de Viterbi: ejemplo b c b a I F.8 DSIC UPV: Octubre, 8 Página BT7.5
4 SIN-TemaBT7 Algoritmo de Viterbi: ejercicio Sea M un modelo con: Q = {,,, F } Σ = {a, b, c} π = π =, π = A F B a b c. Halla el trellis para la cadena abc.. Obtén la secuencia óptima de estados asociada. DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Ejercicio: solución V a t = = = 8 F b t = = 8 8 = 7 = 8 = 9 = 8 = 8 c t = 8 = 5 = 57 = 8 = 9 = 9 = 8 = 78 = 8 = 5 57 = 9 = 5 = 5 Q = (,,, F ) DSIC UPV: Octubre, 8 Página BT7.7
5 SIN-TemaBT7 Ejercicio: presentación gráfica de la solución I a b c DSIC UPV: Octubre, 8 F 5 Página BT7.8 SIN-TemaBT7 Clasificación sintáctico-estadística mediante Viterbi En la práctica, las probabilidades condicionales de las clases suelen aproximarse mediante Viterbi. Consideremos el ejercicio de la página 8 del tema 5. P (y M A ) = max(p (aab, q q q = A), P (aab, q q q = A), P (aab, q q q = A)) = max(.5,.8,.8) =.5 P (y M B ) = max(p (aab, q q q = B), P (aab, q q q = B)) = max(.8,.8) =.8 P (A y) = P (y M A ) P (A) P (y c ) P (c ) = c P (B y) = P (A y) = =.555 c(y) = argmax c=a,b DSIC UPV: Octubre, 8 P (c y) = A resultado idéntico al obtenido mediante Forward Página BT7.9
6 SIN-TemaBT7 PÁGINA INTENCIONADAMENTE EN BLANCO DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 índice Algoritmo de Viterbi Aprendizaje: estimación de probabilidades en modelos de Markov Inicialización de la re-estimación por Viterbi DSIC UPV: Octubre, 8 Página BT7.
7 SIN-TemaBT7 Estimación de probabilidades de un modelo de Markov Problema: Estimar las probabilidades de un modelo de Markov, M, mediante una secuencia de cadenas de entrenamiento Y = {y,..., y n } extraidas independientemente de acuerdo con la ley de probabilidad P (y M). Como las cadenas se han extraído independientemente: P (Y M) = n P (y k M) k= El estimador de máxima verosimilitud de M es: ˆM = argmax M n k= P (y k M) argmax M n k= P (y k M) DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Estimación mediante el algoritmo de Viterbi Idea básica: Analizar todas las cadenas Y, contabilizando las frecuencias de uso de las transiciones entre estados, de generación de símbolos en cada estado, etc. y normalizar adecuadamente. Problema: Cómo analizar las cadenas si no se conocen las probabilidades de del modelo? Una posible solución:. Inicializar las probabilidades adecuadamente. Analizar cada cadena de Y mediante el algoritmo de Viterbi y obtener la secuencia de estados correspondiente. A partir de esta secuencia de estados, contabilizar las frecuencias requeridas.. Normalizar las frecuencias para obtener nuevas probabilidades del modelo 5. Repetir pasos - hasta convergencia. DSIC UPV: Octubre, 8 Página BT7.
8 SIN-TemaBT7 Estimación mediante el algoritmo de Viterbi: ejemplo Se dispone de tres cadenas de contorno de -direcciones que representan tres dígitos siete manuscritos. A partir de estas cadenas se desea re-estimar las probabilidades de un modelo de Markov para estos dígitos. Utilizando el algoritmo de Viterbi se han obtenido las siguientes secuencias óptimas de estados para cada cadena: Cadena: Secuencia óptima de estados: Cadena: Secuencia óptima de estados: Cadena: Secuencia óptima de estados: aaaaaddcdcdcdcdccbabaabababccccb F aaaaaddcdcdcdccdcbabababaabcccdcbb F aaaadcdcdcdcdcdcbababababccdccbaab F Para mayor claridad se representan los trazos horizontales como =a, =c y los verticales como =b, =d. DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Estimación mediante el algoritmo de Viterbi: ejemplo (cont.) π = / = π = π = π = A F A F B a b c d B a b c d DSIC UPV: Octubre, 8 Página BT7.5
9 SIN-TemaBT7 Algoritmo de reestimación por Viterbi Input: M = (Q, Σ, π, A, B ) /* Modelo inicial */ Y = {y,..., y n } /* cadenas de entrenamiento */ Output: M = (Q, Σ, π, A, B) /* Modelo optimizado */ M = M repeat M = M; π = ; A = ; B = for k = to n do m = y k /* secuencia de estados más probable para y k, */ q,..., q m = argmax q,...,q m P (y k, q,..., q m M ) /* por Viterbi */ π q ++; B q,y k, ++ /* actualización de contadores */ for t = to m do A qt, q t ++; B qt,y k,t ++ done; A qm,f ++ done s = q Q π q forall q Q do /* normalización de contadores */ π q = π q /s a = q Q A q,q ; forall q Q do A q,q = A q,q /a b = σ Σ B q,σ; done forall σ Σ do B q,σ = B q,σ /b until M = M DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Reestimación por Viterbi: ejercicio Sea M un modelo de Markov de conjunto de estados Q = {,, F }; alfabeto Σ = {a, b}; probabilidades iniciales π () =.7, π () =.; y probabilidades de transición entre estados y de emisión de símbolos: A F B a b.... Reestima los parámetros de M mediante una iteración de reestimación por Viterbi, a partir de las cadenas de entrenamiento a a a y b b a. DSIC UPV: Octubre, 8 Página BT7.7
10 SIN-TemaBT7 Ejercicio: secuencias de estados mas probables I a a a F. I b b a F.88 Los pares cadena-secuencia óptima de estados obtenidos son: DSIC UPV: Octubre, 8 a a a b b a F F Página BT7.8 SIN-TemaBT7 Ejercicio: parámetros reestimados ˆπ () = = ˆπ () = = A F B a b DSIC UPV: Octubre, 8 Página BT7.9
11 SIN-TemaBT7 índice Algoritmo de Viterbi Aprendizaje: estimación de probabilidades en modelos de Markov Inicialización de la re-estimación por Viterbi DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Inicialización de la re-estimación por Viterbi Una idea elemental: Inicializar todas las probabilidades según distribuciones equiprobables. Problema: Suele producir problemas de convergencia o convergencia a máximos locales inadecuados. Una idea útil para modelos lineales: Segmentar cada cadena de Y en tantos segmentos de (aproximadamente) la misma longitud como estados tenga el modelo de Markov. Asignar los símbolos de cada segmento a su correspondiente estado Contabilizar las frecuencias de generación y transición Normalizar las frecuencias para obtener probabilidades iniciales requeridas DSIC UPV: Octubre, 8 Página BT7.
12 SIN-TemaBT7 Inicialización por segmentación lineal: Ejemplo Obtener un modelo de Markov de N = estados mediante segmentación lineal a partir de las cadenas y = aabbbcc y = aaabbccc Q = {,,, F } Σ = {a, b, c} q = t N + : y + aabbbcc aaabbccc π =, π = π = A F 5 5 B a b c DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Inicialización por segmentación lineal Input: Y = {y,..., y n }, N /* cadenas de entrenamiento, número de estados */ Output: M = (Q, Σ, π, A, B) /* modelo */ Q = {,,..., N, F }; Σ = {y y k Y } /* estados y símbolos */ π = ; A = ; B = /* inicialización de contadores */ for k = to n do /* actualización de contadores por */ q = ; π q ++; B q,yk, ++ /* alineamiento lineal de y k con los estados */ for t = to y k do q t = q; q = y k + N + ; A q,q++; B q,yk,t ++ done A q,f ++ done s = q Q π q forall q Q do /* normalización de contadores */ π q = π q / s a = q Q A q,q ; forall q Q do A q,q = A q,q / a b = σ Σ B q,σ ; forall σ Σ do B q,σ = B q,σ / b done DSIC UPV: Octubre, 8 Página BT7.
Maestría en Bioinformática Probabilidad y Estadística: Clase 13
Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models
Más detallesExamen de Teoría de (Introducción al) Reconocimiento de Formas
Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:
Más detallesCurso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detallesModelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 5: Modelos Ocultos de Markov Modelos Ocultos de Markov Cadenas de Markov Preguntas básicas Aplicación: orden en Google Modelos Ocultos de Markov
Más detallesBases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción
Más detallesIntroducción a los Modelos de Markov ocultos. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica
Introducción a los Modelos de Markov ocultos Departament d Estadística U.B. Estadística i Bioinformàtica Esquema de la exposición Introducción a los MMO Tipos de problemas que podemos resolver Aplicaciones
Más detallesModelos de Markov Ocultos (HMM)
Modelos de Markov Ocultos (HMM) Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento
Más detallesProcesamiento de voz - Reconocimiento de voz II
Procesamiento de voz - Reconocimiento de voz II Marc S. Reßl Roxana Saint-Nom 2009 Ingeniería Electrónica Instituto Tecnológico de Buenos Aires Reconocimiento de voz Las técnicas que vimos hasta ahora
Más detallesModelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D
Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del
Más detallesCadenas de Markov Ocultas
Nicolás Carrère Análisis Inteligente de Datos Departamento de Informática Universidad Técnica Federico Santa María Valparaíso, 24 de Noviembre de 2005 1 2 3 4 Temario Las cadenas de Markov pueden ser representadas
Más detallesAprendizaje por Refuerzo
Sesiones del Curso Máster en Ciencia y Tecnología Informática Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática Escuela Politécnica Superior Universidad Carlos III de Madrid 30 de
Más detallesModelos Ocultos de Markov Continuos
Modelos Ocultos de Markov Continuos José Antonio Camarena Ibarrola Modelos Ocultos de Markov Continuos p.1/15 Idea fundamental Los Modelos Ocultos de Markov Discretos trabajan con secuencias de observaciones
Más detallesPerfiles y modelos ocultos de Markov
Perfiles y modelos ocultos de Markov Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 13 de junio del 2013 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Perfiles y modelos ocultos de Markov 13 de junio del 2013
Más detallesSistemas Inteligentes. Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias.
Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias. Índice 1 Introducción 1 2 Agrupamientos particionales
Más detallesTÉCNICAS INTELIGENTES EN BIOINFORMÁTICA. Alineamiento múltiple de secuencias
TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA Alineamiento múltiple de secuencias Mario de J. Pérez Jiménez Grupo de investigación en Computación Natural Dpto. Ciencias de la Computación e Inteligencia Artificial
Más detallesProcesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos. Dpto. Ciencias de la Computación e Inteligencia Artificial
Procesos de Markov José Luis Ruiz Reina Franciso J. Martín Mateos Dpto. Ciencias de la Computación e Inteligencia Artificial Ampliación de Inteligencia Artificial, 2014-2015 Contenido Cadenas de Markov
Más detallesAprendizaje Automático
Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática
Más detallesDepartamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid
COMUNICACIONES DIGITALES AVANZADAS 4 DISEÑO DE RECEPTORES DE COMUNICACIONES MARCELINO LÁZARO Departamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid mlazaro@tscuc3mes Igualación
Más detallesProcesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz
Procesos de Markov José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Cadenas de Markov Modelos
Más detallesÍndice general 7. Presentación 15
ÍNDICE GENERAL Índice general 7 Presentación 15 1. Introducción 19 1.1. Antecedentes históricos de la computación................... 19 1.2. Definiciones previas............................... 24 1.3.
Más detallesIntroducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada
Clustering Clasificación no supervisada Javier G. Sogo 10 de marzo de 2015 1 Introducción 2 Clustering jerárquico 3 Clustering particional 4 Clustering probabilista 5 Conclusiones Introducción Objetivos
Más detallesSesión 7: Campos de Markov
Sesión 7: Campos de Markov Campos de Markov Introducción Modelo de Ising Representación Tipos de Modelos Redes de Markov Vecindades Algoritmos ICM, Metrópolis, Recocido Simulado Aplicaciones Visión L.E.
Más detallesEtiquetado gramatical
Etiquetado gramatical ITALICA Universidad de Sevilla José A. Troyano Índice Introducción Etiquetado con el modelo de Markov Etiquetado con el modelo de Markov oculto Etiquetado transformacional Precisión
Más detallesProcesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Más detallesAprendizaje y Percepción
Aprendizaje y Percepción Facultad de Informática Universidad Politécnica de Valencia Tema 2: Preproceso y Extracción de Características: Imágenes Enrique Vidal, Alfons Juan, Roberto Paredes, Jorge Civera
Más detallesEl método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema.
Práctica 8 Cálculo de autovalores 8.1. Método de la potencia El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema. Teorema 8.1.1 (M. de la potencia]
Más detallesProgramación dinámica
Parte de Algoritmos de la asignatura de Programación Master de Bioinformática Programación dinámica Web asignatura: http://dis.um.es/~domingo/algbio.html E-mail profesor: domingo@um.es Transparencias preparadas
Más detallesModelos de Markov ocultos Profile HMM. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica. MMO en Biologia Computacional
Modelos de Markov ocultos Profile HMM Departament d Estadística U.B. Estadística i Bioinformàtica Esquema del tema Alineamientos múltiples de secuencias (AMS) Representaciones de AMS: Patrones y Perfiles
Más detallesGrado en ESTADÍSTICA APLICADA 258 ECTS
MATERIAS BÁSICAS (60 ECTS) Obligatorio 1.- Descripción y Exploración de datos (ESTADÍSTICA - RAMA) 2.- Azar y probabilidad (ESTADÍSTICA - RAMA) 3.- Estimación I (OB) (ESTADÍSTICA - RAMA) 4.- Software estadístico
Más detallesCódigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino
Códigos IRA Máster en Multimedia y Comunicaciones Comunicaciones Digitales Luca Martino Codificación de Canal! Supongamos tener un canal binario discreto, simétrico sin memoria:! Objetivo: encontrar una
Más detallesÁlgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Tema 2 Mínimos cuadrados II Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J S ALAS, A T ORRENTE Y EJS V ILLASEÑOR Índice general
Más detallesEtiquetación con modelos de máxima entropía
Etiquetación con modelos de máxima entropía Miguel A. Alonso Departamento de Computación, Facultad de Informática, Universidade da Coruña 1 / 26 Índice 1 Introducción 2 Regresión Regresión lineal Regresión
Más detallesString Matching. Análisis y diseño de algoritmos II
Análisis y diseño de algoritmos II Encontrar todas las ocurrencias de un patrón en un texto. Texto Patrón a b c a b a a b c a a b a a b a c Aplicaciones Funcionalidad de editores de texto Patrones en secuencias
Más detallesCálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov
Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de
Más detallesAlgoritmos voraces (greedy)
Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 21 de marzo de 2018 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Algoritmos voraces 21 de marzo de 2018 1 / 45 1 Algoritmos voraces (greedy) Aplicaciones de
Más detallesReconocimiento de voz mediante Modelos Ocultos de Markov
Reconocimiento de voz mediante Modelos Ocultos de Markov Adriana Becerra, Marcela Gómez, María Fernanda Ordóñez, Byron Macas, Ing. Janeth Chic August 3, 2009 Abstract El presente proyecto tiene como nalidad
Más detallesCONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario
CONTENIDOS 1. Definición de Cadena de Markov en Tiempo Continuo 2. Comportamiento de transición 3. Comportamiento estacionario 4. Procesos de nacimiento y muerte 1. Definición de Cadena de Markov en Tiempo
Más detallesValores y vectores propios. Laboratorio de Matemáticas
Valores y vectores propios Laboratorio de Matemáticas Conceptos básicos v vector propio asociado al valor propio λ Av = λ v Polinomio característico de la matriz A p(λ) = det(a- λ I) Ecuación característica
Más detallesLicenciatura de Matemáticas Informática I Notación algorítmica - Descripción BNF
Licenciatura de Matemáticas Informática I Notación algorítmica - Descripción BNF Dpto. Informática Noviembre 1998 1. Deniciones en forma BNF < > Símbolos no terminales. Declaraciones u objetos declarados
Más detallesOrganización. Autómatas probabilísticos (AEFP) Definición de Autómata. Modelo de Markov. Ejemplo de AEFP. Modelos basados en autómatas probabilísticos
Organización Modelos basados en autómatas probabilísticos Bioingeniería I Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos
Más detallesTópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones
Tópicos Selectos en Aprendizaje Maquinal Guía de Trabajos Prácticos N 1 Algoritmos para Reconocimiento de Patrones 18 de septiembre de 2014 1. Objetivos Introducir conceptos básicos de aprendizaje automático.
Más detallesOBJETIVOS DE LAS MATEMÁTICAS APLICADAS A LAS CIENCIAS
2º BACHILLERATO DE CIENCIAS SOCIALES OBJETIVOS DE LAS MATEMÁTICAS APLICADAS A LAS CIENCIAS SICIALES II CONTENIDOS DE LAS MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II CRITERIOS DE EVALUACIÓN DE LAS
Más detallesTema 8: Métodos de cadenas de Markov Monte Carlo
Tema 8: Métodos de cadenas de Markov Monte Carlo Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Introducción Los métodos de cadenas
Más detallesClasificación estadística de patrones
Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de
Más detallesAprendizaje por Refuerzo
Aprendizaje por Refuerzo Ciencias de la Computación e Inteligencia Artificial Índice 6.1 Introducción 6.2 Elementos del aprendizaje 6.4 Definición del problema 6.5 Programación Dinámica 6.6 Método de Monte
Más detallesSesión 8: Campos de Markov
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 8: Campos de Markov la verdadera lógica de este mundo es el cálculo de probabilidades, que toma en cuanta la magnitud de las probabilidades,
Más detallesAprendizaje y Percepción. Tema 8: Métodos Sintáctico/Estructurales: Modelos de Markov
prendizje y Percepción Fcultd de Informátic Universidd Politécnic de Vlenci Tem 8: Métodos Sintáctico/structurles: lfons Jun, nrique Vidl, Roberto Predes, Jorge Civer DSIC UPV: nero, Índice Introducción:
Más detallesIDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA
IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud
Más detallesECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica
ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación
Más detallesModelos basados en autómatas probabilísticos
Modelos basados en autómatas probabilísticos Bioingeniería I FI-UNER Organización Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos
Más detalles3. Estructuras iterativas. 1.2 Análisis: For. 1.1 Problemas iterativos. Fundamentos de Informática Dpto. Lenguajes y Sistemas Informáticos
3. Estructuras iterativas Índice Estructura iterativas Fundamentos de Informática Dpto. Lenguajes y Sistemas Informáticos Curso 2012 / 2013 1. Análisis de algoritmos iterativos 2. Ej11: 3. Ej12: 4. Ej13:
Más detallesClasificación de sistemas
Capítulo 2 Clasificación de sistemas 2.1 Clasificación de sistemas La comprensión de la definición de sistema y la clasificación de los diversos sistemas, nos dan indicaciones sobre cual es la herramienta
Más detallesAlgoritmos y Estructuras de Datos Tema 2: Diseño de Algoritmos
Algoritmos y Estructuras de Datos Tema 2: Diseño de Algoritmos 1! 1. Algoritmos recursivos " 1.1 Algoritmos recursivos. Recursión simple " 1.2 Algoritmos con vuelta atrás y ejemplos! 2. Complejidad de
Más detallesMarcel Goic
IN5602 Marketing II Modelos de Comportamiento: Estimación y Heterogeneidad Marcel Goic (mgoic@dii.uchile.cl) Semestre Otoño 2012 1 Ejemplo Proyección de Retención de Clientes 2 Motivación Año #Clientes
Más detallesDefinición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)
Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo
Más detalles1. Diseñe algoritmos que permitan resolver eficientemente el problema de la mochila 0/1 para los siguientes casos:
PROGRAMACIÓN DINÁMICA RELACIÓN DE EJERCICIOS Y PROBLEMAS 1. Diseñe algoritmos que permitan resolver eficientemente el problema de la mochila /1 para los siguientes casos: a. Mochila de capacidad W=15:
Más detallesGeneración de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas
Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Georgina Flesia FaMAF 11 de abril, 2013 Método de Aceptación y Rechazo
Más detallesAnálisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
Más detallesTeoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial)
Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) 1. Calcular la tasa de entropía H r de una fuente de Markov estacionaria con m símbolos, con probabilidades
Más detallesBases estadísticas del reconocimiento de patrones
Bases estadísticas del reconocimiento de patrones César Martínez cmartinez _AT_ fich.unl.edu.ar Inteligencia Computacional FICH-UNL Percepción humana Tarea muuuuy simple: Cuántas llaves hay? Inteligencia
Más detallesBases Formales de la Computación: Redes de Bayes (segunda parte)
Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes
Más detallesAnálisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través
Más detallesESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción
Más detalles1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos
Guión 1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos Modelo de Moore y de Mealy: Definición Una máquina secuencial (MS) es una tupla: M
Más detallesNúmeros reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos.
MATEMÁTICAS I Contenidos. Aritmética y álgebra: Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos. Resolución e interpretación gráfica de ecuaciones e
Más detallesUso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano
Uso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano JOSÉ LUIS TRIVIÑO RODRIGUEZ RAFAEL MORALES BUENO FRANCISCO TRIGUERO RUÍZ JOSÉ LUIS PÉREZ DE LA CRUZ MOLINA Universidad
Más detallesComunicaciones Digitales
Trabajo Práctico Codificación de Fuente Comunicaciones Digitales E.1 Una fuente tiene un alfabeto {a1,a, a3, a4, a5, a6} con sus correspondientes probabilidades {0.1,0.,0.3,0.05,0.15,0.}. Encontrar la
Más detallesAutómatas Finitos Deterministicos (DFA)
Autómatas Finitos Deterministicos (DFA) Introducción a la Lógica Fa.M.A.F., Universidad Nacional de Córdoba 22//4 Info útil Bibliografía: Introducción a la teoría de autómatas, lenguajes y computación.
Más detallesALGORITMOS GENÉTICOS. En lugar de envidiar la naturaleza debemos emularla Holland
ALGORITMOS GENÉTICOS En lugar de envidiar la naturaleza debemos emularla Holland Algoritmos genéticos Algoritmos basados en los principios de la evolución natural Se utilizan en problemas donde no se pueden
Más detallesAutómatas Finitos Deterministicos (DFA)
Autómatas Finitos Deterministicos (DFA) Introducción a la Lógica y la Computación Fa.M.A.F., Universidad Nacional de Córdoba 26/0/6 Info útil Bibliografía: Introducción a la teoría de autómatas, lenguajes
Más detallesIntroducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia
4.3 Algoritmo de máxima pendiente Introducción al algoritmo de máxima pendiente Aplicación al filtro de Wiener Análisis de estabilidad y convergencia Otras técnicas de optimización Newton-Raphson Levemberg-Marquardt
Más detallesProcesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas
Más detallesESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía
ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía Novedades en el Plan de Trabajo Desviación típica sesgada
Más detallesAutómatas Finitos Deterministicos (DFA) Introducción a la Complejidad Computacional FFHA, Universidad Nacional de San Juan
Autómatas Finitos Deterministicos (DFA) Introducción a la Complejidad Computacional FFHA, Universidad Nacional de San Juan 206 Info útil Bibliografía: Introducción a la teoría de autómatas, lenguajes y
Más detallesAncho de banda efectivo para cadenas de Markov escondidas
Ancho de banda efectivo para cadenas de Markov escondidas L.Aspirot, P.Bermolen * Marzo de 2004 Resumen Compartir recursos es uno de los objetivos en las redes modernas y un problema importante es estimar
Más detallesCoeficientes Cepstrales en Frecuencia Mel y Dynamic Time Warping para Reconocimiento Automatico del Habla
Coeficientes Cepstrales en Frecuencia Mel y Dynamic Time Warping para Reconocimiento Automatico del Habla Jorge Luis Guevara Diaz Semana ciencia de la Computación Escuela de Informática Universidad Nacional
Más detallesEl Perceptrón Multicapa
El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del
Más detallesInferencia en tablas de contingencia
GoBack Inferencia en tablas de contingencia Guillermo Ayala Gallego Universidad de Valencia 15 de octubre de 2008 1 / 36 Distribución condicionada exacta Intervalo para los odds ratio Intervalo de la diferencia
Más detallesRedes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento
Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para
Más detallesUn lematizador desambiguado con R
Un lematizador desambiguado con R Carlos J. Gil Bellosta cgb@datanalytics.com Mayo 2013 Contenidos 1 Motivación: un discurso de Rajoy 2 Lematización basada en reglas Lematización basada en diccionarios
Más detallesAlgoritmos Cuánticos
Algoritmos Cuánticos Alfonsa García, Francisco García 1 y Jesús García 1 1 Grupo de investigación en Información y Computación Cuántica (GIICC) Algoritmos cuánticos 1. Introducción 2. Primeros algoritmos
Más detallesCadenas de Markov Horacio Rojo y Miguel Miranda
@ 71.07 Investigación Operativa > Cadenas de Markov Horacio Rojo y Miguel Miranda c 2009 Facultad de Ingeniería, Universidad de Buenos Aires Digitalizado por Virginia Guala $September 12, 2009 Cadenas
Más detallesMATEMÁTICAS APLICADAS A CCSS II
MATEMÁTICAS APLICADAS A CCSS II CONTENIDOS TEMA 1: Matrices, determinantes y sistemas. Concepto de matriz o tabla. Operaciones con matrices. Matriz identidad. Matriz inversa. Determinantes de orden 2 y
Más detallesCUERPO TÉCNICO, OPCION ESTADISTICA
CUERPO TÉCNICO, OPCION ESTADISTICA ESTADÍSTICA TEÓRICA BÁSICA TEMA 1. Fenómenos aleatorios. Conceptos de probabilidad. Axiomas. Teoremas de probabilidad. Sucesos independientes. Teorema de Bayes. TEMA
Más detallesTEMA 3: Estructuras de Control: Iterativas
UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA INTRODUCCIÓN A LA COMPUTACIÓN TEMA 3: Estructuras de Control: Iterativas Estructuras Iterarivas En la programación existen las
Más detallesESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía
ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía VIDEOCLASE: Introducción a la estimación de parámetros
Más detallesSimulación. Problema del jardinero. Modelo de stock aleatorio. Camino crítico.
Simulación Temario de la clase Introducción. Generacion de variables aleatorias: método de la transformada inversa. Avance del tiempo de simulación. Determinación de la cantidad de iteraciones requeridas.
Más detallesAPRENDIZAJE. Jairo Alfaro / María Fernanda Jiménez / Mauricio Pandolfi / Cristian Vargas
APRENDIZAJE Jairo Alfaro / María Fernanda Jiménez / Mauricio Pandolfi / Cristian Vargas Qué es aprendizaje? Aprendizaje denota cambios en un sistema que permite al sistema hacer la misma tarea más eficientemente
Más detallesC a l ses P P y y NP C a l se P C a l se N P N P [No N n o -De D te t rmin i i n s i ti t c i Polynomial-tim i e]
Análisis y Diseño de Algoritmos Introducción Análisis y Diseño de Algoritmos Concepto de algoritmo Resolución de problemas Clasificación de problemas Algorítmica Análisis de la eficiencia de los algoritmos
Más detallesAnálisis de sensibilidad 1
Análisis de sensibilidad Planteamiento general Cambios en el vector de recursos 3 Cambios en el vector de costes 4 Cambios en un vector a j no básico 5 Nuevas variables 6 Nuevas restricciones Planteamiento
Más detallesModelos Estadísticos de Crimen
Universidad de los Andes Modelos Estadísticos de Crimen 27 de Mayo de 2015 Motivacion Conocer la densidad de probabilidad del crimen sobre una ciudad, a distintas horas del día, permite Modelos Estadísticos
Más detallesIntroducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:
Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de
Más detallesDecisiones Secuenciales
Decisiones Secuenciales CI5438 - Inteligencia rtificial 2 Clases 4 y 5 Cap 17. Russel & Norvig: Inteligencia rtificial. Un enfoque estructurado genda Motivación Qué son los MDPs? Modelos Recompensas Lifetime
Más detalles