Sistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov.

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Sistemas Inteligentes. Tema B2T7: Algoritmo de Viterbi. Estimación de modelos de Markov."

Transcripción

1 Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema BT7: Algoritmo de Viterbi. Estimación de modelos de Markov. DSIC UPV: Octubre, 8 SIN-TemaBT7 índice Algoritmo de Viterbi Aprendizaje: estimación de probabilidades en modelos de Markov Inicialización de la re-estimación por Viterbi DSIC UPV: Octubre, 8 Página BT7.

2 SIN-TemaBT7 Aproximación de Viterbi a P (y M) Dado un modelo oculto de Markov M = (Q, Σ, π, A, B) con estado final F, y una cadena y = y y m Σ +, la probabilidad de que M genere y es: P (y M) = P (y, z) = P (y, q,..., q m ) z Q + q,...,q m Q + Una aproximación a P (y M) es la llamada aproximación de Viterbi: P (y M) = max q,...,q m Q + P (y, q,..., q m ) La correspondiente secuencia de estados más probable es: q = ( q,..., q m ) = argmax P (y, q,..., q m ) q,...,q m Q + En general este cálculo tiene un coste exponencial ya que el número de secuencias de estados crece exponencialmente con m. DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Algoritmo de Viterbi Definimos V (q, t) como la probabilidad máxima de que un modelo oculto de Markov M alcance el estado q en el instante t, emitiendo el prefijo y... y t : V (q, t) = max q,...,q t q t =q V (q, t) puede calcularse recursivamente: V (q, t) = max q,...,q t q t =q P (y y t, q,..., q t ) P (y y t, q,..., q t ) = max q Q max q,...,q t q t =q P (y y t, q,..., q t ) A q,q B q,yt = max q Q V (q, t ) A q,q B q,yt π q B q,y si t = En general: V (q, t) = max V q Q (q, t ) A q,q B q,yt si t > DSIC UPV: Octubre, 8 Página BT7.

3 SIN-TemaBT7 Algoritmo de Viterbi (cont.) Aproximación de Viterbi a P (y M): P (y M) = max q Q V (q, y ) A q,f La función V () puede representarse como una matriz: V q,t V (q, t). Esta matriz define un grafo multietapa denominado trellis y permite el cálculo iterativo eficiente de V (q, y ) por Programación Dinámica. La correspondiente secuencia óptima de estados, q, se calcula recorriendo el trellis hacia atrás. Complejidad temporal del algoritmo: O(mb), donde m es la longitud de la cadena y b es el número de transiciones entre estados. DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Algoritmo de Viterbi: ejemplo b c b a I F.8 DSIC UPV: Octubre, 8 Página BT7.5

4 SIN-TemaBT7 Algoritmo de Viterbi: ejercicio Sea M un modelo con: Q = {,,, F } Σ = {a, b, c} π = π =, π = A F B a b c. Halla el trellis para la cadena abc.. Obtén la secuencia óptima de estados asociada. DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Ejercicio: solución V a t = = = 8 F b t = = 8 8 = 7 = 8 = 9 = 8 = 8 c t = 8 = 5 = 57 = 8 = 9 = 9 = 8 = 78 = 8 = 5 57 = 9 = 5 = 5 Q = (,,, F ) DSIC UPV: Octubre, 8 Página BT7.7

5 SIN-TemaBT7 Ejercicio: presentación gráfica de la solución I a b c DSIC UPV: Octubre, 8 F 5 Página BT7.8 SIN-TemaBT7 Clasificación sintáctico-estadística mediante Viterbi En la práctica, las probabilidades condicionales de las clases suelen aproximarse mediante Viterbi. Consideremos el ejercicio de la página 8 del tema 5. P (y M A ) = max(p (aab, q q q = A), P (aab, q q q = A), P (aab, q q q = A)) = max(.5,.8,.8) =.5 P (y M B ) = max(p (aab, q q q = B), P (aab, q q q = B)) = max(.8,.8) =.8 P (A y) = P (y M A ) P (A) P (y c ) P (c ) = c P (B y) = P (A y) = =.555 c(y) = argmax c=a,b DSIC UPV: Octubre, 8 P (c y) = A resultado idéntico al obtenido mediante Forward Página BT7.9

6 SIN-TemaBT7 PÁGINA INTENCIONADAMENTE EN BLANCO DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 índice Algoritmo de Viterbi Aprendizaje: estimación de probabilidades en modelos de Markov Inicialización de la re-estimación por Viterbi DSIC UPV: Octubre, 8 Página BT7.

7 SIN-TemaBT7 Estimación de probabilidades de un modelo de Markov Problema: Estimar las probabilidades de un modelo de Markov, M, mediante una secuencia de cadenas de entrenamiento Y = {y,..., y n } extraidas independientemente de acuerdo con la ley de probabilidad P (y M). Como las cadenas se han extraído independientemente: P (Y M) = n P (y k M) k= El estimador de máxima verosimilitud de M es: ˆM = argmax M n k= P (y k M) argmax M n k= P (y k M) DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Estimación mediante el algoritmo de Viterbi Idea básica: Analizar todas las cadenas Y, contabilizando las frecuencias de uso de las transiciones entre estados, de generación de símbolos en cada estado, etc. y normalizar adecuadamente. Problema: Cómo analizar las cadenas si no se conocen las probabilidades de del modelo? Una posible solución:. Inicializar las probabilidades adecuadamente. Analizar cada cadena de Y mediante el algoritmo de Viterbi y obtener la secuencia de estados correspondiente. A partir de esta secuencia de estados, contabilizar las frecuencias requeridas.. Normalizar las frecuencias para obtener nuevas probabilidades del modelo 5. Repetir pasos - hasta convergencia. DSIC UPV: Octubre, 8 Página BT7.

8 SIN-TemaBT7 Estimación mediante el algoritmo de Viterbi: ejemplo Se dispone de tres cadenas de contorno de -direcciones que representan tres dígitos siete manuscritos. A partir de estas cadenas se desea re-estimar las probabilidades de un modelo de Markov para estos dígitos. Utilizando el algoritmo de Viterbi se han obtenido las siguientes secuencias óptimas de estados para cada cadena: Cadena: Secuencia óptima de estados: Cadena: Secuencia óptima de estados: Cadena: Secuencia óptima de estados: aaaaaddcdcdcdcdccbabaabababccccb F aaaaaddcdcdcdccdcbabababaabcccdcbb F aaaadcdcdcdcdcdcbababababccdccbaab F Para mayor claridad se representan los trazos horizontales como =a, =c y los verticales como =b, =d. DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Estimación mediante el algoritmo de Viterbi: ejemplo (cont.) π = / = π = π = π = A F A F B a b c d B a b c d DSIC UPV: Octubre, 8 Página BT7.5

9 SIN-TemaBT7 Algoritmo de reestimación por Viterbi Input: M = (Q, Σ, π, A, B ) /* Modelo inicial */ Y = {y,..., y n } /* cadenas de entrenamiento */ Output: M = (Q, Σ, π, A, B) /* Modelo optimizado */ M = M repeat M = M; π = ; A = ; B = for k = to n do m = y k /* secuencia de estados más probable para y k, */ q,..., q m = argmax q,...,q m P (y k, q,..., q m M ) /* por Viterbi */ π q ++; B q,y k, ++ /* actualización de contadores */ for t = to m do A qt, q t ++; B qt,y k,t ++ done; A qm,f ++ done s = q Q π q forall q Q do /* normalización de contadores */ π q = π q /s a = q Q A q,q ; forall q Q do A q,q = A q,q /a b = σ Σ B q,σ; done forall σ Σ do B q,σ = B q,σ /b until M = M DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Reestimación por Viterbi: ejercicio Sea M un modelo de Markov de conjunto de estados Q = {,, F }; alfabeto Σ = {a, b}; probabilidades iniciales π () =.7, π () =.; y probabilidades de transición entre estados y de emisión de símbolos: A F B a b.... Reestima los parámetros de M mediante una iteración de reestimación por Viterbi, a partir de las cadenas de entrenamiento a a a y b b a. DSIC UPV: Octubre, 8 Página BT7.7

10 SIN-TemaBT7 Ejercicio: secuencias de estados mas probables I a a a F. I b b a F.88 Los pares cadena-secuencia óptima de estados obtenidos son: DSIC UPV: Octubre, 8 a a a b b a F F Página BT7.8 SIN-TemaBT7 Ejercicio: parámetros reestimados ˆπ () = = ˆπ () = = A F B a b DSIC UPV: Octubre, 8 Página BT7.9

11 SIN-TemaBT7 índice Algoritmo de Viterbi Aprendizaje: estimación de probabilidades en modelos de Markov Inicialización de la re-estimación por Viterbi DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Inicialización de la re-estimación por Viterbi Una idea elemental: Inicializar todas las probabilidades según distribuciones equiprobables. Problema: Suele producir problemas de convergencia o convergencia a máximos locales inadecuados. Una idea útil para modelos lineales: Segmentar cada cadena de Y en tantos segmentos de (aproximadamente) la misma longitud como estados tenga el modelo de Markov. Asignar los símbolos de cada segmento a su correspondiente estado Contabilizar las frecuencias de generación y transición Normalizar las frecuencias para obtener probabilidades iniciales requeridas DSIC UPV: Octubre, 8 Página BT7.

12 SIN-TemaBT7 Inicialización por segmentación lineal: Ejemplo Obtener un modelo de Markov de N = estados mediante segmentación lineal a partir de las cadenas y = aabbbcc y = aaabbccc Q = {,,, F } Σ = {a, b, c} q = t N + : y + aabbbcc aaabbccc π =, π = π = A F 5 5 B a b c DSIC UPV: Octubre, 8 Página BT7. SIN-TemaBT7 Inicialización por segmentación lineal Input: Y = {y,..., y n }, N /* cadenas de entrenamiento, número de estados */ Output: M = (Q, Σ, π, A, B) /* modelo */ Q = {,,..., N, F }; Σ = {y y k Y } /* estados y símbolos */ π = ; A = ; B = /* inicialización de contadores */ for k = to n do /* actualización de contadores por */ q = ; π q ++; B q,yk, ++ /* alineamiento lineal de y k con los estados */ for t = to y k do q t = q; q = y k + N + ; A q,q++; B q,yk,t ++ done A q,f ++ done s = q Q π q forall q Q do /* normalización de contadores */ π q = π q / s a = q Q A q,q ; forall q Q do A q,q = A q,q / a b = σ Σ B q,σ ; forall σ Σ do B q,σ = B q,σ / b done DSIC UPV: Octubre, 8 Página BT7.

Maestría en Bioinformática Probabilidad y Estadística: Clase 13

Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 5: Modelos Ocultos de Markov Modelos Ocultos de Markov Cadenas de Markov Preguntas básicas Aplicación: orden en Google Modelos Ocultos de Markov

Más detalles

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción

Más detalles

Introducción a los Modelos de Markov ocultos. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica

Introducción a los Modelos de Markov ocultos. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica Introducción a los Modelos de Markov ocultos Departament d Estadística U.B. Estadística i Bioinformàtica Esquema de la exposición Introducción a los MMO Tipos de problemas que podemos resolver Aplicaciones

Más detalles

Modelos de Markov Ocultos (HMM)

Modelos de Markov Ocultos (HMM) Modelos de Markov Ocultos (HMM) Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel A. Alonso, Jorge Graña, Jesús Vilares (Departamento

Más detalles

Procesamiento de voz - Reconocimiento de voz II

Procesamiento de voz - Reconocimiento de voz II Procesamiento de voz - Reconocimiento de voz II Marc S. Reßl Roxana Saint-Nom 2009 Ingeniería Electrónica Instituto Tecnológico de Buenos Aires Reconocimiento de voz Las técnicas que vimos hasta ahora

Más detalles

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del

Más detalles

Cadenas de Markov Ocultas

Cadenas de Markov Ocultas Nicolás Carrère Análisis Inteligente de Datos Departamento de Informática Universidad Técnica Federico Santa María Valparaíso, 24 de Noviembre de 2005 1 2 3 4 Temario Las cadenas de Markov pueden ser representadas

Más detalles

Aprendizaje por Refuerzo

Aprendizaje por Refuerzo Sesiones del Curso Máster en Ciencia y Tecnología Informática Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática Escuela Politécnica Superior Universidad Carlos III de Madrid 30 de

Más detalles

Modelos Ocultos de Markov Continuos

Modelos Ocultos de Markov Continuos Modelos Ocultos de Markov Continuos José Antonio Camarena Ibarrola Modelos Ocultos de Markov Continuos p.1/15 Idea fundamental Los Modelos Ocultos de Markov Discretos trabajan con secuencias de observaciones

Más detalles

Perfiles y modelos ocultos de Markov

Perfiles y modelos ocultos de Markov Perfiles y modelos ocultos de Markov Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 13 de junio del 2013 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Perfiles y modelos ocultos de Markov 13 de junio del 2013

Más detalles

Sistemas Inteligentes. Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias.

Sistemas Inteligentes. Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias. Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias. Índice 1 Introducción 1 2 Agrupamientos particionales

Más detalles

TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA. Alineamiento múltiple de secuencias

TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA. Alineamiento múltiple de secuencias TÉCNICAS INTELIGENTES EN BIOINFORMÁTICA Alineamiento múltiple de secuencias Mario de J. Pérez Jiménez Grupo de investigación en Computación Natural Dpto. Ciencias de la Computación e Inteligencia Artificial

Más detalles

Procesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos. Dpto. Ciencias de la Computación e Inteligencia Artificial

Procesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos. Dpto. Ciencias de la Computación e Inteligencia Artificial Procesos de Markov José Luis Ruiz Reina Franciso J. Martín Mateos Dpto. Ciencias de la Computación e Inteligencia Artificial Ampliación de Inteligencia Artificial, 2014-2015 Contenido Cadenas de Markov

Más detalles

Aprendizaje Automático

Aprendizaje Automático Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática

Más detalles

Departamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid

Departamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid COMUNICACIONES DIGITALES AVANZADAS 4 DISEÑO DE RECEPTORES DE COMUNICACIONES MARCELINO LÁZARO Departamento de Teoría de la Señal y Comunicaciones Universidad Carlos III de Madrid mlazaro@tscuc3mes Igualación

Más detalles

Procesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz

Procesos de Markov. José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz Procesos de Markov José Luis Ruiz Reina Franciso J. Martín Mateos Carmen Graciani Díaz Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Contenido Cadenas de Markov Modelos

Más detalles

Índice general 7. Presentación 15

Índice general 7. Presentación 15 ÍNDICE GENERAL Índice general 7 Presentación 15 1. Introducción 19 1.1. Antecedentes históricos de la computación................... 19 1.2. Definiciones previas............................... 24 1.3.

Más detalles

Introducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada

Introducción Clustering jerárquico Clustering particional Clustering probabilista Conclusiones. Clustering. Clasificación no supervisada Clustering Clasificación no supervisada Javier G. Sogo 10 de marzo de 2015 1 Introducción 2 Clustering jerárquico 3 Clustering particional 4 Clustering probabilista 5 Conclusiones Introducción Objetivos

Más detalles

Sesión 7: Campos de Markov

Sesión 7: Campos de Markov Sesión 7: Campos de Markov Campos de Markov Introducción Modelo de Ising Representación Tipos de Modelos Redes de Markov Vecindades Algoritmos ICM, Metrópolis, Recocido Simulado Aplicaciones Visión L.E.

Más detalles

Etiquetado gramatical

Etiquetado gramatical Etiquetado gramatical ITALICA Universidad de Sevilla José A. Troyano Índice Introducción Etiquetado con el modelo de Markov Etiquetado con el modelo de Markov oculto Etiquetado transformacional Precisión

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:

Más detalles

Aprendizaje y Percepción

Aprendizaje y Percepción Aprendizaje y Percepción Facultad de Informática Universidad Politécnica de Valencia Tema 2: Preproceso y Extracción de Características: Imágenes Enrique Vidal, Alfons Juan, Roberto Paredes, Jorge Civera

Más detalles

El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema.

El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema. Práctica 8 Cálculo de autovalores 8.1. Método de la potencia El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema. Teorema 8.1.1 (M. de la potencia]

Más detalles

Programación dinámica

Programación dinámica Parte de Algoritmos de la asignatura de Programación Master de Bioinformática Programación dinámica Web asignatura: http://dis.um.es/~domingo/algbio.html E-mail profesor: domingo@um.es Transparencias preparadas

Más detalles

Modelos de Markov ocultos Profile HMM. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica. MMO en Biologia Computacional

Modelos de Markov ocultos Profile HMM. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica. MMO en Biologia Computacional Modelos de Markov ocultos Profile HMM Departament d Estadística U.B. Estadística i Bioinformàtica Esquema del tema Alineamientos múltiples de secuencias (AMS) Representaciones de AMS: Patrones y Perfiles

Más detalles

Grado en ESTADÍSTICA APLICADA 258 ECTS

Grado en ESTADÍSTICA APLICADA 258 ECTS MATERIAS BÁSICAS (60 ECTS) Obligatorio 1.- Descripción y Exploración de datos (ESTADÍSTICA - RAMA) 2.- Azar y probabilidad (ESTADÍSTICA - RAMA) 3.- Estimación I (OB) (ESTADÍSTICA - RAMA) 4.- Software estadístico

Más detalles

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino Códigos IRA Máster en Multimedia y Comunicaciones Comunicaciones Digitales Luca Martino Codificación de Canal! Supongamos tener un canal binario discreto, simétrico sin memoria:! Objetivo: encontrar una

Más detalles

Álgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Álgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas Álgebra Lineal Tema 2 Mínimos cuadrados II Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J S ALAS, A T ORRENTE Y EJS V ILLASEÑOR Índice general

Más detalles

Etiquetación con modelos de máxima entropía

Etiquetación con modelos de máxima entropía Etiquetación con modelos de máxima entropía Miguel A. Alonso Departamento de Computación, Facultad de Informática, Universidade da Coruña 1 / 26 Índice 1 Introducción 2 Regresión Regresión lineal Regresión

Más detalles

String Matching. Análisis y diseño de algoritmos II

String Matching. Análisis y diseño de algoritmos II Análisis y diseño de algoritmos II Encontrar todas las ocurrencias de un patrón en un texto. Texto Patrón a b c a b a a b c a a b a a b a c Aplicaciones Funcionalidad de editores de texto Patrones en secuencias

Más detalles

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de

Más detalles

Algoritmos voraces (greedy)

Algoritmos voraces (greedy) Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 21 de marzo de 2018 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Algoritmos voraces 21 de marzo de 2018 1 / 45 1 Algoritmos voraces (greedy) Aplicaciones de

Más detalles

Reconocimiento de voz mediante Modelos Ocultos de Markov

Reconocimiento de voz mediante Modelos Ocultos de Markov Reconocimiento de voz mediante Modelos Ocultos de Markov Adriana Becerra, Marcela Gómez, María Fernanda Ordóñez, Byron Macas, Ing. Janeth Chic August 3, 2009 Abstract El presente proyecto tiene como nalidad

Más detalles

CONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario

CONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario CONTENIDOS 1. Definición de Cadena de Markov en Tiempo Continuo 2. Comportamiento de transición 3. Comportamiento estacionario 4. Procesos de nacimiento y muerte 1. Definición de Cadena de Markov en Tiempo

Más detalles

Valores y vectores propios. Laboratorio de Matemáticas

Valores y vectores propios. Laboratorio de Matemáticas Valores y vectores propios Laboratorio de Matemáticas Conceptos básicos v vector propio asociado al valor propio λ Av = λ v Polinomio característico de la matriz A p(λ) = det(a- λ I) Ecuación característica

Más detalles

Licenciatura de Matemáticas Informática I Notación algorítmica - Descripción BNF

Licenciatura de Matemáticas Informática I Notación algorítmica - Descripción BNF Licenciatura de Matemáticas Informática I Notación algorítmica - Descripción BNF Dpto. Informática Noviembre 1998 1. Deniciones en forma BNF < > Símbolos no terminales. Declaraciones u objetos declarados

Más detalles

Organización. Autómatas probabilísticos (AEFP) Definición de Autómata. Modelo de Markov. Ejemplo de AEFP. Modelos basados en autómatas probabilísticos

Organización. Autómatas probabilísticos (AEFP) Definición de Autómata. Modelo de Markov. Ejemplo de AEFP. Modelos basados en autómatas probabilísticos Organización Modelos basados en autómatas probabilísticos Bioingeniería I Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos

Más detalles

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones

Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones Tópicos Selectos en Aprendizaje Maquinal Guía de Trabajos Prácticos N 1 Algoritmos para Reconocimiento de Patrones 18 de septiembre de 2014 1. Objetivos Introducir conceptos básicos de aprendizaje automático.

Más detalles

OBJETIVOS DE LAS MATEMÁTICAS APLICADAS A LAS CIENCIAS

OBJETIVOS DE LAS MATEMÁTICAS APLICADAS A LAS CIENCIAS 2º BACHILLERATO DE CIENCIAS SOCIALES OBJETIVOS DE LAS MATEMÁTICAS APLICADAS A LAS CIENCIAS SICIALES II CONTENIDOS DE LAS MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II CRITERIOS DE EVALUACIÓN DE LAS

Más detalles

Tema 8: Métodos de cadenas de Markov Monte Carlo

Tema 8: Métodos de cadenas de Markov Monte Carlo Tema 8: Métodos de cadenas de Markov Monte Carlo Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Introducción Los métodos de cadenas

Más detalles

Clasificación estadística de patrones

Clasificación estadística de patrones Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de

Más detalles

Aprendizaje por Refuerzo

Aprendizaje por Refuerzo Aprendizaje por Refuerzo Ciencias de la Computación e Inteligencia Artificial Índice 6.1 Introducción 6.2 Elementos del aprendizaje 6.4 Definición del problema 6.5 Programación Dinámica 6.6 Método de Monte

Más detalles

Sesión 8: Campos de Markov

Sesión 8: Campos de Markov Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 8: Campos de Markov la verdadera lógica de este mundo es el cálculo de probabilidades, que toma en cuanta la magnitud de las probabilidades,

Más detalles

Aprendizaje y Percepción. Tema 8: Métodos Sintáctico/Estructurales: Modelos de Markov

Aprendizaje y Percepción. Tema 8: Métodos Sintáctico/Estructurales: Modelos de Markov prendizje y Percepción Fcultd de Informátic Universidd Politécnic de Vlenci Tem 8: Métodos Sintáctico/structurles: lfons Jun, nrique Vidl, Roberto Predes, Jorge Civer DSIC UPV: nero, Índice Introducción:

Más detalles

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA

IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA IDENTIFICACIÓN DE SISTEMAS ESTIMACIÓN ESTOCÁSTICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Problema de la estima θ(t): magnitud

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Modelos basados en autómatas probabilísticos

Modelos basados en autómatas probabilísticos Modelos basados en autómatas probabilísticos Bioingeniería I FI-UNER Organización Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos

Más detalles

3. Estructuras iterativas. 1.2 Análisis: For. 1.1 Problemas iterativos. Fundamentos de Informática Dpto. Lenguajes y Sistemas Informáticos

3. Estructuras iterativas. 1.2 Análisis: For. 1.1 Problemas iterativos. Fundamentos de Informática Dpto. Lenguajes y Sistemas Informáticos 3. Estructuras iterativas Índice Estructura iterativas Fundamentos de Informática Dpto. Lenguajes y Sistemas Informáticos Curso 2012 / 2013 1. Análisis de algoritmos iterativos 2. Ej11: 3. Ej12: 4. Ej13:

Más detalles

Clasificación de sistemas

Clasificación de sistemas Capítulo 2 Clasificación de sistemas 2.1 Clasificación de sistemas La comprensión de la definición de sistema y la clasificación de los diversos sistemas, nos dan indicaciones sobre cual es la herramienta

Más detalles

Algoritmos y Estructuras de Datos Tema 2: Diseño de Algoritmos

Algoritmos y Estructuras de Datos Tema 2: Diseño de Algoritmos Algoritmos y Estructuras de Datos Tema 2: Diseño de Algoritmos 1! 1. Algoritmos recursivos " 1.1 Algoritmos recursivos. Recursión simple " 1.2 Algoritmos con vuelta atrás y ejemplos! 2. Complejidad de

Más detalles

Marcel Goic

Marcel Goic IN5602 Marketing II Modelos de Comportamiento: Estimación y Heterogeneidad Marcel Goic (mgoic@dii.uchile.cl) Semestre Otoño 2012 1 Ejemplo Proyección de Retención de Clientes 2 Motivación Año #Clientes

Más detalles

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i) Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo

Más detalles

1. Diseñe algoritmos que permitan resolver eficientemente el problema de la mochila 0/1 para los siguientes casos:

1. Diseñe algoritmos que permitan resolver eficientemente el problema de la mochila 0/1 para los siguientes casos: PROGRAMACIÓN DINÁMICA RELACIÓN DE EJERCICIOS Y PROBLEMAS 1. Diseñe algoritmos que permitan resolver eficientemente el problema de la mochila /1 para los siguientes casos: a. Mochila de capacidad W=15:

Más detalles

Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas

Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Georgina Flesia FaMAF 11 de abril, 2013 Método de Aceptación y Rechazo

Más detalles

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1

Más detalles

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial)

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) 1. Calcular la tasa de entropía H r de una fuente de Markov estacionaria con m símbolos, con probabilidades

Más detalles

Bases estadísticas del reconocimiento de patrones

Bases estadísticas del reconocimiento de patrones Bases estadísticas del reconocimiento de patrones César Martínez cmartinez _AT_ fich.unl.edu.ar Inteligencia Computacional FICH-UNL Percepción humana Tarea muuuuy simple: Cuántas llaves hay? Inteligencia

Más detalles

Bases Formales de la Computación: Redes de Bayes (segunda parte)

Bases Formales de la Computación: Redes de Bayes (segunda parte) Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes

Más detalles

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos

1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos Guión 1.1 Máquinas secuenciales Modelo de Moore y de Mealy Lenguaje de una máquina secuencial Equivalencia de modelos Modelo de Moore y de Mealy: Definición Una máquina secuencial (MS) es una tupla: M

Más detalles

Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos.

Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos. MATEMÁTICAS I Contenidos. Aritmética y álgebra: Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos. Resolución e interpretación gráfica de ecuaciones e

Más detalles

Uso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano

Uso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano Uso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano JOSÉ LUIS TRIVIÑO RODRIGUEZ RAFAEL MORALES BUENO FRANCISCO TRIGUERO RUÍZ JOSÉ LUIS PÉREZ DE LA CRUZ MOLINA Universidad

Más detalles

Comunicaciones Digitales

Comunicaciones Digitales Trabajo Práctico Codificación de Fuente Comunicaciones Digitales E.1 Una fuente tiene un alfabeto {a1,a, a3, a4, a5, a6} con sus correspondientes probabilidades {0.1,0.,0.3,0.05,0.15,0.}. Encontrar la

Más detalles

Autómatas Finitos Deterministicos (DFA)

Autómatas Finitos Deterministicos (DFA) Autómatas Finitos Deterministicos (DFA) Introducción a la Lógica Fa.M.A.F., Universidad Nacional de Córdoba 22//4 Info útil Bibliografía: Introducción a la teoría de autómatas, lenguajes y computación.

Más detalles

ALGORITMOS GENÉTICOS. En lugar de envidiar la naturaleza debemos emularla Holland

ALGORITMOS GENÉTICOS. En lugar de envidiar la naturaleza debemos emularla Holland ALGORITMOS GENÉTICOS En lugar de envidiar la naturaleza debemos emularla Holland Algoritmos genéticos Algoritmos basados en los principios de la evolución natural Se utilizan en problemas donde no se pueden

Más detalles

Autómatas Finitos Deterministicos (DFA)

Autómatas Finitos Deterministicos (DFA) Autómatas Finitos Deterministicos (DFA) Introducción a la Lógica y la Computación Fa.M.A.F., Universidad Nacional de Córdoba 26/0/6 Info útil Bibliografía: Introducción a la teoría de autómatas, lenguajes

Más detalles

Introducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia

Introducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia 4.3 Algoritmo de máxima pendiente Introducción al algoritmo de máxima pendiente Aplicación al filtro de Wiener Análisis de estabilidad y convergencia Otras técnicas de optimización Newton-Raphson Levemberg-Marquardt

Más detalles

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas

Más detalles

ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía

ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía Novedades en el Plan de Trabajo Desviación típica sesgada

Más detalles

Autómatas Finitos Deterministicos (DFA) Introducción a la Complejidad Computacional FFHA, Universidad Nacional de San Juan

Autómatas Finitos Deterministicos (DFA) Introducción a la Complejidad Computacional FFHA, Universidad Nacional de San Juan Autómatas Finitos Deterministicos (DFA) Introducción a la Complejidad Computacional FFHA, Universidad Nacional de San Juan 206 Info útil Bibliografía: Introducción a la teoría de autómatas, lenguajes y

Más detalles

Ancho de banda efectivo para cadenas de Markov escondidas

Ancho de banda efectivo para cadenas de Markov escondidas Ancho de banda efectivo para cadenas de Markov escondidas L.Aspirot, P.Bermolen * Marzo de 2004 Resumen Compartir recursos es uno de los objetivos en las redes modernas y un problema importante es estimar

Más detalles

Coeficientes Cepstrales en Frecuencia Mel y Dynamic Time Warping para Reconocimiento Automatico del Habla

Coeficientes Cepstrales en Frecuencia Mel y Dynamic Time Warping para Reconocimiento Automatico del Habla Coeficientes Cepstrales en Frecuencia Mel y Dynamic Time Warping para Reconocimiento Automatico del Habla Jorge Luis Guevara Diaz Semana ciencia de la Computación Escuela de Informática Universidad Nacional

Más detalles

El Perceptrón Multicapa

El Perceptrón Multicapa El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del

Más detalles

Inferencia en tablas de contingencia

Inferencia en tablas de contingencia GoBack Inferencia en tablas de contingencia Guillermo Ayala Gallego Universidad de Valencia 15 de octubre de 2008 1 / 36 Distribución condicionada exacta Intervalo para los odds ratio Intervalo de la diferencia

Más detalles

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para

Más detalles

Un lematizador desambiguado con R

Un lematizador desambiguado con R Un lematizador desambiguado con R Carlos J. Gil Bellosta cgb@datanalytics.com Mayo 2013 Contenidos 1 Motivación: un discurso de Rajoy 2 Lematización basada en reglas Lematización basada en diccionarios

Más detalles

Algoritmos Cuánticos

Algoritmos Cuánticos Algoritmos Cuánticos Alfonsa García, Francisco García 1 y Jesús García 1 1 Grupo de investigación en Información y Computación Cuántica (GIICC) Algoritmos cuánticos 1. Introducción 2. Primeros algoritmos

Más detalles

Cadenas de Markov Horacio Rojo y Miguel Miranda

Cadenas de Markov Horacio Rojo y Miguel Miranda @ 71.07 Investigación Operativa > Cadenas de Markov Horacio Rojo y Miguel Miranda c 2009 Facultad de Ingeniería, Universidad de Buenos Aires Digitalizado por Virginia Guala $September 12, 2009 Cadenas

Más detalles

MATEMÁTICAS APLICADAS A CCSS II

MATEMÁTICAS APLICADAS A CCSS II MATEMÁTICAS APLICADAS A CCSS II CONTENIDOS TEMA 1: Matrices, determinantes y sistemas. Concepto de matriz o tabla. Operaciones con matrices. Matriz identidad. Matriz inversa. Determinantes de orden 2 y

Más detalles

CUERPO TÉCNICO, OPCION ESTADISTICA

CUERPO TÉCNICO, OPCION ESTADISTICA CUERPO TÉCNICO, OPCION ESTADISTICA ESTADÍSTICA TEÓRICA BÁSICA TEMA 1. Fenómenos aleatorios. Conceptos de probabilidad. Axiomas. Teoremas de probabilidad. Sucesos independientes. Teorema de Bayes. TEMA

Más detalles

TEMA 3: Estructuras de Control: Iterativas

TEMA 3: Estructuras de Control: Iterativas UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA INTRODUCCIÓN A LA COMPUTACIÓN TEMA 3: Estructuras de Control: Iterativas Estructuras Iterarivas En la programación existen las

Más detalles

ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía

ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 11) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía VIDEOCLASE: Introducción a la estimación de parámetros

Más detalles

Simulación. Problema del jardinero. Modelo de stock aleatorio. Camino crítico.

Simulación. Problema del jardinero. Modelo de stock aleatorio. Camino crítico. Simulación Temario de la clase Introducción. Generacion de variables aleatorias: método de la transformada inversa. Avance del tiempo de simulación. Determinación de la cantidad de iteraciones requeridas.

Más detalles

APRENDIZAJE. Jairo Alfaro / María Fernanda Jiménez / Mauricio Pandolfi / Cristian Vargas

APRENDIZAJE. Jairo Alfaro / María Fernanda Jiménez / Mauricio Pandolfi / Cristian Vargas APRENDIZAJE Jairo Alfaro / María Fernanda Jiménez / Mauricio Pandolfi / Cristian Vargas Qué es aprendizaje? Aprendizaje denota cambios en un sistema que permite al sistema hacer la misma tarea más eficientemente

Más detalles

C a l ses P P y y NP C a l se P C a l se N P N P [No N n o -De D te t rmin i i n s i ti t c i Polynomial-tim i e]

C a l ses P P y y NP C a l se P C a l se N P N P [No N n o -De D te t rmin i i n s i ti t c i Polynomial-tim i e] Análisis y Diseño de Algoritmos Introducción Análisis y Diseño de Algoritmos Concepto de algoritmo Resolución de problemas Clasificación de problemas Algorítmica Análisis de la eficiencia de los algoritmos

Más detalles

Análisis de sensibilidad 1

Análisis de sensibilidad 1 Análisis de sensibilidad Planteamiento general Cambios en el vector de recursos 3 Cambios en el vector de costes 4 Cambios en un vector a j no básico 5 Nuevas variables 6 Nuevas restricciones Planteamiento

Más detalles

Modelos Estadísticos de Crimen

Modelos Estadísticos de Crimen Universidad de los Andes Modelos Estadísticos de Crimen 27 de Mayo de 2015 Motivacion Conocer la densidad de probabilidad del crimen sobre una ciudad, a distintas horas del día, permite Modelos Estadísticos

Más detalles

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en: Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de

Más detalles

Decisiones Secuenciales

Decisiones Secuenciales Decisiones Secuenciales CI5438 - Inteligencia rtificial 2 Clases 4 y 5 Cap 17. Russel & Norvig: Inteligencia rtificial. Un enfoque estructurado genda Motivación Qué son los MDPs? Modelos Recompensas Lifetime

Más detalles