Techniques to Understand Computer Simulations: Markov Chain Analysis

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Techniques to Understand Computer Simulations: Markov Chain Analysis"

Transcripción

1 Techniques to Understand Computer Simulations: Markov Chain Analysis Luis R. Izquierdo, Segismundo S. Izquierdo, José Manuel Galán and José Ignacio Santos (2009) Presentador: Andres Abeliuk

2 Objetivos Ayudar a los investigadores a comprender la dinámica de los modelos de simulación que se han implementado y se pueden ejecutar en un computador.

3 Un modelo computacional es una relación determinista inputoutput, i.e. una función. Cualquier modelo computacional se puede re-implementar en muchos formalismos diferentes, dando lugar a representaciones alternativas de la misma relación input-output. Generadores de números pseudoaleatorios nos dan el potencial para simular variables aleatorias dentro de nuestros modelos de computadora, y por lo tanto, simular los procesos estocásticos. Cualquier output obtenida de un modelo parametrizado sigue una distribución de probabilidad específica. Esta distribución de probabilidad se puede aproximar a un grado arbitrario de precisión mediante la reiterada ejecución del modelo. Los modelos formales que muchos usan en la literatura de simulación social, pueden ser representados como cadenas de Markov homogéneas en el tiempo. Analizar un modelo como una cadena de Markov puede hacer evidente muchas características del modelo que no eran tan evidentes antes de realizar dicho análisis.

4 Cadenas de Markov homogéneas en el tiempo (THMCs) El futuro dado el pasado, solo depende del presente: P (X n+1 = x n+1 X n = x n, X n-1 = x n-1,..., X 0 = x 0 ) = P (X n+1 = x n+1 X n = x n ) Las probabilidades de transición p i,j son independientes del tiempo: P(X n+1 = j X n = i) = P(X n = j X n 1 = i) = p i,j

5 Caminata aleatoria

6 Análisis de la dinámica de THMCs Suele dividirse en dos partes: la dinámica transitoria (tiempo finito) y la dinámica asintótica (tiempo infinito) El comportamiento transitorio se caracteriza por la distribución de los estados del sistema para un plazo fijo, n 0. El comportamiento asintótico se caracteriza por el límite de la distribución de cuando n tiende a infinito, cuando este límite existe.

7 Dinámica transitoria Buscamos vector a (n) que contiene la probabilidad de encontrarse en cualquiera de los posibles estados en el paso n. a (n) = [a 1 (n),, a M (n) ], a i (n) = P(X n = i), M estados Proposición 1: a (n) = a (0) P n Por lo tanto, p (n) i,j es la probabilidad estar en el estado j después de n pasos de haber comenzado en el estado i, es decir, p (n) i,j = P (X n = j X 0 = i).

8 Caminante al azar comienza en una posición inicial aleatoria, i.e. a (0) = [1/17,, 1/17]. La distribución exacta de la posición del caminante en el paso 100 es a (100) = a (0) P 100

9 La matriz de transición de la mayoría de los modelos NO puede ser fácilmente derivada, o es inviable para operar con ella. No obstante, esta desventaja no es tan importante como uno podría esperar. Es posible deducir muchas propiedades de un THMC, aun sin conocer los valores exactos de su matriz de transición.

10 Accesibilidad Conceptos importantes Si empezando por el estado i existe la posibilidad de que el sistema puede visitar el estado j en algún momento en el futuro ( i j ): Comunicación Formalmente: Existe n 0, tq. p (n) i,j > 0. Un estado i se dice que se comunican con el estado j si i j y j i, se escribe i j.

11 Clases de comunicación Un conjunto de estados C S se dice que es una clase de comunicación si: Dos estados cualquiera en la clase se comunican entre sí. Formalmente, (i C, j C ) i j El conjunto C es máximal. Formalmente, (i C, i j) j C

12 Clase cerrada (absorbente) Si ningún estado dentro de una clase de comunicación C conduce a algún estado fuera de C Formalmente C es cerrada si i C y j C implica que j no es accesible desde i. Tenga en cuenta que una vez que una cadena de Markov visita una clase de comunicación cerrada, no puede salir de él

13 Proposición 2. Teorema de descomposición (Chung, 1960) El espacio de estados S de cualquier cadena de Markov puede ser únicamente dividida de la siguiente manera: S = C 1 C 2... C k T, donde C 1, C 2,..., C k son clases cerradas, y T es la unión de todas las otras clases de comunicación.

14 Estados transitorios y recurrentes Un estado i se dice que es transitorio, si teniendo en cuenta que empezamos en el estado i, existe una probabilidad no nula de que nunca vamos a volver a i De lo contrario, el estado se denomina recurrente (empezando por un estado recurrente,con probabilidad 1 se volvera)

15 Estados periódicos y aperiódicos Un estado i tiene periodo d si cualquier retorno al estado i debe ocurrir en múltiplos de d pasos de tiempo Si d=1 es aperiódico Los elemento de una misma clase tienen el mismo periodo

16 Dinámica asintótica Proposición 3. dinámica general de THMCs finitos. Considere un THMC finito que se ha dividido como se indica en la Proposición 2. Entonces: Todos los estados de T son transitorios. Todos los estados en C v son recurrentes. Proposición 3 establece que tarde o temprano el THMC entrará en una de las clases absorbentes y permanecerá en ella para siempre

17 Atrapado en una clase absorbente Aperiódica La distribución de probabilidades converge a un limite y es única No depende del estado inicial, solo de P. Corriendo una simulación durante el tiempo suficiente servirá para calcular π igual de bien.

18 Cuánto tiempo es suficiente? Desafortunadamente, no hay respuesta para eso. Lo positivo: Tiene que ser estable en el tiempo Independiente de las condiciones iniciales Lo anterior permite realizar una amplia gama de pruebas que nos pueden dar cuenta cuando es suficiente.

19 Periódica (periodo d) Tiene d distribuciones de probabilidad Dependen del estado inicial. Ejemplo Caminata aleatoria:

20 Partiendo por estado 1

21 Afortunadamente todo THMC (aperiódico o periódico) tiene una distribución única π* No depende del estado inicial Luego solo basta una larga simulación para determinar el tiempo que pasa en cada estado.

22 Modelo con varios estados absorbentes S = {abs 1 } {abs 2 } {abs k } T Si solo hay 1 estado absorbente (i.e. S = {abs 1 } T) el sistema eventualmente terminara en el estado absorbente. Si hay más de un estado absorbente depende de las condiciones iniciales en cual terminara.

23 Ejemplos

24 Robustez de estados absorbentes a las perturbaciones En los modelos evolutivos estas perturbaciones pueden derivarse de los procesos de mutación. En los modelos culturales pueden derivarse de la experimentación. Resultados interesantes: Se puede escapar de un estado absorbente debido a perturbaciones. Los estados absorbente que pueden ser alcanzada con gran probabilidad en el modelo imperturbable se observan con una probabilidad muy baja en el modelo con el ruido.

25 Ejemplo

26 Resumen El tipo de análisis que se explica en este artículo es útil incluso en los casos que no es posible derivar analíticamente las probabilidades. Estas funciones de probabilidad siempre se puede aproximar con algún grado de precisión mediante la ejecución del modelo de equipo varias veces. El punto importante es darse cuenta que existen tales funciones Saber cuándo y cómo dependen de las condiciones iniciales, pueden ofrecer una perspectiva valiosa sobre la dinámica de los modelos.

Cadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov

Cadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov Cadenas de Markov Hace más de un siglo se escribió el primer trabajo seminal sobre Cadenas de Markov y aún siguen siendo un instrumento tremendamente útil de modelación estocástica. Su importancia obedece

Más detalles

CONFERENCIA TEMA: CADENAS DE MARKOV

CONFERENCIA TEMA: CADENAS DE MARKOV Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 7

Maestría en Bioinformática Probabilidad y Estadística: Clase 7 Maestría en Bioinformática Probabilidad y Estadística: Clase 7 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Condiciones de ergodicidad

Más detalles

CONFERENCIA TEMA: CADENAS DE MARKOV

CONFERENCIA TEMA: CADENAS DE MARKOV Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria

Más detalles

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega

Más detalles

Revisión - soluciones. lunes 9 de octubre de 2017

Revisión - soluciones. lunes 9 de octubre de 2017 Introducción a los Procesos Estocásticos Curso 7 Revisión - soluciones lunes 9 de octubre de 7. Ejercicio (5 puntos) Considere una cadena de Markov homogénea {X n } n con espacio de S = {,,, } y matriz

Más detalles

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Procesos estocásticos Sesión 4. Cadenas de Markov

Procesos estocásticos Sesión 4. Cadenas de Markov Procesos estocásticos Sesión 4. Cadenas de Markov Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Probabilidades de retorno

Más detalles

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos

Más detalles

Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico

Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos

Más detalles

Cadenas de Markov.

Cadenas de Markov. Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estado. Cadenas

Más detalles

UNIVERSIDAD DE MANAGUA Al más alto nivel

UNIVERSIDAD DE MANAGUA Al más alto nivel UNIVERSIDAD DE MANAGUA Al más alto nivel Investigación de Operaciones Encuentro #7 Tema: Cadenas de Markov Prof.: MSc. Julio Rito Vargas A. Grupo:CCEE y ADMVA /26 Objetivos: Aplicar la teoría fundamental

Más detalles

Cadenas de Markov. José Antonio Camarena Ibarrola

Cadenas de Markov. José Antonio Camarena Ibarrola Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el

Más detalles

2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO

2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO 2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO Cadenas de Markov 10 En la primera parte del capítulo se estudian las probabilidades condicionales de transición -definidas en (l5) y (16) - e incondicionales

Más detalles

Una pregunta pendiente

Una pregunta pendiente Una pregunta pendiente Cómo podemos construir un generador (casi) uniforme para una relación? Recuerde el problema KS definido en la sección anterior y la relación: R KS = {((~a, b), ~x) ~a 2 N n y ~x

Más detalles

CLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores

CLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores CLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores Definiciones Se dice que un estado i es esencial si y sólo si se comunica con cada estado al que conduce; de lo contrario, se denomina

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 4

Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios

Más detalles

FORMULARIO CADENAS DE MARKOV

FORMULARIO CADENAS DE MARKOV FORMULARIO CADENAS DE MARKOV Fuente: F. Hillier - G. Lieberman: Introducción a la investigación de operaciones. Sexta edición. Ed. Mc-Graw Hill. Proceso estocástico. Un proceso estocástico es una colección

Más detalles

Una invitación al estudio de las cadenas de Markov

Una invitación al estudio de las cadenas de Markov Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de

Más detalles

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos

Más detalles

Carlos J. Zapata G Carlos A. Ramirez V

Carlos J. Zapata G Carlos A. Ramirez V Carlos J. Zapata G Carlos A. Ramirez V Introducción Los AG provienen de la familia de modelos computacionales basados en la evolución Holland fue el primero quien le dio un formalismo y el nombre a los

Más detalles

CADENAS DE MARKOV CON PARÁMETRO DISCRETO Rosario Romera Febrero 2009

CADENAS DE MARKOV CON PARÁMETRO DISCRETO Rosario Romera Febrero 2009 DENS DE MRKOV ON PRÁMETRO DISRETO Rosario Romera Febrero 9. Nociones básicas De nición: El proceso fx n g nn con espacio de estados S N es una adena de Markov si 8n; m N y 8i ; : : : i n ; j S se cumple

Más detalles

Práctico 2 - parte 1

Práctico 2 - parte 1 1. ([2], p.8) Práctico 2 - parte 1 Cadenas de Markov en tiempo discreto: propiedad de Markov, matriz de transición. Fecha de entrega: viernes 2 de septiembre Sea {X n } n 0 una cadena de Markov homogénea

Más detalles

Cadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM

Cadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadenas de Markov Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadena de Markov Considere variable aleratorio X 0, X 1,... tomando valores en un conjunto finito o discreto, E. Entonces {X n } n 0 es

Más detalles

Simulación computacional de cadenas de Markov

Simulación computacional de cadenas de Markov Simulación computacional de cadenas de Markov Presentación basada en el capítulo 3 de Finite Markov Chains and Algorithmic Applications (Häggström, 2002) Sebastián Castro Seminario de Probabilidad y Estadística

Más detalles

Problema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010

Problema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Problema 1: (3,25 puntos) Resolver Mediante el Algoritmo del Simplex el siguiente problema: TABLA 1 Max 3x 1 + x

Más detalles

Cadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones

Cadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones Tiempo Continuo Modelado y Análisis de Redes de Telecomunicaciones 1 Agenda en tiempo continuo Ergodicidad de la cadena Ejemplo: Líneas Telefónicas página 2 CMTC Consideremos ahora los procesos de Markov

Más detalles

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i) Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo

Más detalles

Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov

Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov Curso 2011/2012 Materiales: (a) Ordenadores equipados con Matlab Objetivos: (a) Estudiar las cadenas de Markov como una familia de secuencias

Más detalles

Fuentes de información

Fuentes de información TEORÍA DE LA INFORMACIÓN Tratamiento probabilístico de la Información Fuentes de información INGENIERÍA DE SISTEMAS 07 TRANSMISIÓN DE INFORMACIÓN decodificación automática capacidad del canal Claude Shannon

Más detalles

Procesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26

Procesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26 Procesos de ramificación y árboles aleatorios. Juan Carlos Pardo Millán CIMAT, Guanajuato 1/ 26 Progama: Preliminares de probabilidad. Cadenas de Markov. Caminatas aleatorias. Procesos de Bienaymé-Galton-Watson.

Más detalles

Cadenas de Markov Cálculos probabilísticos con RCommander

Cadenas de Markov Cálculos probabilísticos con RCommander Sesión 3 Cadenas de Markov. En la teoría de la probabilidad, se conoce como cadena de Markov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:

Más detalles

Cadenas de Markov. José Antonio Camarena Ibarrola

Cadenas de Markov. José Antonio Camarena Ibarrola Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el

Más detalles

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Modelos Estocásticos I Tercer Examen Parcial Respuestas Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado

Más detalles

CADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 2009

CADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 2009 CADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 29. Nociones básicas Para las cadenas de Markov con parámetro de tiempo discreto hemos visto qe la matriz de transición en n etapas pede ser

Más detalles

UNIVERSIDAD DE MANAGUA Al más alto nivel

UNIVERSIDAD DE MANAGUA Al más alto nivel UNIVERSIDAD DE MANAGUA Al más alto nivel INVESTIGACIÓN DE OPERACIONES Encuentro #8 TEMA: CADENAS DE MARKOV Prof.: MSc. Julio Rito Vargas Avilés IC-28 Agenda: Proceso estocástico Concepto de Cadena de Markov

Más detalles

CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico

CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar

Más detalles

Tema 4: Cadenas de Markov. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga

Tema 4: Cadenas de Markov. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Tema 4: Cadenas de Markov Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Sumario Procesos estocásticos Concepto de cadena de Markov Ecuaciones de Chapman-Kolmogorov

Más detalles

Asumimos que la calidad de la solución es cuantificable y comparable con cualquier otra solución y asumimos que las soluciones son finitas.

Asumimos que la calidad de la solución es cuantificable y comparable con cualquier otra solución y asumimos que las soluciones son finitas. Capítulo 6 Recocido Simulado 6.1 Introducción El resolver un problema combinatorio se resume a encontrar la mejor / óptima solución dentro de un conjunto finito o contablemente infinito de alternativas.

Más detalles

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas

Más detalles

Unidad Il: Sistemas Lineales discretos y continuos (continuación)

Unidad Il: Sistemas Lineales discretos y continuos (continuación) Unidad Il: Sistemas Lineales discretos y continuos (continuación) Objetivo específico: Entender ampliamente el fenómeno del comportamiento de los modelos matemáticos para la resolución de problemas enfocados

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 10

Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios

Más detalles

Estadística Bayesiana

Estadística Bayesiana Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.

Más detalles

INSTITUTO TECNOLOGICO METROPOLITANOCadenasNovember MarkovEjercicios 6, / 10

INSTITUTO TECNOLOGICO METROPOLITANOCadenasNovember MarkovEjercicios 6, / 10 INSTITUTO TECNOLOGICO METROPOLITANO Cadenas de Markov Ejercicios Wbaldo Londoño November 6, 2012 INSTITUTO TECNOLOGICO METROPOLITANOCadenasNovember MarkovEjercicios 6, 2012 1 / 10 Ejercicio 1 En un país

Más detalles

3. Método de Rayleigh-Ritz

3. Método de Rayleigh-Ritz 3. Método de Rayleigh-Ritz La solución del problema de elasticidad consiste en encontrar la función desplazamiento u válida para todo el dominio y que verifique las condiciones de contorno. El método de

Más detalles

Máquinas de Turing. Definición 2

Máquinas de Turing. Definición 2 Definición 1 La Máquina de Turing (MT) es el modelo de autómata com máxima capacidad computacional: la unidad de control puede desplazarse a izquierda o derecha y sobreescribir símbolos en la cinta de

Más detalles

Redes de Petri Estocásticas (II)

Redes de Petri Estocásticas (II) Redes de Petri Estocásticas (II) Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Formalmente una red de Petri estocástica es por tanto una 7 upla SPN=(P,T,I(),O(),H(),W(),Mo)

Más detalles

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de

Más detalles

Nombre de la asignatura: Investigación de Operaciones II. Créditos: Aportación al perfil

Nombre de la asignatura: Investigación de Operaciones II. Créditos: Aportación al perfil Nombre de la asignatura: Investigación de Operaciones II Créditos: 2-2-4 Aportación al perfil Analizar, diseñar y gestionar sistemas productivos desde la provisión de insumos hasta la entrega de bienes

Más detalles

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47 Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor

Más detalles

Universidad Autónoma del Estado de México Licenciatura en Matemáticas Programa de Estudios: Procesos Estocásticos

Universidad Autónoma del Estado de México Licenciatura en Matemáticas Programa de Estudios: Procesos Estocásticos Universidad Autónoma del Estado de México Licenciatura en Matemáticas 2003 Programa de Estudios: Procesos Estocásticos I. Datos de identificación Licenciatura Matemáticas 2003 Unidad de aprendizaje Procesos

Más detalles

1. Análisis de Sistemas Discretos

1. Análisis de Sistemas Discretos . Análisis de Sistemas Discretos. Análisis de Sistemas Discretos.. Introducción.. Estabilidad... Estabilidad de Sistemas Lineales 3... Estabilidad de Sistemas con Entrada y Salida Acotadas(BIBO) 4..3.

Más detalles

Sobre la Deriva Genética

Sobre la Deriva Genética Sobre la Deriva Genética La evolución biológica consiste en el cambio de las características hereditarias a través de las generaciones. Los fenómenos que m as intervienen en el proceso evolutivo son la

Más detalles

Simulaciones. Modelado y Análisis de Redes de Telecomunicaciones

Simulaciones. Modelado y Análisis de Redes de Telecomunicaciones Simulaciones Modelado y Análisis de Redes de Telecomunicaciones Agenda Introducción Técnicas de simulación Simulación a eventos discretos Precisión de la salida Generación de números aleatorios Monte Carlo

Más detalles

cadenas de Markov tienen la propiedad de que la probabilidad de que X n = j sólo depende

cadenas de Markov tienen la propiedad de que la probabilidad de que X n = j sólo depende Cadenas de Markov Los procesos de paseo aleatorio en realidad son un caso particular de procesos más generales que son las cadenas de Markov. En esencia, una cadena es un proceso en tiempo discreto en

Más detalles

Secuencias Aleatorias

Secuencias Aleatorias Caminantes aleatorios. Secuencias Aleatorias Contenidos. Secuencias aleatorias. Caminantes aleatorios. Movimiento Browniano. La hipótesis de eficiencia de los mercados implica que la cotización de un título

Más detalles

Teoría de juegos Andrés Ramos Universidad Pontificia Comillas

Teoría de juegos Andrés Ramos Universidad Pontificia Comillas Teoría de juegos Andrés Ramos Universidad Pontificia Comillas http://www.iit.upcomillas.es/aramos/ Andres.Ramos@upcomillas.es TEORÍA DE JUEGOS 1 Teoría de juegos 1. Matriz de pagos 2. Clasificación 3.

Más detalles

Redes de Petri Estocásticas

Redes de Petri Estocásticas Redes de Petri Estocásticas Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Definición: Una red de Petri Estocástica es una red de Petri con transiciones con

Más detalles

3. ÁLGEBRA LINEAL // 3.3. AUTOVALORES Y

3. ÁLGEBRA LINEAL // 3.3. AUTOVALORES Y 3. ÁLGEBRA LINEAL // 3.3. AUTOVALORES Y AUTOVECTORES. SISTEMAS DE EVOLUCIÓN. COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS Curso 2011-2012 3.3.1. Ejemplos de sistemas de evolución discretos

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

2. El Segundo Método de Estabilidad de Liapunov. 2. El Segundo Método de Estabilidad de Liapunov

2. El Segundo Método de Estabilidad de Liapunov. 2. El Segundo Método de Estabilidad de Liapunov 2.1. Introducción. Funciones de Liapunov 2.1. Introducción. Funciones de Liapunov Consideremos el sistema no lineal autónomo (1.12) y = f (y) donde f : D R N R N, con f Lip loc (D) y f (0) = 0, D abierto

Más detalles

I Conceptos Generales 1

I Conceptos Generales 1 Índice I Conceptos Generales 1 1. Procesos Estocásticos 3 1.1. Introducción............................ 3 1.2. Definición de proceso estocástico................ 4 1.3. Distribución de un proceso estocástico.............

Más detalles

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov

Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 5: Modelos Ocultos de Markov Modelos Ocultos de Markov Cadenas de Markov Preguntas básicas Aplicación: orden en Google Modelos Ocultos de Markov

Más detalles

ALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA

ALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA Mosaicos Matemáticos No. 11 Diciembre, 23. Nivel Superior ALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA Mario Alberto Villalobos Arias Departamento de Matemáticas Centro de Investigación y de

Más detalles

Una aplicación de la Teoría Ergódica en la búsqueda de Google

Una aplicación de la Teoría Ergódica en la búsqueda de Google Ergódica Una aplicación de la Ergódica en la búsqueda de Google 10 de octubre de 2009 Una aplicación de la Ergódica en la búsqueda de Google Google Ergódica Una aplicación de la Ergódica en la búsqueda

Más detalles

CAPITULO 16 Procesos de Markov

CAPITULO 16 Procesos de Markov CAPITULO 16 Procesos de Markov Probabilidades de Transición Probabilidades Fijas Estados de Absorción Matriz de Transición n con Submatrices Matriz Fundamental 1 INTRODUCCIÓN N A LAS CADENAS DE MARKOV

Más detalles

Procesos estocásticos. Primera Prueba 1

Procesos estocásticos. Primera Prueba 1 08513. Procesos estocásticos. Primera Prueba 1 Problema 1. El número de partículas en una región del espacio evoluciona de la siguiente manera: en cada unidad de tiempo, cada partícula contenida en ella

Más detalles

GUIA DE SIMULACION UNIVERSIDAD POLITECNICA DE NICARAGUA. Marzo 25, 2011 Autor: KATIA NORELLY MENDOZA FAJARDO

GUIA DE SIMULACION UNIVERSIDAD POLITECNICA DE NICARAGUA. Marzo 25, 2011 Autor: KATIA NORELLY MENDOZA FAJARDO GUIA DE SIMULACION UNIVERSIDAD POLITECNICA DE NICARAGUA Marzo 25, 2011 Autor: KATIA NORELLY MENDOZA FAJARDO Qué es la Simulación? Una definición más formal, es que la simulación es el proceso de diseñar

Más detalles

Cadenas de Markov. http://humberto-r-alvarez-a.webs.com

Cadenas de Markov. http://humberto-r-alvarez-a.webs.com Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estados. Estos

Más detalles

IDENTIFICACION DE SISTEMAS IDENTIFICACIÓN PARAMÉTRICA

IDENTIFICACION DE SISTEMAS IDENTIFICACIÓN PARAMÉTRICA IDENTIFICACION DE SISTEMAS IDENTIFICACIÓN PARAMÉTRICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Identificación paramétrica En

Más detalles

Una aplicación de la Teoría Ergódica en la búsqueda de Google

Una aplicación de la Teoría Ergódica en la búsqueda de Google Dónde entra la Una aplicación de la en la búsqueda de 14 de octubre de 2009 Una aplicación de la en la búsqueda de Dónde entra la Una aplicación de la en la búsqueda de Dónde entra la Qué es el PageRank?

Más detalles

520142: ALGEBRA y ALGEBRA LINEAL

520142: ALGEBRA y ALGEBRA LINEAL 520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición

Más detalles

Interpolación Polinomial

Interpolación Polinomial Pantoja Carhuavilca Métodos Computacionales Agenda y Interpolacion de y Interpolacion de Dado un conjunto de datos conocidos (x 0, y 0 ), (x 1, y 1 ),..., (x N, y N ) buscamos una función f : R R que satisfaga

Más detalles

Teoría de Colas Modelo G/M/1 y G/M/k

Teoría de Colas Modelo G/M/1 y G/M/k Teoría de Colas Modelo G/M/1 y G/M/k Rodrigo Salas Fuentes Universidad Técnica Federico Santa María Departamento de Informática Profesor: Héctor Allende 1 Introducción En este trabajo

Más detalles

Guía de Estudio del Tema 3. Cadenas de Markov. Matriz de Transición de un paso.

Guía de Estudio del Tema 3. Cadenas de Markov. Matriz de Transición de un paso. Universidad de Los Andes Facultad de Ciencias Económicas y Sociales Escuela de Estadística Procesos Estocásticos Sección 0 - A-06 Prof. Douglas Rivas Guía de Estudio del Tema 3. Cadenas de Markov. Matriz

Más detalles

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción

Más detalles

Tema 3: Gramáticas regulares. Teoría de autómatas y lenguajes formales I

Tema 3: Gramáticas regulares. Teoría de autómatas y lenguajes formales I Tema 3: Gramáticas regulares Teoría de autómatas y lenguajes formales I Bibliografía Hopcroft, J. E., Motwani, R., y Ullman, J. D. Introducción a la Teoría de Autómatas, Lenguajes y Computación. Addison

Más detalles

Cadenas de Markov Ocultas

Cadenas de Markov Ocultas Nicolás Carrère Análisis Inteligente de Datos Departamento de Informática Universidad Técnica Federico Santa María Valparaíso, 24 de Noviembre de 2005 1 2 3 4 Temario Las cadenas de Markov pueden ser representadas

Más detalles

Tema 6: Máquina de Turing

Tema 6: Máquina de Turing Tema 6: Máquina de Turing Departamento de Sistemas Informáticos y Computación http://www.dc.upv.es p.1/28 Tema 6: Máquina de Turing La Máquina de Turing. Máquinas de Turing como aceptores Otros modelos

Más detalles

Facultad de Ingeniería - IIE Modelado y análisis de redes de telecomunicaciones Práctico 2. Cadenas de Markov en Tiempo Discreto

Facultad de Ingeniería - IIE Modelado y análisis de redes de telecomunicaciones Práctico 2. Cadenas de Markov en Tiempo Discreto Facultad de Ingeniería - IIE Modelado y análisis de redes de telecomunicaciones Práctico 2 Cadenas de Markov en Tiempo Discreto Ejercicio 1 Una computadora genera paquetes de datos y los envía por la red.

Más detalles

SISTEMAS DE ECUACIONES LINEALES Y MATRICES

SISTEMAS DE ECUACIONES LINEALES Y MATRICES y SISTEMAS DE ECUACIONES ES Y MATRICES Sergio Stive Solano 1 Febrero de 2015 1 Visita http://sergiosolanosabie.wikispaces.com y SISTEMAS DE ECUACIONES ES Y MATRICES Sergio Stive Solano 1 Febrero de 2015

Más detalles

Ejercicios: Estimando π con métodos Monte Carlo y cálculo del mayor autovalor de una matriz

Ejercicios: Estimando π con métodos Monte Carlo y cálculo del mayor autovalor de una matriz Ejercicios: Estimando π con métodos Monte Carlo y cálculo del mayor autovalor de una matriz 6 de marzo de 05. Cálculo de π con métodos Monte Carlo El objetivo de este ejercicio consiste en estimar el valor

Más detalles

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012 Contenido Motivación Métodos computacionales Integración de Montecarlo Muestreo de Gibbs Rejection Muestreo Importante Metropolis - Hasting Markov Chain Montecarlo Method Complemento ejemplos libro: Bayesian

Más detalles

Procesos estocásticos Sesión 10. Teoría de colas

Procesos estocásticos Sesión 10. Teoría de colas Procesos estocásticos Sesión 10. Teoría de colas Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Elementos de un modelo de

Más detalles

Tema 1. Heurísticos en Optimización Combinatorial

Tema 1. Heurísticos en Optimización Combinatorial Tema 1. Heurísticos en Optimización Combinatorial p. 1/2 Tema 1. Heurísticos en Optimización Combinatorial Abdelmalik Moujahid, Iñaki Inza y Pedro Larrañaga Departamento de Ciencias de la Computación e

Más detalles

Procesos estocásticos Cadenas de Márkov

Procesos estocásticos Cadenas de Márkov Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el

Más detalles

Solemne 2. CII Modelos Estocásticos 28 de junio Profesores: Basso, Batarce, Feres y Varas

Solemne 2. CII Modelos Estocásticos 28 de junio Profesores: Basso, Batarce, Feres y Varas CII753 - Modelos Estocásticos 8 de junio 7 Profesores: Basso, Batarce, Feres y Varas Solemne P (a) Un conocido mago del Paseo Ahumada ha hecho una respetable fortuna con el siguiente juego de azar: en

Más detalles

Complejidad de los Algoritmos

Complejidad de los Algoritmos Que es un Algoritmo? Complejidad de los Algoritmos Webster: cualquier método especial para resolver cierta clase de problemas. Horowitz: método preciso utilizable en una computadora para la solución de

Más detalles

Óscar Andrés Gamboa Garay MD, Especialista en Estadística,Ms(c)

Óscar Andrés Gamboa Garay MD, Especialista en Estadística,Ms(c) l i MODELOS DE DECISIÓN EN ESTUDIOS FÁRMACO ECONÓMICOS ISPOR-CO Óscar Andrés Gamboa Garay MD, Especialista en Estadística,Ms(c) Qué es la simulación? Conjunto de métodos y aplicaciones que busca imitar

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Fundamentos de la investigación en psicología

Fundamentos de la investigación en psicología Fundamentos de la investigación en psicología TEMA 10 1º curso Grado Psicología Curso académico 2017-18 TEMA 10. MODELOS DE DISTRIBUCIÓN DE PROBABILIDAD: VARIABLES CONTINUAS 1. El modelo normal 2. Ejercicios

Más detalles

Práctica 5 Martingalas a tiempo discreto

Práctica 5 Martingalas a tiempo discreto Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.

Más detalles

UNIVERSIDAD DE SONORA

UNIVERSIDAD DE SONORA El saber de mis hijos hará mi grandeza UNIVERSIDAD DE SONORA División de Ciencias Exactas y Naturales Programa de Posgrado en Matemáticas Inferencia Estadística para Cadenas de Markov T E S I S Que para

Más detalles

b) Calcular sus cuatro puntos de equilibrio y estudiar la estabilidad en cada uno por el método de linealización.

b) Calcular sus cuatro puntos de equilibrio y estudiar la estabilidad en cada uno por el método de linealización. Examen Final de EDOs Fecha: 14 de enero de 2013 Problemas Tiempo total: 2 horas y 30 minutos 1. Es un problema largo, pero casi todos los apartados son de tipo estándar. La interdependencia entre apartados

Más detalles

INTRODUCCION A LA SIMULACION DE MODELOS. Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas.

INTRODUCCION A LA SIMULACION DE MODELOS. Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas. Tema N 1 Definiciones INTRODUCCION A LA SIMULACION DE MODELOS Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas. La simulación esencialmente es una

Más detalles