Techniques to Understand Computer Simulations: Markov Chain Analysis
|
|
- Sebastián Quiroga Moreno
- hace 5 años
- Vistas:
Transcripción
1 Techniques to Understand Computer Simulations: Markov Chain Analysis Luis R. Izquierdo, Segismundo S. Izquierdo, José Manuel Galán and José Ignacio Santos (2009) Presentador: Andres Abeliuk
2 Objetivos Ayudar a los investigadores a comprender la dinámica de los modelos de simulación que se han implementado y se pueden ejecutar en un computador.
3 Un modelo computacional es una relación determinista inputoutput, i.e. una función. Cualquier modelo computacional se puede re-implementar en muchos formalismos diferentes, dando lugar a representaciones alternativas de la misma relación input-output. Generadores de números pseudoaleatorios nos dan el potencial para simular variables aleatorias dentro de nuestros modelos de computadora, y por lo tanto, simular los procesos estocásticos. Cualquier output obtenida de un modelo parametrizado sigue una distribución de probabilidad específica. Esta distribución de probabilidad se puede aproximar a un grado arbitrario de precisión mediante la reiterada ejecución del modelo. Los modelos formales que muchos usan en la literatura de simulación social, pueden ser representados como cadenas de Markov homogéneas en el tiempo. Analizar un modelo como una cadena de Markov puede hacer evidente muchas características del modelo que no eran tan evidentes antes de realizar dicho análisis.
4 Cadenas de Markov homogéneas en el tiempo (THMCs) El futuro dado el pasado, solo depende del presente: P (X n+1 = x n+1 X n = x n, X n-1 = x n-1,..., X 0 = x 0 ) = P (X n+1 = x n+1 X n = x n ) Las probabilidades de transición p i,j son independientes del tiempo: P(X n+1 = j X n = i) = P(X n = j X n 1 = i) = p i,j
5 Caminata aleatoria
6 Análisis de la dinámica de THMCs Suele dividirse en dos partes: la dinámica transitoria (tiempo finito) y la dinámica asintótica (tiempo infinito) El comportamiento transitorio se caracteriza por la distribución de los estados del sistema para un plazo fijo, n 0. El comportamiento asintótico se caracteriza por el límite de la distribución de cuando n tiende a infinito, cuando este límite existe.
7 Dinámica transitoria Buscamos vector a (n) que contiene la probabilidad de encontrarse en cualquiera de los posibles estados en el paso n. a (n) = [a 1 (n),, a M (n) ], a i (n) = P(X n = i), M estados Proposición 1: a (n) = a (0) P n Por lo tanto, p (n) i,j es la probabilidad estar en el estado j después de n pasos de haber comenzado en el estado i, es decir, p (n) i,j = P (X n = j X 0 = i).
8 Caminante al azar comienza en una posición inicial aleatoria, i.e. a (0) = [1/17,, 1/17]. La distribución exacta de la posición del caminante en el paso 100 es a (100) = a (0) P 100
9 La matriz de transición de la mayoría de los modelos NO puede ser fácilmente derivada, o es inviable para operar con ella. No obstante, esta desventaja no es tan importante como uno podría esperar. Es posible deducir muchas propiedades de un THMC, aun sin conocer los valores exactos de su matriz de transición.
10 Accesibilidad Conceptos importantes Si empezando por el estado i existe la posibilidad de que el sistema puede visitar el estado j en algún momento en el futuro ( i j ): Comunicación Formalmente: Existe n 0, tq. p (n) i,j > 0. Un estado i se dice que se comunican con el estado j si i j y j i, se escribe i j.
11 Clases de comunicación Un conjunto de estados C S se dice que es una clase de comunicación si: Dos estados cualquiera en la clase se comunican entre sí. Formalmente, (i C, j C ) i j El conjunto C es máximal. Formalmente, (i C, i j) j C
12 Clase cerrada (absorbente) Si ningún estado dentro de una clase de comunicación C conduce a algún estado fuera de C Formalmente C es cerrada si i C y j C implica que j no es accesible desde i. Tenga en cuenta que una vez que una cadena de Markov visita una clase de comunicación cerrada, no puede salir de él
13 Proposición 2. Teorema de descomposición (Chung, 1960) El espacio de estados S de cualquier cadena de Markov puede ser únicamente dividida de la siguiente manera: S = C 1 C 2... C k T, donde C 1, C 2,..., C k son clases cerradas, y T es la unión de todas las otras clases de comunicación.
14 Estados transitorios y recurrentes Un estado i se dice que es transitorio, si teniendo en cuenta que empezamos en el estado i, existe una probabilidad no nula de que nunca vamos a volver a i De lo contrario, el estado se denomina recurrente (empezando por un estado recurrente,con probabilidad 1 se volvera)
15 Estados periódicos y aperiódicos Un estado i tiene periodo d si cualquier retorno al estado i debe ocurrir en múltiplos de d pasos de tiempo Si d=1 es aperiódico Los elemento de una misma clase tienen el mismo periodo
16 Dinámica asintótica Proposición 3. dinámica general de THMCs finitos. Considere un THMC finito que se ha dividido como se indica en la Proposición 2. Entonces: Todos los estados de T son transitorios. Todos los estados en C v son recurrentes. Proposición 3 establece que tarde o temprano el THMC entrará en una de las clases absorbentes y permanecerá en ella para siempre
17 Atrapado en una clase absorbente Aperiódica La distribución de probabilidades converge a un limite y es única No depende del estado inicial, solo de P. Corriendo una simulación durante el tiempo suficiente servirá para calcular π igual de bien.
18 Cuánto tiempo es suficiente? Desafortunadamente, no hay respuesta para eso. Lo positivo: Tiene que ser estable en el tiempo Independiente de las condiciones iniciales Lo anterior permite realizar una amplia gama de pruebas que nos pueden dar cuenta cuando es suficiente.
19 Periódica (periodo d) Tiene d distribuciones de probabilidad Dependen del estado inicial. Ejemplo Caminata aleatoria:
20 Partiendo por estado 1
21 Afortunadamente todo THMC (aperiódico o periódico) tiene una distribución única π* No depende del estado inicial Luego solo basta una larga simulación para determinar el tiempo que pasa en cada estado.
22 Modelo con varios estados absorbentes S = {abs 1 } {abs 2 } {abs k } T Si solo hay 1 estado absorbente (i.e. S = {abs 1 } T) el sistema eventualmente terminara en el estado absorbente. Si hay más de un estado absorbente depende de las condiciones iniciales en cual terminara.
23 Ejemplos
24 Robustez de estados absorbentes a las perturbaciones En los modelos evolutivos estas perturbaciones pueden derivarse de los procesos de mutación. En los modelos culturales pueden derivarse de la experimentación. Resultados interesantes: Se puede escapar de un estado absorbente debido a perturbaciones. Los estados absorbente que pueden ser alcanzada con gran probabilidad en el modelo imperturbable se observan con una probabilidad muy baja en el modelo con el ruido.
25 Ejemplo
26 Resumen El tipo de análisis que se explica en este artículo es útil incluso en los casos que no es posible derivar analíticamente las probabilidades. Estas funciones de probabilidad siempre se puede aproximar con algún grado de precisión mediante la ejecución del modelo de equipo varias veces. El punto importante es darse cuenta que existen tales funciones Saber cuándo y cómo dependen de las condiciones iniciales, pueden ofrecer una perspectiva valiosa sobre la dinámica de los modelos.
Cadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov
Cadenas de Markov Hace más de un siglo se escribió el primer trabajo seminal sobre Cadenas de Markov y aún siguen siendo un instrumento tremendamente útil de modelación estocástica. Su importancia obedece
Más detallesCONFERENCIA TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 7
Maestría en Bioinformática Probabilidad y Estadística: Clase 7 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Condiciones de ergodicidad
Más detallesCONFERENCIA TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria
Más detallesCadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
Más detallesRevisión - soluciones. lunes 9 de octubre de 2017
Introducción a los Procesos Estocásticos Curso 7 Revisión - soluciones lunes 9 de octubre de 7. Ejercicio (5 puntos) Considere una cadena de Markov homogénea {X n } n con espacio de S = {,,, } y matriz
Más detallesCadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesProcesos estocásticos Sesión 4. Cadenas de Markov
Procesos estocásticos Sesión 4. Cadenas de Markov Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Probabilidades de retorno
Más detallesCONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Más detallesProcesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico
Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos
Más detallesCadenas de Markov.
Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estado. Cadenas
Más detallesUNIVERSIDAD DE MANAGUA Al más alto nivel
UNIVERSIDAD DE MANAGUA Al más alto nivel Investigación de Operaciones Encuentro #7 Tema: Cadenas de Markov Prof.: MSc. Julio Rito Vargas A. Grupo:CCEE y ADMVA /26 Objetivos: Aplicar la teoría fundamental
Más detallesCadenas de Markov. José Antonio Camarena Ibarrola
Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el
Más detalles2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO
2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO Cadenas de Markov 10 En la primera parte del capítulo se estudian las probabilidades condicionales de transición -definidas en (l5) y (16) - e incondicionales
Más detallesUna pregunta pendiente
Una pregunta pendiente Cómo podemos construir un generador (casi) uniforme para una relación? Recuerde el problema KS definido en la sección anterior y la relación: R KS = {((~a, b), ~x) ~a 2 N n y ~x
Más detallesCLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores
CLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores Definiciones Se dice que un estado i es esencial si y sólo si se comunica con cada estado al que conduce; de lo contrario, se denomina
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 4
Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios
Más detallesFORMULARIO CADENAS DE MARKOV
FORMULARIO CADENAS DE MARKOV Fuente: F. Hillier - G. Lieberman: Introducción a la investigación de operaciones. Sexta edición. Ed. Mc-Graw Hill. Proceso estocástico. Un proceso estocástico es una colección
Más detallesUna invitación al estudio de las cadenas de Markov
Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de
Más detallesCONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Más detallesCarlos J. Zapata G Carlos A. Ramirez V
Carlos J. Zapata G Carlos A. Ramirez V Introducción Los AG provienen de la familia de modelos computacionales basados en la evolución Holland fue el primero quien le dio un formalismo y el nombre a los
Más detallesCADENAS DE MARKOV CON PARÁMETRO DISCRETO Rosario Romera Febrero 2009
DENS DE MRKOV ON PRÁMETRO DISRETO Rosario Romera Febrero 9. Nociones básicas De nición: El proceso fx n g nn con espacio de estados S N es una adena de Markov si 8n; m N y 8i ; : : : i n ; j S se cumple
Más detallesPráctico 2 - parte 1
1. ([2], p.8) Práctico 2 - parte 1 Cadenas de Markov en tiempo discreto: propiedad de Markov, matriz de transición. Fecha de entrega: viernes 2 de septiembre Sea {X n } n 0 una cadena de Markov homogénea
Más detallesCadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM
Cadenas de Markov Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadena de Markov Considere variable aleratorio X 0, X 1,... tomando valores en un conjunto finito o discreto, E. Entonces {X n } n 0 es
Más detallesSimulación computacional de cadenas de Markov
Simulación computacional de cadenas de Markov Presentación basada en el capítulo 3 de Finite Markov Chains and Algorithmic Applications (Häggström, 2002) Sebastián Castro Seminario de Probabilidad y Estadística
Más detallesProblema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010
Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Problema 1: (3,25 puntos) Resolver Mediante el Algoritmo del Simplex el siguiente problema: TABLA 1 Max 3x 1 + x
Más detallesCadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones
Tiempo Continuo Modelado y Análisis de Redes de Telecomunicaciones 1 Agenda en tiempo continuo Ergodicidad de la cadena Ejemplo: Líneas Telefónicas página 2 CMTC Consideremos ahora los procesos de Markov
Más detallesDefinición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)
Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo
Más detallesTratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov
Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov Curso 2011/2012 Materiales: (a) Ordenadores equipados con Matlab Objetivos: (a) Estudiar las cadenas de Markov como una familia de secuencias
Más detallesFuentes de información
TEORÍA DE LA INFORMACIÓN Tratamiento probabilístico de la Información Fuentes de información INGENIERÍA DE SISTEMAS 07 TRANSMISIÓN DE INFORMACIÓN decodificación automática capacidad del canal Claude Shannon
Más detallesProcesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26
Procesos de ramificación y árboles aleatorios. Juan Carlos Pardo Millán CIMAT, Guanajuato 1/ 26 Progama: Preliminares de probabilidad. Cadenas de Markov. Caminatas aleatorias. Procesos de Bienaymé-Galton-Watson.
Más detallesCadenas de Markov Cálculos probabilísticos con RCommander
Sesión 3 Cadenas de Markov. En la teoría de la probabilidad, se conoce como cadena de Markov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende
Más detallesProcesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Más detallesCadenas de Markov. José Antonio Camarena Ibarrola
Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el
Más detallesModelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Más detallesCADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 2009
CADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 29. Nociones básicas Para las cadenas de Markov con parámetro de tiempo discreto hemos visto qe la matriz de transición en n etapas pede ser
Más detallesUNIVERSIDAD DE MANAGUA Al más alto nivel
UNIVERSIDAD DE MANAGUA Al más alto nivel INVESTIGACIÓN DE OPERACIONES Encuentro #8 TEMA: CADENAS DE MARKOV Prof.: MSc. Julio Rito Vargas Avilés IC-28 Agenda: Proceso estocástico Concepto de Cadena de Markov
Más detallesCADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico
PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar
Más detallesTema 4: Cadenas de Markov. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga
Tema 4: Cadenas de Markov Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Sumario Procesos estocásticos Concepto de cadena de Markov Ecuaciones de Chapman-Kolmogorov
Más detallesAsumimos que la calidad de la solución es cuantificable y comparable con cualquier otra solución y asumimos que las soluciones son finitas.
Capítulo 6 Recocido Simulado 6.1 Introducción El resolver un problema combinatorio se resume a encontrar la mejor / óptima solución dentro de un conjunto finito o contablemente infinito de alternativas.
Más detallesProcesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas
Más detallesUnidad Il: Sistemas Lineales discretos y continuos (continuación)
Unidad Il: Sistemas Lineales discretos y continuos (continuación) Objetivo específico: Entender ampliamente el fenómeno del comportamiento de los modelos matemáticos para la resolución de problemas enfocados
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 10
Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios
Más detallesEstadística Bayesiana
Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.
Más detallesINSTITUTO TECNOLOGICO METROPOLITANOCadenasNovember MarkovEjercicios 6, / 10
INSTITUTO TECNOLOGICO METROPOLITANO Cadenas de Markov Ejercicios Wbaldo Londoño November 6, 2012 INSTITUTO TECNOLOGICO METROPOLITANOCadenasNovember MarkovEjercicios 6, 2012 1 / 10 Ejercicio 1 En un país
Más detalles3. Método de Rayleigh-Ritz
3. Método de Rayleigh-Ritz La solución del problema de elasticidad consiste en encontrar la función desplazamiento u válida para todo el dominio y que verifique las condiciones de contorno. El método de
Más detallesMáquinas de Turing. Definición 2
Definición 1 La Máquina de Turing (MT) es el modelo de autómata com máxima capacidad computacional: la unidad de control puede desplazarse a izquierda o derecha y sobreescribir símbolos en la cinta de
Más detallesRedes de Petri Estocásticas (II)
Redes de Petri Estocásticas (II) Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Formalmente una red de Petri estocástica es por tanto una 7 upla SPN=(P,T,I(),O(),H(),W(),Mo)
Más detallesCálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov
Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de
Más detallesNombre de la asignatura: Investigación de Operaciones II. Créditos: Aportación al perfil
Nombre de la asignatura: Investigación de Operaciones II Créditos: 2-2-4 Aportación al perfil Analizar, diseñar y gestionar sistemas productivos desde la provisión de insumos hasta la entrega de bienes
Más detallesIntroducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47
Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor
Más detallesUniversidad Autónoma del Estado de México Licenciatura en Matemáticas Programa de Estudios: Procesos Estocásticos
Universidad Autónoma del Estado de México Licenciatura en Matemáticas 2003 Programa de Estudios: Procesos Estocásticos I. Datos de identificación Licenciatura Matemáticas 2003 Unidad de aprendizaje Procesos
Más detalles1. Análisis de Sistemas Discretos
. Análisis de Sistemas Discretos. Análisis de Sistemas Discretos.. Introducción.. Estabilidad... Estabilidad de Sistemas Lineales 3... Estabilidad de Sistemas con Entrada y Salida Acotadas(BIBO) 4..3.
Más detallesSobre la Deriva Genética
Sobre la Deriva Genética La evolución biológica consiste en el cambio de las características hereditarias a través de las generaciones. Los fenómenos que m as intervienen en el proceso evolutivo son la
Más detallesSimulaciones. Modelado y Análisis de Redes de Telecomunicaciones
Simulaciones Modelado y Análisis de Redes de Telecomunicaciones Agenda Introducción Técnicas de simulación Simulación a eventos discretos Precisión de la salida Generación de números aleatorios Monte Carlo
Más detallescadenas de Markov tienen la propiedad de que la probabilidad de que X n = j sólo depende
Cadenas de Markov Los procesos de paseo aleatorio en realidad son un caso particular de procesos más generales que son las cadenas de Markov. En esencia, una cadena es un proceso en tiempo discreto en
Más detallesSecuencias Aleatorias
Caminantes aleatorios. Secuencias Aleatorias Contenidos. Secuencias aleatorias. Caminantes aleatorios. Movimiento Browniano. La hipótesis de eficiencia de los mercados implica que la cotización de un título
Más detallesTeoría de juegos Andrés Ramos Universidad Pontificia Comillas
Teoría de juegos Andrés Ramos Universidad Pontificia Comillas http://www.iit.upcomillas.es/aramos/ Andres.Ramos@upcomillas.es TEORÍA DE JUEGOS 1 Teoría de juegos 1. Matriz de pagos 2. Clasificación 3.
Más detallesRedes de Petri Estocásticas
Redes de Petri Estocásticas Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Definición: Una red de Petri Estocástica es una red de Petri con transiciones con
Más detalles3. ÁLGEBRA LINEAL // 3.3. AUTOVALORES Y
3. ÁLGEBRA LINEAL // 3.3. AUTOVALORES Y AUTOVECTORES. SISTEMAS DE EVOLUCIÓN. COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS Curso 2011-2012 3.3.1. Ejemplos de sistemas de evolución discretos
Más detallesCurso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detalles2. El Segundo Método de Estabilidad de Liapunov. 2. El Segundo Método de Estabilidad de Liapunov
2.1. Introducción. Funciones de Liapunov 2.1. Introducción. Funciones de Liapunov Consideremos el sistema no lineal autónomo (1.12) y = f (y) donde f : D R N R N, con f Lip loc (D) y f (0) = 0, D abierto
Más detallesI Conceptos Generales 1
Índice I Conceptos Generales 1 1. Procesos Estocásticos 3 1.1. Introducción............................ 3 1.2. Definición de proceso estocástico................ 4 1.3. Distribución de un proceso estocástico.............
Más detallesModelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 5: Modelos Ocultos de Markov
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 5: Modelos Ocultos de Markov Modelos Ocultos de Markov Cadenas de Markov Preguntas básicas Aplicación: orden en Google Modelos Ocultos de Markov
Más detallesALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA
Mosaicos Matemáticos No. 11 Diciembre, 23. Nivel Superior ALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA Mario Alberto Villalobos Arias Departamento de Matemáticas Centro de Investigación y de
Más detallesUna aplicación de la Teoría Ergódica en la búsqueda de Google
Ergódica Una aplicación de la Ergódica en la búsqueda de Google 10 de octubre de 2009 Una aplicación de la Ergódica en la búsqueda de Google Google Ergódica Una aplicación de la Ergódica en la búsqueda
Más detallesCAPITULO 16 Procesos de Markov
CAPITULO 16 Procesos de Markov Probabilidades de Transición Probabilidades Fijas Estados de Absorción Matriz de Transición n con Submatrices Matriz Fundamental 1 INTRODUCCIÓN N A LAS CADENAS DE MARKOV
Más detallesProcesos estocásticos. Primera Prueba 1
08513. Procesos estocásticos. Primera Prueba 1 Problema 1. El número de partículas en una región del espacio evoluciona de la siguiente manera: en cada unidad de tiempo, cada partícula contenida en ella
Más detallesGUIA DE SIMULACION UNIVERSIDAD POLITECNICA DE NICARAGUA. Marzo 25, 2011 Autor: KATIA NORELLY MENDOZA FAJARDO
GUIA DE SIMULACION UNIVERSIDAD POLITECNICA DE NICARAGUA Marzo 25, 2011 Autor: KATIA NORELLY MENDOZA FAJARDO Qué es la Simulación? Una definición más formal, es que la simulación es el proceso de diseñar
Más detallesCadenas de Markov. http://humberto-r-alvarez-a.webs.com
Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estados. Estos
Más detallesIDENTIFICACION DE SISTEMAS IDENTIFICACIÓN PARAMÉTRICA
IDENTIFICACION DE SISTEMAS IDENTIFICACIÓN PARAMÉTRICA Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Identificación paramétrica En
Más detallesUna aplicación de la Teoría Ergódica en la búsqueda de Google
Dónde entra la Una aplicación de la en la búsqueda de 14 de octubre de 2009 Una aplicación de la en la búsqueda de Dónde entra la Una aplicación de la en la búsqueda de Dónde entra la Qué es el PageRank?
Más detalles520142: ALGEBRA y ALGEBRA LINEAL
520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición
Más detallesInterpolación Polinomial
Pantoja Carhuavilca Métodos Computacionales Agenda y Interpolacion de y Interpolacion de Dado un conjunto de datos conocidos (x 0, y 0 ), (x 1, y 1 ),..., (x N, y N ) buscamos una función f : R R que satisfaga
Más detallesTeoría de Colas Modelo G/M/1 y G/M/k
Teoría de Colas Modelo G/M/1 y G/M/k Rodrigo Salas Fuentes Universidad Técnica Federico Santa María Departamento de Informática Profesor: Héctor Allende 1 Introducción En este trabajo
Más detallesGuía de Estudio del Tema 3. Cadenas de Markov. Matriz de Transición de un paso.
Universidad de Los Andes Facultad de Ciencias Económicas y Sociales Escuela de Estadística Procesos Estocásticos Sección 0 - A-06 Prof. Douglas Rivas Guía de Estudio del Tema 3. Cadenas de Markov. Matriz
Más detallesBases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción
Más detallesTema 3: Gramáticas regulares. Teoría de autómatas y lenguajes formales I
Tema 3: Gramáticas regulares Teoría de autómatas y lenguajes formales I Bibliografía Hopcroft, J. E., Motwani, R., y Ullman, J. D. Introducción a la Teoría de Autómatas, Lenguajes y Computación. Addison
Más detallesCadenas de Markov Ocultas
Nicolás Carrère Análisis Inteligente de Datos Departamento de Informática Universidad Técnica Federico Santa María Valparaíso, 24 de Noviembre de 2005 1 2 3 4 Temario Las cadenas de Markov pueden ser representadas
Más detallesTema 6: Máquina de Turing
Tema 6: Máquina de Turing Departamento de Sistemas Informáticos y Computación http://www.dc.upv.es p.1/28 Tema 6: Máquina de Turing La Máquina de Turing. Máquinas de Turing como aceptores Otros modelos
Más detallesFacultad de Ingeniería - IIE Modelado y análisis de redes de telecomunicaciones Práctico 2. Cadenas de Markov en Tiempo Discreto
Facultad de Ingeniería - IIE Modelado y análisis de redes de telecomunicaciones Práctico 2 Cadenas de Markov en Tiempo Discreto Ejercicio 1 Una computadora genera paquetes de datos y los envía por la red.
Más detallesSISTEMAS DE ECUACIONES LINEALES Y MATRICES
y SISTEMAS DE ECUACIONES ES Y MATRICES Sergio Stive Solano 1 Febrero de 2015 1 Visita http://sergiosolanosabie.wikispaces.com y SISTEMAS DE ECUACIONES ES Y MATRICES Sergio Stive Solano 1 Febrero de 2015
Más detallesEjercicios: Estimando π con métodos Monte Carlo y cálculo del mayor autovalor de una matriz
Ejercicios: Estimando π con métodos Monte Carlo y cálculo del mayor autovalor de una matriz 6 de marzo de 05. Cálculo de π con métodos Monte Carlo El objetivo de este ejercicio consiste en estimar el valor
Más detallesAlvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012
Contenido Motivación Métodos computacionales Integración de Montecarlo Muestreo de Gibbs Rejection Muestreo Importante Metropolis - Hasting Markov Chain Montecarlo Method Complemento ejemplos libro: Bayesian
Más detallesProcesos estocásticos Sesión 10. Teoría de colas
Procesos estocásticos Sesión 10. Teoría de colas Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Elementos de un modelo de
Más detallesTema 1. Heurísticos en Optimización Combinatorial
Tema 1. Heurísticos en Optimización Combinatorial p. 1/2 Tema 1. Heurísticos en Optimización Combinatorial Abdelmalik Moujahid, Iñaki Inza y Pedro Larrañaga Departamento de Ciencias de la Computación e
Más detallesProcesos estocásticos Cadenas de Márkov
Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el
Más detallesSolemne 2. CII Modelos Estocásticos 28 de junio Profesores: Basso, Batarce, Feres y Varas
CII753 - Modelos Estocásticos 8 de junio 7 Profesores: Basso, Batarce, Feres y Varas Solemne P (a) Un conocido mago del Paseo Ahumada ha hecho una respetable fortuna con el siguiente juego de azar: en
Más detallesComplejidad de los Algoritmos
Que es un Algoritmo? Complejidad de los Algoritmos Webster: cualquier método especial para resolver cierta clase de problemas. Horowitz: método preciso utilizable en una computadora para la solución de
Más detallesÓscar Andrés Gamboa Garay MD, Especialista en Estadística,Ms(c)
l i MODELOS DE DECISIÓN EN ESTUDIOS FÁRMACO ECONÓMICOS ISPOR-CO Óscar Andrés Gamboa Garay MD, Especialista en Estadística,Ms(c) Qué es la simulación? Conjunto de métodos y aplicaciones que busca imitar
Más detallesProbabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.
Más detallesFundamentos de la investigación en psicología
Fundamentos de la investigación en psicología TEMA 10 1º curso Grado Psicología Curso académico 2017-18 TEMA 10. MODELOS DE DISTRIBUCIÓN DE PROBABILIDAD: VARIABLES CONTINUAS 1. El modelo normal 2. Ejercicios
Más detallesPráctica 5 Martingalas a tiempo discreto
Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.
Más detallesUNIVERSIDAD DE SONORA
El saber de mis hijos hará mi grandeza UNIVERSIDAD DE SONORA División de Ciencias Exactas y Naturales Programa de Posgrado en Matemáticas Inferencia Estadística para Cadenas de Markov T E S I S Que para
Más detallesb) Calcular sus cuatro puntos de equilibrio y estudiar la estabilidad en cada uno por el método de linealización.
Examen Final de EDOs Fecha: 14 de enero de 2013 Problemas Tiempo total: 2 horas y 30 minutos 1. Es un problema largo, pero casi todos los apartados son de tipo estándar. La interdependencia entre apartados
Más detallesINTRODUCCION A LA SIMULACION DE MODELOS. Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas.
Tema N 1 Definiciones INTRODUCCION A LA SIMULACION DE MODELOS Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas. La simulación esencialmente es una
Más detalles