Redes de Petri Estocásticas (II)

Documentos relacionados
Procesos estocásticos

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

PROCESOS ESTOCÁSTICOS

S = N λ = 5 5 = 1 hora.

Algoritmos para determinar Caminos Mínimos en Grafos

TALLER 1 DE ALGEBRA LINEAL Y GEOMETRÍA INGENIERÍA AMBIENTAL - UNIVERSIDAD DE CÓRDOBA FACTORIZACIÓN LU Y CADENAS DE MARKOV

Cadenas de Markov. José Antonio Camarena Ibarrola

Introducción (Informal)

Mercedes Granda Departamento de Electrónica y Computadores. Las propiedades de las redes de Petri nos permiten

PROGRAMACION CONCURRENTE Y DISTRIBUIDA

Ingeniería de Sistemas. Teoría de colas y juegos

Tema 5 Algunas distribuciones importantes

13.Teoría de colas y fenómenos de espera

PROGRAMACION CONCURRENTE Y DISTRIBUIDA

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Teorema Central del Límite (1)

Año Académico 2009 INGENIERÍA INDUSTRIAL E INGENIERÍA DE SISTEMAS

Probabilidad y Estadística

Teoría de colas. Modelado y Análisis de Redes de Telecomunicaciones. IIE - Facultad de Ingeniería

Carrera: INB Participantes. Representante de las academias de ingeniería industrial de. Academias Ingeniería Industrial.

Teorema de Bayes. mientras que B tiene una tasa de defectos del 4%.

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21

2 = 1 0,5 + = 0,5 c) 3 + = = 2

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov

MENORES, COFACTORES Y DETERMINANTES

CAPITULO 1: PERSPECTIVE GENERAL DE LA

5. TEOREMA FUNDAMENTAL: Formulación y Demostración. Jorge Eduardo Ortiz Triviño

Ayudantía N 9. Problema 1. Considere la siguiente matriz de transición. 1/2 1/2 0 1/3 1/3 1/3

Unidad 1: Espacio de Probabilidad

Unidad Temática 3: Probabilidad y Variables Aleatorias

MODELOS DE COMPUTACION I Preguntas Tipo Test. 1. El lema de bombeo puede usarse para demostrar que un lenguaje determinado es regular.

Matrices. José Vicente Romero Bauset. ETSIT-curso 2009/2010. José Vicente Romero Bauset Tema 1.- Matrices. 1

La reordenación aleatoria de un conjunto finito

Generación de Variables Aleatorias. UCR ECCI CI-1453 Investigación de Operaciones Prof. M.Sc. Kryscia Daviana Ramírez Benavides

El Algoritmo E-M. José Antonio Camarena Ibarrola

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Variables aleatorias

Procesos estocásticos. Definición

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

Introducción a la Investigación de Operaciones Facultad de Ingeniería - Universidad de la República Oriental del Uruguay

Tema 4. Probabilidad Condicionada

cadenas de Markov tienen la propiedad de que la probabilidad de que X n = j sólo depende

Tema Contenido Contenidos Mínimos

Modelos de cola.

Facultad de Ingeniería - IIE Modelado y análisis de redes de telecomunicaciones Práctico 2. Cadenas de Markov en Tiempo Discreto

Esta definición se puede ampliar a cualquier par de bases de los espacio inicial y final MATRIZ DE UNA APLICACIÓN LINEAL EN BASES ARBITRARIAS

Análisis probabilístico y Algoritmos Aleatorizados

Clasificación de sistemas

PROBABILIDAD Introducción La Probabilidad mide la frecuencia con la que aparece un resultado determinado cuando se realiza un experimento.

PROBABILIDAD Y ESTADÍSTICA. Sesión 5 (En esta sesión abracamos hasta tema 5.8)

1.1 CASO DE ESTUDIO: JUEGO DE CRAPS

Introducción a las RdP. Optimización basada en redes de Petri. Redes de Petri. Son objeto de estudio: RdP. Ejemplos:

INVESTIGACIÓN DE OPERACIONES II. JULIO CÉSAR LONDOÑO ORTEGA

Tema 2: Determinantes

Introducción a los códigos compresores

Universidad Nacional de Ingeniería Facultad de Ciencias. Física Computacional CC063. Algebra Lineal. Prof: J. Solano 2012-I

Pruebas de Acceso a las Universidades de Castilla y León

ESTRUCTURA DE LINEAS DE ESPERA

Dos matrices son iguales cuando tienen la misma dimensión y los elementos que ocupan el mismo lugar en ambas son iguales

1.1. Distribución exponencial. Definición y propiedades

1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.

Teoría de colas. Las colas (líneas de espera) son parte de la vida diaria

Cursada Segundo Cuatrimestre 2012 Guía de Trabajos Prácticos Nro. 1

UNIDAD 4 PROCESOS DE MARKOV

Derivadas Parciales (parte 2)

CONCEPTOS BASICOS DE LA TRANSFORMADA DE LAPLACE LA TRANSFORMADA DE LAPLACE

como el número real que resulta del producto matricial y se nota por:

EXPERIMENTO ALEATORIO

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios

CAPÍTULO 4 TÉCNICA PERT

Matrices y determinantes

Cálculo I (Grado en Ingeniería Informática) Problemas adicionales resueltos

Objetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev

Cálculo de Probabilidades II Preguntas Tema 1

Econometría II Grado en finanzas y contabilidad

Autómatas Finitos y Lenguajes Regulares

FUNCIONES EXPONENCIAL Y LOGARÍTMICA

Circuitos Eléctricos Trifásicos. Introducción.

INTRODUCCIÓN: OBJETIVOS:

Maestro Ing. Julio Rito Vargas Avilés. III cuatrimestre 2014

UNIVERSIDAD AUTONOMA DE SANTO DOMINGO

Maestría en Bioinformática Probabilidad y Estadística: Clase 1

Ejercicios de Vectores Aleatorios

Algebra lineal y conjuntos convexos

20, 2% > "''9" )* + ' % &'(! ) ) . % /% ' #% ' 0 &'(! &'(! ) 2 " 2* =% #/// #/// 2!* 4 "3== 2!"@9A"@922 / #/ +/ 6/ / #/ +/ 6/

2.3 PROPIEDADES DE LA PROBABILIDAD

Análisis de. Análisis de. Decisiones:

Probabilidad y Estadística

Distribución binomial

Derivada de la función compuesta. Regla de la cadena

PROBABILIDAD. Es el conjunto de todos los resultados posibles de un experimento aleatorio. Por ejemplo: Experimento: tirar un dado.

> Cadenas de Markov. Horacio Rojo y Miguel Investigación Operativa

PROBABILIDADES VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES. Prof. Johnny Montenegro 1 M.

Análisis y síntesis de circuitos con elementos de memoria. Proceso de Análisis y síntesis de circuitos con elementos de memoria

Teoría de colas I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

Probabilidad Condicional

Formulación del problema de la ruta más corta en programación lineal

MEDIDAS DE TENDENCIA CENTRAL

Matriz sobre K = R o C de dimensión m n

Transcripción:

Redes de Petri Estocásticas (II) Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica

Redes Estocásticas Formalmente una red de Petri estocástica es por tanto una 7 upla SPN=(P,T,I(),O(),H(),W(),Mo) donde PN=(P,T,I(),O(),H(),Mo) es una red de petri con marcas y W() es una función definida sobre el conjunto de transiciones que asigna un número real a cada transición, este número real es el valor inverso de la media de una variable aleatoria que sigue una distribución exponencial negativa.

Redes Estocásticas Las redes estocásticas son isomorficas a cadenas de Markov, El grafo de alcanzabilidad de una red de Petri estocástica corresponde con el diagrama de transición de estado de una cadena de Markov.

Ejemplo. Red de Petri sin elecciones ni sincronizaciones. La red tiene la estructura de una maquina de estados finita (ninguna transición tiene mas de una salida y una entrada) y de un grafo con marcas (ningun lugar tiene mas de una salida y una entrada). Cada lugar determina un estado de la red. Cada lugar de la red corresponde a un estado en el modelo probabilístico. El tiempo que permanece un token en cada uno de los estados está determinado por la única transición que puede remover el token del lugar en el que se encuentra. El modelo probabilístico que representa a la red es una cadena de Markov a tiempo continuo.

Ejemplo. Red de Petri sin elecciones ni sincronizaciones.

Ejemplo. Red de Petri sin elecciones La red tiene la estructura de una maquina de estados finita (ninguna transición tiene mas de una salida y una entrada) La marca inicial consiste en un único token. Pueden aparecer confictos si varias transiciones comparten un mismo lugar de entrada. Se establece una carrera entre ambas transiciones. Una de las transiciones gana la carrera y hay que establecer una política con las transiciones que no ganaron la carrera.

Ejemplo. Red de Petri sin elecciones El el caso de redes de Petri donde el tiempo de disparo de las transiciones tiene una distribucion exponencial negativa, la propiedad de no memoria de esta distribución hace que la eleccion entre memoria de edad memoria de activación resampling Sea irrelevante.

Ejemplo. Red de Petri sin elecciones

Ejemplo. Multiples tokens. El modelo se complica cuando permitimos mas de un token en la marca inicial, en este caso es necesario tener en cuenta: La semantica de servidor (Servidor infinito, servidor simple) La politica de colas empleada por las transiciones.

Ejemplo. Multiples tokens.

Ejemplo. Multiples tokens. Se puede demostrar que cuando se usa una distribución exponencial en el tiempo de disparo de transiciones y los valores de rendimiento que nos interesan estan solo relacionados con los momentos del numero de tokens a la entrada de una transición entonces la politica de colas empleda no es relevante Por tanto se suele usar una politica de colas aleatoria.

Redes de Petri y Cadenas de Markon. En general. La cadena de Markov asociada a una red de Petri estocástica se obtiene aplicando las siguientes reglas: El espacio de estados de la cadena S={s i } se corresponde con el conjunto de alcanzabilidad RS{m 0 } de la red de Petri asociada a la red de Petri estocástica. La tasa de transición del estado s i (que corresponde a la marca m i ) al estado s j (m j ) es la suma de las tasas de disparo de las transiciones que estan habilitadas en m i y que producen m j

Redes de Petri y Cadenas de Markov. Asumiendo que todas las transiciones de la red tienen semantica de servidor simple y que la tasa de disparo no depende del número de marcas. Los componentes de la matriz Q son q ij = fl kej(mi) w k si i j q ij = ke(mi) w k si i = j donde e j (m i )={h t.q. h e j (m i ) y m i [ h >m j } w k es la tasa de disparo de la transición k Q es el generador infinitesimal del proceso de Markov a tiempo continuo

Indices de rendimiento La distribución estacionaria de la cadena de Markov asociada a una red de Petri es la base para el calculo de indices de rendimiento de la red. Los resultados se calculan usando una función de recompensa definida sobre las marcas de la red de Petri. Una vez definida la función de recompensa r(m) la recompensa media se puede calcular usando la siguiente expresión:

Indices de rendimiento La distribución estacionaria de la cadena de Markov asociada a una red de Petri es la base para el calculo de indices de rendimiento de la red. Los resultados se calculan usando una función de recompensa definida sobre las marcas de la red de Petri. Una vez definida la función de recompensa r(m) la recompensa media se puede calcular usando la siguiente expresión:

Ejemplo:Probabilidad de una condición particular S(m) de la red de petri Se suele definir una funcion de recompensa de la forma: r(m)= 1 si S(m)=TRUE r(m)= 0 si S(m)=FALSE La probabilidad buscada se puede calcular usando la siguiente expresión: P(S)= mirs(m0) r(m i ) i

Ejemplo2:Valor esperado del numero de tokens en un lugar dado Se suele definir una funcion de recompensa de la forma: r(m)= n si m(p i )=n r(m)= 0 en otro caso El número espeado de tokens en el lugar p j viene dado por la siguiente expresión: E[m(p j )]= mirs(m0) r(m i ) i = n>0 n*p{a(j,n)} donde A(j,n)={m i RS(m 0 ) t.q. m i (p j )=n}

Ejemplo3:Número medio de disparos por unidad de tiempo para una transición dada. Se suele definir una funcion de recompensa de la forma: r(m)= w j si T j e(m) r(m)= 0 en otro caso El número medio de disparos de T j viene dado por la siguiente expresión: f j = mirs(m0) r(m i ) i = miaj w j i donde A j ={m i RS(m 0 ) t.q. T j e(m i )}

Ejemplo4: Tiempo medio empleado Se suele definir una funcion de recompensa de la forma: r(m)= w j si T j e(m) r(m)= 0 en otro caso El número medio de disparos de T j viene dado por la siguiente expresión: f j = mirs(m0) r(m i ) i = miaj w j i donde A j ={m i RS(m 0 ) t.q. T j e(m i )}

Ejemplo: Un sistema paralelo simple

Ejemplo: Red de Markov equivalente M(P1)=1