Redes de Petri Estocásticas (II) Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica
Redes Estocásticas Formalmente una red de Petri estocástica es por tanto una 7 upla SPN=(P,T,I(),O(),H(),W(),Mo) donde PN=(P,T,I(),O(),H(),Mo) es una red de petri con marcas y W() es una función definida sobre el conjunto de transiciones que asigna un número real a cada transición, este número real es el valor inverso de la media de una variable aleatoria que sigue una distribución exponencial negativa.
Redes Estocásticas Las redes estocásticas son isomorficas a cadenas de Markov, El grafo de alcanzabilidad de una red de Petri estocástica corresponde con el diagrama de transición de estado de una cadena de Markov.
Ejemplo. Red de Petri sin elecciones ni sincronizaciones. La red tiene la estructura de una maquina de estados finita (ninguna transición tiene mas de una salida y una entrada) y de un grafo con marcas (ningun lugar tiene mas de una salida y una entrada). Cada lugar determina un estado de la red. Cada lugar de la red corresponde a un estado en el modelo probabilístico. El tiempo que permanece un token en cada uno de los estados está determinado por la única transición que puede remover el token del lugar en el que se encuentra. El modelo probabilístico que representa a la red es una cadena de Markov a tiempo continuo.
Ejemplo. Red de Petri sin elecciones ni sincronizaciones.
Ejemplo. Red de Petri sin elecciones La red tiene la estructura de una maquina de estados finita (ninguna transición tiene mas de una salida y una entrada) La marca inicial consiste en un único token. Pueden aparecer confictos si varias transiciones comparten un mismo lugar de entrada. Se establece una carrera entre ambas transiciones. Una de las transiciones gana la carrera y hay que establecer una política con las transiciones que no ganaron la carrera.
Ejemplo. Red de Petri sin elecciones El el caso de redes de Petri donde el tiempo de disparo de las transiciones tiene una distribucion exponencial negativa, la propiedad de no memoria de esta distribución hace que la eleccion entre memoria de edad memoria de activación resampling Sea irrelevante.
Ejemplo. Red de Petri sin elecciones
Ejemplo. Multiples tokens. El modelo se complica cuando permitimos mas de un token en la marca inicial, en este caso es necesario tener en cuenta: La semantica de servidor (Servidor infinito, servidor simple) La politica de colas empleada por las transiciones.
Ejemplo. Multiples tokens.
Ejemplo. Multiples tokens. Se puede demostrar que cuando se usa una distribución exponencial en el tiempo de disparo de transiciones y los valores de rendimiento que nos interesan estan solo relacionados con los momentos del numero de tokens a la entrada de una transición entonces la politica de colas empleda no es relevante Por tanto se suele usar una politica de colas aleatoria.
Redes de Petri y Cadenas de Markon. En general. La cadena de Markov asociada a una red de Petri estocástica se obtiene aplicando las siguientes reglas: El espacio de estados de la cadena S={s i } se corresponde con el conjunto de alcanzabilidad RS{m 0 } de la red de Petri asociada a la red de Petri estocástica. La tasa de transición del estado s i (que corresponde a la marca m i ) al estado s j (m j ) es la suma de las tasas de disparo de las transiciones que estan habilitadas en m i y que producen m j
Redes de Petri y Cadenas de Markov. Asumiendo que todas las transiciones de la red tienen semantica de servidor simple y que la tasa de disparo no depende del número de marcas. Los componentes de la matriz Q son q ij = fl kej(mi) w k si i j q ij = ke(mi) w k si i = j donde e j (m i )={h t.q. h e j (m i ) y m i [ h >m j } w k es la tasa de disparo de la transición k Q es el generador infinitesimal del proceso de Markov a tiempo continuo
Indices de rendimiento La distribución estacionaria de la cadena de Markov asociada a una red de Petri es la base para el calculo de indices de rendimiento de la red. Los resultados se calculan usando una función de recompensa definida sobre las marcas de la red de Petri. Una vez definida la función de recompensa r(m) la recompensa media se puede calcular usando la siguiente expresión:
Indices de rendimiento La distribución estacionaria de la cadena de Markov asociada a una red de Petri es la base para el calculo de indices de rendimiento de la red. Los resultados se calculan usando una función de recompensa definida sobre las marcas de la red de Petri. Una vez definida la función de recompensa r(m) la recompensa media se puede calcular usando la siguiente expresión:
Ejemplo:Probabilidad de una condición particular S(m) de la red de petri Se suele definir una funcion de recompensa de la forma: r(m)= 1 si S(m)=TRUE r(m)= 0 si S(m)=FALSE La probabilidad buscada se puede calcular usando la siguiente expresión: P(S)= mirs(m0) r(m i ) i
Ejemplo2:Valor esperado del numero de tokens en un lugar dado Se suele definir una funcion de recompensa de la forma: r(m)= n si m(p i )=n r(m)= 0 en otro caso El número espeado de tokens en el lugar p j viene dado por la siguiente expresión: E[m(p j )]= mirs(m0) r(m i ) i = n>0 n*p{a(j,n)} donde A(j,n)={m i RS(m 0 ) t.q. m i (p j )=n}
Ejemplo3:Número medio de disparos por unidad de tiempo para una transición dada. Se suele definir una funcion de recompensa de la forma: r(m)= w j si T j e(m) r(m)= 0 en otro caso El número medio de disparos de T j viene dado por la siguiente expresión: f j = mirs(m0) r(m i ) i = miaj w j i donde A j ={m i RS(m 0 ) t.q. T j e(m i )}
Ejemplo4: Tiempo medio empleado Se suele definir una funcion de recompensa de la forma: r(m)= w j si T j e(m) r(m)= 0 en otro caso El número medio de disparos de T j viene dado por la siguiente expresión: f j = mirs(m0) r(m i ) i = miaj w j i donde A j ={m i RS(m 0 ) t.q. T j e(m i )}
Ejemplo: Un sistema paralelo simple
Ejemplo: Red de Markov equivalente M(P1)=1