Proceso de llegadas de Poisson

Documentos relacionados
Proceso de llegadas de Poisson

Introducción a los Procesos de Poisson *

U3: Procesos Poisson. Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo

1.1. Distribución exponencial. Definición y propiedades

Procesos estocásticos

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)

Tema 02. Análisis de prestaciones e introducción al dimensionamiento en redes de conmutación de paquetes. Rafael Estepa Alonso Universidad de Sevilla

Tema 5. Introducción al Teletráfico y a la Teoría de Colas

INSTITUTO DE FÍSICA FACULTAD DE INGENIERÍA FÍSICA ESTADÍSTICA

Procesos de Poisson. Fabián Mancilla. U. de Santiago de Chile. Fabián Mancilla (Usach) Modelos Estocásticos 1 / 44

Esperanza Condicional

Procesos estocásticos. Definición

Modelos de distribuciones discretas y continuas

El momento de orden n de una variable aleatoria X es el valor esperado de X elevado a la n, es decir,

Distribuciones de probabilidad

Distribuciones de probabilidad más usuales

Maestría en Bioinformática Probabilidad y Estadística: Clase 10

Hoja 4 Variables aleatorias multidimensionales

Validación de hipótesis de un proceso de Poisson no homogéneo

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Método de Box Muller. Método Polar Generación de eventos en Procesos de Poisson. Método de Box-Muller. Métodos de generación de v. a.

Ingeniería de Teletráfico

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números

Tema 4: Leyes de la desintegración

PROCESOS ESTOCÁSTICOS II Ejercicios - Semestre 2009-I

Tema 4: Probabilidad y Teoría de Muestras

Método Polar para generación de variables normales Generación de eventos en Procesos de Poisson

Juan Carlos Colonia DISTRIBUCIONES MUESTRALES

Introducción al Diseño de Experimentos.

6.3. Distribuciones continuas

PROBABILIDAD Y ESTADÍSTICA ININ4010 Prof. DAVID GONZÁLEZ BARRETO SOLUCIÓN ASIGNACIÓN 6

Modelos Básicos de Distribuciones Discretas y Continuas

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

OBJETIVOS: Simular en MATLAB/Octave procesos estocásticos sencillos.

ESTADÍSTICA I. A continuación se presentan los Modelos Probabilísticos Continuos más importantes.

Cuáles son las características aleatorias de la nueva variable?

12.Teoría de colas y fenómenos de espera

Teoría de colas. Modelado y Análisis de Redes de Telecomunicaciones. IIE - Facultad de Ingeniería

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Examen de Estadística Grado en Ingeniería de Telecomunicación

Introducción a la Teoría de Colas

Temas 13 y 14. Acceso múltiple de paquetes: el protocolo Aloha. Eytan Modiano Instituto Tecnológico de Massachusetts. Eytan Modiano Diapositiva 1

ENUNCIADO y SOLUCIONES. Problema 1

Repaso de Teoría de la Probabilidad

13.Teoría de colas y fenómenos de espera

Dimensionamiento y Planificación de Redes

Clase Auxiliar 3 20 de Agosto de 2008

Teoría de colas. Las colas (líneas de espera) son parte de la vida diaria

Definición de variable aleatoria

Modelos de colas exponenciales

ESTRUCTURA DE LINEAS DE ESPERA

UNIVERSIDAD DE ATACAMA

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

(3.d) ESTIMACIÓN DE LOS PARÁMETROS EN MODELOS DE COLAS PARA LOS PROCESOS DE LLEGADA Y

Variables aleatorias continuas, TCL y Esperanza Condicional

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

CI 41C HIDROLOGÍA HIDROLOGÍA PROBABILÍSTICA

PROCESO DE NACIMIENTO PURO Y MUERTE PURA

Estadística Grupo V. Tema 10: Modelos de Probabilidad

Generación de variables aleatorias continuas Método de la transformada inversa

PROBABILIDAD E INFERENCIA ESTADÍSTICA TEMA 3: DISTRUBUCIONES DE PROBABILIDAD CONTINUA

MODELOS DE SIMULACIÓN ESTADÍSTICOS CLASE 4: DISTRIBUCIÓN t, CHI-CUADRADA y EXPONENCIAL PROFESOR: OSCAR SAAVEDRA ANDRÉS DURANGO.

Lección: Introducción a la Química Cuántica

Cálculo de Probabilidades y Estadística. Segunda prueba. 1

Generación de números aleatorios con distribución uniforme

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

Variables aleatorias continuas y Teorema Central del Limite

Modelos de distribuciones discretas y continuas

Promedios móviles y volatilidad exponencial

Algunosprocesosestocásticos destacables

Generación de variables aleatorias continuas Método de la transformada inversa

Tema 6: Modelos de probabilidad.

Sabaroni, Andrea Garello Torres, Melina Valeria Firmapaz, Maximiliano Caif, Pablo

VARIABLES ALEATORIAS CONTINUAS

Curso de Probabilidad y Estadística

Variables Aleatorias y Distribución de Probabilidades

CONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario

Distribuciones de probabilidad II

La Función de Disponibilidad en Procesos de Renovación y aproximaciones útiles de ella.

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

Conceptos de Probabilidad y estadística. Jhon Jairo Padilla A., PhD

Transcripción:

Gestión y Planificación de Redes y Servicios Proceso de llegadas de Poisson Area de Ingeniería Telemática http://www.tlm.unavarra.es Grado en Ingeniería en Tecnologías de Telecomunicación, 4º

Proceso de nacimiento puro Hemos visto Markoviano El estado es el número de clientes en el sistema Llegadas (nacimientos) independientes P[ 1 llegada en (τ, τ+δτ) k en el sistema ] = λ k Δτ + o(δτ) P[ 0 llegadas en (τ, τ+δτ) k en el sistema ] = 1 - λ k Δτ + o(δτ) dp k (τ)/dτ = - λ k P k (τ) + λ k-1 P k-1 (τ) dp 0 (τ)/dτ = - λ 0 P 0 (τ) k 1 N(τ)

Gestión y Planificación de Redes y Servicios Proceso de Markov homogéneo de nacimiento puro

Nacimiento puro homogéneo dp k (τ)/dτ = - λ k P k (τ) + λ k-1 P k-1 (τ) dp 0 (τ)/dτ = - λ 0 P 0 (τ) Homogeneidad: λ k =λ para todo k (tasa de nacimientos cte.): dp k (τ)/dτ = - λp k (τ) + λp k-1 (τ) dp 0 (τ)/dτ = - λp(τ) k 1 Y el sistema empieza con 0 llegadas: P 0 (0) = 1, P k (0) = 0 Con eso P 0 (τ) = e -λτ Sustituyendo: dp 1 (τ)/dτ = - λp 1 (τ) + λe -λτ Resolviendo: P 1 (τ) = λτe -λτ Y continuando por inducción: P k (τ ) = (λτ )k k! e λτ

Proceso de Poisson P k (τ ) = (λτ )k Esto es el { N(τ) } pues para cada τ hay una variable aleatoria Esa variable aleatoria sigue la distribución de Poisson k! e λτ Nos da la probabilidad de un número de llegadas en un intervalo (0,τ]

Poisson: momentos P k (τ ) = (λτ )k Esto es el { N(τ) } pues para cada τ hay una variable aleatoria Esa variable aleatoria sigue la distribución de Poisson Nos da la probabilidad de un número de llegadas en un intervalo (0,τ] La media de una de las variables N(τ) es: k! e λτ # E[N(τ )] = kp[n(τ ) = k] = 0 + λτ + (λτ ) 2 (λτ )3 % + $ 2 k=0 (λτ )4 + 6... & (e λτ = '! (λτ )2 (λτ )3 = λτ 1+ λτ + + 2 6... $ # &e λτ = λτe λτ e λτ = λτ " % Es decir, en el intervalo (0,τ] se producen en media λτ llegadas λ es el número medio de llegadas por unidad de tiempo

Poisson: momentos La varianza es también: σ 2 X (τ ) = λτ Con lo que la desviación estándar normalizada respecto a la media es: σ X (τ ) E[N(τ )] = 1 λτ Lo cual implica que a medida que τ crece, la distribución se encuentra más concentrada alrededor de la media Así, medir en número de llegadas en un intervalo muy grande es una buena estimación de esa media Dividir esa medida por la duración de ese intervalo es una buena estimación de λ

Gestión y Planificación de Redes y Servicios Tiempo entre llegadas en un proceso de Poisson

Poisson: interarrival times Partimos de 0 llegadas en τ = 0 Cuánto tiempo tarda en llegar el primero? Llamemos t 1 a la v.a. del tiempo hasta esa primera llegada Es fácil de ver que los eventos { N(t) = 0 } = { t 1 > t } Porque para cualquier t, si N(t)=0 entonces debe ser t 1 >t y viceversa, si t 1 >t entonces N(t)=0 Es decir: P[t 1 > t] = P[N(t) = 0] = P 0 (t) = e λt t 1 es una variable aleatoria exponencial Dado que todo el pasado queda olvidado, el tiempo hasta la siguiente será de nuevo exponencial N(t) t 2 t 1 0

Poisson: tiempo restante Dado un instante de tiempo cualquiera, cuánto falta hasta la siguiente llegada? P[t n > t + t ref t n > t ref ] = P[t n > t + t ref t n > t ref ] P[t n > t ref ] = P[t n > t + t ref ] P[t n > t ref ] = e λ(t+t ref ) e λt ref = e λt P[t n > t + t ref t n > t ref ] = P[t n > t] Una exponencial idéntica

Poisson: interarrival times Un proceso de Poisson presenta tiempos entre llegadas exponenciales Además son idependientes (por la propiedad de Markov) e identicamente distribuidas (i.i.d.) Tiempos entre llegadas positivos i.i.d. da lo que se llama un proceso de renovación (renewal process) Proceso de cuenta de llegadas de Poisson Proceso de nacimiento puro de tasa constante Tiempos entre llegadas exponenciales iid

Gestión y Planificación de Redes y Servicios Propiedades del proceso de Poisson

PASTA Llegadas según Poisson observan el estado de un proceso Por ejemplo, para cada llegada contamos el número de clientes en el sistema con cola infinita La fracción de las llegadas que ve el sistema en un estado es igual a la fracción de tiempo que el proceso está en ese estado Poisson Arrivals See Time Averages x i N(τ) x i-1 t i tiempo

Suma de procesos de Poisson Combinamos dos procesos de Poisson {N 1 (t), t>0} y {N 2 (t), t>0} independientes con tasas λ 1 y λ 2 El tiempo hasta la primera llegada t 1 será el mínimo de los tiempos hasta la primera llegada de cada uno de ellos t 1 será mayor que t si son mayores que t tanto el tiempo hasta la primera llegada de N 1 (t) como hasta la primera de N 2 (t) P[t 1 > t] = P[t 11 > t]p[t 21 > t] = e λ 1t e λ 2t = e (λ 1+λ 2 )t Es decir, el tiempo hasta la primera llegada es exponencial Y por la falta de memoria de cada proceso lo son el resto t 1 t 21 t 11 tiempo

Suma de procesos de Poisson Combinamos dos procesos de Poisson {N 1 (t), t>0} y {N 2 (t), t>0} independientes con tasas λ 1 y λ 2 O más sencillo de ver si sabemos que la suma de dos variables aleatorias de Poisson independientes es una v.a. de Poisson Por otro lado, aunque no sean procesos de Poisson, si son muchos su combinación tiende a un proceso de Poisson Δt tiempo

Random splitting Proceso de Poisson con tasa λ Repartidas las llegadas en dos grupos mediante Bernoulli de parámetro p Los procesos resultantes son procesos de Poisson de tasas λp y λ(1-p) λ λp λ(1-p)

Falta de memoria t i : tiempo que transcurre entre la llegada al estado x i-1 y el estado x i En un proceso de Markov la historia pasada está completamente descrita por el estado actual P[X(τ n+1 ) = x n+1 X(τ n ) = x n, X(τ n 1 ) = x n,..., X(τ 1 ) x 1 ] = P[X(τ n+1 ) = x n+1 X(τ n ) = x n ] τ 1 < τ 2 <... < τ n < τ n+1 N(τ) x i-1 t i x i

Falta de memoria Entonces, saber que ha transcurrido un cierto tiempo no nos debe decir nada sobre el tiempo que nos queda en ese estado: P[ t i > s + t t i > s ] = h(t) P[t i > s + t t i > s] = P[t i > s + t,t i > s] P[t i > s] = P[t i > s + t] P[t i > s] = h(t) P[t i > s + t] = P[t i > s]h(t) N(τ) x i-1 s t i t x i

Falta de memoria Si s=0 vemos que P[ t i > s ] = P[ t i > 0 ] = 1 Y entonces sustituyendo en la anterior queda: Es decir, P[ t i > t ] = h(t) Sustituyendo en (1) queda: Sabemos que: Con lo que: Donde el último término es la función de densidad de probabilidad Derivamos (2) respecto a s : P[t i > s + t] = P[t i > s]h(t) P[t i > 0 + t] = P[t i > 0]h(t) = h(t) (1) P[t i > s + t] = P[t i > s]p[t i > t] P[t i > t] =1 P[t i t] d dt P[t i > t] = d dt (1 P[t i t]) = f τ i (t) (2) dp[t i > s + t] ds = f τ i (s)p[t i > t]

Reordenando: Falta de memoria E integrando entre 0 y t queda: dp[t i > s + t] = f τ ds i (s)p[t i > t] dp[t i > s + t] = f τ P[t i > t] i (s)ds O lo que es lo mismo Y así calculando la función de densidad de probabilidad: f τ i (t) = dp[τ i < t] dt ln P[τ i > t] = f τ i (0)t P[τ i > t] = e f τ i (0)t = d(1 P[τ i > t]) dt = dp[t i > t] dt f τ i (t) = f τ i (0)e f τ i (0)t = f τ i (0)e f τ i (0)t Es decir, el tiempo que se está en un estado en un proceso de Markov sigue una exponencial (que podría depender del estado)

Falta de memoria Se dice que una variable aleatoria X, positiva, no tiene memoria si: P[X > s + t] = P[X > s]p[x > t] Una variable aleatoria exponencial cumple esa condición: P[X > s + t] = e λ(s+t) = e λs e λt = P[X > s]p[x > t] Pero además, como hemos visto, una variable que lo cumpla debe ser exponencial Es decir, la variable aleatoria exponencial es la única con la propiedad de no tener memoria (memoryless) Y es normal que los tiempos entre llegadas en un proceso de Poisson sean exponenciales pues lo es el tiempo en un estado de un proceso Markoviano Memoryless