Introducción a los Procesos de Poisson *

Documentos relacionados
III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Proceso de llegadas de Poisson

Teoría de la Probabilidad Tema 2: Teorema de Extensión

Generación de variables aleatorias continuas Método de la transformada inversa

Unidad 1: Espacio de Probabilidad

Modelos de colas exponenciales

Distribuciones de probabilidad más usuales

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Tema 4: Probabilidad y Teoría de Muestras

Apéndice sobre ecuaciones diferenciales lineales

Variables aleatorias

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple

Procesos estocásticos. Definición

Probabilidad y Estadística

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

1. Convergencia en medida

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Tema 5 Algunas distribuciones importantes

Unidad II: Fundamentos de la teoría de probabilidad

Conjuntos Medibles. Preliminares

Distribuciones Tipo Fase y sus Aplicaciones en la Teoría de la Ruina

Continuidad. 5.1 Continuidad en un punto

Variables aleatorias

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Tema 2 Resolución de EcuacionesNo Lineales

Funciones de Clase C 1

Teoremas de convergencia y derivación bajo el signo integral

Modelado de la aleatoriedad: Distribuciones

Espacios topológicos. 3.1 Espacio topológico

Distribución binomial

4. NÚMEROS PSEUDOALEATORIOS.

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona

Subconjuntos notables de un Espacio Topológico

EXPERIMENTO ALEATORIO

Receptor de Correlación. Sistemas de Comunicación

Sucesiones Introducción

Ecuaciones Diferenciales Ordinarias

Terminaremos el capítulo con una breve referencia a la teoría de cardinales.

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido

PROBABILIDAD Y ESTADÍSTICA

ALGEBRA 1- GRUPO CIENCIAS- TURNO TARDE- Enteros

Definición de probabilidad

Una topología de los números naturales*

Distribuciones de probabilidad

F (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0

MMAF: Espacios normados y espacios de Banach

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

Variables aleatorias continuas

Distribuciones de probabilidad multivariadas

Transformadas de Laplace

Generación de Variables Aleatorias. UCR ECCI CI-1453 Investigación de Operaciones Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro

Definición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,...

Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta

Teoría de Colas o Fenómenos de Espera

Series. Capítulo Introducción. Definición 4.1 Sea (x n ) n=1 una sucesión de números reales. Para cada n N. S n = x k = x 1 + x x n.

Generación de eventos en Procesos de Poisson

Teoremas de Convergencia

Teorema del Valor Medio

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS. Fracciones continuas, ecuación de Pell y unidades en el anillo de enteros de los cuerpos cuadráticos

Espacios Vectoriales

Semana02[1/23] Conjuntos. 9 de marzo de Conjuntos

Unidad Temática 3 UT3-1: Variable Aleatoria

Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad

Indicaciones para el lector... xv Prólogo... xvii

Teorema Central del Límite (1)

PROBABILIDAD Y ESTADISTICA

Asignaturas antecedentes y subsecuentes

Introducción a la Teoría Analítica de Números

Espacios conexos. Capítulo Conexidad

Curso de nivelación Estadística y Matemática

Algebra Lineal. Gustavo Rodríguez Gómez. Verano 2011 INAOE. Gustavo Rodríguez Gómez (INAOE) Algebra Lineal Verano / 21

Probabilidad. Carrera: IFM Participantes. Representantes de la academia de sistemas y computación de los Institutos Tecnológicos.

Divergencia de sucesiones

Funciones convexas Definición de función convexa. Tema 10

Cálculo I (Grado en Ingeniería Informática) Problemas adicionales resueltos

Lección 2: Funciones vectoriales: límite y. continuidad. Diferenciabilidad de campos

ESCUELA COMERCIAL CÁMARA DE COMERCIO EXTENSIÓN DE ESTUDIOS PROFESIONALES MAESTRÍA EN ADMINISTRACIÓN

Prueba Integral Lapso /6

Reglas de l Hôpital Teorema del Valor Medio Generalizado. Tema 7

CONCEPTOS BASICOS DE LA TRANSFORMADA DE LAPLACE LA TRANSFORMADA DE LAPLACE

NÚCLEOS DEFINIDOS POSITIVOS, REGULARIDAD, PERTURBACIONES Y APLICACIONES.

Espacios completos. 8.1 Sucesiones de Cauchy

Limites: Definición: lim

ELEMENTOS DE GEOMETRÍA. Eduardo P. Serrano

1. Sucesiones y redes.

Demostraciones a Teoremas de Límites

Clasificación de sistemas

ALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO I LOGICA Y CONJUNTOS.

Variable Aleatoria Continua. Principales Distribuciones

Una norma en un espacio lineal (o vectorial) X es una función. : X R con las siguientes propiedades: (a) x 0, para todo x X (no negatividad);

Teorema del valor medio

4. Complementos sobre Problemas de Contorno para S.D.O. Lineales. 4. Complementos sobre Problemas de Contorno

Tema 4. MODELOS DE DISTRIBUCIONES DISCRETOS.

El método de súper y sub soluciones en el espacio de funciones casi periódicas.

Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad

Variables aleatorias unidimensionales

Transcripción:

Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22 de julio del 2010 Índice 1. Introducción 2 2. Propiedades de la distribución de Poisson 2 2.1. Aproximación de Poisson...................... 2 2.2. Distribución de Poisson....................... 2 3. Proceso de Conteo 6 4. Proceso de Poisson Homogéneo 6 5. Algunas variables aleatorias de interés 7 5.1. Tiempos de llegada.......................... 7 5.2. Tiempos entre llegadas........................ 9 5.3. Tiempo de próxima ocurrencia................... 13 5.4. Tiempo desde última falla...................... 15 6. Simulación de un Proceso de Poisson 16 7. Definición equivalente 16 8. Combinación de Procesos de Poisson 20 9. Proceso de Poisson compuesto 20 10.Proceso de Poisson no homogéneo 22 * Notas de la Primera Parte del curso impartido durante el Segundo y Tercer Verano de Probabilidad y Estadística, en julio de 2009 y 2010. 1

1. Introducción En estas notas se compila parte del material que se cubrió en el curso de Probabilidad I de las Licenciaturas en Matemáticas y en Computación de la Universidad de Guanajuato, en el semestre agosto-diciembre del 2008. Estas notas son un complemento al material de la primera parte del Curso de Procesos de Poisson del III Verano de Probabilidad y Estadística. Contienen material básico sobre Procesos de Poisson, el cual aparece en la mayoría de los textos que tratan este tema. El énfasis en estas notas es en el rigor de las definiciones y las demostraciones detalladas de las principales propiedades de estos procesos, usando conceptos y resultados sencillos de probabilidad. Los autores agradecen de antemano los comentarios que los participantes puedan tener. Nuestro objetivo es terminar pronto una Notas de Introducción al Tema de Procesos de Poisson, dirigidas a alumnos que han tomado un primer curso de probabilidad en licenciatura. 2. Propiedades de la distribución de Poisson 2.1. Aproximación de Poisson La distribución de Poisson es un caso límite de la distribución binomial B (n, p n cuando la probabilidad de éxito es variable. Si una variable aleatoria X modela el número de éxitos obtenidos luego de n ensayos Bernoulli con probabilidad de éxito p > 0, entonces la probabilidad de tener k éxitos en n ensayos está dada por P (X k ( n k p k (1 p n k. Se dice entonces que X tiene distribución binomial de parámetros n y p (X B (n, p. Si λ E(X np se mantiene constante cuando n y p varían, tenemos que π k (λ lím n P (X k λk e λ para toda r 0. (notemos que cuando n crece, p decrece. Ejercicio 1 Probar (1. Sugerencia: Recordar que lím n ( 1 + x n n e x. (1 2.2. Distribución de Poisson Definición 1 Una variable aleatoria X tiene distribución de Poisson P (λ si toma valores enteros positivos y P (X k π k (λ λ k e λ 2 k 0

donde λ puede tomar cualquier valor λ > 0. Ejercicio 2 Probar que si X P (λ 1. E (X λ. 2. V ar (X λ. 3. La función generadora de momentos de X P (λ φ (t e λ(et 1. En ocasiones es útil extender la definición de P (λ para incluir los casos extremos 0 e. P (0 sería la distribución concentrada en el 0 P (X 0 1, y P ( la distribución concentrada en + P (X + 1. Una de las propiedades más importantes de la distribución de Poisson es su aditividad. Teorema 1 Si X y Y son variables aleatorias independientes con distribuciones P (λ 1 y P (λ 2, entonces X + Y P (λ 1 + λ 2. Demostración. Ejercicio. Por inducción, podemos ver fácilmente que este resultado es cierto para cualquier suma finita de variables aleatorias independientes. Además se tiene la siguiente propiedad importante. Ejercicio 3 Probar que la distribución de Poisson es infinitamente divisible, esto es, dada una variable aleatoria X con distribución Poisson P (λ, para toda n > 0 podemos encontrar n variables aleatorias independientes X 1,..., X n con distribución Poisson P (λ 1,..., P (λ n tales que n i1 X i P (λ. Teorema 2 (Teorema de Aditividad Numerable Sea {X j } j1 una sucesión de variables aleatorias independientes, donde X j P (λ j j 1, 2,.... Si σ converge, entonces S converge con probabilidad 1 y S P (σ. Por otro lado, si j1 λ j diverge, entonces S diverge con probabilidad 1. j1 j1 λ j X j 3

Demostración. Por el Teorema 1, tenemos que S n tiene distribución P (σ n donde σ n n j1 X j n λ j. j1 Es fácil ver que n 1 {S n r} {S n+1 r}, de donde {S r} {S n r} n1 y por tanto 1 y P (S r lím n r n r lím P (S n r n k0 lím n k0 k0 r π k (σ n r lím π k (σ n. n Si σ n σ <, por ser π r (λ continua tenemos que P (S r r π k (σ k0 P (S r π r (σ. Por lo tanto S es finita con distribución P (σ. Si σ n, Entonces P (S r r π k (σ k0 e σn r k0 P (S > r 1. σ k n 0. 1 Si A n F, n 1 y A n A, entonces P (A lím n P (A n 4

Como este resultado es cierto r 0, podemos concluir que S diverge con probabilidad 1. Luego de este resultado parece más natural haber definido P (0 y P (. Con esta convención, si tenemos variables aleatorias independientes X j con distribuciones P (λ j respectivamente, su suma tiene distribución P ( λ j, y esto es cierto sin importar que haya un número infinito de ellas, incluso si algunos λ j son 0 o. Supongamos que X 1,..., X n son variables aleatorias independientes con X j P (λ j. Entonces S X 1 + +X n tiene distribución P (σ con σ λ j, y entonces, si r 1,..., r n son tales que r j s tenemos que n / λ rj j P (X 1 r 1,..., X n r n S s e λj σ s e σ r j1 j! s! ( r1 ( rn s! λ1 λn. r 1! r n! σ σ Estas son las probabilidades de una distribución multinomial M (s, p 1,..., p n, con p i λi σ. Para el caso en el que n 2, tenemos que si X y Y son variables aleatorias Poisson independientes (X P (λ 1 y Y P (λ 2, dado que X + Y m, la distribución condicional de X es B (m, p, donde p E (X E (X + E (Y. Hay un resultado muy útil, que parecería ser el converso del anterior. Supongamos que N P (λ, y que la distribución condicional de M dado N es B (N, p para alguna constante p. Esto es ( s P (M t N s p t (1 p s t. t Entonces, para m, k 0, P (M m, N M k P (N m + k P (M m N m + k e λ λ m+k ( m + k p m (1 p k (m + k! m e λ λ m+k (m + k! (m + k! p m (1 p k m! e λp e λ(1 p λ m λ k 1 m! pm (1 p k e λp λ m p m e λ(1 p λ k (1 p k m! e λp (λp m e λ(1 p (λ (1 p k. m! 5

Así, M y N M son variables aleatorias independientes Poisson con medias λp y λ (1 p respectivamente. 3. Proceso de Conteo Definición 2 (Proceso de Conteo Se dice que un proceso estocástico {N (t ; t 0} es un proceso de conteo si representa el número de eventos ocurridos hasta el tiempo t, esto es, satisface: i N (0 0. ii N (t toma valores enteros. iii Es no decreciente, i.e. si s < t, entonces N (s N (t. iv Para s < t, N (t N (s es igual al número de eventos que ocurrieron en el intervalo (s, t]. La trayectoria de un proceso de conteo es la gráfica (t, N(t para t 0. Las trayectorias se toman de tal forma de que sean continuas por la derecha y que tengan límite por la izquierda. 4. Proceso de Poisson Homogéneo Definición 3 (Proceso de Poisson homogéneo Una colección de variables aleatorias {N (t ; t 0} (definidas en un espacio de probabilidad (Ω, F, P se llama proceso de Poisson (homogéneo con intensidad λ > 0 si satisface las siguientes propiedades: i P(N(0 0 1, esto es, N(0 es siempre 0. ii 0 < s < t N(t N(s tiene distribución de Poisson de parámetro λ(t s. iii 0 t 1 < < t n, n 1 (es decir, para todo conjunto finito de tiempos, las variables aleatorias N(t n N(t n 1,..., N(t 2 N(t 1, N(t 1, son independientes. Esta propiedad se conoce como propiedad de incrementos independientes. Observemos que t 0, la variable aleatoria N(t tiene distribución de Poisson de parámetro λt. Por (ii tenemos que N(t N(0 P (λ(t 0, y por (i tenemos que N(0 0, lo que nos dice que N(t P (λt. Ahora, 0 < s < t tenemos por (ii que N(t N(s P (λ(t s y por lo anterior, N(t s P (λ(t s. Podemos darnos cuenta entonces que la 6

distribución del incremento N(t N(s y la de la variable aleatoria N(t s es la misma. Además esto nos dice que P(N(t N(s 0 1, pues P(N(t N(s 0 P(N(t N(s k 1, k0 esto es, la distribución sólo depende de la longitud del intervalo t s. Esta propiedad se conoce como propiedad de incrementos estacionarios. Notemos además que esta propiedad nos garantiza que el proceso es no decreciente. 5. Algunas variables aleatorias de interés 5.1. Tiempos de llegada Podemos darnos ahora una idea de cómo se ven las trayectorias de un proceso de Poisson, y una pregunta que debemos hacernos es qué distribución tienen los tiempos de llegada del proceso?, entendiendo por tiempos de llegada los tiempos en los que ocurre un éxito. Para poder ver la distribución de los tiempos de llegada, es necesario asociarles una variable aleatoria. Queremos que el tiempo del primer éxito sea el t más pequeño para el que N(t 1, esto es, podemos definir el tiempo del primer éxito como T 1 ínf {t 0; N(t 1}. Ahora, queremos que dado un m 1 el m-ésimo tiempo de llegada sea el t más pequeño para el que N(t m, entonces podemos definir el tiempo del m-ésimo éxito de la misma forma que antes, pues el proceso es no decreciente, T m ínf {t 0; N(t m}. La pregunta ahora es son T 1, T 2,..., T m,... variables aleatorias? Proposición 1 t 0 y m > 0 tenemos que {T m t} {N(t m}. Demostración. Recordemos que {N(t m} {ω Ω : N(t(ω m} y {T m t} {ω Ω : T m (ω t}. Sean t 0 y m > 0. Por definición T m ínf {k 0 : N(k m}, esto es, para un ω Ω dado tenemos que T m (ω ínf {k 0; N(k(ω m}. En particular N(T m (ω(ω m. Sea ω 0 {N(t m}. Entonces N(t(ω 0 m N(t(ω 0 N(T m (ω 0 (ω 0. Luego, como N(t es no decreciente, tenemos que t T m (ω 0, es decir ω 0 {T m t}. {N(t m} {T m t}. 7

Sea ω 0 {T m t}. Entonces T m (ω 0 t N(T m (ω 0 (ω 0 N(t(ω 0 m N(t(ω 0 es decir, ω 0 {N(t m}. {T m t} {N(t m}. {T m t} {N(t m} Corolario 1 m > 0 tenemos que T m es una variable aleatoria. 2 Ahora que ya vimos que los tiempos de llegada son variables aleatorias, veamos qué distribución tiene el primer tiempo de llegada. Proposición 2 T 1 tiene distribución exponencial de parámetro λ > 0. 3 Demostración. Como {T 1 t} {N(t 1}, lo que nos dice que T 1 E(λ. P(T 1 t P(N(t 1 1 P(N(t 0 1 (λt 0 e λt 0! 1 e λt, Corolario 2 El tiempo esperado de la primera llegada es E(T 1 1 λ. Proposición 3 La v.a. T m tiene distribución G ( m, 1 λ. f Tm (t { 1 Γ(m λm 1 e λt si t 0 0 de otra forma. 2 Recordar definición de variable aleatoria. 3 Recordemos que una variable aleatoria X tiene distribución exponencial de parámetro λ > 0 si P (X x x 0 f (t dt, con f (t λe λt. 8

Demostración. De la proposición 1 tenemos Derivando obtenemos P(T m t P(N(t m f Tm (t d dt ( m 1 λe λt 1 P(N(t m 1 m 1 1 P(N(t k k0 m 1 1 (λt k e λt e λt m 1 k0 ( m 1 λe λt k0 ( m 1 λe λt k0 k0 (λt k k0 (λt k (λt k (λt k λt (λtm 1 λe (m 1! 1 Γ(m λm t m 1 e λ m 1 e λt m 1 k1 m 2 k0 λk (λtk 1 (λt k 1 (k 1! (λt k que es la función de densidad de una v.a. con distribución G ( m, 1 λ. k1 5.2. Tiempos entre llegadas Definición 4 (Tiempo entre llegadas 4 τ t ínf {s > t : N (s N (t 1} Teorema 3 n 1, las v.a. τ 1, τ 2,..., τ n son independientes y con la misma distribución exponencial E(λ. Demostración. Veamos primero el caso cuando n 2. Queremos demostrar que 0 < s 1 < s 2 < se tiene que P(τ 1 s 1, τ 2 < s 2 P(τ 1 s 1 P(τ 2 s 2. 4 (! Checar que esté bien definido... 9

P(τ 1 s 1, τ 2 s 2 P(T 1 s 1, T 2 T 1 s 2 P(T 1 s 1, T 2 s 2 + T 1 P(T 1 s 1, T 2 s 1 + s 2 P(N(s 1 1, N(s 1 + s 2 2 P(N(s 1 k 1, N(s 1 + s 2 2 k 11 P(N(s 1 k 1, N(s 1 + s 2 k 2 k 11 k 2 2 k 1 <k 2 k 11 k 2k 1+1 k 11 k 2k 1+1 por incrementos independientes P (τ 1 s 1, τ 2 s 2 k 11 k 2k 1+1 usando la propiedad de incrementos estacionarios P(τ 1 s 1, τ 2 s 2 P(N(s 1 k 1, N(s 1 + s 2 k 2 P(N(s 1 k 1, N(s 1 + s 2 N(s 1 k 2 k 1 P(N(s 1 k 1 P(N(s 1 +s 2 N(s 1 k 2 k 1 k 11 k 2k 1+1 k 11 k 21 P(N(s 1 k 1 P(N(s 2 k 2 k 1 P(N(s 1 k 1 P(N(s 2 k 2 ( ( P(N(s 1 k 1 P(N(s 2 k 2 k 11 k 21 (1 P(N(s 1 0 (1 P(N(s 2 0 ( 1 e λs1 ( 1 e λs2 Hasta ahora hemos demostrado que 0 < s 1 < y 0 < s 2 < P(τ 1 s 1, τ 2 s 2 ( 1 e λs1 ( 1 e λs2, (2 pero ya sabemos que T 1 E(λ, entonces P(τ 1 s 1, τ 2 s 2 P(T 1 s 1 ( 1 e λs2 P(τ 1 s 1 ( 1 e λs2. 10

Del lado izquierdo de (2 tenemos y como tenemos que Entonces lím P(τ 1 s 1, τ 2 s 2 P(τ 2 s 2, s 1 lím P(T 1 s 1 1, s 1 P(τ 2 s 2 1 e λs2 τ 2 E(λ. 0 < s 1 < P (τ 1 s 1, τ 2 s 2 P (τ 1 s 1 P (τ 2 s 2, esto es, τ 1 y τ 2 son independientes y tienen la misma distribución exponencial E (λ. Veamos ahora el caso para n 2. Supongamos que τ 1, τ 2,..., τ n son independientes y que τ i E(λ para 1 i n, esto es, 0 < s 1 < s 2 < < s n < tenemos que n n ( P(τ 1 s i ; 1 i n (τ i s i 1 e λs i. i1 Queremos demostrar que τ 1, τ 2,..., τ n, τ n+1 son independientes y que τ n+1 E(λ. Sean 0 < s 1 < s 2 < < s n < s n+1 <. Entonces P(τ i s 1 ; 1 i n + 1 P (T i T i 1 s i ; 1 i n + 1 i1 P (T i s i + T i 1 ; 1 i n + 1 i 1 P T i s i + s j ; 1 i n + 1 P T i j1 i s j ; 1 i n + 1 j1 i P N j1 s j 1 k 1< <k n+1 P 1 k 1< <k n+1 P 1 k 1< <k n+1 P i ; 1 i n + 1 i N j1 i N j1 i N j1 s j s j s j k i ; 1 i n + 1 k i ; 1 i n + 1 i 1 N j1 s j i 1 k i k j ; 1 i n + 1 j1 11

por incrementos independientes P(τ i s 1 ; 1 i n+1 por incrementos estacionarios P(τ i s 1 ; 1 i n + 1 haciendo cambio de variable n+1 1 k 1< <k n+1 i1 1 k 1< <k n+1 i1 i P N n+1 j1 s j i 1 N j1 i 1 P N (s i k i j1 s j k j i 1 k i j1 k j P(τ i s 1 ; 1 i n + 1 n+1 k 1,...,k n+11 i1 n+1 i1 n+1 i1 n+1 i1 P (N (s i k i ( P (N (s i k k1 (1 P (N (s i 0 ( 1 e λs i Hemos demostrado hasta ahora que P(τ i s i ; 1 i n + 1 y como por hipótesis tenemos que P(τ 1 s i ; 1 i n n+1 i1 ( 1 e λs i n ( 1 e λs i entonces ( n (1 P (τ i s i ; 1 i n + 1 P (τ i s i e λs n+1. Tomando límites de ambos lados lím s i 1 i n i1 i1 P(τ i s i ; 1 i n + 1 lím s i 1 i n n P (τ i s i ( 1 e λsn+1 i1 P (τ n+1 s n+1 1 e λsn+1. 12

Por lo tanto, n 1, las variables aleatorias τ 1,..., τ n son independientes y tienen la misma distribución exponencial E (λ. No es difícil convencerse de que T m m τ k, (3 k0 entonces, como E (λ G ( 1, λ 1 y la suma de n variables aleatorias independientes con la misma distribución G (k, α tiene distribución G (nk, α, tenemos que ( T m G m, 1. λ Ejercicio 4 Probar (3. 5.3. Tiempo de próxima ocurrencia Definición 5 (Tiempo de próxima falla Dado un tiempo t queremos estudiar el tiempo que tardaremos en tener otra falla. Definamos φ t : ínf {s 0 ; N(s + t N(t 1} como el tiempo de la primera falla a partir del tiempo t. Proposición 4 φ t tiene distribución exponencial E(λ independiente de t. Demostración. Sea g(s 1 P (φ t s P (φ t > s. Observemos que {φ t > s} {τ t > t + s} s < t. g(s + h P (φ t > s + h P (τ t > t + s + h P (τ t > t + s, N (t + s + h N (t + s 0. El evento {τ t s + t} depende de lo que pasa hasta el tiempo t + s 5 y por la propiedad de incrementos independientes, es independiente de lo que ocurre en el intervalo (t + s, t + s + h]. Esto nos dice que {τ t s + t}, y {N (t + s + h N (t + s 0} son independientes, y por lo tanto {τ t > s + t} y{n (t + s + h N (t + s 0} también lo son 6. Entonces tenemos g (s + h P (τ t > t + s P (N (t + s + h N (t + s 0 P (φ t > s P (N (h 0 g(se λh. 5 Esto es lo que se conoce como tiempo de paro. 6 Recordemos que si dos eventos A y B son independientes, entonces A C y B son independientes, A y B C son independientes y A C y B C son independientes. 13

Así, g(s + h g(s g(s ( e λh 1 h h y tomando límites nos queda que g (s ( g(s e λh 1 lím h 0 h e λh 1 g (s lím h 0 h λg (s. Sabemos que las únicas soluciones para g (s λg (s son de la forma y también que Entonces por lo tanto g (s ke λs k R, g (0 P (φ t > 0 1. P (φ t > s e λs, P (φ t s 1 e λs s > 0. Esto es, t φ t tiene distribución exponencial E (λ. Proposición 5 Una variable aleatoria X con distribución exponencial de parámetro λ > 0, tiene la propiedad de pérdida de memoria. Esto es P (X > t + s X > s P (T > t. Demostración. Observemos que t 0 pues tenemos que Sean s, t 0. Entonces P (X > t e λt, P (X t 1 e λt. P (T > t + s T > s P (T > t + s, T > s P (T > s P (T > t + s P (T > s e λ(t+s e λs e λt P (T > t. Por lo tanto X E (λ tiene la propiedad de pérdida de memoria. 14

Proposición 6 Un proceso de Poisson de parámetro λ > 0, tiene la propiedad de pérdida de memoria. 5.4. Tiempo desde última falla Definición 6 (Tiempo desde última falla Dado un tiempo t queremos estudiar el tiempo que ha pasado desde la última falla. Definamos l t : ínf {s 0 : N (t N (t s 0} como el tiempo desde que ocurrió la última falla. Proposición 7 La distribución de l t es la siguiente: P (l t t e λt. P (l t s 1 e λs 0 s < t. Demostración. Se deja como ejercicio checar que l t esté bien definida y es variable aleatoria. En el primer caso tenemos que y P (l t t P (N (t N (t t 0 P (N (t 0 P (T 1 t e λt. En el segundo caso tenemos que si 0 s < t P (l t s P (N (t N (t s 1 P (l t > s P (N (t N (t s 0 P (N (s 0 P (T 1 s e λs, entonces P (l t s 1 e λs Observemos que la distribución de la proposición anterior es tal que tiene un salto en t y de otra forma tiene densidad. Es un ejemplo de una distribución que tiene una parte discreta y otra parte continua. 15

6. Simulación de un Proceso de Poisson Proposición 8 Sean U U (0, 1 y λ > 0. Entonces 1 λ ln (1 U E (λ. Demostración. Queremos demostrar que P ( 1λ { 1 e ln (1 U x λx x 0 0 x 0. P ( 1λ ln (1 U x P (ln (1 U λx P ( 1 U e λx P ( U 1 e λx. Recordemos que entonces F U (x P ( U 1 e λx como queríamos. Por lo tanto 1 λ ln (1 U E (λ. { x 0 x 1 0 en otro caso, { 1 e λx x 0 0 x 0, La proposición anterior nos muestra un método para simular en una computadora una variable aleatoria con distribución E (λ usando un generador de números aleatorios uniforme en (0, 1. Entonces, como en un proceso de Poisson de parámetro λ > 0, τ m E (λ y T m m k0 τ k, podemos simular los tiempos de llegada como una suma de variables aleatorias exponenciales E (λ. 7. Definición equivalente Definición 7 (Proceso de Poisson homogéneo Una colección de variables aleatorias {N (t, t 0} es un Proceso de Poisson homogéneo de parámetro λ > 0 si: 1. P (N (0 0 1. 2. N (t tiene incrementos estacionarios. 3. N (t tiene incrementos independientes. 4. Para h pequeña: a P (N (t + h N (t 1 λh + o (h. 16

b P (N (t + h N (t > 1 o (h. Observaciones: La condición 4.a nos dice que la probabilidad de que ocurra exactamente un evento en un intervalo de tiempo pequeño, es "proporcional. a la longitud del intervalo. La condición 4.b nos dice que la probabilidad de que ocurran dos o más eventos en un intervalo de tiempo pequeño es despreciable. Teorema 4 Las definiciones 3 y 7 son equivalentes. Demostración. Veamos primero que (3 (7. En la sección 4 vimos que de acuerdo con la definición 3, un proceso de Poisson homogéneo tiene la propiedad de incrementos estacionarios, esto es (3 (7.2 Falta ver que (3 (7.4. a P (N (t + h N (t 1 P (N (h 1 (λh e λh λh + λh ( e λh 1 Luego, como tenemos que b y como tenemos que esto es, λh ( e λh 1 ( lím λ lím e λh 1 0, h 0 h h 0 P (N (t + h N (t 1 λh + o (h. P (N (t + h N (t > 1 P (N (h > 1 (λh k e λh (λh k e λhh lím h 0 h lím h 0 k2 k2 λ lím h 0 hk 1 e λhk 0 k 2 (λh k e λh 0, P (N (t + h N (t > 1 o (h. 17

Por lo tanto (3 (7. Veamos ahora que (7 (3. Falta ver que (7 (3.ii. Definamos una función Veamos que f (t, 0 e λh. f (t + h, 0 P (N (t + h 0 Tenemos entonces f (t, n : P (N (t n. P (N (t 0, N (t + h N (t 0 P (N (t 0 P (N (t + h N (t 0 f (t, 0 (1 P (N (t + h N (t 1 f (t, 0 (1 (P (N (t + h N (t 1 + P (N (t + h N (t > 1 f (t, 0 (1 ((λh + o (h + o (h f (t, 0 (1 (λh + o (h f (t, 0 (1 λh + o (h. f (t + h, 0 f (t, 0 f (t, 0 ( λh + o (h lím lím h 0 h h 0 h f (t, 0 λf (t, 0, de donde Notemos que n > 1 f (t, 0 e λt. d f (t, n λ (f (t, n 1 f (t, n. dt 18

f (t + h, n P (N (t + h n n P (N (t n k, N (t + h N (t k Entonces k0 n P (N (t n k P (N (t + h N (t k k0 P (N (t n P (N (t + h N (t 0 + P (N (t n 1 P (N (t + h N (t 1 n + P (N (t n k P (N (t + h N (t k k2 f (t, n (1 P (N (t + h N (t 1 + f (t, n 1 (λh + o (h + (λt n k e λt (n k! o (h k2 f (t, n (1 (P (N (t + h N (t 1 + P (N (t + h N (t > 1 +λh f (t, n 1 + o (h f (t, n (1 ((λh + o (h + o (h + λh f (t, n 1 + o (h f (t, n + λh (f (t, n 1 f (t, n + o (h. f (t + h, n f (t, n lím h 0 h lím h 0 λh (f (t, n 1 f (t, n + o (h h d f (t, n λ (f (t, n 1 f (t, n. dt Veamos ahora que n 0, f (t, n (λt n e λt d ((λt n+1 e λt dt (n + 1! n!. λ n+1 d ( t n+1 e λt (n + 1! dt λ n+1 ( (n + 1 t n e λt λt n+1 e λt (n + 1! λ ((λt n e λt (λt n+1 e λt n! (n + 1! Luego, por el Teorema de Existencia Unicidad de solución de ecuaciones diferenciales, tenemos el resultado. Por lo tanto {N (t, t 0} es un Proceso de Poisson de parámetro λ (de acuerdo con las definición (3. Las dos definiciones son equivalentes. 19

8. Combinación de Procesos de Poisson Teorema 5 Sean {N 1 (t, t 0} y {N 2 (t, t 0} procesos de Poisson independientes con parámetros λ 1 y λ 2 respectivamente. Sea N (t N 1 (t + N 2 (t, t 0. Entonces {N (t, t 0} es un proceso de Poisson de parámetro λ 1 + λ 2. Demostración. Claramente N (0 0. Recordemos que si S n n i1 X i y X i P (λ i, entonces S n P ( n i1 λ i. Entonces t 0 tenemos que N (t P (t (λ 1 + λ 2. Recordemos también que si tenemos {A i } y {B i } dos sucesiones de variables aleatorias independientes, independientes entre sí, entonces {A i + B i } es una sucesión de variables aleatorias independientes. Esto nos dice que N (t tiene incrementos independientes, pues dados t 0 0 < t 1 < t 2 < < t n tenemos que {N i (t j N i (t j 1, j 1,..., n} i 1, 2 son independientes, y por tanto N (t j N (t j 1, j 1,..., n también lo son. Por lo tanto {N (t, t 0} es un Proceso de Poisson de parámetro λ 1 + λ 2. Corolario 3 Sean {N 1 (t, t 0}, {N 2 (t, t 0},..., {N n (t, t 0} procesos de Poisson independientes con parámetros λ 1, λ 2,..., λ n respectivamente. Sea N (t n k1 N k (t, t 0. Entonces {N (t, t 0} es un proceso de Poisson de parámetro n k1 λ k. 9. Proceso de Poisson compuesto Definición 8 (Proceso de Poisson Compuesto Sea {X i } i 1 una sucesión de variables aleatorias independientes idénticamente distribuidas e independientes del proceso de Poisson {N (t, t 0} de parámetro λ. El proceso X (t N(t i1 se llama proceso de Poisson compuesto. Teorema 6 Sea {N (t, t 0} un proceso de Poisson de parámetro λ. Supongamos que cada llegada es de tipo 1 con probabilidad p 1 o de tipo 2 con probabilidad p 2 1 p 1, independiente de las demás llegadas. Sea N i (t el número de llegadas del tipo i hasta el tiempo t. Entonces {N 1 (t, t 0} y {N 2 (t, t 0} son procesos de Poisson independientes con parámetros λp 1 y λp 2 respectivamente. X i 20

Demostración. Sea {ξ k } k 0 una sucesión de variables aleatorias Bernoulli de parámetro p 1. Entonces y N 2 (t N(t k1 N 1 (t N(t k1 ξ k (1 ξ k N (t N 1 (t. Es claro que N 1 (t y N 2 (t tienen incrementos independientes y estacionarios, pues N (t los tiene. Además también es fácil darse cuenta de que P (N i (t + h N i (t > 1 o (h, pues P (N (t + h N (t > 1 o (h y N i (h s N (t s. Veamos que para h pequeña P (N 1 (t + h N 1 (t 1 p 1 λh + o (h. P (N 1 (t + h N 1 (t 1 P N(t+h k1 P N(t+h N(t+1 N(t ξ k ξ k 1 k1 ξ k 1 P (N (t + h N (t 1, ξ k 1 P (N (t + h N (t 1 P (ξ k 1 (λh + o (h p 1 λp 1 h + o (h. Similarmente podemos ver que P (N 2 (t + h N 2 (t 1 λp 2 h + o (h. {N 1 (t, t 0} y {N 2 (t, t 0} son Procesos de Poisson con parámetros λp 1 y λp 2. Veamos ahora que son independientes. Sea t 0 y s 1, s 2 R. P (N 1 (t s 1, N 2 (t s 2 s 1 k 10 s 1 s 2 k 10 k 20 P (N 1 (t k 1, N 2 (t s 2 P (N 1 (t k 1, N 2 (t k 2 como sabemos que N 1 (t + N 2 (t N (t P (N 1 (t k 1, N 2 (t k 2 P (N 1 (t k 1, N 2 (t k 2 N (t k 1 + k 2 P (N (t k 1 + k 2 y ( k1 + k 2 P (N 1 (t k 1, N 2 (t k 2 N (t k 1 + k 2 p k1 1 pk2 2 k 1 21

entonces P (N 1 (t s 1, N 2 (t s 2 s 1 s 2 k 10 k 20 s 1 s 2 k 10 k 20 s 1 s 2 k 10 k 20 s 1 s 2 k 10 k 20 ( k1 + k 2 k 1 p k1 1 pk2 2 (λtk1+k2 e λt (k 1 + k 2! 1 k 1!k 2! pk1 1 (λtk1 p k2 2 (λtk2 e λ(p1+p2t (λp 1 t k1 e λp1t k 1! (λp 2 t k2 e λp2t k 2! P (N 1 (t k 1 P (N 2 (t k 2 ( s1 ( s2 P (N 1 (t k 1 P (N 2 (t k 2 k 10 k 20 P (N 1 (t s 1 P (N 2 (t s 2. Por lo tanto {N 1 (t, t 0} y {N 2 (t, t 0} son procesos de Poisson independientes con parámetros λp 1 y λp 2. Corolario 4 Sea {N (t, t 0} un proceso de Poisson de parámetro λ. Sea {X k } k1 una sucesión de variables aleatorias independientes con la misma distribución discreta {p k } n k1. Supongamos que cada llegada es de tipo i con probabilidad p i, independiente de las demás llegadas. Sea N i (t el número de llegadas del tipo i hasta el tiempo t. Esto es donde N i (t δ i j N(t k0 δ i Xk { 0 si i j 1 si i j. Entonces {N 1 (t, t 0},..., {N n (t, t 0} son procesos de Poisson independientes con parámetros λp 1,..., λp n respectivamente. 10. Proceso de Poisson no homogéneo Definición 9 (Proceso de Poisson no homogéneo con intensidad Λ (t Una colección de variables aleatorias {N(t, t 0} se llama proceso de Poisson no homogéneo con intensidad Λ (t si satisface las siguientes propiedades: a P(N(0 0 1. 22

b N (t tiene incrementos independientes. c 0 < s < t se tiene que P (N (t N (s k (Λ (t Λ (s k e (Λ(t Λ(s k 0, 1, 2,.... Esto es N (t N (s P (Λ (t Λ (s, donde Λ (t es no decreciente y Λ (0 0. Veamos la distribución del tiempo del primer evento (T 1 en un proceso de Poisson de intensidad Λ (t. P (T 1 t P (N (t 1 1 P (N (t 0 1 e Λ(t. Esto es F T1 (x 1 e Λ(t. Si Λ (t es diferenciable en t con derivada λ (t, entonces f T1 (t λ (t e Λ(t. Notemos que un Proceso de Poisson homogéneo es un caso particular de un Proceso de Poisson no homogéneo, tomando Λ (t λt. En general es usual proponer donde λ (s 0 s. Λ (t t 0 λ (s ds, 23