PROCESO DE BERNOULLI Rosario Romera Febrero 2009 1. Sumas de Variables Aleatorias Independientes De nición Se considera el experimento aleatorio consistente en la repetición de juegos binarios independientes. El resultado de cada realización será un elemento de siendo f!;! (! 1 ;! 2 : : :) donde! i es A ó Ag Para cada subconjunto de (suceso) de nimos la siguiente medida de probabilidad P rob(! 1! 2 : : :) P rob(! 1 ):P rob(! 2 ) : : : siendo: P rob(a) p P rob(a) 1 p q Por ejemplo: P rob(aaaa) p 3 q donde se consideran las variables aleatorias independientes Bernoulli (p): X i (A) 1; X i (A) 0 con P rob(x i 1) p; P rob(x i 0) 1 p 8i 2 N De nición Proceso de Bernoulli. La sucesión aleatoria fx n g n1 es Proceso Bernoulli con probabilidad de éxito p, si veri ca: 1. X 1, X 2,... son independientes e idénticamente distribuidas (iid). 2. P (X n 1) p; P (X n 0) q 1 p 8n Propiedades. 1. E[X r n] p 8n 1 y 8r 1 2. V ar[x n ] E[X 2 n] E 2 [X n ] p p 2 p:q 3. G Xn (s) E[S Xn ] sp + q 8s 0
Observación: es proceso estrictamente estacionario y cov(x n ; X s ) E[X n X s ] E[X n ]E[X s ] 0 Proceso Sumas de Bernoulli Modeliza el número de éxitos en n juegos de Bernoulli independientes: De nición: S n (!) X 1 (!) + : : : + X n (!) n 1; y S 0 (!) 0 S n+m S n X n+1 + X n+2 + : : : + X n+m número de éxitos en los juegos n + 1; n + 2; : : : n + m Observación. El proceso fs n g n2n es una cadena de parámetro discreto. Propiedades 1. E[S n ] np 2. V ar[s n ] npq 3. G Sn (s) Q n i1 G X(s) G n X (s) (sp + q)n Ejemplo de cálculo de momentos: entonces Proposición: G 0 S n (1) [n(sp + q) n 1 :p] s1 np(p + q) n 1 np G 00 Sn(1) [n(n 1)(sp + q) n 2 :p 2 ] s1 n(n 1)p 2 (p + q) n 2 n(n 1)p 2 E[S n ] G 0 S n (1) np V ar[s n ] E[X 2 ] E 2 [X] G 00 x(1) + G 0 (1) [G 02 n(n 1)p 2 + np (np) 2 n 2 p 2 np 2 + np n 2 p 2 np(1 p) npq 8n; 2 N P (S n+1 ) p:p (S n 1) + qp (S n )
Demostración: Por el Teorema de Probabilidad Total. P (S n+1 ) X j2n P (S n+1 S n j)p (S n j) Proposición X j2n P (X n+1 j)p (S n j) 8 < p si j + 1 ya que: P (X n+1 j) q si j : 0 resto P (X n+1 1):P (S n 1) + P (X n+1 0):P (S n ) p:p (S n 1) + qp (S n ) 2 8n 2 N P (S n ) Demostración (por inducción completa) n!!(n )! p q n 8 0; : : : ; n 0 1 2 n 0 1 0 0 n 1 q p 0 n 2 q 2 2qp p 2 3 0 0 0 supongamos que es cierta la fórmula para m, veamos que es cierta para n m + 1: P (S m+1 0) q m+1 para 0 < m + 1, por la Proposición anterior, se tiene: P (S m+1 ) p:p (S m 1) + qp (S m ) m! p ( 1)!(m + 1)! p 1 q m +1 m! + q!(m )! p q m m! ( 1)!(m + 1)! p q m +1 m! +!(m )! p q m +1 m! ( 1)!(m )! p q m +1 1 m + 1 + 1 m!(m + 1) ( 1)!(m )!(m + 1) p q m +1 (m + 1)!!(m + 1)! p q m +1 2 Corolario 8n; m 2 N P (S n+m S m ) n p q n ; 8 0 : : : n (ya que S n+m S m X m+1 + X m+2 + : : : + X m+n suma de n variables aleatorias Bern(p) independientes)
Ejemplo. P (S 16 S 9 3) Para hallar probabilidades conjuntas del tipo: establecemos el siguiente resultado Proposición Demostración 7 3 p 3 q 4 35p 3 q 4 P (S n1 s 1 ; S n2 s 2 ; S n3 s 3 ) 8n; m 2 N P (S m+n S m S 0 ; : : : S m ) P (S m+n S m ) n p q n ; 8 0; : : : ; n S 0 ; : : : ; S m, están completamente determinadas por X 1 ; : : : ; X m y análogamente X 1 ; : : : ; X m están determinados por S 0 ; : : : ; S m (generan la misma -álgebra de sucesos), entonces: P (S m+n S m S 0 : : : S m ) P (S m+n S m X 1 : : : X m ) P (X m+1 + X m+2 + : : : + X m+n X 1 : : : X m ) (X i son variables aleatorias independientes) P (X m+1 + X m+2 + X m+n ) P (S m+n S m ) Corolario Sean 0 < n 1 < n 2 < : : : < n j pertenecientes a N, con j arbitrario, entonces las variables S n1 S 0 ; S n2 S n1 ; :::S nj S nj 1 son independientes Ejemplos P (S 10 4; S 12 5; S 18 8) P (S 10 4; S 12 S 10 1; S 18 S 12 3) P (S 10 4):P (S 12 S 10 1):P (S 18 S 12 3) 10 2 6 p 4 q 6 pq p 3 q 3 4 1 3 (210;2;20)p 8 q 10 8400p 8 q 10 E[S 5 S 8 ] E[S 5 (S 5 + (S 8 S 5 ))] E[S5 2 + S 5 (S 8 S 5 )] (por independencia) E[s 2 5] + E[S 5 ]:E[S 8 S 5 ] : : : 40p 2 + 5qp
De nición El Proceso Estocástico fz n g n2n, es de incrementos independientes si: 0 < n 1 < n 2 < : : : < n j ; j 2 N Z n1 Z 0 ; Z n2 Z n1 ; :::; Z nj Z nj 1 son variables aleatorias independientes. De nición El Proceso Estocástico fz n g n2n, es de incrementos estacionarios si: la distribución de sólo depende de h y no de n j. 8h 2 N; 80 < n 1 < n 2 < : : : < n j ; j 2 N Z h Z 0 ; Z n1 +h Z n1 ; Z n2 +h Z n2 :::; Z nj +h Z nj Proposición El Proceso S n (suma de variables aleatorias Bernoulli) es de Incrementos Independientes y Estacionarios. Ejercicio Demostrar que si fz n g n2n tiene incrementos independientes y estacionarios y además E[Z n ] < 1 8n, entonces: E[Z n ] E[Z 0 ] + m 1 :n; donde m 1 E[Z 1 ] E[Z 0 ] V ar[z n ] V ar[z 0 ] + 2 1n donde 2 1 E[(Z 1 m 1 ) 2 ] V ar[z 0 ] Ejercicio Si fx i g son variables aleatorias iid con valores en N, y Z n X 1 +X 2 +: : :+X n, con n 2 N entonces Z n es de incrementos independientes y estacionarios. Otro punto de vista sobre el Proceso de Bernoulli: interés en predecir el futuro del proceso de sumas, según la información del pasado. Proposición: (Propiedad de Marov) Sea Y g(s m ; S m+1 ; : : : ; S m+n ) para algún n 2 N, esto es, Y es variable aleatoria que depende de un número nito de variables. Entonces E[YS 0 : : : S m ] E[YS m ] Demostración Por el argumento de identidad de las -álgebras (X 1 : : : X m ) (S 0 : : : S m ) se veri cará que para cada función g existirá una cierta función g tal que: luego para cada valor de Y se tiene que: g(s m ; S m+1 : : : ; S m+n ) g (S m ; X m+1 ; : : : ; X m+n ) P (S m ; X m+1 i 1 ; : : : X m+n i n S 0 : : : S m ) luego (por ser fxig independientes) P (S m S 0 : : : S m ):P (X m+1 i 1 ) : : : P (X m+n i n ) E[YS 0 : : : S m ] función de (S m ) E[YS m ] 2
Ejemplos: Calcular E[S 11 S 3 S 4 S 5 ] (por la propiedad maroviana) E[S 11 S 5 ] E[S 5 + (S 11 S 5 )S 5 ] E[S 5 S 5 ] + E[S 11 S 5 S 5 ] S 5 + E[S 11 S 5 ] S 5 + 6p E[S 5 S 8 ] E[E[S 5 S 8 S 5 ]] E[S 5 :E[S 8 S 5 ]] E[S 5 (S 5 + 3p)] E[S 2 5] + 3pE[S 5 ] V ar[bin(5; p)] + E 2 [Bin(5; p)] + 3p;5p 40p 2 + 5pq
2. Proceso del número de intentos hasta obtener éxitos sucesivos en juegos independientes Bernoulli Sea T (!) número de intentos hasta el -ésimo éxito, por ejemplo, si se ha obtenido en una experimentación entonces T 1 (!) 2; X 1 (!) 0; X 2 (!) 1; X 3 (!) 0; X 4 (!) 1 : : : T 2 (!) 4; : : : ; ft g 2N contabiliza la cantidad de éxitos. Lema 8! 2, con 1 y n se veri ca que: Teorema (1) T (!) n () S n (!) (2) T (!) n () S n 1 (!) 1; X n (!) 1 8 1 : P ft ng P ft ng nx j n j n 1 1 p j q n j ; n ; + 1; : : : p q n ; n ; + 1; : : : Distribución Binomial Negativa. Demostración. Fijando 2 f1; 2; : : :g y n entonces: P ft ng P fs n g nx P fs n jg j de donde se obtiene (1). Como los sucesos ft (!) ng y fs n 1 1; X n 1g son idénticos, se deduce que: P robft ng P robfs n 1 1; X n 1g P fs n 1 1gP (X n 1) n 1 p 1 q n :P 2 1 Observación + (n P rob(el lugar que ocupa el -ésimo n) n ) 1 P rob(n o fracasos previo -éxito n ) p q n P rob(n o fracasos antes del -ésimo éxito x n 0; 1; : : :) se veri ca además que: n 1 + (n ) 1 + (n ) 1 1 1 n
G BN(;p) (s) E[S x ] 1X + (n ) 1 s n n n X 1 + x 1 s s x x xn 0 ps p (1 sq) 1 sq de aquí se obtienen los momentos: p q n p q x p s 1 X x0 (sq) x + x 1 x E[BN(; p)] G 0 BN(;p)(1) p V ar[bn(; p)] G 00 BN(;p)(1) + G 0 (1) (G 02 : : : q p 2 Proposición El proceso ft g 1 veri ca que: (a) esto es independencia de T 0 ; : : : ; T 1. Distribución geométrica. Ejercicio. Calcular P ft +1 nt 0 : : : T g P ft +1 nt g (b) P ft +1 T mt 0 : : : T g P ft +1 T mg pq m 1 E[T +1 T ] 1 p V ar[t +1 T ] q p 2 ps G T+1 T (s) 1 q:s Ejercicios de aplicación: Reposición de dispositivos cuya vida geom (p). Calcular P ft 1 3; T 5 9; T 7 17g Solución: (m) pq m 1 ; m 1 P ft 1 3; T 5 9; T 7 17g P ft 1 3; T 5 T 1 6; T 7 T 5 8g (independencia P (T 1 3)P (T 5 T 1 6)P (T 7 T 5 8) P (T 4 6)! P (T 2 8)! 6 1 p 1 q 2 4 1 3 1 1 1 Calcular E[T 5 T 3 ], y E[T 5 T 1 3; T 2 12; T 3 14] p 4 q 2 8 1 2 1 p 2 q 6 70p 7 q 10 E[T 5 T 3 ] E[T 3 + T 5 T 3 T 3 ] T 3 + E[T 2 ] T 3 + 2 p entonces E[T 5 T 1 3; T 2 12; T 3 14] E[T 5 T 3 14] T 3 + 2 14 + 2
La vida de cierta componente es una variable aleatoria discreta, cuya distribución es (m) pq m 1, con m 1. Al producirse el fallo, se sustituye por otra idéntida. Los reemplazamientos ocurren en los instantes dados por ft g 2N. El coste de cada componente nueva es c euros. Se admite la tasa de descuento constante para el dinero, esto es a lo largo de n períodos, c euros del instante n tienen un valor c: n euros de hoy (obsérvese que < 1 y si la tasa de in ación es de 6 % por ejemplo 1 ). Entonces si cada resposición cuesta c euros, calcúlese la 1+0;06 esperanza total del valor de descuento de todas las futuras reposiciones de esta componente. C (!) c: T (!) ; 1 entonces: C(!) 1X 1 c T (!) ya que : E[C] 1X ce[ T ] 1 p c 1 q 1 1X 1 1 p 1 q p c 1 q! c p 1 E[ T ] [ T 1 T 2 T 1 ::::: T T 1 ] T 1 ; T 2 T 1 ; :::T T 1 tienen la misma distribución geométrica) G geom () p 1 q 3. Generalización del Proceso de Sumas Bernoulli PASEOS ALEATORIOS: 1 p X i 1 1 p q nx S n S 0 + X i ; n 2 N i1 Propiedades: 1. Homogeneidad espacial P rob(s n js 0 a) P rob(s n j + bs 0 a + b) Demostración Los dos miembros P P rob( n X i j a) 2 1
2. Homogeneidad temporal P rob(s n js 0 a) P rob(s n+m js m a) Demostración Miembro izquierdo P nx X i j i1 a! p m+n X m+1 X i j a! Miembro derecho. 3. Posee la propiedad de Marov P (S n+m js 0 : : : S n ) p(s n+m js n ) 8m 0 4. Paseo Aleatorio Simétrico (caso p 1 12) E[S n ] 0 8n V ar[s n ] n 8n G Sn (s) (sp + q) n 8n Si X i i 1 : : : n, es sucesión aleatoria con múltiples valores en Z para X i, el proceso suma S n origina una Cadena de Marov de parámetro discreto.