PROCESO DE BERNOULLI Rosario Romera Febrero 2009

Documentos relacionados
Tema 5 Algunas distribuciones importantes

Distribuciones de probabilidad más usuales

5 DISTRIBUCIONES BINOMIAL Y DE POISSON

PROCESOS ESTOCÁSTICOS

Variable Aleatoria. Relación de problemas 6

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

Distribuciones de probabilidad

Definición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,...

Propiedades en una muestra aleatoria

Axiomas de separación

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona

Variables aleatorias

Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta

Tema 4: Probabilidad y Teoría de Muestras

Sea T R y (Ω, F, P ) un espacio de probabilidad. Un proceso aleatorio es una función

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

ALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO 6. POLINOMIOS DE UNA VARIABLE.

Generación de variables aleatorias continuas Método de la transformada inversa

Continuidad. 5.1 Continuidad en un punto

6. VARIABLES ALEATORIAS

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

T1. Distribuciones de probabilidad discretas

Algunas distribuciones importantes de probabilidad

Distribuciones unidimensionales discretas

Introducción a la Probabilidad

Hoja 2 Probabilidad. 1.- Sean Ω un espacio muestral y A P(Ω) una σ-álgebra. Para A A fijado, Además, resolver el ejercicio 3 desde (5.a) y (5.b).

Espacios, Funciones y Multifunciones

F (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0

Teoremas de Convergencia

DERIVACIÓN DE LAS FUNCIONES ELEMENTALES

Curso de nivelación Estadística y Matemática

Variables aleatorias

Problemas. Variables Aleatorias. Modelos de Probabilidad

PROBLEMAS RESUELTOS DE PREPARACIÓN PARA OPOSICIONES. Problemas 02

MATERIA: MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II INSTRUCCIONES Y CRITERIOS GENERALES DE CALIFICACIÓN

Tema 4. Probabilidad Condicionada

ALGEBRA I, ALGEBRA Y TRIGONOMETRIA , Segundo Semestre CAPITULO 6: POLINOMIOS.

Conjuntos, relaciones y funciones Susana Puddu

b) Sea una relación de equivalencia en A y una operación en A. Decimos que y son compatibles si a b a c b c y c a c b para todo a, b, c A

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

(x ) (x ) = x 2 + px + q. ( + ) = p = q: El método de completamiento de cuadrado aplicado al polinomio. P (x) = ax 2 + bx + c. P (x) = a x + b 2.

Teoremas de convergencia y derivación bajo el signo integral

2. Probabilidad y. variable aleatoria. Curso Estadística Probabilidad. Probabilidad y variable aleatoria

Tema 3. Variables aleatorias. Inferencia estadística

5 Variables aleatorias contínuas

Espacios topológicos. 3.1 Espacio topológico

PROCESO DE POISSON Rosario Romera Febrero 2009

Distribuciones de Probabilidad Normal [Gaussiana]

Anillo de polinomios con coeficientes en un cuerpo

Hemos visto que si se tira una moneda (con p = P (cruz)) n veces, entonces el número de cruces se distribuye como binomial.

Terminaremos el capítulo con una breve referencia a la teoría de cardinales.

CAPÍTULO 2 NOCIONES BÁSICAS DE TEORÍA DE CONJUNTOS

1. Construcción de la Integral

Tema 6 Algunos modelos de distribuciones discretas.

Sucesiones, inducción y sumatorias

X = beneficio del jugador = (ganancia neta) (recursos invertidos) Cuántos euros debo poner yo para que el juego sea justo?

Condiciones para una distribución binomial

4.12 Ciertos teoremas fundamentales del cálculo de probabilidades

Proceso de llegadas de Poisson

Nota 3.1 La propiedad markoviana es equivalente a cualquiera de las siguientespropiedades:

Estadística aplicada y modelización. 10 de septiembre de 2005

Funciones de Clase C 1

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Demostraciones a Teoremas de Límites

Tema 5: Principales Distribuciones de Probabilidad

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS.

1. Suma y producto de polinomios. Propiedades

Derivadas de Orden superior

Definición: Se llama variable aleatoria a toda función X que asigna a c/u de los elementos del espacio muestral S, un número Real X(s).

Teoría de la Probabilidad Tema 2: Teorema de Extensión

todas especialidades Soluciones de las hojas de problemas

LECTURA 01: LA DISTRIBUCIÓN NORMAL GENERAL. LA DISTRIBUCIÓN NORMAL ESTÁNDAR (PARTE I). TEMA 1: LA DISTRIBUCION NORMAL GENERAL.

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

Soluciones oficiales Clasificación Olimpiada Nacional Nivel Mayor

6.1. Esperanza Matemática de Variables Aleatorias Discretas.

Espacios vectoriales reales.

SISTEMA DE NUMEROS REALES

Relación de Problemas. Tema 6

EL CUERPO ORDENADO REALES

Variable Aleatoria Continua. Principales Distribuciones

5. DISTRIBUCIONES DE PROBABILIDADES

Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes

Integrales múltiples

1. Convergencia en medida

La distribución normal o gaussiana es la distribución. Definición 42 Se dice que una variable X se distribuye como normal con parámetros µ y σ si

Algebra Lineal. Gustavo Rodríguez Gómez. Verano 2011 INAOE. Gustavo Rodríguez Gómez (INAOE) Algebra Lineal Verano / 21

Variables aleatorias. Examen Junio La función de distribución de una variable continua X es de la forma:

Ejercicios Resueltos de Teorema Central de Límite (TCL) Ejercicios 1 y 2: Resolución de Ejercicios propuestos del Tema 5.

ALGEBRA LINEAL. David Delepine, Mauro Napsuciale, Simón Rodríguez

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Introducción a la Teoría Analítica de Números

Funciones integrables en R n

Determinantes. Profesores Omar Darío Saldarriaga Ortíz. Hernán Giraldo

Sistemas de Ecuaciones Lineales y Matrices

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios.

Clasificación de sistemas

1. Sucesiones y redes.

Análisis de Datos y Métodos Cuantitativos para la Toma de Decisiones 7ma versión MGM

Transcripción:

PROCESO DE BERNOULLI Rosario Romera Febrero 2009 1. Sumas de Variables Aleatorias Independientes De nición Se considera el experimento aleatorio consistente en la repetición de juegos binarios independientes. El resultado de cada realización será un elemento de siendo f!;! (! 1 ;! 2 : : :) donde! i es A ó Ag Para cada subconjunto de (suceso) de nimos la siguiente medida de probabilidad P rob(! 1! 2 : : :) P rob(! 1 ):P rob(! 2 ) : : : siendo: P rob(a) p P rob(a) 1 p q Por ejemplo: P rob(aaaa) p 3 q donde se consideran las variables aleatorias independientes Bernoulli (p): X i (A) 1; X i (A) 0 con P rob(x i 1) p; P rob(x i 0) 1 p 8i 2 N De nición Proceso de Bernoulli. La sucesión aleatoria fx n g n1 es Proceso Bernoulli con probabilidad de éxito p, si veri ca: 1. X 1, X 2,... son independientes e idénticamente distribuidas (iid). 2. P (X n 1) p; P (X n 0) q 1 p 8n Propiedades. 1. E[X r n] p 8n 1 y 8r 1 2. V ar[x n ] E[X 2 n] E 2 [X n ] p p 2 p:q 3. G Xn (s) E[S Xn ] sp + q 8s 0

Observación: es proceso estrictamente estacionario y cov(x n ; X s ) E[X n X s ] E[X n ]E[X s ] 0 Proceso Sumas de Bernoulli Modeliza el número de éxitos en n juegos de Bernoulli independientes: De nición: S n (!) X 1 (!) + : : : + X n (!) n 1; y S 0 (!) 0 S n+m S n X n+1 + X n+2 + : : : + X n+m número de éxitos en los juegos n + 1; n + 2; : : : n + m Observación. El proceso fs n g n2n es una cadena de parámetro discreto. Propiedades 1. E[S n ] np 2. V ar[s n ] npq 3. G Sn (s) Q n i1 G X(s) G n X (s) (sp + q)n Ejemplo de cálculo de momentos: entonces Proposición: G 0 S n (1) [n(sp + q) n 1 :p] s1 np(p + q) n 1 np G 00 Sn(1) [n(n 1)(sp + q) n 2 :p 2 ] s1 n(n 1)p 2 (p + q) n 2 n(n 1)p 2 E[S n ] G 0 S n (1) np V ar[s n ] E[X 2 ] E 2 [X] G 00 x(1) + G 0 (1) [G 02 n(n 1)p 2 + np (np) 2 n 2 p 2 np 2 + np n 2 p 2 np(1 p) npq 8n; 2 N P (S n+1 ) p:p (S n 1) + qp (S n )

Demostración: Por el Teorema de Probabilidad Total. P (S n+1 ) X j2n P (S n+1 S n j)p (S n j) Proposición X j2n P (X n+1 j)p (S n j) 8 < p si j + 1 ya que: P (X n+1 j) q si j : 0 resto P (X n+1 1):P (S n 1) + P (X n+1 0):P (S n ) p:p (S n 1) + qp (S n ) 2 8n 2 N P (S n ) Demostración (por inducción completa) n!!(n )! p q n 8 0; : : : ; n 0 1 2 n 0 1 0 0 n 1 q p 0 n 2 q 2 2qp p 2 3 0 0 0 supongamos que es cierta la fórmula para m, veamos que es cierta para n m + 1: P (S m+1 0) q m+1 para 0 < m + 1, por la Proposición anterior, se tiene: P (S m+1 ) p:p (S m 1) + qp (S m ) m! p ( 1)!(m + 1)! p 1 q m +1 m! + q!(m )! p q m m! ( 1)!(m + 1)! p q m +1 m! +!(m )! p q m +1 m! ( 1)!(m )! p q m +1 1 m + 1 + 1 m!(m + 1) ( 1)!(m )!(m + 1) p q m +1 (m + 1)!!(m + 1)! p q m +1 2 Corolario 8n; m 2 N P (S n+m S m ) n p q n ; 8 0 : : : n (ya que S n+m S m X m+1 + X m+2 + : : : + X m+n suma de n variables aleatorias Bern(p) independientes)

Ejemplo. P (S 16 S 9 3) Para hallar probabilidades conjuntas del tipo: establecemos el siguiente resultado Proposición Demostración 7 3 p 3 q 4 35p 3 q 4 P (S n1 s 1 ; S n2 s 2 ; S n3 s 3 ) 8n; m 2 N P (S m+n S m S 0 ; : : : S m ) P (S m+n S m ) n p q n ; 8 0; : : : ; n S 0 ; : : : ; S m, están completamente determinadas por X 1 ; : : : ; X m y análogamente X 1 ; : : : ; X m están determinados por S 0 ; : : : ; S m (generan la misma -álgebra de sucesos), entonces: P (S m+n S m S 0 : : : S m ) P (S m+n S m X 1 : : : X m ) P (X m+1 + X m+2 + : : : + X m+n X 1 : : : X m ) (X i son variables aleatorias independientes) P (X m+1 + X m+2 + X m+n ) P (S m+n S m ) Corolario Sean 0 < n 1 < n 2 < : : : < n j pertenecientes a N, con j arbitrario, entonces las variables S n1 S 0 ; S n2 S n1 ; :::S nj S nj 1 son independientes Ejemplos P (S 10 4; S 12 5; S 18 8) P (S 10 4; S 12 S 10 1; S 18 S 12 3) P (S 10 4):P (S 12 S 10 1):P (S 18 S 12 3) 10 2 6 p 4 q 6 pq p 3 q 3 4 1 3 (210;2;20)p 8 q 10 8400p 8 q 10 E[S 5 S 8 ] E[S 5 (S 5 + (S 8 S 5 ))] E[S5 2 + S 5 (S 8 S 5 )] (por independencia) E[s 2 5] + E[S 5 ]:E[S 8 S 5 ] : : : 40p 2 + 5qp

De nición El Proceso Estocástico fz n g n2n, es de incrementos independientes si: 0 < n 1 < n 2 < : : : < n j ; j 2 N Z n1 Z 0 ; Z n2 Z n1 ; :::; Z nj Z nj 1 son variables aleatorias independientes. De nición El Proceso Estocástico fz n g n2n, es de incrementos estacionarios si: la distribución de sólo depende de h y no de n j. 8h 2 N; 80 < n 1 < n 2 < : : : < n j ; j 2 N Z h Z 0 ; Z n1 +h Z n1 ; Z n2 +h Z n2 :::; Z nj +h Z nj Proposición El Proceso S n (suma de variables aleatorias Bernoulli) es de Incrementos Independientes y Estacionarios. Ejercicio Demostrar que si fz n g n2n tiene incrementos independientes y estacionarios y además E[Z n ] < 1 8n, entonces: E[Z n ] E[Z 0 ] + m 1 :n; donde m 1 E[Z 1 ] E[Z 0 ] V ar[z n ] V ar[z 0 ] + 2 1n donde 2 1 E[(Z 1 m 1 ) 2 ] V ar[z 0 ] Ejercicio Si fx i g son variables aleatorias iid con valores en N, y Z n X 1 +X 2 +: : :+X n, con n 2 N entonces Z n es de incrementos independientes y estacionarios. Otro punto de vista sobre el Proceso de Bernoulli: interés en predecir el futuro del proceso de sumas, según la información del pasado. Proposición: (Propiedad de Marov) Sea Y g(s m ; S m+1 ; : : : ; S m+n ) para algún n 2 N, esto es, Y es variable aleatoria que depende de un número nito de variables. Entonces E[YS 0 : : : S m ] E[YS m ] Demostración Por el argumento de identidad de las -álgebras (X 1 : : : X m ) (S 0 : : : S m ) se veri cará que para cada función g existirá una cierta función g tal que: luego para cada valor de Y se tiene que: g(s m ; S m+1 : : : ; S m+n ) g (S m ; X m+1 ; : : : ; X m+n ) P (S m ; X m+1 i 1 ; : : : X m+n i n S 0 : : : S m ) luego (por ser fxig independientes) P (S m S 0 : : : S m ):P (X m+1 i 1 ) : : : P (X m+n i n ) E[YS 0 : : : S m ] función de (S m ) E[YS m ] 2

Ejemplos: Calcular E[S 11 S 3 S 4 S 5 ] (por la propiedad maroviana) E[S 11 S 5 ] E[S 5 + (S 11 S 5 )S 5 ] E[S 5 S 5 ] + E[S 11 S 5 S 5 ] S 5 + E[S 11 S 5 ] S 5 + 6p E[S 5 S 8 ] E[E[S 5 S 8 S 5 ]] E[S 5 :E[S 8 S 5 ]] E[S 5 (S 5 + 3p)] E[S 2 5] + 3pE[S 5 ] V ar[bin(5; p)] + E 2 [Bin(5; p)] + 3p;5p 40p 2 + 5pq

2. Proceso del número de intentos hasta obtener éxitos sucesivos en juegos independientes Bernoulli Sea T (!) número de intentos hasta el -ésimo éxito, por ejemplo, si se ha obtenido en una experimentación entonces T 1 (!) 2; X 1 (!) 0; X 2 (!) 1; X 3 (!) 0; X 4 (!) 1 : : : T 2 (!) 4; : : : ; ft g 2N contabiliza la cantidad de éxitos. Lema 8! 2, con 1 y n se veri ca que: Teorema (1) T (!) n () S n (!) (2) T (!) n () S n 1 (!) 1; X n (!) 1 8 1 : P ft ng P ft ng nx j n j n 1 1 p j q n j ; n ; + 1; : : : p q n ; n ; + 1; : : : Distribución Binomial Negativa. Demostración. Fijando 2 f1; 2; : : :g y n entonces: P ft ng P fs n g nx P fs n jg j de donde se obtiene (1). Como los sucesos ft (!) ng y fs n 1 1; X n 1g son idénticos, se deduce que: P robft ng P robfs n 1 1; X n 1g P fs n 1 1gP (X n 1) n 1 p 1 q n :P 2 1 Observación + (n P rob(el lugar que ocupa el -ésimo n) n ) 1 P rob(n o fracasos previo -éxito n ) p q n P rob(n o fracasos antes del -ésimo éxito x n 0; 1; : : :) se veri ca además que: n 1 + (n ) 1 + (n ) 1 1 1 n

G BN(;p) (s) E[S x ] 1X + (n ) 1 s n n n X 1 + x 1 s s x x xn 0 ps p (1 sq) 1 sq de aquí se obtienen los momentos: p q n p q x p s 1 X x0 (sq) x + x 1 x E[BN(; p)] G 0 BN(;p)(1) p V ar[bn(; p)] G 00 BN(;p)(1) + G 0 (1) (G 02 : : : q p 2 Proposición El proceso ft g 1 veri ca que: (a) esto es independencia de T 0 ; : : : ; T 1. Distribución geométrica. Ejercicio. Calcular P ft +1 nt 0 : : : T g P ft +1 nt g (b) P ft +1 T mt 0 : : : T g P ft +1 T mg pq m 1 E[T +1 T ] 1 p V ar[t +1 T ] q p 2 ps G T+1 T (s) 1 q:s Ejercicios de aplicación: Reposición de dispositivos cuya vida geom (p). Calcular P ft 1 3; T 5 9; T 7 17g Solución: (m) pq m 1 ; m 1 P ft 1 3; T 5 9; T 7 17g P ft 1 3; T 5 T 1 6; T 7 T 5 8g (independencia P (T 1 3)P (T 5 T 1 6)P (T 7 T 5 8) P (T 4 6)! P (T 2 8)! 6 1 p 1 q 2 4 1 3 1 1 1 Calcular E[T 5 T 3 ], y E[T 5 T 1 3; T 2 12; T 3 14] p 4 q 2 8 1 2 1 p 2 q 6 70p 7 q 10 E[T 5 T 3 ] E[T 3 + T 5 T 3 T 3 ] T 3 + E[T 2 ] T 3 + 2 p entonces E[T 5 T 1 3; T 2 12; T 3 14] E[T 5 T 3 14] T 3 + 2 14 + 2

La vida de cierta componente es una variable aleatoria discreta, cuya distribución es (m) pq m 1, con m 1. Al producirse el fallo, se sustituye por otra idéntida. Los reemplazamientos ocurren en los instantes dados por ft g 2N. El coste de cada componente nueva es c euros. Se admite la tasa de descuento constante para el dinero, esto es a lo largo de n períodos, c euros del instante n tienen un valor c: n euros de hoy (obsérvese que < 1 y si la tasa de in ación es de 6 % por ejemplo 1 ). Entonces si cada resposición cuesta c euros, calcúlese la 1+0;06 esperanza total del valor de descuento de todas las futuras reposiciones de esta componente. C (!) c: T (!) ; 1 entonces: C(!) 1X 1 c T (!) ya que : E[C] 1X ce[ T ] 1 p c 1 q 1 1X 1 1 p 1 q p c 1 q! c p 1 E[ T ] [ T 1 T 2 T 1 ::::: T T 1 ] T 1 ; T 2 T 1 ; :::T T 1 tienen la misma distribución geométrica) G geom () p 1 q 3. Generalización del Proceso de Sumas Bernoulli PASEOS ALEATORIOS: 1 p X i 1 1 p q nx S n S 0 + X i ; n 2 N i1 Propiedades: 1. Homogeneidad espacial P rob(s n js 0 a) P rob(s n j + bs 0 a + b) Demostración Los dos miembros P P rob( n X i j a) 2 1

2. Homogeneidad temporal P rob(s n js 0 a) P rob(s n+m js m a) Demostración Miembro izquierdo P nx X i j i1 a! p m+n X m+1 X i j a! Miembro derecho. 3. Posee la propiedad de Marov P (S n+m js 0 : : : S n ) p(s n+m js n ) 8m 0 4. Paseo Aleatorio Simétrico (caso p 1 12) E[S n ] 0 8n V ar[s n ] n 8n G Sn (s) (sp + q) n 8n Si X i i 1 : : : n, es sucesión aleatoria con múltiples valores en Z para X i, el proceso suma S n origina una Cadena de Marov de parámetro discreto.