Capítulo 1 Modelo de Probabilidad 1.1 Definiciones y Resultados Básicos Sea Ω un conjunto arbitrario. Definición 1.1 Una familia no vacía F de subconjuntos de Ω es llamada una σ-álgebra de subconjuntos de Ω si satisface las siguientes condiciones: 1. Si A F, entonces A c F. 2. Si A n F, para toda n 1, entonces A n F n 1 En todo lo que sigue F denotará una σ-álgebra de subconjuntos de Ω y a los elementos de F los llamaremos eventos. Definición 1.2 Una probabilidad sobre (Ω, F) es una función P : F R que satisface las siguientes condiciones: 1. Para todo A F, 0 P [A] 1, 2. P [Ω] = 1, 3. Si (A n ) n 1, es una sucesión de eventos tales que A i A j = para toda i j, entonces P A n = P [A n ] n 1 n 1 1
2 CAPÍTULO 1. MODELO DE PROBABILIDAD Al conjunto Ω le llamaremos espacio muestral y a la terna (Ω, F, P ) espacio de probabilidad. A continuación consideraremos (Ω, F, P ) un espacio de probabilidad fijo, arbitrario, todos los eventos en consideración serán elementos de la σ-álgebra F. Teorema 1.1 (Propiedades de la Probabilidad). 1. P [ ] = 0. 2. Si A 1,..., A n son eventos tales que A i A j = para toda i j, entonces 3. Si A es un evento, entonces [ n ] n P A k = P [A k ]. k=1 k=1 P [A c ] = 1 P [A]. 4. Sean A y B eventos, entonces P [A] = P [A B] + P [A B c ]. 5. Si A y B son eventos tales que A B, entonces P [A] P [B]. 6. Sea A n, n I una partición finita o numerable de Ω (i.e. A i A j =, para toda i j, n I A n = Ω) tales que A n F para toda n I, entonces para todo evento A, P [A] = n I P [A A n ]. 7. Sean A y B eventos, entonces P [A B] = P [A] + P [B] P [A B].
1.1. DEFINICIONES Y RESULTADOS BÁSICOS 3 8. Más generalmente, sean A 1,..., A n eventos, entonces n P [A 1 A 2 A n ] = P [A j ] P [A i A j ] j=1 i < j + P [Ai A j A k ] i<j<k + ( 1) n+1 P [A 1 A 2 A n ]. A esta propiedad se le conoce como la Regla de la Adición-Sustracción. 9. Si A 1, A 2,..., A n son eventos, entonces [ n ] n P A k P [A k ]. k=1 k=1 10. Si A n, n 1 es una sucesión de eventos, entonces P A n P [A n ]. n 1 n 1 Ejemplo 1.1 Sea Ω = {a 1,..., a n } un conjunto finito, F = P(Ω), la potencia de Ω, esto es, la familia de todos los subconjuntos de Ω. Supongamos que todos los elementos de Ω son igualmente probables, es decir, P [{a i }] = 1 n, i = 1,..., n Entonces para todo A P(Ω), P [A] = Card(A), n donde, Card(A) es la cardinalidad de A. A esta probabilidad se le conoce como la definición Clásica de la Probablidad. Ejemplo 1.2 Sea Ω R 2, tal que Area de Ω <, F una σ-álgebra de subconjuntos de Ω que contiene a todos los conjuntos a los cuales se les puede calcular el área. Para cada A F definimos la probabilidad de A como sigue: Area de A P [A] = Area de Ω. A la probabilidad así definida se le conoce como Probabilidad Geo- métrica.
4 CAPÍTULO 1. MODELO DE PROBABILIDAD Teorema 1.2 Continuidad de la Probabilidad (i) Sea (A n ) n 1 una sucesión creciente de eventos (es decir, A n A n+1 ), entonces P A n = lim P [A n ]. n n 1 (ii) Sea (A n ) n 1 una sucesión decreciente de eventos (es decir, A n+1 A n ), entonces P A n = lim P [A n ]. n n 1 Definición 1.3 Probabilidad Condicional Sean A y B eventos tales que P [B] 0. La probabilidad condicional de A dado B denotada P [A B] está definida por: P [A B] P [A B] =. P [B] Teorema 1.3 Sea B un evento (fijo) tal que P [B] > 0. Entonces la función P [ B] : F [0, 1] es una probabilidad, por lo tanto satisface las propiedades 1-8 del Teorema 1.1 Definición 1.4 Sean A 1,..., A n eventos. Diremos que son independientes si P [A i A j ] = P [A i ]P [A j ], si i j, P [A i A j A k ] = P [A i ]P [A j ]P [A k ], si i j, j k, i k,. P [ n i=1a i ] =. n P [A i ]. i=1 Teorema 1.4 Regla de la Muliplicación. Sean A 1,..., A n eventos tales que P [A 1 A n 1 ] > 0, entonces P [A 1 A n ] = P [A 1 ]P [A 2 A 1 ]P [A 3 A 1 A 2 ] P [A n A 1 A n 1 ]. Teorema 1.5 Teorema de las Probabilidades Totales. Sea A n, n I una partición finita o numerable de Ω, tal que P [A n ] > 0 para toda n I, entonces para todo evento A P [A] = n I P [A A n ]P [A n ].
1.2. EJERCICIOS 5 Teorema 1.6 Fórmula de Bayes. Sea A n, n I una partición finita o numerable de Ω, tal que P [A n ] > 0 para toda n I, entonces para todo evento A P [A k A] = P [A A k ]P [A k ], para toda k I. n I P [A A n ]P [A n ] 1.2 Ejercicios 1. Consideremos el experimento de lanzar dos monedas y un dado honestos. (a) Describir el espacio muestral Ω. (b) Expresar los eventos: A = { salen dos águilas y un número par } B = { sale un dos } C = { sale exactamente un sol y un número primo} (c) Expresar los siguientes eventos: A y B ocurren, sólo B ocurre, B o C ocurren. (d) Calcular P [A], P [B], P [C], P [A B], P [B C]. 2. Se lanzan cuatro dados honestos. (a) Describir el espacio muestral Ω. (b) Expresar los siguientes eventos A = { el mismo número sale en los cuatro dados }, B = { los números que aparecen en los dados son distintos}. (c) Calcular P [A] y P [B]. 3. Consideremos el lanzamiento de un dado no honesto, tal que los números pares tienen la misma probabilidad de salir, los números impares tienen la misma probabilidad de salir y cada número par tiene el doble de probabilidad de ocurrir que cada número impar. Calcular la probabilidad de los siguientes eventos:
6 CAPÍTULO 1. MODELO DE PROBABILIDAD (a) A = { sale par}. (b) B = { sale un número primo }. (c) C = { sale un número impar }. (d) D = { sale un número primo impar }. 4. Supongamos: P [A] = 0.6, P [A B] = 0.1, P [A C] = 0.1, P [A B C] = 0.05. (a) Calcular la probabilidad del evento E 2 = A (B C). (b) Si P [B] = 0.4 calcular la probabilidad de que ni A ni B ocurran. 5. En un partido clásico de futbol de América-Guadalajara las apuestas están de 4 contra 5 a favor del Guadalajara. Según la estimación de los apostadores, cuál es la probabilidad de que gane el Guadalajara?. 6. Sean A, B y C tres eventos que satisfacen: Calcular: P [A] = P [B] = P [C] = 1 3, P [A B] = P [B C] = P [A C] = 1 9, P [A B C] = 1 27. (a) La probabilidad de que ocurra exactamente uno de los tres eventos. (b) La probabilidad de que ocurra al menos uno de los tres eventos. 7. El Problema del Encuentro. Abelardo y Eloisa han hecho una cita para encontrarse en la Iglesia de Nuestra Señora de Paris entre las 12:00 a.m y la 1:00 p.m.. Puesto que ambos tienen otros compromisos y además no les gusta esperar han acordado que cada uno de ellos esperará sólo 20 minutos al otro, (es decir, si su compañero no llega en el transcurso de los 20 minutos se retira). Supongamos que los tiempos de llegada de cada uno de ellos son independientes y uniformes en el intervalo de una hora. Calcular la probabilidad de que se encuentren Abelardo y Eloisa.
1.2. EJERCICIOS 7 8. Una urna contiene N bolas numeradas del 1 al N. Se extraen n bolas sin reemplazo (1 n N). Se tiene además que las bolas numeradas del 1 al m son rojas (m < N) y las bolas numeradas del m + 1 al N son blancas. Sea A k el evento la k-ésima bola extraída es roja. (a) Cuál es el conjunto Ω de resultados posibles?. Calcular la cardinalidad de Ω. (b) Calcular P [A k ]. (c) Calcular P [A k A j ]. 9. Se colocan N personas al azar en una cola. Cuál es la probabilidad de que el número de personas que separan a Pedro y Juan sea igual a k (1 k N 2). 10. Se colocan N personas al azar en una mesa redonda. Cuál es la probabilidad de que el número de personas que separan a Pedro y Juan sea igual a k (1 k N 2). (se cuentan las personas en el sentido en el que hay menos). 11. (a) Un cartero reparte al azar n cartas en n buzones, una por buzón. Calcular la probabilidad p(n) de que al menos una carta vaya a su destinatario y calcular lim n p(n). (b) El cartero tiene p papeles publicitarios, elige uno de los buzones al azar y mete uno de los papeles. Continúa con este procedimiento p veces (tantas veces como papeles publicitarios tiene). (i) Cuál es el número de posibles reparticiones de los papeles publicitarios en los buzones?. (ii) Cuál es la probabilidad q k (n, p) de que un buzón contenga k papeles publicitarios?. 12. Se lanzan un dado rojo y uno negro, ambos equilibrados. Calcular las probabilidades siguientes: (a) Obtener un 3 con el dado rojo sabiendo que la suma de los puntos es 6. (b) Obtener un número par con el dado rojo sabiendo que la suma de los puntos es 6.
8 CAPÍTULO 1. MODELO DE PROBABILIDAD (c) Obtener un número par con el dado rojo sabiendo que la suma de los puntos es a lo más 6. (d) Obtener al menos un número par, sabiendo que la suma de los puntos es a lo más 10. 13. Supongamos que tenemos una urna I con 20 focos de los cuales 4 son defectuosos y 16 no son defectuosos y otra urna II que contiene un foco defectuoso y uno no defectuoso. Consideremos el siguiente experimento: Se lanza un dado honesto si la cara que cae es la 1 o la 2, se selecciona al azar un foco de la urna I, si no caen esas caras se elige al azar un foco de la urna II. Calcular la probabilidad de que el foco elegido sea defectuoso. 14. (a) De un ejemplo de un experimento y tres eventos tales que sean independientes por parejas pero no mutuamente independientes. (b) De un ejemplo de tres eventos tales que P [A B C] = P [A]P [B]P [C] y que no sean independientes. 15. Independencia condicional: Dos eventos A y B se dice que son condicionalmente independientes a un evento C si P [A B C] = P [A C]P [B C]. Un jugador juega dos veces a los volados (la probabilidad de obtener sol es igual a p, 0 < p < 1). Sean A, B, C los eventos definidos por: A= el jugador obtiene sol en el primer lanzamiento B= el jugador obtiene sol en el segundo lanzamiento C= el número de soles obtenidos en los dos lanzamientos es igual a 1 Demostrar que A y B son independientes pero que no son condicionalmente independientes al evento C. 16. Una moneda honesta es lanzada dos veces. Sea A el evento ocurre águila en el primer lanzamiento y B el evento las caras que caen son distintas. Los eventos A y B son independientes? 17. Demuestre las siguientes proposiciones en caso de ser verdaderas, si son falsas de un contraejemplo:
1.2. EJERCICIOS 9 (a) Si A B =, entonces A y B son independientes. (b) Si A y B son independientes entonces A B =. (b) Si A y B son independientes, entonces P [A B] = P [A] + P [B]. (e) Si P [A B] = P [B], entonces P [B A] = P [A] 18. Sean A, B y C eventos tales que A y B son independientes, B y C son ajenos y A y C son independientes. Si P [A B C] =.9, P [B] =.5 y P [C] =.3, calcular P [A]. 19. Supongamos que P [A B] =.4 y P [A] =.3 calcule la probabilidad de B en los siguientes casos: (a) Si A y B son independientes. (b) Si A y B son ajenos. 20. Sean A y B eventos tales que P [A] = P [B] = 1 2 y P [A B] = 2 3 (a) Los eventos A y B son ajenos? (b) Son independientes? (c) Calcular P [A c B] (d) Calcular P [A c B c ]. 21. Supongamos que los eventos A, B y C son independientes con P [A] = 1, P [B] = 1 y P [A B C] = 3. Calcular P [C]. 4 2 4 22. Si los eventos A y B son independientes, demostrar que: (a) A c y B son independientes. (b) A y B c son independientes. (c) A c y B c son independientes. 23. Demostrar que dos eventos A y B son independientes si y sólo si P [A B] = P [A B c ] 24. Supongamos que A y B son eventos independientes. Demostrar: P [A B] = P [B] + P [A]P [B c ] = P [A] + P [A c ]P [B].
10 CAPÍTULO 1. MODELO DE PROBABILIDAD 25. Demostrar: (a) Si P [A] = 1, entonces A es independiente de cualquier otro evento B. (b) Si P [A] = 0, entonces A es independiente de cualquier otro evento B. 26. Sean A 1,..., A n eventos independientes, demuestre que A 1 es independiente de n i=2a i. 27. Sean A 1,..., A n eventos independientes tales que P [ n i=1a i ] = 1. Demuestre que al menos uno de los eventos tiene probabilidad igual a uno. 28. Un guardia de prisión intenta al azar una por una de las n llaves que tiene para abrir una celda. Calcular la probabilidad de que lo logre en el k-ésimo ensayo. 29. Una urna contiene 4 bolas numeradas del 1 al 4. Se eligen dos bolas al azar sin reemplazo. Sea A el evento la suma de los números de las bolas extraídas es 5 y B i el evento la primera bola tiene el número i, i = 1,..., 4. Calcular P [A B i ], P [B i A], i = 1,..., 4.
Capítulo 2 Variables Aleatorias, Funciones de Densidad y de Distribución Definición 2.1 Sea (Ω, F, P ) un espacio de probabilidad. Una función X : Ω R es llamada una variable aleatoria discreta si (a) {ω Ω X(ω) = x} F, para toda x R. (b) Existe un conjunto a lo más numerable {x i, i I}, tal que P [{ω Ω X(ω) = x}] = { pi, {x i, i I}, (2.1) y p i = 1 i I A la función f : R [0, 1] definida por: f(x) = P [{ω Ω X(ω) = x], (2.2) se le llama función de densidad (o de masa) de la variable aleatoria X. Definición 2.2 Una función X : Ω R se dice que es una variable aleatoria si {ω Ω X(ω) x} F, para toda x R. 11
12 CAPÍTULO 2. FUNCIONES DE DENSIDAD Se puede demostrar fácilmente que una variable aleatoria discreta es una variable aleatoria. Denotaremos por: En particular, P [X A] = P [{ω Ω X(ω) A}]. P [X = x] = P [{ω Ω X(ω) = x}] P [X x] = P [{ω Ω X(ω) (, x]] Definición 2.3 Una variable aleatoria es llamada absolutamente continua si para cada x R existe una función f : R R + tal que, para toda x R {, } P [X x] = x f(x)dx. (2.3) A la función f se le llamará función de densidad de la variable aleatoria X. Definición 2.4 La función de distribución o función de distribución acumulativa F : R [0, 1] de una variable aleatoria X se define por: F (x) = P [X x], para toda x R. (2.4) Observaciones 2.1 1. Si X es una variable aleatoria discreta F (x) = P [X = x], (2.5) x i x 2. Si X es una variable aleatoria absolutamente continua: F (x) = x f(u)du. (2.6) 3. Si la función de distribución de una variable aleatoria absolutamente continua es diferenciable en x, entonces df dx = f(x). (2.7)
13 4. Si X es una variable aleatoria absolutamente continua se tiene que P [X = x] = 0, para toda x R, de donde, P [a < X < b] = P [a X < b] = P [a X < b] = P [a X b]. 5. Si X es una variable aleatoria discreta y A R: P [X A] = x a P [X = x]. 6. Si X es una variable aleatoria absolutamente continua y A R: P [X A] = A f(x)dx. para todo conjunto A para el cual esta integral tiene sentido. En particular, si A = R: P [X R] = f(x)dx = 1. Teorema 2.1 Propiedades de La función de distribución. Sea X una variable aleatoria con función de distribución F, entonces (a) Para todo x R, 0 F (x) 1. (b) Para todo x R F (x) es continua por la derecha con límites por la izquierda. (c) La función F es no decreciente. (d) lim x F (x) = 1 y lim x F (x) = 0. En todo lo que sigue definiremos las variables aleatorias discretas o absolutamente continuas más conocidas, el nombre que se les da se usa indistintamente para la variable aleatoria, la función de densidad o la función de distribución.
14 CAPÍTULO 2. FUNCIONES DE DENSIDAD 2.1 Algunas Densidades (Distribuciones) Discretas. 1. La densidad Bernoulli con parámetro p (esta variable aleatoria corresponde a un experimento Bernoulli, es decir, un experimento con dos posibles resultados que en general se les llama éxito y fracaso, la variable X asocia el valor 0 al éxito y el 1 al fracaso): P [X = x] = { p x (1 p) 1 x, si x = 0, 1, (2.8) 2. La densidad Binomial con parámetros n (número de ensayos independientes Bernoulli) y p (probabilidad de éxito en cada ensayo). Esta variable aleatoria representa el número de éxitos en los n ensayos: ( ) n p P [X = x] = x x (1 p) n x, si x = 0, 1,..., n, (2.9) 3. La densidad Uniforme en el conjunto {i 1,..., i N } R (esta densidad se asocia al experimento de elegir un punto al azar en el conjunto {i 1,..., i N }: P [X = x] = { 1, N si x = I 1,..., i N, (2.10) 4. La densidad Geométrica con parámetro p (probabilidad de éxito en un ensayo Bernoulli). Esta variable aleatoria representa el número de ensayos bernoulli independientes antes del primer éxito: P [X = x] = { p(1 p) x, si x = 0, 1, 2,..., (2.11) 5. La densidad Poisson con parámetro λ > 0. Esta variable aleatoria representa el número de eventos raros que ocurren en una unidad de tiempo: P [X = x] = { e λ λ x x!, si x = 0, 1, 2,..., o, en otro caso. (2.12)
2.2. ALGUNAS DISTRIBUCIONES CONTINUAS 15 6. La densidad Binomial Negativa también llamada distribución Pascal, con parámetros p (probabilidad de éxito en un ensayo Bernoulli) y r. Esta variable aleatoria representa el número de fracasos antes del r-ésimo éxito, al considerar una sucesión de ensayos Bernoulli independientes: ( ) r + x + 1 p P [X = x] = r 1 r (1 p) x, si x = 0, 1,..., (2.13) 7. La densidad Hipergeométrica con parámetros N (número total de elementos) K (número de elementos defectuosos), n (tamaño de una muestra sin reemplazo). Esta variable aleatoria denota el número de elementos defectuosos en una muestra de tamaño n de una población de tamaño N: ( )( ) k N k n N x ( ), si x = 0, 1,..., min{k, n}, P [X = x] = N (2.14) n 2.2 Algunas Distribuciones Continuas 1. La distribución Uniforme o Rectangular sobre (a, b), a, b R, denotada U(a, b). Esta variable aleatoria está asociada con el experimento de elegir un punto al azar en el intervalo (a, b) y tiene función de densidad: f(x) = { 1, b a si x (a, b), (2.15) 2. La distribución Exponencial con parámetro θ > 0, denotada por exp(θ). esta variable aleatoria representa el tiempo de espera hasta la ocurrencia de algún evento, es la versión continua de una variable aleatoria Geométrica. La función de densidad está dada por: f(x) = { θe θx, si x > 0, (2.16)
16 CAPÍTULO 2. FUNCIONES DE DENSIDAD 3. La distribución Normal o Gaussiana con parámetros µ (la media) y σ 2 (la varianza), denotada por N(µ, σ 2 ) con función de densidad: f(x) = 1 σ (x µ) 2 2π e 2σ 2, < x <. (2.17) 4. La distribución Gamma con parámetros θ > 0 (parámetro de escala) y α > 0 (parámetro de forma) denotada Γ(α, θ). Si α es un entero, representa el tiempo de espera hasta la ocurrencia α-ésimo exito. Es la versión continua de una variable aleatoria Binomial Negativa y tiene como función de densidad { θ α Γ(α) γ(x) = e θx x α 1, si x > 0, (2.18) Donde, Γ(α) = por integración por partes se tiene: Para n N, 0 x α 1 e x dx. Γ(α + 1) = αγ(α). donde Γ(n + 1) = n! Γ(n + 1 1 3 5 (2n 1) ) = Γ( 1 2 2 n 2 ), Γ( 1 2 ) = π. Cuando θ = 1/2 y 2α = ν = entero, la distribución Gamma se conoce como como distribución ji-cuandrada con ν grados de libertad y se denota por χ 2 ν. Si α = 1, la distribución Gamma es simplemente la distribución exp(θ). 5. La distribución Beta con parámetros a > 0 y b > 0, denotada por: Beta(a, b), con función de densidad: β(x) = { Γ(a+b) Γ(a)Γ(b) xa 1 (1 x) b 1, si 0 < x < 1, (2.19)
2.3. EJERCICIOS DEL CAPÍTULO 2 17 Como se sabe Γ(a + b) Γ(a)Γ(b) = B(a, b), donde B(a, b) es la función beta definida por: B(a, b) = 1 0 x a 1 (1 x) b 1 dx, a > 0, b > 0. Si a = b = 1, la distribución Beta es una distribución U(0, 1). 6. La distribución Cauchy con función de densidad: f(x) = 1 π 2.3 Ejercicios del Capítulo 2 1, 0 < x <. (2.20) 1 + x2 1. Sea X una variable aleatoria con función de densidad f X dada por: 1, si x = 0, 2 1, si x = 1, 4 1 f X (x) =, si x = 2, 8 1, si x = 3, 8 Calcular y graficar la función de distribución F X de la variable aleatoria X. 2. Sea X una variable aleatoria con función de distribución F X dada por: Calcular F X (x) = (a) P [X = i], i = 1, 2, 3. (b) P [ 1 2 < X < 3 2 ]. 0, si x < 0, x, si 0 < x < 1, 4 1 + x 1, si 1 x < 2, 2 4 11, si 2 x < 3, 12 1, si x 3.
18 CAPÍTULO 2. FUNCIONES DE DENSIDAD 3. Supongamos que X es una variable aleatoria Binomial Negativa con parámetros p y r. Calcular la densidad de X + r. 4. Sea N un entero positivo y { c2 f(x) = x, si x = 1, 2,..., N, En cuentre el valor de c tal que f es una función de densidad. 5. Sea N N y g : R R definida por: { x, si x = 1, 2,..., N, g(x) = Encontrar c tal que la función f(x) = cg(x) es una función de densidad y calcular la función de distribución correspondiente. 6. Sea g : R R definida por: p x, si x = 0, 1,..., N 1, g(x) = j=n p j, 0, en otro caso, donde 0 < p < 1. Encontrar c R tal que f(x) = cg(x) es una función de densidad y calcular la función de distribución asociada. a f. 7. Sea X una variable aleatoria con función de densidad dada por: f(x) = 0.1, si x = 3, 0.2, si x = 1, 0.15, si x = 0, 0.2, si x = 1, 0.1, si x = 2, 0.15, si x = 3, 0.05, si x = 5, 0.05, si x = 8, Calcular las siguientes probabilidades: (a) P [X < 0].
2.3. EJERCICIOS DEL CAPÍTULO 2 19 (b) P [X es par ]. (c) P [1 X 8]. (d) P [X = 3 X 0]. (e) P [X 3 X > 0]. 8. Sea X una variable aleatoria geométrica con parámetro p y Y la variable aleatoria definida por: { X, si X < M, Y = M, si X M, donde M es una constante positiva, es decir Y = min(x, M). Calcular la densidad de Y y compararla con la del ejercicio anterior. 9. Sea X una variable aleatoria N(0, σ 2 ) y Y = min(x, M), donde M R es una constante: (a) Calcular la función de distribución de Y. (b) Calcular P [Y = y], y R. (c) La variable aleatoria Y es continua o discreta?. 10. Sea X una variable aleatoria Γ(0, σ 2 ) y Y la variable aleatoria Y = max(x, M), donde M R es una constante, es decir, { X, si X > M, Y = M, si X M. (a) Calcular la función de distribución de Y. (b) Calcular P [Y = y], y R. (b) La variable aleatoria Y es continua o discreta? Considerar dos casos: M > 0 y M 0. 11. Consideremos el experimento de elegir un punto al azar en el intervalo ( 10, 10). Sea X la variable aleatoria: ω, si ω [ 5, 5], X(ω) = 5, si ω ( 10, 5), 5, si ω (5, 10).
20 CAPÍTULO 2. FUNCIONES DE DENSIDAD (a) Calcular la función de distribución de X. (b) Calcular P [X = x], x R. (c) La variable aleatoria X es discreta o continua?. 12. Si Y es una variable aleatoria U(0, 1). Demostrar que para a > 0, b 0 tales que a + b 1 la P [a Y a + b] depende únicamente del valor de b. 13. Si un paracaidista cae en un punto al azar sobre una línea entre las señales A y B, calcular: (a) La probabilidad de caiga más cerca de A que de B. (b) La probabilidad de que su distancia a A sea más de tres veces su distancia de B. 14. Sea Y una variable aleatoria Geométrica con parámetro p. (a) Demostrar que para todo entero positivo a P [Y > a] = (1 p) a. (b) Demostrar que para a y b enteros positivos, P [Y > a + b Y > a] = (1 p) b = P [Y > b] (c) De un argumento intuitivo de la igualdad anterior usando la interpretación de una variable aleatoria geométrica. 15. Sea Y una variable aleatoria discreta con valores en los enteros positivos que satisface: P [Y > a + b Y > a] = (1 p) b = P [Y > b], para todo a, b N Demostrar que Y es una variable aleatoria geométrica. 16. Sea Y una variable aleatoria exp(θ). Demostrar que para todo a, b R + P [Y > a + b Y > a] = P [Y > b]. Obsérvese que esta propiedad es análoga a la que satisface la densidad geométrica, para a, b enteros positivos. (Ver Ejercicio 14).
2.3. EJERCICIOS DEL CAPÍTULO 2 21 17. Sea Y una variable aleatoria positiva que satisface: P [Y > a + b Y > a] = P [Y > b] para todo a, b R +. Demostrar que Y es una variable aleatoria exponencial. Esta propiedad es análoga a la que satisface la densidad geométrica, (ver Ejercicio 15). 18. Se tiene una urna con n fichas numeradas. Se extrae una ficha al azar y se vuelve a depositar en la urna. Se repite este proceso hasta obtener por primera vez una ficha que se haya obtenido antes. Sea X la variable aleatoria que denota el número de extracciones, es decir el número de extracciones necesarias hasta obtener una ficha repetida. Calcular la distribución de X. OJO REVISAR ESTE ENUNCIADO, COMPARARLO CON EL QUE ESTABA. 19. Sea X una variable aleatoria Poisson con parámetro λ > 0. Cuál es el valor de k que maximiza la P [X = k], k 0. Sugerencia: Considerar: P [X=i] P [X=i 1]. 20. Supongamos que se realizan n lanzamientos independientes de una moneda con probabilidad p de obtener sol. Demostrar que la probabilidad de obtener un número par de soles en los n lanzamientos es: donde q = 1 p. Sugerencia: Probar la identidad: [ n 2 ] i=0 ( n 2i ) 1 2 [1 + (q p)n ], p 2i q n 2i = 1 2 [(p + q)n + (q p) n ], donde [ n 2 ] es el máximo entero menor o igual que n 2. 21. Aproximación de la Binomial a la Poisson. Para cada n, n = 1, 2,... sea X n una variable aleatoria Binomial con parámetro n y p n tales que np n = λ. Demostrar que para cada k, k = 1, 2,..., lim n P [X n = k] = e λ λk k!.
22 CAPÍTULO 2. FUNCIONES DE DENSIDAD El mismo resultado es válido si sólo se tiene lim n np n = λ. Obsérvese que este resultado nos dice que si X es una variable aleatoria Binomial con parámetros n y p su función de densidad es muy próxima al densidad Poisson con parámetro np. 22. Sea X una variable aleatoria Poisson con parámetro λ > 0. Demuestrar: P [X es par ] = 1 2 [1 + e 2λ ], usando: (a) Usando el resultado del Ejercicio 20 y la Aproximación de la Binomial a la Poisson (Ejercicio 21). (b) Verificando directamente la igualdad usando la expansión en serie de e λ + e λ. 23. Supongamos que se tiene una urna con fichas numeradas del 1 al N, de la cual se extrae una muestra sin reemplazo de tamaño n, n N. Sea Y la variable aleatoria que denota el número más grande seleccionado. Encontrar la función de densidad de Y. Sugerencia: Usar ( ) ( ) r i + k 1 r + k i=0 = para r y k enteros k 1 k positivos. 24. Demostrar la siguiente igualdad: n i=0 λ λi e i! = 1 e x x n dx. n! λ
Capítulo 3 Momentos de Variables Aleatorias 3.1 Definiciones y Resultados Básicos. En todo lo que sigue consideraremos (Ω, F, P ) un espacio de probabilidad fijo, las variables aleatorias en consideración estarán definidas en este espacio. Definición 3.1 Sea X una variable aleatoria. La media o esperanza de X, denotada E[X], está definida por: 1. E[X] = j x j P [X = x j ], si X es una variable aleatoria discreta y se satisface x j f X (x j ) <, (3.1) j J donde el conjunto {x j, j J} es el rango de la variable aleatoria X. 2. E[X] = xf X (x)dx, Si X es una variable aleatoria continua y se satisface x f X (x)dx <. (3.2) 23
24 CAPÍTULO 3. MOMENTOS DE VARIABLES ALEATORIAS Si las espresiones (3.1) o (3.2) se cumplen se dice que la variable aleatoria X tiene esperanza finita. El siguiente Teorema conocido como el Teorema del Estadístico Inconciente nos da una definición equivalente para la existencia y el valor de la esperanza de una función de una variable aleatoria. Teorema 3.1 Sea X una variable aleatoria y g : R R una función tal que Y = g(x) es una variable aleatoria. Entonces Y tiene esperanza finita si sólo si g(x j ) f X (x j ) <, (3.3) j J si X es una variable aleatoria discreta. g(x) f X (x)dx <. (3.4) si X es una variable aleatoria continua. Si las condiciones (3.3) o (3.4) se satisfacen, entonces 1. E[g(X)] = j J g(x j )f X (x j ), (3.5) si X es una variable aleatoria discreta. 2. E[g(X)] = si X es una variable aleatoria continua. g(x)f X (x)dx, (3.6) Teorema 3.2 Propiedades de la Esperanza. Sea X una variable aleatoria y g 1, g 2 : R R funciones tales que g 1 (X) y g 2 (X) son variables aleatorias con esperanza finita, entonces: 1. Para toda constante c R 2. Para todo c 1, c 2 R, E[c] = c. E[c 1 g 1 (X) + c 2 g 2 (X)] = c 1 E[g 1 (X)] + c 2 E[g 2 (X)].
3.1. DEFINICIONES Y RESULTADOS BÁSICOS. 25 3. Si para toda x R, g 1 (x) g 2 (x), entonces E[g 1 (X)] E[g 2 (X)]. Definición 3.2 Sea X una variable aleatoria tal que X n tiene esperanza finita. Se define el momento de orden n de X como la E[X n ]. Teorema 3.3 Sea X una variable aleatoria con momento de orden n finito, entonces 1. E[X r ] existe para todo r n 2. E[(X a) r ] existe para todo r n y para todo a R. Si a = E[X], entonces E[(X E[X]) r ] se conoce como el momento central de orden r. En particular si r = 2, E[(X E[X]) 2 ] es llamada la varianza de X, se denota V ar[x] y V ar[x] = E[(X E[X]) 2 ] = E[X 2 ] (E[X]) 2. (3.7) Definición 3.3 Cuantil. Sea q [0, 1]. El q-ésimo cuantil de una variable aleatoria X o de su función de distribución F X, denotado por ψ q está definido como: min{ψ R F X (ψ) q}. En particular ψ.5 es llamado la mediana y se denota por med(x) o med X Obsérvese que si X es una variable continua: med(x) f(x)dx = 1 2 = med(x) f(x)dx. Definición 3.4 Momentos Factoriales. Sea X una variable aleatoria y r N. El r-ésimo momento factorial de X está definido por: si esta esperanza es finita. E[X(X 1) (X r + 1)], Teorema 3.4 Sea X una variable aleatoria y g : R R + una función, tal que g(x) es una variable aleatoria con esperanza finita, entonces, para todo ε > 0, P [ X ε] E[g(X)] (3.8) g(ε)
26 CAPÍTULO 3. MOMENTOS DE VARIABLES ALEATORIAS Corolario 3.1 Desigualdad de Markov. Supongamos que para alguna n > 0, X tiene momento de orden n finito, entonces para todo ε > 0, En particular, si n = 2 se tiene P [ X ε] E[ Xn ] ε n. (3.9) P [ X ε] E[X2 ] ε 2. (3.10) esta última desigualdad es conocida como la Desigualdad de Chebyshev. Teorema 3.5 Desigualdad de Jensen. Sea X una variable aleatoria con esperanza finita y g : R R una función convexa. Entonces E[g(X)] g(e[x]) (3.11) 3.2 Ejercicios de Momentos de Variables Aleatorias 1. Calcular la esperanza y la varianza de las siguientes variables aleatorias: (a) X variable aleatoria Bernoulli con parámetro p. (b) X variable aleatoria Binomial con parámetros n y p. (c) X variable aleatoria Poison con parámetro λ > 0. (d) X variable aleatoria Hipergeómetrica con parámetros N, K y n. Sugerencia: Calcular La E[X], y la E[X(X 1)], ésta última con el Teorema del Estadístico Inconciente. (e) X una variable aleatoria Uniforme sobre el conjunto {1, 2,..., N}. 2. Dar un ejemplo de una variable aleatoria discreta que no tiene esperanza finita. 3. Calcular la esperanza, la E[X 2 ] y la varianza de las siguientes variables aleatorias: (a) X variable aleatoria Uniforme en el intervalo (a, b).
3.2. EJERCICIOS DE MOMENTOS DE VARIABLES ALEATORIAS 27 (b) X variable aleatoria Gamma con parámetros α > 0 y λ > 0. 4. Sea X una variable aleatoria Normal con parámetros µ = 0 y σ 2. (a) Calcular la E[X]. (b) Calcular la E[X 2 ] usando el teorema del Estadístico Inconciente. (c) Calcular la E[X 2 ] directamente de la definición de esperanza, es decir utilizando la densidad de X 2. Sugerencia: Usar el cálculo del inciso (b) del Ejercicio anterior. (d) Calcular la varianza de X. 5. Sea X una variable aleatoria continua con función de densidad: { 1 x, si x [0, 2], f X (x) = Calcular la esperanza y la varianza de X. 6. Dar un ejemplo de una variable aleatoria continua que no tiene esperanza finita. 7. Sea X una variable aleatoria con esperanza µ y varianza σ 2. Demostrar que la función g(z) = E[(X z) 2 ], se minimiza cuando z = µ. 8. Sea X una variable aleatoria continua con mediana m, demostrar que la función g(z) = E[ X z ], se minimiza en z = m. 9. Sean a 1, a 2 R tales que P [a 1 X a 2 ] = 1. Demostrar: (a) X tiene momentos de todos los órdenes. (b) a 1 E[X] a 2. (c) V ar[x] (a 2 a 1 ) 2 4.
28 CAPÍTULO 3. MOMENTOS DE VARIABLES ALEATORIAS 10. Sea X una variable aleatoria discreta con valores en los N {0}. Demostrar que X tiene esperanza finita si y sólo si En este caso P [X k] <. k=0 E[X] = P [X k]. k=0 11. Sea X una variable aleatoria Geométrica con parámetro p. (a) Calcular la E[X] directamente de la definición de esperanza. (b) Calcular la E[X] usando el resultado del Ejercicio anterior. 12. Sea X una variable aleatoria positiva con función de distribución F X. Demostrar que X tiene esperanza finita si y sólo si (1 F X (x))dx <. En este caso, 0 E[X] = 0 (1 F X (x))dx. Compare este resultado con el del Ejercicio 13. 13. Sea X una variable aleatoria Exponencial con parámetro λ > 0. (a) Calcular la E[X] directamente de la definción de esperanza. (b) Calcular la E[X] usando el resultado del Ejercicio anterior. 14. Sea X una variable aleatoria con función de distribución F X. Demostrar que X tiene esperanza finita si y sólo si las dos integrales siguientes son finitas: (1 F X (x))dx, En este caso se tiene E[X] = 0 0 0 F (x)dx. (1 F X (x))dx 0 F (x)dx.
3.2. EJERCICIOS DE MOMENTOS DE VARIABLES ALEATORIAS 29 15. Demostrar que una variable aleatoria X tiene momento de orden n finito si y sólo si x n 1 P [ X x]dx <. En este caso 0 E[ X n ] = n x n 1 P [ X x]dx. 0 16. Sea X una variable aleatoria Exponencial con parámetro λ > 0. (a) Calcular la E[X 2 ] usando el teorema del Estadístico Inconciente. (b) Calcular la E[X 2 ] usando el resultado del Ejercicio anterior. (c) Calcular la V ar[x]. 17. Sea X una variable aleatoria tal que E[X] = 3 y E[X 2 ] = 13, usar la desigualdad de Chebyshev para determinar una cota inferior para P [ 2 < X < 8]. 18. Sea X una variable aleatoria discreta con función de densidad: 1, si x = 1, 8 6, si x = 0, f X (x) = 8 1, si x = 1, 8 Calcular P [ X E[X] 2V ar[x]]. Observar que este ejemplo ilustra que en general, la Desigualdad de Chebyshev no puede mejorarse. 19. Sea X una variable aleatoria con E[X] = µ y tal que P [X 0] = 0. Demostrar que P [X > 2µ] 1 2. 20. Demostrar que para toda variable aleatoria X con segundo momento finito (a) E[X 2 ] (E[X]) 2, usando la definición de varianza. (b) E[X 2 ] (E[X]) 2, usando la desigualdad de Jensen.