Cálculo de probabilidad Tema 3: Variables aleatorias continuas
Guión
Guión
3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice que una variable aleatoria X : Ω R es continua si existe una función integrable y no negativa f : R R tal que para cada intervalo A R se tiene P(X A) = f (x) dx. Se dice que f es la función de densidad de probabilidad de X. Está claro que f (x) 0 para todo x R y que A f (x) dx = 1.
3.1. La función de densidad de probabilidad Si X es una variable aleatoria continua con función de densidad de probabilidad f entonces la función de distribución de X viene dada por la expresión F (x) = P(X x) = x f (t) dt. Se sigue del teorema fundamental del cálculo que si f es continua en x R entonces F es derivable en x y además F (x) = f (x). Ejemplo 3.2 Sea X una variable aleatoria continua cuya función de densidad de probabilidad viene dada por la expresión { c(4x 2x f (x) = 2 ), si 0 < x < 2, 0, en otro caso.
3.1. La función de densidad de probabilidad Calcular el valor de c > 0. Calcular la probabilidad P(X > 1). Tenemos 1 = luego c = 3/8, + f (x) dx = c 2 0 (4x 2x 2 ) dx = 8c 3, Además, P(X > 1) = + 1 f (x) dx = 3 8 2 1 (4x 2x 2 ) dx = 1 2.
Guión
3.2. Esperanza y varianza Definición 3.3 Sea f la función de densidad de probabilidad de una variable aleatoria X. Se define la esperanza matemática de X mediante µ = E(X) = + xf (x) dx. Se define la varianza de X como Var (X) = E[(X µ) 2 ]. Es fácil comprobar que, al igual que para una variable aleatoria discreta, la varianza se puede calcular de acuerdo con la fórmula Var (X) = E(X 2 ) E(X) 2.
3.2. Esperanza y varianza Proposición 3.4 Sei f la función de densidad de probabilidad de una variable aleatoria continua X. 1. Si X es no negativa entonces E(X) = 2. Si g es una función real de variable real entonces E[g(X)] = 0 g(x)f (x) dx. P(X > x) dx. La primera afirmación se sigue del teorema de Fubini. En efecto, 0 P(X > x) dx = = 0 x y 0 0 f (y) dy dx f (y) dx dy = 0 yf (y) dy = E(X).
3.2. Esperanza y varianza Proposición 3.5 Sea X una variable aleatoria continua con esperanza µ = E(X) y sean a, b R. Tenemos 1. Var (ax + b) = a 2 Var (X), 2. La expresión E[(X a) 2 ] se minimiza cuando a = µ.
Guión
3.3. Distribuciones uniforme, normal y exponencial Definición 3.6 Sean a, b R with a < b. Se dice que una variable aleatoria X está uniformemente distribuida en el intervalo [a, b] y se simboliza X U(a, b) si su función de densidad de probabilidad viene dada por la expresión { 1, si a x b, f (x) = b a 0, en otro caso. Es fácil comprobar que E(X) = a + b, 2 E(X 2 ) = a2 + ab + b 2, 3 (b a)2 Var (X) =. 12
3.3. Distribuciones uniforme, normal y exponencial Definición 3.7 Se dice que una variable aleatoria X obedece a una distribución exponencial de parámetro λ > 0 y se simboliza X Exp(λ) si su función de densidad de probabilidad viene dada por la expresión { λe f (x) = λx, si x 0, 0, si x < 0. Surge en problemas relacionados con tiempos de espera, y tiene una curiosa propiedad conocida como falta de memoria, que se expresa del siguiente modo. Proposición 3.8 Si X Exp(λ) entonces P(X > x + t X > t) = P(X > x) para todo x, t 0.
3.3. Distribuciones uniforme, normal y exponencial Demostración La función de distribución de X viene dada por F (x) = 0 si x < 0 y Tenemos F (x) = = x x 0 f (t) dt λe λt dt = 1 e λx si x 0. P(X > x + t, X > t) P(X > x + t X > t) = P(X > t) P(X > x + t) 1 F (x + t) = = P(X > t) 1 F (t) = e λ(x+t) e λt = e λx = 1 F (x) = P(X > x).
3.3. Distribuciones uniforme, normal y exponencial Es fácil probar que si X Exp(λ) entonces E(X) = 1 λ, E(X 2 ) = 2 λ 2, Var (X) = 1 λ 2.
3.3. Distribuciones uniforme, normal y exponencial Definición 3.9 Sea µ R y sea σ > 0. Se dice que una variable aleatoria X obedece una distribución normal de parámetros (µ, σ) y se simboliza X N(µ, σ) si la función de densidad de probabilidad de X viene dada por la expresión f (x) = 1 [ ] σ 2π exp (x µ)2 2σ 2. Se puede probar que si X N(µ, σ) entonces E(X) = µ, E(X 2 ) = µ 2 + σ 2, Var (X) = σ 2.
3.3. Distribuciones uniforme, normal y exponencial Proposición 3.10 Si X N(µ, σ) y si a, b R entonces X obedece una distribución normal de media aµ + b y varianza a 2 σ 2. En particular, se tiene X µ σ N(0, 1).
Guión
3.4. Teorema de De Moivre - Laplace Hay muchos problemas que requieren un cálculo con la distribución binomial y resulta adecuado aproximar la distribución binomial mediante una distribución continua. Utilizando la fórmula de Stirling n! ( n ) n 2πn, e se puede demostrar que si f es la función de probabilidad de una variable aleatoria X B(n, p), y si n y np son suficientemente grandes entonces f (x) [ 1 exp 2πnpq ( (x np) 2 2npq )], es decir, que la función de probabilidad de X puede ser aproximada por la función de densidad de una variable aleatoria normal de esperanza np y de varianza npq.
3.4. Teorema de De Moivre - Laplace Ejemplo 3.11 Se lanza una moneda fiel 40 veces. Sea X la variable aleatoria que representa el número de caras obtenido. Calcular la probabilidad de que X = 20. Aproximar por la distribución normal y comparar el valor aproximado con el valor exacto. Como X B(40, 0 5), el resultado exacto viene dado por ( 40) P(X = 20) = (0 5) 40 0 1254. 20 El valor aproximado se obtiene suponiendo que X N(20, 10). Sea Z = (X 20)/ 10 N(0, 1). Tenemos P(X = 20) = P(19 5 < X < 20 5) ( 19 5 20 = P < X 20 ) < 20 5 20 10 10 10 P( 0 16 < Z < 0 16) 0 1272.
Guión
3.5. Distribución de una función de una variable aleatoria Sea X una variable aleatoria continua con función de densidad de probabilidad f, y sea Y = g(x) para cierta función g : R R. El objetivo de esta sección es calcular la función de densidad de probabilidad de Y. Ejemplo 3.13 1 o. Sea X U(0, 1) y sea n N. Calcular la función de densidad de probabilidad de la variable aleatoria Y = X n. Sea F X la función de distribución acumulada de X, sea f X la función de densidad de probabilidad de X, sea F Y la función de distribución acumulada de Y, sea f Y la función de densidad de probabilidad de Y, y sea 0 y 1. Tenemos F Y (y) = P(Y y) = P(X n y) = P(X y 1/n ) = F X (y 1/n ) = y 1/n.
3.5. Distribución de una función de una variable aleatoria Ahora se tiene para todo 0 y 1 f Y (y) = F Y (y) = 1 n y 1/n 1, y está claro que f Y (y) = 0 en otro caso. 2 o. Sea X una variable aleatoria continua con función de densidad de probabilidad f X y función de distribución acumulada F X, y sea Y = X. Calcular la función de densidad de probabilidad de Y. Sea F Y la función de distribución acumulada de Y. Tenemos F Y (y) = P(Y y) = P( X y) = P( y X y) = P(X y) P(X < y) F X (y) F X ( y),
3.5. Distribución de una función de una variable aleatoria de donde se deduce que si g es la función de densidad de probabilidad de Y entonces para y 0, y por lo tanto f Y (y) = F X (y) = F X (y) + F X ( y) = f X (y) + f X ( y). Teorema 3.14 Sea X una variable aleatoria continua con función de densidad de probabilidad f X, sea g : R R una función estrictamente creciente y derivable. Si Y = g(x), entonces la función de densidad de probabilidad de Y viene dada por la expresión { fx (g f Y (y) = 1 (y))(g 1 ) (y), si y = g(x) para algún x, 0, si y g(x) para todo x.
3.5. Distribución de una función de una variable aleatoria Demostración Tenemos P(a < Y b) = P(g 1 (a) < X g 1 (b)) = g 1 (b) g 1 (a) f X (x) dx. Practicando el cambio de variable x = g 1 (y) resulta P(a < Y b) = b a de donde se deduce el resultado. f X (g 1 (y)) (g 1 ) (y) dy.
3.5. Distribución de una función de una variable aleatoria Ejemplo 3.15 Sea X una variable aleatoria continua y no negativa, y sea f X la función de densidad de probabilidad de X. Calcular la función de densidad de probabilidad f Y de la variable aleatoria Y = X n. Si g(x) = x n entonces g 1 (y) = y 1/n, luego (g 1 ) (y) = 1 n y 1/n 1 y de acuerdo con el resultado anterior, f Y (y) = 1 n y 1/n 1 f (y 1/n ).