Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Curso 2016-2017
Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable Aleatoria 5 Teoremas Asintóticos
Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable Aleatoria 5 Teoremas Asintóticos
Función de una Variable Aleatoria Definición Motivación: Sistema cuya entrada es una v.a. X Salida v.a. Y Que podemos decir sobre la salida? Podemos calcular F Y (y), f Y (y)? Nos debemos conformar con estadísticos (media, varianza,...)? Definición: Consideremos un espacio probabilístico < Ω, F, P > y una v.a. X ligados a ε. Entonces, dada g(x) una función de R en R, la expresión Y = g(x) es una nueva v.a. definida como: Y : Ω R ω Ω g [X(ω)] R Ω ω 1 Y ω 2 X g(x) x 1 x 2 R y 2 y 1 R Ω X Ω Y
Cálculo de la Función Distribución Función Distribución de una función de Variable Aleatoria Caracterización de una función de v.a.: Trataremos de caracterizar la v.a Y a partir del conocimiento estadístico de la v.a. X y de la función de transformación y = g(x). X F X(x) f X(x) η X σ X g( ) Y F Y(y) f Y(y) η Y σ Y? Cálculo de la Función Distribución: F Y (y) a partir de F X(x) y g(x). F Y (y) = P (Y y) = P (X B X) B X = {x R g(x) y} }{{} Necesitamos obtener estas regiones g(x) x 1 x 2 x 3 x 4 R y R
Cálculo de la Función Distribución Cálculo de la Función Distribución 1 X continua, g(x) monótona creciente (continua en Ω X) x 2 > x 1 g(x 2) > g(x 1) F Y (y) = P (Y y) = P (X B X) = P (X g 1 (y)) = F X(g 1 (y)) Ejemplo: y = g(x) = ax + b, con a > 0 x = g 1 (y) = y b a F Y (y) = F X ( y b a ) Supongamos X v.a. exponencial con c > 0 { { 1 e cx x 0 F X (x) = F 0 x < 0 Y (y) = y b c 1 e a y b 0 y < b 2 X continua, g(x) monótona decreciente (continua en Ω X) x 2 > x 1 g(x 2) < g(x 1) F Y (y) = P (Y y) = P (X B X) = P (X g 1 (y)) = 1 F X(g 1 (y))
Cálculo de la Función Distribución Cálculo de la Función Distribución 3 X continua, g(x) no monótona, no constante en ningún intervalo La región B X viene dada por la unión de intervalos del tipo B X = [, x 1] [x 2, x 3]... donde x i son las raíces de y = g(x). Ejemplo: y = g(x) = x 2 F Y (y) = F X(x 1) + F X(x 3) F X(x 2) +... Obtenemos las raíces: y < 0 y = x 2 no tiene solución y 0 y = x 2 x 1, x 2 = ± y Supongamos X v.a. uniforme en [ 1/2, 1/2] 0 x 1 2 0 y 0 F X(x) = x + 1 1 < x 1 F 2 2 2 Y (y) = 2 y 0 y 1 1 x > 1 4 1 y > 1 2 4
Cálculo de la Función Distribución Cálculo de la Función Distribución 4 X continua, g(x) constante en algún intervalo de Ω X Y mixta Ejemplo: Saturador Saturador b y=g(x) 0 b b 0 b x B X = (, y] (, ) y < b b y < b b y F Y (y) = 0 y < b F X (y) b y < b F X ( ) = 1 b y
Cálculo de la Función Distribución Cálculo de la Función Distribución 4 X continua, g(x) constante en algún intervalo de Ω X Y mixta Ejemplo: Saturador. Supongamos X N (0, b) Ω X = R = (, ) Ω Y = [ b, b] F X (x) F Y (y) 1 1 0.75 0.75 0.5 0.5 0.25 0.25 0 2b b 0 b 2b x 0 2b b 0 b 2b y
Cálculo de la Función Distribución Cálculo de la Función Distribución 5 X continua, g(x) escalonada Y discreta Ejemplo: Función escalón (cuantificador) { 1 x 0 g(x) = u(x) = 0 resto Supongamos X N (0, σ) Rango de entrada Ω X = (, ) Rango de salida Ω Y = {0, 1} Y v.a. Bernoulli P (Y = 0) = P (X < 0) = F X (0) = G(0) = 1 2 P (Y = 1) = P (X 0) = 1 F X (0) = 1 2
Cálculo de la Función Distribución Cálculo de la Función Distribución 6 X discreta Y discreta Ω X = {x 1, x 2,..., x n} Ω Y = {y 1, y 2,..., y k } P (Y = y k ) = i P (X = x i) con g(x i) = y k Ejemplo: y = g(x) = x 2 Supongamos Ω X = { 2, 1, 0, 1, 2} P (X = k) = 1 5 k = 2,..., 2 Entonces: Ω Y = {0, 1, 4} P (Y = 0) = P (X = 0) = 1 5 P (Y = 1) = P (X = 1) + P (X = 1) = 2 5 P (Y = 4) = P (X = 2) + P (X = 2) = 2 5
Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable Aleatoria 5 Teoremas Asintóticos
Cálculo de la fdp Teorema Fundamental Teorema: Sea X una v.a. continua y g(x) una función no constante en ningún intervalo de Ω X. Entonces la fdp de la variable aleatoria Y = g(x) viene dada por f Y (y) = g (x) es la derivada de g(x) x i son las raíces de y = g(x) n i=1 f X(x i) g (x i) g(x 1) = g(x 2) =... = g(x n) = y Si no existen raíces de y = g(x) entonces f Y (y) = 0 Generalización: Si g(x) es constante, de valor y 0, en alguna región C Ω X entonces P (Y = y 0) = f X(x)dx 0 Función δ(y y 0) en f Y (y) C
Cálculo de la fdp Teorema Fundamental. Ejemplos 1 y 2 X v.a. exponencial y g(x) = ax + b con a 0 Obtención de las raíces: x 1 = (y b)/a (solución única) Derivada: g (x) = a f Y (y) = fx(x1) g (x = fx( y b ) { y b c a e c a x = a 1 0 1) a 0 x 1 < 0 Para a > 0: Para a < 0: f Y (y) = f Y (y) = { { y b c e c a a y b 0 y < b c y b e c a a y b 0 y > b
Cálculo de la fdp Teorema Fundamental. Ejemplos 3 X v.a. uniforme en [ 1/2, 1/2] y g(x) = x 2 Obtención de las raíces: y < 0 y = x 2 no tiene solución y > 0 y = x 2 x 1, x 2 = ± y Derivada: g (x) = 2x f Y (y) = fx(x1) g (x 1) + fx(x2) g (x = fx( y) 2) 2 y + fx( y) 2 y para y 0 Cuidado con las regiones!! 1 2 < x < 1 2 { 1 2 < x < 0 1 4 > y > 0 0 < x < 1 2 0 < y < 1 4 Finalmente: f Y (y) = { 1 y 0 < y 1 4 0 en otro caso
Cálculo de la fdp Teorema Fundamental. Ejemplos 4 X v.a. Gaussiana N (η, σ), y = g(x) = e x Obtención de las raíces: y 0 y = e x no tiene solución f Y (y) = 0 y > 0 y = e x x 1 = ln(y) Derivada: g (x) = e x f Y (y) = fx(x1) g (x = fx(ln(y)) = 1 1) e ln(y) fx (ln(y)) y > 0 y Conocemos f X(x) = 1 2πσ e x η 2 2σ 2 Finalmente, Y es una v.a. lognormal f Y (y) = { 1 y 2πσ < x < (ln(y) η) 2 e 2σ 2 y > 0 0 y 0
Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable Aleatoria 5 Teoremas Asintóticos
Generación de Números Aleatorios Generación de Números Aleatorios Todos los ordenadores son capaces de generar numeros aleatorios uniformemente distribuidos entre 0 y 1 (Ej: Función rand en Matlab) U n = X n X n+1 = (ax n + c)mod m m En ocasiones necesitaremos generar secuencias aleatorias que sigan una distribución distinta de la uniforme. Podremos generar variables aleatorias con cualquier distribución a partir de transformaciones de una v.a. uniforme?
Generación de Números Aleatorios Generación de Números Aleatorios Supongamos que disponemos de una v.a. Y con una función distribución conocida F Y (y) y que le aplicamos la transformación X = g(y ) = F Y (Y ) F X (x) P (X x) = P (B X ) = P (B Y ) = P (Y y) F Y (y) = x 0 < x < 1 1 F Y(y) = x x B X B Y y y Y F Y(y) x=g(y)=f Y (y) X Uniforme en (0,1) Caso inverso: Dada una v.a. X uniforme entre 0 y 1, obtendremos Y con F Y (y) sin más que aplicar la transformación inversa Y = F 1 Y (X) X Uniforme en (0,1) y=g -1 (x)=f -1 Y(x) Y F Y(y)
Generación de Números Aleatorios Generación de Números Aleatorios. Ejemplos Gaussiana: f Y (y) = 1 e (y η)2 2σ 2 2πσ F Y (y) = G( y η σ ) = 1 2 + erf ( ) y η σ ( F 1 Y (x) = σg 1 (x) + η = σerf 1 x 1 2 ) + η Exponencial: (c > 0) f Y (y) = ce cy y > 0 F Y (y) = 1 e cy y > 0 F 1 Y (x) = 1 ln(1 x) c
Generación de Números Aleatorios Generación de Números Aleatorios. Ejemplos Laplace: f Y (y) = c 2 e c y η c > 0 { 1 F Y (y) = 2 ec(y η) y < η 1 1 2 e c(y η) y η { 1 F 1 Y (x) = c ln(2x) + η 0 x 1 2 1 c ln(2 2x) + η 1 2 x 1 Cauchy: f Y (y) = c/π y 2 + c 2 c > 0 F Y (y) = 1 2 + 1 ( y π arctan c ( F 1 Y (x) = c tan πx π ) 2 )
Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable Aleatoria 5 Teoremas Asintóticos
Momentos de una Variable Aleatoria Momentos de Una Variable Aleatoria Consideremos la transformación Y = g(x) Media: η Y = E[Y ] = sin embargo, se puede calcular como η Y = E[Y ] = E[g(X)] = yf Y (y)dy g(x)f X(x)dx Teorema: El operador esperanza matemática es un operador lineal E[aX + b] = ae[x] + b Varianza: σ 2 Y = Var [g(x)] = E [ g 2 (X) ] E ([g(x)]) 2 Var [ax + b] = a 2 Var[X] = a 2 σ 2 X
Momentos de una Variable Aleatoria Momentos de Una Variable Aleatoria Los momentos de una v.a. son n o s reales que proporcionan información estadística parcial Momento no centrado de orden n: m n = Caso particular: x n f X(x)dx = E[X n ] n = 1, 2,... m 1 = E[X] = η X Momento centrado de orden n: µ n = (x η X) n f X(x)dx = E[(X η X) n ] n = 2, 3,... Caso particular: µ 2 = E[(X η X ) 2 ] = σ 2 X
Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable Aleatoria 5 Teoremas Asintóticos
Teorema del Límite Central Teorema del Límite Central Teorema: Sean X 1, X 2,..., X N v.a. independientes con medias y varianzas η i = E[X i], σ 2 i = E[(X i η i) 2 ], i = 1,..., N, y la v.a. Y = N i=1 Xi, entonces donde ( y2 η Y lím P (y1 < Y y2) = G N σ Y G(y) = 1 2π y ) ( ) y1 η Y G, σ Y e x2 2 dx Es decir, Y se aproxima a una distribución N (η Y, σ Y ), con N N η Y = η i, σy 2 = i=1 i=1 σ 2 i
Teorema del Límite Central Comentarios Se puede aplicar siempre que una v.a. no predomine sobre el resto La aproximación es buena a partir de N 6 Aproximación fiable con N pequeño. Sobre todo para los valores centrales. El Teorema asegura que F Y (y) tiende a ser Gaussiana En principio no dice nada sobre la fdp. Si X i son v.a. continuas f Y (y) tiende a ser Gaussiana Teorema de la Convolución: La fdp de la suma de v.a. independientes es la convolución de las fdp s Podemos decir que la convolución de fdp s tiende a ser Gaussiana! El Teorema del Límite Central sugiere una manera alternativa de generar variables aleatorias Gaussianas Ejemplo: Receptor de Comunicaciones: Interferencias, Ruido Térmico, Ruido Galáctico...
Teorema del Límite Central Ejemplo Suma de N v.a. independientes uniformes en [0,1] (10 6 realizaciones y 50 bins) n n N=1 x 104 2.5 2 1.5 1 0.5 0 0 0.5 1 y N=4 x 104 6 5 4 3 2 1 0 0 2 4 y n n N=2 x 104 4 3 2 1 0 0 1 2 y N=5 x 104 6 5 4 3 2 1 0 0 2 4 6 y n n N=3 x 104 5 4 3 2 1 0 0 1 2 3 y N=6 x 104 8 6 4 2 0 0 2 4 6 y
Teorema de DeMoivre-Laplace Teorema de DeMoivre-Laplace Teorema: Dadas X 1,..., X n v.a. independientes de Bernoulli con η i = E[X i] = p, σ 2 i = E[(X i η i) 2 ] = pq, i = 1,..., n y la v.a. Binomial X = n i=1 Xi, entonces lím P (k 1 < X k 2 ) T a Lim. Cent. = G n ( n P (k 1 < X k) = p k) k q n k ( k2 np npq ) G k n 1 x=k 1 Por lo tanto, B(n, p) se puede aproximar por P (X = k) 1 e (k np)2 2npq 2πnpq ( ) k1 np npq 1 e (x np)2 2npq 2πnpq } {{ } cte. para npq 1 dx
Teorema de DeMoivre-Laplace Comentarios Buena aproximación, incluso para n pequeña, en el centro de la función { P(np) n 1, np < 5 Aproximación de B(n, p) : N (np, npq) n 1, np 1 Ejemplo B(n = 100, p = 0.03) B(n = 100, p = 0.2) 0.25 0.2 Distribución Binomial (fdp) Binomial B(100,0.03) Poisson P(3) 0.1 0.08 Distribución Binomial (fdp) Binomial B(100,0.2) N(20,4) 0.15 0.06 fdp fdp 0.1 0.04 0.05 0.02 0 0 10 20 30 40 x 0 0 10 20 30 40 x
Desigualdad de Chebychev Desigualdad de Chebychev Sea X una variable aleatoria con media η y varianza σ 2, se tiene P ( X η ɛ) σ2 ɛ 2 ɛ En función del suceso contrario: P ( X η < ɛ) 1 σ2 ɛ 2 ɛ=kσ P ( X η < Kσ) 1 1 K 2 Aproximación general pero muy conservadora. Demostración: η ɛ P ( X η ɛ) = f X (x)dx + f X (x)dx = f X (x)dx η+ɛ x η ɛ σ 2 = (x η) 2 f X (x)dx (x η) 2 f X (x)dx x η ɛ ɛ 2 f X (x)dx = ɛ 2 P ( X η ɛ) x η ɛ
Desigualdad de Chebychev Ejemplo Calcular P ( X η < Kσ) Desigualdad de Chebychev: Distribución Gaussiana N (η, σ) P ( X η < Kσ) 1 1 K 2 P ( X η < Kσ) = P (η Kσ < X < η + Kσ) = = F X (η + Kσ) F X (η Kσ) = = G(K) G( K) = 2G(K) 1
Desigualdad de Chebychev Ejemplo Calcular P ( X η < Kσ) Distribución Uniforme en [x 1, x 2] 0 x < x 1 x x F X (x) = 1 x 1 + x 2 x x 2 x 1 < x < x 2 1 η = 2 1 x > x 2 Asumimos entonces: P ( X η < Kσ) = F X (η + Kσ) F X (η Kσ) { η + Kσ x2 η Kσ x 1 σ 2 = (x 2 x 1 ) 2 12 P ( X η < Kσ) = η + Kσ x 1 η Kσ x 1 = 2Kσ = K x 2 x 1 x 2 x 1 x 2 x 1 3 { K 3 0 < K < 3 P ( X η < Kσ) = 1 K > 3
Desigualdad de Chebychev Ejemplo Desigualdad de Chebychev 1 0.86 P( X η <Kσ) 0.68 Chebychev Dist. Uniforme Dist. Gaussiana 0 0 1 1.5 2 K 3 4
Ley de Los Grandes Números Ley de Los Grandes Números Teorema: Dadas n realizaciones independientes de un exp. aleatorio ε, y un suceso A con P (A) = p, se verifica ɛ > 0 lím P ( fa p ɛ) = 1, n donde f A = N A n es la frecuencia relativa del suceso A. Demostración: (N A es una v.a. B(n, p)) P ( f A p ɛ) = P (p ɛ N A n p + ɛ) = P (np nɛ N A np + nɛ) ( ) ( ) np + nɛ np np nɛ np P ( f A p ɛ) = G G npq npq ( ) ( ) ( ) nɛ nɛ nɛ = G G = 2G 1 npq npq npq ( ) nɛ lím P ( fa p ɛ) = lím 2G 1 = 1 n n npq
Ley de Los Grandes Números Ley de Los Grandes Números Aplicación Práctica: Suceso A con P (A) = p n? para que P ( f A p ɛ) µ Ejemplo: P (A) = p = 0.6 ɛ = 0.01 µ = 0.98 P ( f A 0.6 0.01) 2G ( n 0.01 n 0.6 0.4 ) 1 P ( f A 0.6 0.01) 0.98 n 13253 Y si desconocemos P (A) = p? ( ) nɛ P ( f A p ɛ) = 2G 1 2G(2ɛ n) 1 npq pq 1/4 2G(0.02 n) 1 0.98 n 13572