Repaso de Teoría de la Probabilidad Luis Mendo Tomás Escuela Politécnica Superior Universidad Autónoma de Madrid Febrero de 2008 1. Introducción Este documento contiene, de forma esquemática, los conceptos básicos sobre Teoría de la Probabilidad necesarios para la asignatura Comunicaciones Móviles. En este documento, las funciones de una variable discreta se denotan utilizando corchetes, y las de una variable continua utilizando paréntesis. Las variables aleatorias se denotan mediante letras mayúsculas en negrita. Los procesos estocásticos se denotan mediante letras minúsculas en negrita. Las probabilidades, esperanzas matemáticas y varianzas se escriben indicando su argumento entre corchetes. 2. Variables aleatorias Caracterización de una variable aleatoria discreta X se dene su función de probabilidad f X [n]: Para una variable aleatoria f X [n] = Pr[X = n]. (1) Para una variable aleatoria continua X se dene su función de distribución F X (x): F X (x) = Pr[X x]. (2) La derivada de F X (x), si existe, se denomina función de densidad de probabilidad de X, f X (x): df (X)(x) f X (x) =. (3) dx Habitualmente puede unicarse el tratamiento de ambos tipos de variables deniendo para el caso discreto una función de densidad de probabilidad formada por deltas de Dirac: f X (x) = n f X [n]δ(x n). (4) Mediana y percentil La mediana de X es el valor x 0,5 que verica Pr[X x 0,5 ] = 0,5. El percentil p es el valor x p tal que Pr[X x p ] = p. 1
Función de una variable aleatoria Si Y = g(x), f Y (y) puede calcularse a partir de f X (x) como n f X (x i ) f Y (y) = g (x i ), (5) i=1 donde x 1,..., x n son las soluciones de la ecuación y = g(x), y g (x) es la función derivada de g(x). Operador E o esperanza matemática La esperanza matemática o valor medio de X se dene como El operador E es lineal. E[X] = xf X (x)dx. (6) Media de una función de variable aleatoria E[g(X)] = g(x)f X (x)dx. (7) Varianza, desviación típica y coeciente de variación La varianza se dene como Sea η x = E[X]. Var[X] = E[(X η x ) 2 ] = E[X 2 ] η 2 x. (8) La desviación típica es la raíz cuadrada de la varianza. Se emplea habitualmente como medida de la dispersión de una variable aleatoria en torno a su media. El coeciente de variación se dene como la desviación típica entre la media. Es una medida normalizada de la dispersión. Caracterización de dos variables aleatorias Una pareja de variables aleatorias X e Y se caracteriza mediante su función de distribución conjunta, F X,Y (x, y): F X,Y (x, y) = Pr[X x, Y y]. (9) La función de densidad se dene como la siguiente derivada doble, si existe: f X,Y (x, y) = 2 F X,Y (x, y). (10) x y Dada una región D del plano, la probabilidad de que el punto (X, Y ) pertenezca a D se calcula como Pr[(X, Y ) D] = D f X,Y (x, y) dx dy. (11) 2
Probabilidad condicionada (o condicional) Dados dos sucesos A y B, la probabilidad de A condicionada a B, Pr[A B], se dene como Pr[A B] = Pr[A, B], (12) Pr[B] siendo Pr[A, B] la probabilidad de que ocurran simultáneamente A y B. Dada una variable X y un suceso A, la función de distribución de X condicionada a A viene dada por F X (x A) = Pr[X x A] = La función de densidad condicionada se dene como f X (x A) = Pr[X x, A]. (13) Pr[A] df (X)(x A). (14) dx Dadas dos variables X e Y, la función de densidad de X condicionada a Y viene dada por f X (x Y = y) = f X,Y (x, y). (15) f Y (y) Teorema de la probabilidad total Teorema de Bayes Pr[A] = f Y (y) = Pr[A X = x]f X (x)dx. (16) f Y (y X = x)f X (x)dx. (17) f X (x A) = Pr[A X = x]f X(x). Pr[A] (18) f X (x Y = y) = f Y (y X = x)f X (x). f Y (y) (19) Independencia e incorrelación Dos sucesos A y B son (estadísticamente) independientes si Pr[A, B] = Pr[A] Pr[B]. Dos variables X e Y son (estadísticamente) independientes si, para cualesquiera conjuntos C y D, Pr[X C, Y D] = Pr[X C] Pr[Y D]. Equivalentemente, X e Y son independientes si F X,Y (x, y) = F X (x)f Y (y), o bien si f X,Y (x, y) = f X (x)f Y (y). Si X e Y son independientes, también lo son g(x) y h(y ). Dos variables aleatorias X e Y son incorreladas si E[XY ] = E[X] E[Y ]. Si dos variables son independientes, son también incorreladas. Una función de dos variables aleatorias Si Z = g(x, Y ), F Z (z) = f X,Y (x, y)dx dy, D z (20) donde D z es la región del plano tal que g(x, y) z. 3
Dos funciones de dos variables aleatorias Si Z = g(x, Y ) y W = h(x, Y ), n f X,Y (x i, y i ) f Z,W (z, w) = J(x i, y i ), (21) i=1 donde (x 1, y 1 ),..., (x n, y n ) son las soluciones del sistema z = g(x), w = h(y), y J(x, y) es el determinante jacobiano de (z, w) respecto a (x, y): J(x, y) = z w x y z w y x. (22) Suma de variables aleatorias independientes o incorreladas La función de densidad de probabilidad de una suma de variables aleatorias independientes se obtiene como la convolución de las funciones de densidad individuales. La varianza de la suma de variables aleatorias incorreladas es igual a la suma de las varianzas. Algunas distribuciones Función de densidad de probabilidad gaussiana o normal de media η y desviación típica σ: f(x) = 1 σ (x η)2 e. 2π 2σ 2 (23) Función de densidad de probabilidad exponencial de parámetro c: f(x) = ce cx, para x 0. (24) El parámetro c representa el inverso del valor medio. La suma de los cuadrados de dos variables aleatorias gaussianas independientes de media nula y la misma varianza es una variable aleatoria exponencial. Función de densidad de probabilidad Rayleigh de parámetro b: f(x) = x b e x2 2b, para x 0. (25) El parámetro b representa la mitad del valor cuadrático medio: b = E[X 2 ]/2. La raíz cuadrada de una variable aleatoria exponencial es una variable Rayleigh. Variable aleatoria log-normal: es, por denición, aquélla cuyo logaritmo es una variable aleatoria gaussiana. Función de probabilidad de Poisson de parámetro a: El parámetro a representa el valor medio. a ak f[n] = e k!. (26) 4
Variables conjuntamente gaussianas Dadas n variables X 1,..., X n, éstas se denominan conjuntamente gaussianas si a 1 X 1 + +a n X n es gaussiana para cualesquiera a 1,..., a n. Si X 1,..., X n son conjuntamente gaussianas e incorreladas, son independientes. Teorema del límite central Bajo condiciones muy generales, la distribución de la suma de un gran número de variables aleatorias tiende a ser gaussiana. Una condición suciente es que las variables aleatorias sean independientes e idénticamente distribuidas con varianza nita. Ley de los grandes números y resultados relacionados Se realiza un experimento y se observa la ocurrencia o no de un suceso A, cuya probabilidad es p. Si el experimento se realiza n veces, y k denota el número de veces que ocurre A, la frecuencia relativa del suceso A, denida como k/n, tiende a p en el sentido siguiente: [ ] k Pr n p ɛ 1 para n (27) (versión débil de la ley de los grandes números). Sean n variables aleatorias X 1,..., X n independientes idénticamente distribuidas, con media η, desviación típica σ y coeciente de variación c = σ/µ. En estas condiciones, la variable suma n i=1 X i tiene coeciente de variación c/ n; y la variable promedio (o suma normalizada) 1/n n i=1 X i tiene desviación típica σ/ n. 3. Procesos estocásticos Caracterización de procesos estocásticos Para caracterizar un proceso estocástico x(t) debe conocerse la función de distribución conjunta de las variables aleatorias x(t 1 ),..., x(t n ), para todos los posibles t 1,..., t n y para todo n. Para caracterizar dos procesos estocásticos debe conocerse la función de distribución conjunta de las variables correspondientes a ambos. Un proceso x(t) es gaussiano si las variables x(t 1 ),..., x(t n ) son conjuntamente gaussianas para todos los posibles t 1,..., t n y para todo n. Autocorrelación y correlación cruzada Dado un proceso x(t) (en general complejo), su autocorrelación R x (t 1, t 2 ) se dene como E[x(t 1 )x (t 2 )]. Dados dos procesos x(t) e y(t), su correlación cruzada R x,y (t 1, t 2 ) se dene como E[x(t 1 )y (t 2 )]. 5
Estacionariedad en sentido amplio sentido amplio si Un proceso x(t) es estacionario en su media es independiente del tiempo t; y su autocorrelación depende sólo de la diferencia de tiempos τ = t 1 t 2. Para un proceso estacionario en sentido amplio, la autocorrelación se denota como R x (τ) = E[x(t + τ)x (t)]. Dos procesos son conjuntamente estacionarios en sentido amplio si cada uno de ellos es estacionario en sentido amplio; y su correlación cruzada depende sólo de la diferencia de tiempos. Espectro de potencia su espectro de potencia S x (f) como la transformada de Fourier de R x (τ). Dado x(t) estacionario en sentido amplio, se dene El valor cuadrático medio (potencia) de x(t) viene dado por E[ x(t) 2 ] = R x (0) = Sistemas lineales invariantes con entradas estocásticas S x (f)df. (28) Dado un sistema lineal invariante (determinista) con respuesta al impulso h(t), cuya entrada es un proceso estocástico en sentido amplio x(t), con autocorrelación R x (τ) y espectro de potencia S x (f), y cuya salida es y(t), se verica que los procesos de entrada y salida son conjuntamente estacionarios en sentido amplio, con Además, si x(t) es gaussiano, y(t) es gaussiano. E[y(t)] = E[x(t)] h(t) (29) R x,y (τ) = R x (τ) h ( τ) (30) R y (τ) = R x,y (τ) h (τ) (31) S x (f) = S y (f) H(f) 2. (32) Procesos puntuales Un proceso puntual es un conjunto de puntos aleatorios en el eje real. Proceso de Poisson que verica lo siguiente: Un proceso de Poisson de tasa λ es un proceso puntual El número de puntos en un intervalo (t 1, t 2 ) de longitud t = t 1 t 2 sigue una distribución de Poisson de parámetro λt. Dados dos intervalos disjuntos, los números de puntos que contienen son variables aleatorias independientes. Superposición de procesos puntuales Dados n procesos puntuales, su superposición se dene como un proceso puntual formado por la unión de todos los puntos pertenecientes a los n procesos. Teorema de Cinlar Bajo ciertas condiciones muy generales, la superposición de un gran número de procesos puntuales tiende a un proceso de Poisson. 6