Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS los posibles resultados de un experimento aleatorio. * σ álgebra(f) Es la clase de todos los eventos de interés. Este conjunto debe satisfacer: - Ω F. - Si A F entonces A C F. - Si tenemos una sucesión de eventos de interés, entonces A 1 A 2 A 3... A n = * Medida de probabilidad A i F Una medida de probabilidad es una función P: F [0, 1] tal que: - P(Ω)=1 - Si A 1, A 2,..., A n son mutuamente excluyentes ( i, j : i j : A i A j = ) entonces P ( A i ) = P (A i ) * Continuidad por la izquierda de la medida de probabilidad lím A n = A i n * Continuidad por la derecha de la medida de probabilidad lím A n = A i n * Probabilidad Condicional P (A B) = P (A B) P (B) 1
* Probabilidad Total P (A) = P (A B i ) * Fórmula de Bayes P (B i A) = P (A B i )P (B i ) P (A B i)p (B i ) * Independencia Dos eventos A,B son independientes si P (A B) = P (B). Otra manera P (A B) = P (A)P (B) * Espacios Equiprobables Dado Ω = {w 1, w 2,..., w n }, decimos que (Ω, P ) es un espacio equiprobable si Ω es finito y ( i : 1 i n w i Ω : P (w i ) = 1 n ) * Esperanza Dada una variable aleatoria discreta X con p(x) = P (X = x), llamamos esperanza o valor esperado al número: E(x) = x = x xp (X = x) * Varianza La varianza de una variable aleatoria X me permite saber que tan alejado está un resultado del valor esperado, es decir, conocer cual es la dispersión del valor respecto a la muestra. Se calcula de la siguiente forma: V ar(x) = E(X 2 ) E 2 (X) Variables Aleatorias Discretas Definición Una variable aleatoria X discreta es una función sobre un espacio muestral numerable y cuyo conjunto de llegada es el de los números reales (R) X : Ω R Llamaremos Función de masa de probabilidad de una variable aleatoria discreta X a la probabilidad de que X tome un valor x R P (x) = P (X = x) = P ({w Ω : X(w) = x}) Llamaremos Imagen de una variable aleatoria al conjunto de los posibles valores que puede tomar dicha variable: Im(X) = {x : x = X(ω) ω Ω} 2
Vectores Aleatorios Un vector aleatorio es un par ordenado (X, Y ) definido en ΩxΩ (X, Y ) toma valores en R. La función de masa de probabilidad de un vector aleatorio (X, Y ) es: p(x, Y ) = P (X = x, Y = y) = P ({ω : X(ω) = x, Y (ω) = y)}) Además definimos las funciones de probabilidad marginal de una variable aleatoria: p(x) = P (X = x) = y P (X = x, Y = y) probabilidad marginal de X p(y) = P (Y = y) = x P (X = x, Y = y) probabilidad marginal de Y - Si el vector aleatorio (X, Y ) tiene función de masa de probabilidad conjunta p(x, Y ) = P x (X)P y (Y ) entonces X, Y con independientes. En caso general: P (X 1 = x 1, X 2 = x 2, X 3 = x 3,... ; X n = x n ) = n P (X i = x i ) i=1 - Si k(p (X = k) = P (Y = k)), entonces se dice que las variables X, Y están igualmente distribuidas. Acerca de las variables aleatorias independientes Nos interesa conocer la probabilidad de que la suma de dos variables independientes tomen un valor determinado. Si queremos que X + Y = z, entonces tenemos que tomar todos los eventos tal que X = k y Y = z k para algun k(0 k z). Si X, Y son variables aleatorias independientes entonces: P (X + Y = z) = x P (X = x)p (Y = x z) Además si Im(X) = Im(Y ) = {0, 1, 2...}, entonces: P X+Y (z) = P (X + Y = z) = z P x (k)p y (z k) = P x (x)p y (z k) k=0 Distribuciones de variables aleatorias * Modelo de Bernoulli Es una distribución que modela experimentos en los que los posibles resultados son éxito o no éxito. Se define una variable aleatoria X tal que: X = { 1 si hay un éxito 0 si no hay éxito La función de masa de probabilidad de la distribución de Bernoulli es: 3
P (X = 1) = p P (X = 0) = 1 p donde p es la probabilidad de éxito (p es el parámetro de la distribución). La esperanza de X variable que se distribuye Bernoulli es E(X) = p La varianza de X distribuida Bernoulli es var(x) = p p 2 * Modelo Hipergeométrico Es una distribución que modela experimentos donde se toma una muestra de tamaño n de un conjunto de tamaño N (sin repetición) y se quiere saber cúal es la probabilidad de que k elementos de la muestra cumplen con una característica dada. Los parámetros de esta distribución son el tamaño del conjunto (N), el tamaño de la muestra tomada (n) y la cantidad de elementos del conjunto que cumplen con la característica (a). La función de masa de probabilidad de la distribución hipergeométrica es: ( a N a ) k)( P (X = k) = n k ( N n) con 0 k min(n, a). La esperanza de X si se distribuye hipergeométrica es E(X) = n a N La varianza de una variable que se distribuya hipergeométrica es var(x) = n N n N 1 * Modelo Binomial a N (1 a N Es una distribución para modelar una sucesión de intentos de un experimento tipo Bernoulli (donde se puede obtener éxito o fracaso). Se define una variable aleatoria X tal que X va a ser el número de exitos en todos los intentos realizados. Los parámetros de la binomial son: p (la probabilidad de éxito) y n (el número de intentos). La función de masa de probabilidad de la distribución binomial es: ( ) n P (X = k) = p k (1 p) n k p La Esperanza de una variable aleatoria X que se distribuya binomial es: E(X) = np La varianza de una variable aleatoria X que se distribuya binomial es: var(x) = np(1 p) 4
* Modelo Geométrico Es una distribución para modelar una sucesión de intentos fracasados de un experimento hasta que se obtiene un éxito (debe haber igualdad de condiciones en cada intento). Se define una variable aleatoria X tal que X va a ser el número de fracasos antes de obtener un éxito. El parámetro del modelo geométrico es p (la probabilidad de éxito). La función de masa de probabilidad de la distribución geométrica es: P (X = k) = (1 p) k p La esperanza de una variable X que se distribuye geométrica es: E(X) = 1 p La varianza de una variable que se distribuya geométrica es: var(x) = 1 p p 2 * Modelo Poisson Es una distribución para modelar experimentos que se llevan a cabo sobre un espacio continuo (como el tiempo), la variable aleatoria definida X va a representar el numero de éxitos que se obtienen sobre ese espacio. El parámetro de la distribución Poisson es λ. La función de masa de probabilidad de la distribución Poisson es: P (X = k) = e λ λ k k! La esperanza de una variable X que se distribuye Poisson es: E(X) = λ La varianza de una variable X que se distribuya Poisson es: E(X) = λ Esperanza Sea Y una variable aleatoria discreta y Y = g(x) con g : R R, entonces: E(Y ) = y yp (Y = y) = x g(x)p (X = x) (Caso multidimensional)sea g : R x R R y sea z = g(x, Y ), entonces: E(z) = E(g(X, Y )) = g(x, Y )P (X = x, Y = y) x y Las operaciones sobre la esperanza son lineales, es decir, E(aX + by ) = ae(x) + be(y) Si X, Y son independientes: -E(XY ) = E(X)E(Y ) -E(X 1 X 2 X 3... X n ) = n i=1 E(X i) 5
Covarianza la covarianza se define como: cov(x, Y ) = E[(X µ x )(Y µ y )] cov(x, Y ) = E(XY ) E(X)E(Y ) Donde µ x y µ y son las esperanzas de X y de Y respectivamente. Si X, Y son independientes, entonces la covarianza es cero. Esperanza condicional Llamaremos esperanza condicionada, a la esperanza de una variable dado un evento: E(X B) = x xp (X = x B) Fórmula de particionamiento Si B 1, B 2, B 3,..., B n es una partición del espacio muestral, entonces E(X) = i 1 E(X B i )P (B i ) Varianza La varianza se define como: var(x) = E(X 2 ) E 2 (X) * La varianza no es lineal: var(ax + by ) = a 2 var(x) + b 2 var(y ) + 2abcov(X, Y ) * Si X, Y son independientes: var(x + Y ) = var(x) + var(y ) var(x 1 + X 2 + X 3... X n ) = n var(x i ) i=1 6