RESUMEN CONTENIDOS TERCERA EVALUACIÓN PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL 1) PROBABILIDAD Experimentos aleatorios. Concepto de espacio muestral y de suceso elemental. Operaciones con sucesos. Leyes de De Morgan. Definición de probabilidad. Probabilidad de la unión, intersección, diferencia de sucesos y suceso contrario o complementario. Regla de Laplace de asignación de probabilidades. Probabilidad condicionada. Teorema de la Probabilidad Total y Teorema de Bayes. CONCEPTOS - Experimento aleatorio: su resultado depende del azar - Espacio muestral (E): es el conjunto de todos los resultados posibles. - Suceso A: cualquier colección de resultados posibles Suceso elemental: contiene un único resultado posible Suceso compuesto: contiene más de un resultado Suceso imposible (ʘ): aquel que nunca ocurre p( ʘ ) = 0 Suceso seguro (E): ocurre siempre (coincide con E) p(e) = 1 Suceso contrario o complementario de A: A p(a) = 1 p(a) - Sucesos incompatibles: A y B son incompatibles si no pueden ocurrir simultáneamente p(a B)=0 UNIÓN E INTERSECCIÓN DE SUCESOS PROBABILIDAD DE UNIÓN DE SUCESOS P(A B)=P(A) + P(B) P(A B) P(A B C)=P(A) + P(B)+ P(C) P( A B) P( A C) P(B C)+ P( A B C) 1 MPU
LEY DE LAPLACE Dado un suceso A perteneciente a un espacio muestral E equiprobale: p(a)= DEPENDENCIA E INDEPENDENCIA DE SUCESOS n º resultados favorables a A n º casos posibles - A y B son independientes si la probabilidad de que ocurra uno de ellos no depende de que haya ocurrido el otro p(a B)=P(A) P(B) - A y B son dependientes si la probabilidad de que ocurra uno de ellos depende de que haya ocurrido el otro. En este caso se define la probabilidad condicionada: p(a B)=p(A) p(b/a) p(a/b)= p(a) p(b/a) p(a) p(b/a)= p(b) p( A/B) P(B) p(b) p(a /B) p(b A)=p(B) p( A/B) p(b/ A)= P(A) p(a/b): Probabilidad de A condicionada por B p(b/a): Probabilidad de B condicionada por A TEOREMA DE LA PROBABILIDAD TOTAL Dados un suceso B y k sucesos A 1, A 2,... A k incompatibles dos a dos: pertenecientes a un espacio muestral E: p(a i ) p(a j )=0 para todo i j P(B)=P(A 1 ) P(B/A 1 )+ P(A 2 ) P(B/A 2 )+... +P(A k ) P(B/A k ) TEOREMA DE BAYES Dados un suceso B y k sucesos A 1, A 2,... A k incompatibles dos a dos (p(a i ) p(a j )=0 para todo i j) pertenecientes a un espacio muestral E: p(a j /B)= p(a j ) p(b/a j ) p(b) p(a = j ) p(b/a j ) P(A 1 ) P(B/A 1 )+ P(A 2 ) P(B/A 2 )+...+P(A k ) P(B/A k ) 2 MPU
TIPOS DE DISTRIBUCIONES ESTADÍSTICAS - Distribuciones de variable discreta: la variable solo puede tomar valores aislados. Ejemplo: Nº de aciertos de un determinado número de alumnas en un test. Se representan en diagrama de barras. La probabilidad de un suceso puntual es un número comprendido entre 0 y 1. - Distribuciones de variable continua: la variable puede tomar cualquier valor. Ejemplo: Tiempo que tardan en llegar al trabajo las trabajadoras de una empresa. Se representan en histogramas (rectángulos que ocupan todo el intervalo). La probabilidad de sucesos puntuales es cero: P (x = k) = 0 Solo tiene sentido calcular probabilidades del tipo: P (x a ), P (a x b),... - Tipos de variable: Cuantitativas y cualitativas. 2) DISTRIBUCIÓN BINOMIAL B(n, p) - Es una distribución de probabilidad de variable discreta, x. - x solo puede tomar valores {0, 1, 2, 3..., n-1, n} (x N) - Está asociada a una experiencia dicotómica: en cada experimento sólo hay dos posibles resultados: A= éxito y A = fracaso. - Características: Se repite un experimento n veces de forma idéntica. Cada experimento es independiente de los anteriores (el resultado no depende de lo ocurrido anteriormente) Media (valor esperado o esperanza matemática): μ = n p Varianza: σ 2 =n p q Desviación típica: σ= n p q Probabilidad de éxito Probabilidad de fracaso Nº veces que se realiza el exp. Probabilidad de obtener r éxitos Cálculo de ( n r ) p(a) = p p(a) = 1 p = q n P (x =r)= ( n r ) pr q n r ( n r ) = n! r! (n r )! Ejemplo: Se lanza una moneda cuatro veces. Calcular la probabilidad de que: a) Salga solo una cara b) Salgan más caras que cruces Solución: Se trata de una B(4; 0,5) ; n = 4; p = 0,5; q = 0,5 a) P (x=1) = ( 4 1 ) (0,5)1 (0,5) 3 = 0,5 b) P (x 3)=P(x=3)+ P (x=4)= ( 4 3 ) (0,5)3 0,5 + ( 4 4) (0,5)4 (0,5) 0 = 0,3125 3) DISTRIBUCIÓN NORMAL N(μ, σ) - Es una distribución de probabilidad de variable continua, x. - x puede tomar cualquier valor (x R) - La distribución de probabilidad se define por medio de una función, llamada función de probabilidad o función de densidad. 3 MPU
La campana de Gauss, curva de Gauss o curva normal, es una función de probabilidad continua y simétrica. Su máximo coincide con la media, μ. Existe una curva normal para cada valor de μ y cada valor de σ, denominada N(μ, σ). En la distribución N(μ, σ) a la variable se le denomina x. Para calcular probabilidades en una distribución normal N(μ, σ), se relaciona N(μ, σ) con N(0, 1). Por tanto, la curva normal que vamos a utilizar es N(0, 1), para la cual se dispone de la tabla de distribución normal N(0, 1). Para establecer la relación adecuada entre N(μ, σ) y N(0, 1), hay que tipificar la variable: El cambio k k μ σ se llama tipificación de la variable. La variable tipificada sigue una distribución N(0, 1). En una distribución N(μ, σ) la variable se designa con x En una distribución N(0, 1) la variable se designa con z - En la tabla de distribución normal N(0, 1) se encuentra directamente la probabilidad P (z k) para valores de k de 0 a 3. - Puesto que: P (z = k) = 0 P (z k )=P(z < k ) - El área bajo la curva es igual a 1. - En la distribución N(0, 1) a la variable se le denomina z. 4 MPU
TABLA DE DISTRIBUCIÓN NORMAL N(0, 1) 5 MPU
1. Distribución Normal 1.1. Cálculo de probabilidades a) Para una distribución normal estándar N(0, 1) se usa directamente la tabla para hallar P(z k ) Del mismo modo, en la tabla se halla: P(z k ) P(z 1'45)= 0'9265 Ejemplos P(z k )=1 P(z k ) P(z 1'45)=1 P(z 1'45)=0'0735 P(z k )=1 P(z k) P(z 1)=1 P(z 1)= 0,1586 P(z 1'45)= 1 P(z 1'45)=0'0735 P(a <z b)= P(z b) P(z a) P(1< z 2)=P(z 2) P(z 1)=0,1359 P( k < z k)=2p(z k) 1 P( 1 < z 1)= 2P(z 1) 1=0,6827 P( 1'33 < z 1'33)= 2 P(z 1'33) 1= 0,8164 b) Para una distribución N (μ, σ), tipificamos la variable: P (x k)= P (z x μ σ 1.2. Intervalos característicos a) Para una distribución normal estándar N(0, 1): Buscamos z α/2 para que se cumpla P( z α/2 < z z α/2 )=1 α O lo que es lo mismo: ) P (z > z α/2 )= α 2 P (z z α/2 )=1 α 2 Para encontrar z α/2 utilizamos la tabla. El intervalo característico para P = 1 α es ( z α/2, z α/2 ) Ejemplo: Calcular el intervalo característico para el 95% (P = 0,95): 1 α = 0,95 α = 0,05 α 2 =0,025 Buscamos z 0,025 para que cumpla P( z 0,025 < z z 0,025 )=0,95 O lo que es lo mismo: P (z > z 0,025 )=0,025 P (z z 0,025 )=0,975 Para encontrar z α/2 utilizamos la tabla: z 0,025 =1,96 Por tanto, el intervalo característico para el 95% es (-1,96; 1,96) b) Para una distribución N (μ, σ) : Buscamos el intervalo correspondiente para N(0, 1): ( z α /2, z α/2 ) Tipificamos y el intervalo resulta ser: (μ z α/2 σ, μ +z α/2 σ) 2. Distribución de medias muestrales: POBLACIÓN Conocemos μ y σ MUESTRA de tamaño n Se deducen datos sobre la distribución de las medias de las muestras Si la población es N (μ, σ) σ La muestra es N ( μ, Si la población no es N (μ, σ) n ) pero n 30 6 MPU
3. Inferencia estadística MUESTRA de tamaño n Se conoce la media muestral x y a veces la desviación típica de la muestra s (este dato no siempre es necesario) POBLACIÓN Se desconoce la media poblacional μ Se suele conocer la desviación típica de la población σ (Si no se conoce σ, utilizamos s) Se realizan estimaciones de la media poblacional a partir de los datos de la muestra. Dicha estimación tiene un determinado nivel de confianza. 3.1. Intervalo de confianza para la media: ( x z α/2 σ n, x +z α /2 σ n ) Conocemos los datos: - De la MUESTRA: Su tamaño (n), la media muestral ( x ), y la desviación típica de la muestra (s). (Este dato no siempre es necesario). - De la POBLACIÓN: La desviación típica de la población (σ ). Si no se conoce σ utilizamos s Podemos hacer una estimación del valor de la media poblacional (μ): Hay una confianza de (1 α ) 100% de que el intervalo ( x z α/2 σ n, x +z α /2 σ n ) contiene a la media poblacional (μ). 3.2. Error máximo admisible: E =z α /2 σ n Es la longitud del intervalo de confianza Si conocemos E podemos calcular: n, si conocemos 1 α (con 1 α calculamos z α/2 ) 1 α, si conocemos n (despejamos z α/2 utilizando la tabla 1 α) Ejemplos de cálculo de z α/2 - Cálculo de z α/2 para el nivel confianza del 90% : Nivel de confianza del 90% 1 α= 0,90 α= 0,1 α 2 =0,05 1 α 2 = 0,95 Buscamos en la tabla el valor de z que deja a la izquierda una probabilidad de 0,95 z α/2 =1'645 - Cálculo de z α/2 para el nivel confianza del 99% : Nivel de confianza del 99% 1 α=0,99 α=0,01 α 2 =0,005 1 α 2 =0,995 Buscamos en la tabla el valor de z que deja a la izquierda una probabilidad de 0,95 z α/2 =2'575 - Niveles de confianza más usados: 1 α α z α/2 0'90 0'10 1'645 0'95 0'05 1'96 0'99 0'01 2'575 7 MPU
LA DISTRIBUCIÓN BINOMIAL SE APROXIMA A LA DISTRIBUCIÓN NORMAL Regla para calcular probabilidades mediante la aproximación de una binomial a una normal Si x es B (n, p) y x' es N(np, npq ), entonces: P (x = r ) = P (r 0,5 < x' < r + 0,5) Ejemplo: El 2% de los tornillos fabricados por una máquina son defectuosos. Calcula la probabilidad de que en un lote de de 2000 tornillos haya menos de 50 defectuosos. Solución: Es una binomial B(2000; 0,02); n = 2000; p = 0,02; q = 0,98 μ = np = 40 ; σ= npq =6,26 No es operativo el cálculo de la probabilidad pedida utilizando la fórmula de la distribución binomial. Puesto que np = 40 > 5 y nq = 1960 > 5 se puede asegurar que se aproxima a la normal N(40, 6,26) x es B(2000; 0,02) x' es N(40, 6,26) z es N(0, 1) P(x <50)= P(x' 49,5) = P(z 49,5 40 ) = P(z 1,52) = 0,9357 6,26 8 MPU