1. Teoría de probabilidad

Tamaño: px
Comenzar la demostración a partir de la página:

Download "1. Teoría de probabilidad"

Transcripción

1 Disclaimer: Este apunte no es autocontenido y fue pensado como un repaso de los conceptos, no para aprenderlos de aquí directamente 1 Teoría de probabilidad Definición 1 (espacio muestral) Un espacio muestral es el conjunto de resultados posibles de un experimento Definición 2 (evento) Un evento o suceso es un subconjunto del espacio muestral Definición 3 (frecuencia relativa y probabilidad) La frecuencia relativa del evento A está dada por la cantidad de veces que ocurre A n A sobre la cantidad de veces que se hace el experimento n fr(a) = n A /n Cuando n tiende a infinito f r(a) tiende a P (A), la probabilidad del evento A Tanto la frecuencia relativa como la probabilidad estan entre 0 y 1 Definición 4 (teoría axiomática de probabilidad) La teoría axiomática de probabilidad está definida por los siguientes axiomas (probabilidades sobre el espacio muestral S): 1 P (A) 0 2 P (S) = 1 3 Si i ja i A j = entonces P ( i A i) = i P (A i) Teorema 1 (propiedades de la probabilidad) La función de probabilidad P cumple lo siguiente: 1 P (A c ) = 1 P (A) 2 P ( ) = 0 3 Si A B entonces P (A) P (B) y P (B \ A) = P (B) P (A) 4 P (A B) = P (A) + P (B) P (A B) Definición 5 (espacio de equiprobabilidad) Un espacio de equiprobabilidad S es tal que x S se cumple P (x) = 1/#S Definición 6 (probabilidad condicional) La probabilidad condicional de A dado que sucedió B es la probabilidad de que suceda el evento A con el espacio muestra reducido a B Escribimos P (A B) = P (A B) P (B) Teorema 2 (propiedades de la probabilidad condicional) Las probabilidades condicionales sobre el espacio muestral S cumplen: 1 P (A B) 0 2 P (S B) = 1 Teorema 3 (regla del producto) Si P (A) > 0 y P (B) > 0 entonces P (A B) = P (A B)P (B) = P (B A)P (A) Teorema 4 (regla del producto generalizada) Si kp (A 1 A k ) > 0 entonces P (A 1 A n ) = P (A 1 )P (A 2 A 1 )P (A 3 A 1 A 2 )P (A n A 1 A n 1 ) Definición 7 (partición) A 1,, A k se dice una partición del espacio muestral S sii i, j: 1 A i A j = 2 P (A i ) > 0 3 k A i = S 1 de 18

2 Teorema 5 (teorema de la probabilidad total) Si A 1,, A k es una partición de S y B un evento, entonces P (B) = k P (B A i )P (A i ) Teorema 6 (teorema de Bayes) Si A 1,, A k es una partición de S y B un evento, entonces P (A j B) = P (B A j )P (A j ) k P (B A i)p (A i ) Definición 8 (independencia) Los eventos A y B son independientes sii P (A B) = P (A)P (B) Equivalentemente P (A) = P (A B) y P (B) = P (B A) Teorema 7 (independencia del complemento) Si A y B son independientes, A y B c también lo son Definición 9 (independencia múltiple) Un conjunto de eventos es independiente si para cualquier subconjunto de ellos la probabilidad de la intersección es el producto de las probabilidades Observación 1 Si un conjunto es independiente, sus elementos son independientes de a pares, pero no al revés 2 Variables Aleatorias Discretas Definición 10 (variable aleatoria discreta) Una variable aleatoria (va) discreta es una función X : S R del espacio muestral en los reales Puede verse como una asignación de probabilidades a distintos valores Definición 11 (función de probabilidad puntual) La función de probabilidad puntual p X de la va X es la función que dado un real dice la probabilidad de que X valga eso, es decir p X (x) = P (X = x) = P ({w S X(w) = x}) Teorema 8 (propiedades de la probabilidad puntual) La función de distribución acumulada p X cumple: de una va X 1 xp X (x) 0 2 x Im(X) p X(x) = 1 Definición 12 (función de distribución acumulada) La función de distribución acumulada de una va discreta X F X se define para todo x en R como F X (x) = P (X x) = p X (y) y x,y Im(X) Teorema 9 (propiedades de la distribución acumulada) La función de distribución acumulada F X X cumple: de una va 1 x R F X (x) [0, 1] 2 F X es monótona no decreciente 3 F x es continua a derecha 4 lím x F X (x) = 1 y lím x F X (x) = 0 5 En cada punto, el valor del salto es la probabilidad puntual: p X (x) = F X (x) F X (x ) Teorema 10 (probabilidad de un intervalo) Sean a, b R, a b Se cumple que: 1 P (a < X b) = F x (b) F x (a) 2 P (a < X < b) = F x (b ) F x (a) 2 de 18

3 3 P (a X b) = F x (b) F x (a ) 4 P (a X < b) = F x (b ) F x (a ) Definición 13 (esperanza) La esperanza de una va discreta X se define como E(X) = µ X = xp X (x) x Im(X) Teorema 11 (función de una va discreta) Si X es una va discreta entonces f(x) también lo es y su esperanza es E(f(x)) = yp f(x) (y) = f(x)p X (x) y Im(f(X)) x Im(X) Teorema 12 (linealidad de la esperanza) Si a, b R, E(aX + b) = ae(x) + b Definición 14 (varianza y desvío) La varianza de una va discreta X se define como V (X) = σx 2 = (x µ X ) 2 p X (X) = E[(X E(X)) 2 ] x Im(X) El desvío standard se define como σ X = σx 2 Teorema 13 (varianza) V (X) = E(X 2 ) E(X) 2 Teorema 14 (la varianza es bilineal) V (ax + b) = a 2 V (X) (σ ax+b = a σ X ) 21 Distribución Binomial Se realizan n experimentos independientes con probabilidad de éxito p Si n = 1 es llama distribución de Bernoulli La variable binomial es la va X:número de éxitos Escribimos X Bi(n, p) Teorema 15 (probabilidad puntual de distribución binomial) La función de probabilidad puntual de X Bi(n, p) es {( n ) p X (k) = k p k (1 p) n k k N, 0 k n 0 otherwise Observación 2 Por la fórmula de binomio de Newton (a + b) n (p + (1 p)) n = 1 = n k=0 ( n k) a k b n k podemos ver que x p X(x) = Teorema 16 (esperanza y varianza de distribución binomial) Si X Bi(n, p) entonces se cumple que E(X) = np y V (X) = np(1 p) Teorema 17 (límite de la distribución binomial) Supongamos que n y p 0 tal que np = λ, y sea X Bi(n, p) entonces: ( n p X (k) = )p k (1 p) n k e λ λ k k k! O sea que podemos aproximar, cuando n es grande y p chico, la distribución por su límite Ver distribución de Poisson 3 de 18

4 22 Distribución Geométrica La va X tiene distribución geométrica G(p) si se hacen ensayos independientes con probabilidad de éxito p hasta obtener un éxito y se cuenta cuantos se hicieron Teorema 18 (probabilidad puntal de la geométrica) Si X G(p) entonces p X (k) = (1 p) k 1 p k N Teorema 19 (distribución acumulada de la geométrica) Si X G(p) entonces F X (x) = 1 (1 p) x Teorema 20 (esperanza y varianza de la geométrica) Si X G(p) entonces E(X) = 1 p y V (X) = 1 p p 2 Teorema 21 (propiedad de falta de memoria) Si X G(p) y n, m N entonces P (X > n + m X > n) = P (X > m) 23 Distribución Binomial Negativa La va X tiene distribución binomial negativa BN(r, p) si se hacen ensayos independientes con probabilidad de éxito p hasta obtener r éxitos (rgeq1) Generaliza la geométrica Teorema 22 (probabilidad puntal de la binomial negativa) Si X BN(r, p) entonces ( ) k 1 p X (k) = (1 p) k r p r k N geqr r 1 Teorema 23 (esperanza y varianza de la binomial negativa) Si X BN(r, p) entonces E(X) = r p y V (X) = r(1 p) p 2 24 Distribución Hipergeométrica Se tienen N individuos, con D éxitos y N D fracasos Se extrae una muestra de n N Sea la variable X la cantidad de éxitos en la muestra, enonces X tiene distribución hipergeométrica X H(n, N, D) Teorema 24 (probabilidad puntal de la hipergeométrica) Si X H(n, N, D) entonces ( D )( N D ) k n k P X (k) = ( N max(0, n (N D)) k min(n, D) n) Teorema 25 (esperanza y varianza de la hipergeométrica) Si X H(n, N, D) entonces E(X) = n D ( ) N n N y V (X) = n D ( 1 D ) N 1 N N El término N n N 1 se llama factor de corrección por población finita Si n << N, el factor tiende a 1 y se puede aproximar la hipergeométrica por una binomial H(n, N, D) Bi(n, N/D) 25 Distribución de Poisson Si X P (λ) tiene distribución de poisson su función de probabilidad puntual está dada por p X (k) = e λ λ k k! Teorema 26 (esperanza y varianza de la poisson) Si X P (λ) entonces E(X) = λ y V (X) = λ 4 de 18

5 Un proceso de poisson es lo que pasa en un intervalo de tiempo dividible en subintervalos tal que la probabilidad de la ocurrencia de un evento en cada subintervalo es independiente de los otros y que la probabilidad de ocurrencia de mas de un evento en el mismo subintervalo es despreciable Esto hace que se aproximable por una binomial tal que n y p 0 si tendemos el subintervalo a 0 Esto hace que la distribución de la cantidad de eventos en un intervalo grande de largo t es de Poisson con parámetro λ = np, porque su función de probabilidad puntual es el límite de la binomial 3 Variables Aleatorias Continuas Las va continuas resultan de tomar limite de discretización en una variable discreta Formalmente: Definición 15 (variable aleatoria continua) X es una variable aleatoria continua si existe una función f X : R R 0 llamada función de densidad tal que A R, P (X A) = f X (x)dx Observación 3 Observamos que las funciones de densidad difieren de las de probabilidad puntual: 1 ap (X = a) = {a} f X(x)dx = 0 2 f(a) no es una probabilidad, de hecho puede ser mayor a 1 Definición 16 (función de distribución acumulada para continuas) La función de distribución acumulada de una va continua X se define como la probabilidad del intervalo (, x) y puede escribirse como F X (x) = x A f X (t)dt Teorema 27 (propiedades de la acumulada) Las funciones de distribución acumulada de va continuas cumplen: 1 x RF X (x) [0, 1] 2 F X es monótona no decreciente 3 F X es continua en todo punto 4 lím x F X (x) = 1 y lím x F X (x) = 0 Notar que todos salvo 3 son iguales a las propiedades para discretas La propiedad 3 vale porque la discontinuidad a izquierda se pierde porque al continuizar la variable se suaviza la curva Teorema 28 (funciones de variables aleatorias) Si X es una va y g : R R monótona creciente y biyectiva entonces F g(x) = F X g 1 y f g(x) = (f X g 1 )g 1 Definición 17 (percentiles) Si X es una va continua el percentil (100p)-ésimo de la distribución de X es x p tal que F X (x p ) = p Definición 18 (mediana y cuartiles) La mediana µ se define como el percentil 50-ésimo de la distribución Los cuartiles se definen como los percentiles 25 y 75-ésimos Definición 19 (esperanza de continuas) Sea X una va continua La esperanza de X se define como E(X) = µ X = xf X (x)dx Teorema 29 (funciones de una va continua) Si X es una va continua, f(x) también lo es y E(f(X)) = f(x)f X (x)dx Teorema 30 (linealidad de la esperanza) Si a, b R, E(aX + b) = ae(x) + b 5 de 18

6 Definición 20 (varianza y desvío de continuas) Sea X una va continua La varianza de X se define como y el desvío σ X = σ 2 X V (X) = σ 2 X = E[(X µ X ) 2 ] = Teorema 31 (varianza) V (X) = E(X 2 ) E(X) 2 (x µ x ) 2 f X (x)dx Teorema 32 (la varianza es bilineal) V (ax + b) = a 2 V (X) (σ ax+b = a σ X ) Definición 21 (función indicadora) La función indicadora del conjunto A I A : R R se define como: { 1 x A I A (x) = 0 x / A 31 Distribución Uniforme La distribución uniforme consiste en elegir un número al azar en un intervalo [A, B] de manera que cualquier subintervalo tiene una probabilidad proporcional a su largo Teorema 33 (densidad de la uniforme) Si X U(A, B) (X tiene distribución uniforme) entonces f X (x) = 1/(B A) Teorema 34 (función de distribución acumulada de la uniforme) Si X U(A, B) entonces F X (x) = x A B A I [A,B](x) + I (B, ) (x) Teorema 35 (esperanza y varianza de la uniforme) Si X U(A, B) entonces E(X) = A + B 2 y V (X) = (B A) Distribución Normal X tiene distribución normal (X N(µ, σ 2 )) sii su función de densidad es µ)2 1 (x e 2σ 2 2πσ El gráfico de dicha función es una campana con eje de simetría y máximo en x = µ y puntos de inflexión en x = µ σ y x = µ + σ Definición 22 (normal standard) Definimos la distribución normal standard como Z N(0, 1) Teorema 36 (standarización de normales) X N(µ, σ) X µ σ N(0, 1) Teorema 37 (acumulada de la normal) La función acumulada de la normal no puede escribirse como algo que no sea una integral Si X Z entonces F X (x) = Φ(x) Dado el anterior teorema, la acumulada de la normal standard se encuentra tabulada De dicha tabla, aplicando la standarización, se puede obtener la acumulada de cualquier normal Teorema 38 (esperanza y varianza de la normal) Si X N(µ, σ 2 ) entonces E(X) = µ y V (X) = σ 2 6 de 18

7 33 Distribución Gamma Definición 23 (función Gamma o factorial) Γ(α) = 0 x α 1 e x Teorema 39 (propiedades de la función Gamma) 1 Si α > 1 entonces Γ(α) = (α 1)Γ(α 1) 2 Si α N entonces Γ(α) = (α 1)! 3 Γ(1/2) = π Se dice que X tiene distribución Gamma (X Γ(α, λ)) si su función de densidad es f X (x) = e λx x α 1 λ α Γ(α) Si λ = 1 la distribución es Gamma standard de parámetro α La distribución de la Gamma standard está tabulada para distintos valores de α Teorema 40 (esperanza y varianza de la Gamma) Si X Γ(α, λ) entonces E(X) = α/λ y V (X) = α/λ 2 Teorema 41 (standarización de la Gamma) Si λ > 0 entonces X Γ(α, λ) λx Γ(α, 1) 34 Distribución Exponencial Es un caso particular de la Gamma con α = 1 Es decir, X tiene distribución exponencial (X E(λ)) si su función de densidad es f X (x) = λe λx I (0, ) (x) Teorema 42 (acumulada de la exponencial) Si X E(λ) entonces F X (x) = 1 e λx I (0, ) Teorema 43 (esperanza y varianza de la exponencial) Si X E(λ) entonces E(X) = λ 1 y V (X) = λ 2 Teorema 44 (falta de memoria) Si X E(λ) y s, t R >0 entonces P (X > s + t X > s) = P (X > t) Teorema 45 (relación entre distribución exponencial y Poisson) Sea un proceso de Poisson de tasa media v por lo cual la variable X t : cantidad de eventos en un intervalo t es X t P (vt) entonces la va X: tiempo hasta el primer evento tiene distribución exponencial X E(v) 4 Momentos Definición 24 (momento) El momento de orden k de la va X se define como E(X k ) Observación 4 (momentos 1 y 2) El momento de orden 1 E(X) = µ y el momento de orden 2 E(X 2 ) = µ 2 + σ 2 Definición 25 (función generadora de momentos) LA función generadora de momentos de la va X se define como M X (t) = E(e t x) Teorema 46 (función generadora de momentos) E(X n ) = n n t M X(0) Las funciones generadoras de momentos de las distintas distribuciones mencionadas puede encontrarse en la sección 12 Teorema 47 (unicidad de la generadora de momentos) Dada una distribución la función generadora de momentos existe y es única Dada una función generadora de momentos, la distribución es única Dado el teorema anterior, la función generadora de momentos sirve para definir completamente la distribución Esto es útil para demostraciones de que tal va tiene tal distribución 7 de 18

8 5 Generación de números al azar Para generar números al azar, la idea es generar X U(0, 1) y a partir de ella generar otras distribuciones como F (X) Teorema 48 Sea U U(0, 1) y G una acumulada continua y estrictamente creciente Si X = G 1 (U) entonces F X = G Teorema 49 Sea U U(0, 1) y G una acumulada Existe H tal que H(U) tiene función de distribución acumulada G 6 Vectores aleatorios Definición 26 (probabilidad conjunta) Sean X e Y va discretas sobre el mismo espacio muestral S La función de probabilidad conjunta del par (X, Y ) se define como: p XY (x, y) = P (X = x, Y = y) Teorema 50 (propiedades de la probabilidad conjunta) Una función de probabilidad conjunta satisface 1 x, yp XY (x, y) 0 2 x y p XY (x, y) = 1 Definición 27 (probabilidad marginal) Las funciones de probabilidad marginal de X e Y están dadas por: p X (x) = y p XY (x, y) y p Y (y) = x p XY (x, y) Definición 28 (acumulada conjunta discreta) La función de distribución acumulada conjunta de (X, Y ) está dada por F XY (x, y) = p XY (s, t) s x t y Definición 29 (densidad conjunta) (X, Y ) es un vector aleatorio continuo si existe una función llamada función de densidad conjunta f XY tal que: P ((X, Y ) A R 2 ) = f XY (x, y) dx dy Observación 5 En particular si A = [a, b] [c, d], P (x A) = b d a c A f XY (x, y) dx dy Teorema 51 (propiedades de la densidad conjunta) Una función de densidad conjunta satisface 1 x, yf XY (x, y) 0 2 R 2 f XY (x, y) dx dy = f XY (x, y) dx dy = 1 Definición 30 (densidad marginal) Las funciones de densidad marginal de X e Y están dadas por: f X (x) = f XY (x, y) dy y f Y (y) = f XY (x, y) dx Definición 31 (acumulada conjunta continua) La función de distribución acumulada conjunta de (X, Y ) está dada por F XY (x, y) = x y f XY (s, t) dt ds Definición 32 (probabilidad condicional) Sea (X, Y ) un vector aleatorio La función de probabilidad condicional de X dado que Y = y está dada por p X Y =y (x) = p XY (x, y) p Y (y) 8 de 18

9 Definición 33 (densidad condicional) Sea (X, Y ) un vector aleatorio La función de densidad condicional de X dado que Y = y está dada por f X Y =y (x) = f XY (x, y) f Y (y) Definición 34 (independencia) X e Y son independientes si p XY (x, y) = p X (x)p Y (y) Observación 6 (independencia) Si X e Y son independientes p X = p X Y =y para todo y Definición 35 (esperanza de una función de 2 va) E(h(X, Y )) = h(x, y)p XY (x, y), x y E(h(X, Y )) = h(x, y)f XY (x, y) dx dy R 2 Teorema 52 (linealidad de la esperanza) E(aX + by + c) = ae(x) + be(y ) + c Teorema 53 (esperanza de independientes) Si X e Y son independientes entonces E(XY ) = E(X)E(Y ) Definición 36 (covarianza) La covarianza de las va X e Y se define como Cov(X, Y ) = E[(X µ X )(Y µ Y )] La idea intuitiva es que la covarianza es cercana a 0 cuanto mas independientes son las variables Si es lejana al 0, el signo indica si la correlación es positiva o negativa Observación 7 (covarianza y varianza) Cov(X, X) = V (X) Teorema 54 (covarianza) Cov(X, Y ) = E(XY )AddyourGmailinboxtotheGooglehomepageY ouarecurrentlyusing1357m B(19Lastaccountactivity : 10hour Teorema 55 (covarianza e independencia) Si X e Y son independientes, entonces Cov(X, Y ) = 0 La recíproca no vale Definición 37 (coeficiente de relación) El coeficiente de relación es una estandarización de la covarianza para que no dependa de las unidades Se define como ρ(x, Y ) = Cov(X, Y ) σ X σ Y = Cov(X, Y ) V (X)V (Y ) Teorema 56 (coeficiente de relación) El coeficiente de relación cumple lo siguiente: 1 ρ(ax + b, cy + d) = ab ab ρ(x, Y ) 2 1 ρ(x, Y ) 1 3 ρ(x, Y ) = 1 Y = ax + b con probabilidad 1 Notar que el coeficiente mide la relación lineal entre las variables 9 de 18

10 61 Extensión a más de dos dimensiones Definición 38 (probabilidad conjunta) Si X 1,, X k son variables aleatorias discretas, su función de probabilidad conjunta es p X1,,X k (x 1,, x k ) = P (X 1 = x 1,, X k = x k ) Dado A R k P ((X 1,, X k ) A) = (x 1,,x k ) A p X1,,X k (x 1,, x k ) Teorema 57 (propiedades de la probabilidad conjunta) La probabilidad conjunta cumple: 1 p X1,,X k (x 1,, x k ) 0 2 (x 1,,x k ) R k p X 1,,X k (x 1,, x k ) = 1 Definición 39 (probabilidad marginal) La probabilidad marginal de un subvector X i1,, X ik p Xi1,,X (x ik i 1,, x ik ) = p X1,,X k (x 1,, x k ), (x j1,,x jk k ) Rk k está dada por: donde {i 1,, i k, j 1,, j k k } = {1,, k} 62 Distribución Multinomial Es una generalización de la distribución binomial Hay n experimentos posibles de k resultados posibles con probabilidades p 1,, p k tal que i p i = 1 Es vector aleatorio de la multinomial es (X 1,, X k ) donde X i es el número de veces que salió el resultado i Escribimos X M(n, p 1,, p k ) Definición 40 (probabilidad conjunta distribución multinomial) Si (X 1,, X k ) M(n, p 1,, p k ) entonces p X1,,X k (x 1,, x k ) = n! Observación 8 Si (X 1,, X k ) M(n, p 1,, p l ) entonces X i Bi(n, p i ) En general las marginales de una multinomial son binomiales o multinomiales Definición 41 (densidad conjunta) X 1,, X k son va continuas si tienen una función de densidad conjunta f X1,,X k (x 1,, x k ) k p xi i x i! Tal que dado A R k P ((X 1,, X k ) A) = A p X1,,X k (x 1,, x k )dx 1 dx k Teorema 58 (propiedades de la densidad conjunta) La densidad conjunta cumple: 1 f X1,,X k (x 1,, x k ) 0 2 R k f X1,,X k (x 1,, x k )dx 1 dx k = f X 1,,X k (x 1,, x k )dx 1 dx k = 1 Definición 42 (densidad marginal) La densidad marginal de un subvector X i1,, X ik está dada por: f Xi1,,X (x ik i 1,, x ik ) = f X1,,X k (x 1,, x k )dx j1 dx jk k, donde {i 1,, i k, j 1,, j k k } = {1,, k} (x j1,,x jk k ) Rk k 10 de 18

11 Definición 43 (independencia) X 1, X k son vectores aleatorios independientes sii: k p X1,,X k (x 1,, x k ) = p Xi (x i ), o k f X1,,X k (x 1,, x k ) = f Xi (x i ) Para buscar la distribución de una función g de varias variables aleatorias de las que se sabe la conjunta, si es continua se puede plantear la ecuación P (g(x 1,, X k ) = x) = P ((X 1,, X k ) = (x 1,, x k )) (x 1,,x k ) R k g(x 1,,x k )=x Para las continuas, por otro lado, se debe plantear F g(x1,,x k )(x) = P (g(x 1,, X k ) x) = (x 1,,x k ) R k g(x 1,,x k ) x f X1,,X k (x 1,, x k )dx 1 dx k Teorema 59 (Suma de binomiales) Si X Bi(n, p) e Y Bi(m, p) son independientes, entonces X + Y Bi(n + m, p) Teorema 60 (Suma de poisson) Si X P (λ) e Y P (µ) son independientes, entonces X + Y P (λ + µ) Teorema 61 (Suma de geométricas) Si X i G(p) son independientes, entonces i X i BN(n, p) Teorema 62 (Suma de exponenciales) Si X E(λ) e Y E(λ) son independientes, entonces X + Y Γ(2, λ) Teorema 63 (Suma de gamma) Si X Γ(α, λ) e Y Γ(β, λ) son independientes, entonces X + Y Γ(α + β, λ) Teorema 64 (Suma de normales) Si X N(µ, σ 2 ) e Y N(µ, σ 2 ) son independientes, entonces ax + by N(aµ + bµ, a 2 σ 2 + b 2 σ 2 ) Teorema 65 (Generadora de momentos de la suma) Si X e Y son independientes entonces Teorema 66 (Esperanza y varianza de la suma) M X+Y (t) = M X (t)m Y (t) E(aX + by ) = ae(x) + be(y) y V (ax + by ) = a 2 V (X) + b 2 V (Y ) + 2ab Cov(X, Y ) Teorema 67 (Esperanza y varianza del promedio) Sean X 1,, X n vaiid (variables aleatorias independientes idénticamente distribuidas) con E(X i ) = µ y V (X i ) = σ 2 Entonces E( X) = µ y V ( X) = σ2 n Teorema 68 (desigualdad de Chebyshev) Si X es una va con E(X) = µ y V (X) = σ 2 entonces: 1 ε > 0 P ( X µ > ε) σ2 ε 2 2 k > 0 P ( X µ > kσ) 1 k Definición 44 (límite en probabilidad) Diremos que una sucesión de va X n tiende en probabilidad a la va X y notaremos X i p X sii ε > 0 lím P ( X n X > ε) = 0 n Teorema 69 (ley de los grandes números) Sean X 1, X 2, vaiid (muestra aleatoria) con E(X i ) = µ y V (X i ) = σ 2 <, entonces X n p µ donde X n = n X i/n 11 de 18

12 Usando esta idea con la desigualdad de Chebyshev se puede encontrar la mínima cantidad de repeticiones de un experimento para estimar la media con error menor a un valor dado Teorema 70 (teorema central del límite) Sean X 1, X 2, vaiid con E(X i ) = µ y V (X i ) = σ 2 <, entonces si n es suficientemente grande (n)( X µ) donde d quiere decir que σ d Z N(0, 1), ( ) (n)( X µ) P a Φ(a) σ Observación 9 (corrección por continuidad) Cuando se usa el teorema central del límite para aproximar variables discretas tiene un problema Si se calcula P (X k) + P (X k + 1) debería dar 1, pero en la aproximación se pierde la medida del intervalo [k, k + 1] que por ser la aproximación continua, no es 0 Para esto se estima P (X k) como P (X (k + k )/2) donde k es el valor del rango de la va inmediato siguiente a k Observación 10 (aproximaciones normales) Algunas distribuciones, como la binomial, la poisson o la gamma, son sumas de sí misma Por lo tanto si el parametro sobre el cual se suma es suficientemente grande, es posible aproximarla por una normal como si se estuviera aproximando la suma 7 Medidas de resúmen Definición 45 (promedio o media muestral) El promedio o media muestral de una muestra aleatoria x 1,, x n está dado por x = 1 n x i n La media muestra es muy sensible a la presencia de anomalías Definición 46 (mediana muestral) La mediana muestral de una muestra aleatoria x 1 x 2 x n está dada por { x k x = 2k x = 1 2 (x k + x k+1 ) x = 2k + 1 Definición 47 (media α-podada) La media α-podada de una muestra aleatoria x 1 x 2 x n se define como la media de x [αn]+1,, x n [αn] Observación 11 (media, mediana y media α-podada) La media α-podada es un intermedio entre media y mediana La media es la media 0-podada y la mediana la media (0,5 ε)-podada Definición 48 (rango muestral) El rango muestral de una muestra aleatoria x 1 x 2 x n se define como x n x 1 El rango muestral es muy sensible a la presencia de outliers Definición 49 (varianza y desvío muestral) La varianza muestral de una muestra aleatoria x 1,, x n se define como n S 2 1 = (x i x) n 1 y el desvío como S = S 2 Definición 50 (coeficiente de variación) El coeficiente de variación de una muestra aleatoria x 1,, x n son desvío S se define como S/ x Definición 51 (percentiles y cuartiles) El percentil 100α de la muestra x 1,, x n es x α(n+1) si α(n + 1) es entero o mayor a n y (x α(n+1) + x α(n+1) )/2 en otro caso Llamaremos primer, segundo y tercer cuartil a los percentiles 25, 50 y 75 respectivamente El primer y tercer cuartiles tambien se llaman cuartil inferior y superior 12 de 18

13 Definición 52 (distancia intercuartil) Se define como la diferencia entre los cuartiles inferior y superior Es menos sensible a outliers que la varianza, el desvío y el rango Definición 53 (cuartos y distancia intercuartos) El cuarto inferior es la mediana de la mitad inferior de la muestra (redondeado hacia arriba) El cuarto superior es la mediana de la mitad superior La distancia intercuartos es la diferencia entre ambos Cuartos y cuartiles son muy similares Definición 54 (desvío absoluto mediano) El desvío absoluto mediano de la muestra x 1 x 2 x n se define como la mediana de las distancias a la mediana MAD = mediana( x i x ) Definición 55 (números de resúmen) Los 5 números de resúmen de una muestra son el mínimo, el máximo, la mediana y los cuartiles 8 Gráficos Tallo hoja Se pone la parte mas significativa de la medición como tallo y se usa para agrupar Como hoja se pone la parte menos significativa (se repite una sola vez el tallo por cada grupito y luego una lista de las hojas) Tallo hoja espalda con espalda Para comparar 2 grupos de mediciones, se usa el mismo tallo y se ponen ambas listas de hojas una hacia cada lado Histograma Se divide la muestra en intervalos disjuntos y se grafica una barra para cada intervalo con area igual a la frecuencia (o frecuencia relativa) de las mediciones dentro del intervalo Box-plot Se hace una caja entre los dos cuartiles con un segmento en el medio indicando la mediana Luego se hacen rectas que salen de la caja hasta el valor mas alejado hacia cada lado menor o igual a 15 de la distancia intercuartil (bigotes) Los valores que quedan fuera de este rango se representan con puntos individuales y son considerados anómalos (outliers) Box-plot paralelos Para comparar varios conjuntos de muestras, se hace un box plot para cada una paralelos con la misma escala en el eje Y QQ-plot Sirve para ver si una muestra se parece una distribución En el eje X se ponen los puntos observados ordenados y en el eje Y percentiles equidistribuidos de la distribución teórica y se observa cuánto se parece a una recta el gráfico obtenido 9 Métodos de estimación puntual Nota: Notaremos con X 1,, X n las va que representan la medición antes de hacerla y como x 1,, x n los valores de las mediciones propiamente dichas Cualquier función de los X i sera una va Definición 56 (momentos muestrales) Dada una muestra aleatoria (ma) X 1,, X n definimos el momento muestral de órden k como 1 m Xi k n Definición 57 (estimación de momentos) La estimación de momentos de los k parámetros de una distribución dada una muestra X 1,, X n estima los parámetros como las soluciones del sistema de ecuaciones que resulta de igualar los primeros momentos de la distribución con el correspondiente momento muestral (la cantidad necesaria de momentos a igualar dependen de la distribución) Teorema 71 (estimador de momentos de la exponencial) Si X 1,, X n entonces su estimador de momentos es ˆλ = 1/ X es una ma de una distribución E(λ) Teorema 72 (estimador de momentos de la gamma) Si X 1,, X n es una ma de una distribución Γ(α, λ) entonces su estimador de momentos es X X ˆλ 2 = X n y ˆα = n X2 i X n n X2 i 13 de 18

14 Teorema 73 (estimador de momentos de la uniforme) Si X 1,, X n es una ma de una distribución U(0, θ) entonces su estimador de momentos es ˆθ = 2 X Definición 58 (función de verosimilitud y estimación de máxima verosimilitud) Sea una distribución con función de probabilidad puntual p X o de densidad f X que depende de parámetros θ 1,, θ k Si x 1,, x n son los valores observados la función de verosimilitd L(θ 1,, θ k ) se define como p o f en el punto x 1,, x n usando θ 1,, θ k como parámetros La estimación de máxima verosimilitud (EMV) es el punto máximo de L Teorema 74 (estimador de máxima verosimilitud de la binomial) Sea X 1,, X n una ma de un experimento binomial de parámetro p Su EMV es ˆp = X Teorema 75 (estimador de máxima verosimilitud de la exponencial) Sea X 1,, X n una ma de una distribución E(λ), entonces su EMV es ˆλ = 1/ X Teorema 76 (estimador de máxima verosimilitud de la normal) Sea X 1,, X n una ma de una distribución N(µ, σ 2 ), entonces su EMV es ˆµ = X y ˆσ2 = 1 n (X i n X) 2 Teorema 77 (estimador de máxima verosimilitud de la uniforme) Sea X 1,, X n una ma de una distribución U(0, θ), entonces su EMV es ˆθ = máx i (X i ) Teorema 78 (invarianza de los EMV) Si θ 1,, θ n son estimadores de máxima verosimilitud de θ 1,, θ n entonces para toda función inyectiva f f( θ 1,, θ n ) lo es de f(θ 1,, θ n ) Definición 59 (sesgo) El sesgo de un estimador θ del parámetro θ se define como b( θ) = E θ ( θ) θ Un estimador θ se dice insesgado si b( θ) = 0 Definición 60 (asintóticamente insesgado) Un estimador θ es asintóticamente insesgado si lím n E θ ( θ) = θ Teorema 79 (sesgo del estimador de momentos de la uniforme) El estimador de momentos θ de una U(0, θ) es insesgado Teorema 80 (sesgo de EMVs conocidos) El EMV p de una Bi(n, p) es insesgado El EMV µ de una normal es insesgado, pero el EMV σ 2 sólo es asintóticamente insesgado El EMV θ de una U(0, θ) sólo es asintóticamente insesgado Teorema 81 (la varianza muestral es insesgado de la varianza) La varianza muestral S 2 es un estimador insesgado de σ 2 para cualquier distribución Definición 61 (estimador insesgado de mínima varianza) Se define como el estimador insesgado de varianza mínima (IMVU) al estimador θ insesgado tal que para todo estimador insesgado θ pasa que V θ ( θ) V θ ( θ ) Teorema 82 (estimador IMVU de la normal) Si la ma X 1,, X n viene de una N(µ, σ 2 ) entonces X es el estimador IMVU de µ Definición 62 (error estándar y error estándar estimado) Si θ es un estimador su error estándar es V θ ( θ) Reemplazando en dicha expresión los parámetros desconocidos por estimadores de los mismos se define el error estándar estimado Teorema 83 (error de estimación de la normal) Si la ma X 1,, X n viene de una N(µ, σ 2 ) y consideramos el estimador X de µ su error estándar es σ 2 /n y estimado S 2 /n Definición 63 (error cuadrático medio) El error cuadrático medio de θ es ECM θ ( θ) = E θ [( θ θ) 2 ] Teorema 84 (relación entre ECM y varianza) ECM θ ( θ) = V θ ( θ) + b( θ) 2 Definición 64 (estimador de menor ECM) Se define un estimador como tomar, entre varios estimadores, el de menor ECM Es una forma de hacer trade-off entre la varianza y el sesgo Para estimadores insesgados, el criterio es obviamente igual al de mínima varianza 14 de 18

15 Definición 65 (consistencia) Un estimador θ n basado en la muestra X 1,, X n es consistente si θ n p θ Teorema 85 (media consistente) X es un estimador consistente de µ = E(X) Teorema 86 (varianza consistente) S 2 X es un estimador consistente de σ2 = V (X) Teorema 87 (consistencia) Si el estimador θ n consistente lím E θ( θ n ) = θ y n lím V θ( θ n ) = 0 n 10 Intervalos de confianza Definición 66 (intervalo de confianza) Sea X 1,, X n una ma dependiente de un parámetro θ y dos funciones de la misma a y b tal que P (a(x 1,, X n ) θ b(x 1,, X n )) = 1 α, con α cercano a 0 Se llama intervalo de confianza para θ de nivel 1 α a [a(x 1,, X n ), b(x 1,, X n )] Definición 67 (distribución de Student) Si Z N(0, 1) y U χ 2 n = Γ(n/2, 1/2) son independientes entonces T = Z (U/n) t n donde t n es la distribución de student con n grados de libertad Está tabulada para distintos valores de n y tiende a una normal standard cuando n Teorema 88 Sea X 1,, X n una ma de una N(µ, σ 2 ), se cumple que: 1 X N(µ, σ 2 /n) n X µ σ N(0, 1) 2 (n 1)S 2 /σ 2 χ 2 n 1 3 X y S 2 son independientes 4 n x µ S t n 1 Notación: z α = P (X N(0, 1) α), t n,α = P (X Student(n) α), χ 2 n,α = P (X χ 2 n α) Teorema 89 (intervalos de confianza para la normal) Si X 1,, X n es una ma de distribucion N(µ, σ 2 ) y queremos intervalos de confianza de nivel 1 α entonces 1 Si σ 2 = σ0 2 es conocida, el intervalo para µ es [ X z 1 α/2σ 0, X + z ] 1 α/2σ 0 n n 2 Si µ = µ 0 es conocida, el intervalo para σ 2 es n (X i µ 0 ) 2 χ 2, n,1 α/2 n (X i µ 0 ) 2 χ 2 n,α/2 3 Si son ambos parámetros desconocidos el intervalo para µ es [ X t n 1,α/2 S n, X + t n 1,α/2 S n ] y para σ [ (n 1)S 2 χ 2, n 1,1 α/2 ] (n 1)S2 χ 2 n 1,α/2 15 de 18

16 Definición 68 (pivote) Sea X 1,, X n una ma dependiente de θ, se llama pivote a una función T (X 1,, X n, θ) cuya distribución no depende de θ ni de ningún otro parámetro Entonces, se toman a y b tal que Despejando se obtiene un intervalo de confianza para θ P (a T (X 1,, X n, θ) b) = 1 α Definición 69 (intervalos de confianza de nivel asintótico) Sea X 1, X 2, una ma dependiente de un parámetro θ y dos sucesiones de funciones de la misma a y b tal que lím P (a n(x 1,, X n ) θ P (b n (X 1,, X n )) = 1 α, n con α cercano a 0 Se llama sucesión de intervalos de confianza para θ de nivel asintótico 1 α a [a n (X 1,, X n ), b n (X 1,, X n )] También se dice que para n suficientemente grande [a n (X 1,, X n ), b n (X 1,, X n )] tiene nivel aproximado 1 α Teorema 90 (intervalos de confianza aproximados por la normal) Como n( X µ)/σ d N(0, 1) podemos usar la normal para determinar intervalos de confianza aproximados En particular el intervalo de confianza de nivel aproximado 1 α de µ = E(X i ) con σ desconocido es [ ] s X z α/2, X s + z α/2 n n 11 Test de hipótesis Definición 70 (hipótesis) Se denomina hipótesis nula y se nota H 0 a la hipótesis que implica el statu quo Por otro lado, la hipótesis alternativa o hipótesis del investigador H 1 es la que implica un cambio Definición 71 (zona de rechazo) La zona de rechazo es el conjunto de valores para los cuales se rechaza la hipótesis nula Su forma depende de como sea la hipótesis alternativa Definición 72 (test de hipótesis) Un test de hipótesis se basa en un estadístico (función de la muestra) y una zona de rechazo Definición 73 (p-valor) Definimos como p-valor a la probabilidad de que el estadístico tenga un valor menor o igual al observado si H 0 es cierta (suponiendo que H 1 es de la forma θ > θ 0 y que el estadístico es creciente en θ) Definición 74 (nivel de significación del test) El nivel de significación del test, notado α es la probabilidad de de rechazar H 0 si es cierta A la probabilidad de no rechazarla dado que no es cierta se la nota por β En general construimos el estadístico suponiendo que H 0 es cierta, asi que podemos controlar α y es lo que haremos Definición 75 (función de potencia) La función de potencia de un test π(µ) es la probabilidad de rechazar H 0 cuando el verdadero valor del parámetro es µ (ie, la probabilidad de la zona de rechazo) Depende de ambos tipos de error, pues { α(µ) µ H 0 π(µ) = 1 β(µ) µ H 1 Teorema 91 (test para la normal de varianza conocida) Para testear contra el valor µ 0 el estadístico del test es T = n X µ 0 σ 0 N(0, 1) Según cual sea H 1 la zona de rechazo y la función de potencia serán ( 1 H 1 = µ > µ 0 : T z α, π(µ) = 1 Φ z α + n µ ) 0 µ ( 2 H 1 = µ < µ 0 : T z α, π(µ) = Φ z α + n µ ) 0 µ σ 0 σ 0 16 de 18

17 ( 3 H 1 = µ µ 0 : T z α/2, π(µ) = 1 Φ z α/2 + n µ ) ( 0 µ + Φ z α/2 + n µ ) 0 µ σ 0 σ 0 Teorema 92 (test para la normal de varianza desconocida) Para testear contra el valor µ 0 el estadístico del test es T = n X µ 0 t n 1 S Según cual sea H 1 la zona de rechazo será 1 H 1 = µ > µ 0 : T t n 1,α 2 H 1 = µ < µ 0 : T t n 1,α 3 H 1 = µ µ 0 : T t n 1,α/2 Teorema 93 (test para la varianza de la normal con media desconocida) Para testear contra el valor µ 0 el estadístico del test es (n 1)S2 T = σ0 2 χ 2 n 1 Según cual sea H 1 la zona de rechazo será 1 H 1 = µ > µ 0 : T χ 2 n 1,α 2 H 1 = µ < µ 0 : T χ 2 n 1,1 α 3 H 1 = µ µ 0 : T χ 2 n 1,α/2 ó T χ2 n 1,1 α/2 Teorema 94 (test aproximado para la media de una distribución cualquier) Como X n d N(0, 1) podemos usar un test similar al de la normal usando s en lugar de σ (ya que s σ) 17 de 18

18 12 Resúmen de distribuciones 121 Distribuciones Discretas Nombre X p X (k) E(X) V(X) M X (t) ( ) n Binomial Bi(n, p) p k (1 p) n k np np(1 p) (e t p + 1 p) n k Geométrica G(p) (1 p) k 1 1 p ( ) p k 1 Binomial Negativa BN(p, r) (1 p) k r p r r r 1)( ) p N D Hipergeométrica H(n, N, D) Poisson P (λ) 122 Distribuciones Continuas ( D k ( n ) k n D N N n e λ λ k k! 1 p p 2 r(1 p) p 2 ( ) N n n D ( 1 D ) N 1 N N pe t ( 1 (1 p)e t pe t 1 (1 p)e t λ λ e λ(et 1) ) r Nombre X f X (x) F X (x) E(X) V(X) M X (t) 1 Uniforme U(A, B) B A I x A [A,B](x) B A I A + B (B A) 2 e tb e ta [A,B](x) 2 12 t(b a) µ)2 σ 2 t 2 Normal N(µ, σ 2 1 (x ) e 2σ 2 + µt Φ(x) µ σ 2 e 2 2πσ e λx x α 1 λ α ( ) α α α λ Gamma Γ(α, λ) Γ(α) λ λ 2 λ t Exponencial E(λ) e λx λ 1 e λx λ 1 λ 2 λ λ t 123 Distribución Vectorial Discreta Nombre X p X1,,X k (x 1,, x k ) Multinomial M(n, p 1,, p k ) k p xi i n! x i! 18 de 18

Tema 6: Modelos de probabilidad.

Tema 6: Modelos de probabilidad. Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos

Más detalles

Variables aleatorias continuas, TCL y Esperanza Condicional

Variables aleatorias continuas, TCL y Esperanza Condicional Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función

Más detalles

Modelos de distribuciones discretas y continuas

Modelos de distribuciones discretas y continuas Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Modelos de distribuciones discretas y continuas Estadística I curso 2008 2009 1. Distribuciones discretas Aquellas

Más detalles

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables Pág. N. 1 Índice general Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN 1.1 Diseño 1.2 Descriptiva 1.3 Inferencia Diseño Población Muestra Individuo (Observación, Caso, Sujeto) Variables Ejercicios de Población

Más detalles

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos Contenido Acerca de los autores.............................. Prefacio.... xvii CAPÍTULO 1 Introducción... 1 Introducción.............................................. 1 1.1 Ideas de la estadística.........................................

Más detalles

Tablas de Probabilidades

Tablas de Probabilidades Tablas de Probabilidades Ernesto Barrios Zamudio José Ángel García Pérez José Matuk Villazón Departamento Académico de Estadística Instituto Tecnológico Autónomo de México Mayo 2016 Versión 1.00 1 Barrios

Más detalles

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico Formulario. Estadística Administrativa Módulo 1. Introducción al análisis estadístico Histogramas El número de intervalos de clase, k, se elige de tal forma que el valor 2 k sea menor (pero el valor más

Más detalles

I. Distribuciones discretas

I. Distribuciones discretas Probabilidades y Estadística (M) Funciones de densidad o probabilidad puntual, esperanzas, varianzas y funciones características de las variables aleatorias más frecuentes I. Distribuciones discretas Distribución

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

478 Índice alfabético

478 Índice alfabético Índice alfabético Símbolos A, suceso contrario de A, 187 A B, diferencia de los sucesos A y B, 188 A/B, suceso A condicionado por el suceso B, 194 A B, intersección de los sucesos A y B, 188 A B, unión

Más detalles

Definición Una hipótesis es una afirmación acerca de un parámetro.

Definición Una hipótesis es una afirmación acerca de un parámetro. Capítulo 8 Prueba de hipótesis Existen dos áreas de interés en el proceso de inferencia estadística: la estimación puntual y las pruebas de hipótesis. En este capítulo se presentan algunos métodos para

Más detalles

Curso de Probabilidad y Estadística

Curso de Probabilidad y Estadística Curso de Probabilidad y Estadística Distribuciones de Probabilidad Dr. José Antonio Camarena Ibarrola camarena@umich.mx Universidad Michoacana de San Nicolás de Hidalgo Facultad de Ingeniería Eléctrica

Más detalles

Prof. Eliana Guzmán U. Semestre A-2015

Prof. Eliana Guzmán U. Semestre A-2015 Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos

Más detalles

Cálculo de Probabilidades II Preguntas Tema 1

Cálculo de Probabilidades II Preguntas Tema 1 Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga

Más detalles

F (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0

F (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0 Probabilidades y Estadística (M) Práctica 5 1 o cuatrimestre 2014 Vectores aleatorios 1. a) Demostrar que la función F (x, y) = 1 e x y si x 0, y 0 0 en caso contrario no es la función de distribución

Más detalles

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición... Contenidos 1 Introducción al paquete estadístico S-PLUS 19 1.1 Introducción a S-PLUS............................ 21 1.1.1 Cómo entrar, salir y consultar la ayuda en S-PLUS........ 21 1.2 Conjuntos de datos..............................

Más detalles

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas Distribuciones Probabilísticas Curso de Estadística TAE,005 J.J. Gómez Cadenas Distribución Binomial Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo

Más detalles

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando

Más detalles

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Curso 2016-2017 Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme

Más detalles

PROGRAMA DE ESTADÍSTICA DESCRIPTIVA

PROGRAMA DE ESTADÍSTICA DESCRIPTIVA PROGRAMA DE ESTADÍSTICA DESCRIPTIVA CONCEPTOS BÁSICOS DE ESTADÍSTICA Definición de Estadística Origen del concepto. Evolución histórica de la Estadística Estadística Descriptiva y Estadística Inferencial

Más detalles

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

Tema 4: Variable Aleatoria Bidimensional

Tema 4: Variable Aleatoria Bidimensional Curso 2016-2017 Contenido 1 Definición de Variable Aleatoria Bidimensional 2 Distribución y fdp Conjunta 3 Clasificación de Variables Aleatorias Bidimensionales 4 Distribuciones Condicionales 5 Funciones

Más detalles

Variables aleatorias bidimensionales discretas

Variables aleatorias bidimensionales discretas Universidad de San Carlos de Guatemala Facultad de Ingeniería Área de Estadística VARIABLES ALEATORIAS BIDIMENSIONALES Concepto: Sean X e Y variables aleatorias. Una variable aleatoria bidimensional (X,

Más detalles

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X Momentos El momento k-ésimo para una variable aleatoria discreta respecto del origen, es E(x) n = i = 1 k i ( ) x.p x El primer momento centrado en el origen (k=1) es la esperanza matemática de X También

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis Facultad de Ciencias Sociales, UdelaR Índice 1. Introducción: hipótesis estadística, tipos de hipótesis, prueba de hipótesis 2.

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema: Modelos de probabilidad Modelos de probabilidad Distribución de Bernoulli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno será capaz

Más detalles

Tema 4: Probabilidad y Teoría de Muestras

Tema 4: Probabilidad y Teoría de Muestras Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009

Más detalles

Variable Aleatoria Continua. Principales Distribuciones

Variable Aleatoria Continua. Principales Distribuciones Variable Aleatoria Continua. Definición de v. a. continua Función de Densidad Función de Distribución Características de las v.a. continuas continuas Ejercicios Definición de v. a. continua Las variables

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando

Más detalles

Bachillerato Internacional. Matemáticas Nivel Medio. Programa para el curso 1º ( )

Bachillerato Internacional. Matemáticas Nivel Medio. Programa para el curso 1º ( ) 1 Bachillerato Internacional. Matemáticas Nivel Medio. Programa para el curso 1º (2015-2016) Tema 1: NÚMEROS REALES Conjuntos numéricos. Números naturales. Números enteros. Números racionales. Números

Más detalles

Tema 2: Variables Aleatorias Unidimensionales

Tema 2: Variables Aleatorias Unidimensionales Tema 2: Variables Aleatorias Unidimensionales Teorı a de la Comunicacio n Curso 27-28 Contenido 1 Concepto de Variable Aleatoria 2 Función Distribución 3 Clasificación de Variables Aleatorias 4 Función

Más detalles

Contenidos IB-Test Matemática NM 2014.

Contenidos IB-Test Matemática NM 2014. REDLAND SCHOOL MATHEMATICS DEPARTMENT 3 MEDIO NM 1.- Estadística y probabilidad. Contenidos IB-Test Matemática NM 2014. 1.1.- Conceptos de población, muestra, muestra aleatoria, y datos discretos y continuos.

Más detalles

Preparación de los datos de entrada

Preparación de los datos de entrada Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:

Más detalles

TEMA 2: DISTRIBUCIONES DE PROBABILIDAD

TEMA 2: DISTRIBUCIONES DE PROBABILIDAD ESTADÍSTICA, CURSO 008 009 TEMA : DISTRIBUCIONES DE PROBABILIDAD LEYES DE PROBABILIDAD. SUCESOS ALEATORIOS Experimetos aleatorios, espacio muestral. Sucesos elemetales y compuestos. Suceso imposible Ø,

Más detalles

Tema 4: Variables aleatorias multidimensionales

Tema 4: Variables aleatorias multidimensionales 1 Tema 4: Variables aleatorias multidimensionales En este tema: Distribución conjunta de probabilidad Probabilidad/densidad marginal Probabilidad/densidad condicionada Esperanza, varianza, desviación típica

Más detalles

Distribuciones de probabilidad bidimensionales o conjuntas

Distribuciones de probabilidad bidimensionales o conjuntas Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso

Más detalles

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7) TEMA Nº 7 DISTRIBUCIONES CONTINUAS DE PROBABILIDAD OBJETIVOS DE APRENDIZAJE: Conocer las características de la distribución normal como distribución de probabilidad de una variable y la aproximación de

Más detalles

Tema 4: Variables aleatorias multidimensionales

Tema 4: Variables aleatorias multidimensionales Tema 4: Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Distribución conjunta de probabilidad Probabilidad/densidad marginales y condicionadas Independencia

Más detalles

Tema 10: Introducción a los problemas de Asociación y Correlación

Tema 10: Introducción a los problemas de Asociación y Correlación Tema 10: Introducción a los problemas de Asociación y Correlación Estadística 4 o Curso Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 10: Asociación y Correlación

Más detalles

Variables aleatorias unidimensionales

Variables aleatorias unidimensionales Estadística II Universidad de Salamanca Curso 2011/2012 Outline Variable aleatoria 1 Variable aleatoria 2 3 4 Variable aleatoria Definición Las variables aleatorias son funciones cuyos valores dependen

Más detalles

Modelado de la aleatoriedad: Distribuciones

Modelado de la aleatoriedad: Distribuciones Modelado de la aleatoriedad: Distribuciones Begoña Vitoriano Villanueva Bvitoriano@mat.ucm.es Facultad de CC. Matemáticas Universidad Complutense de Madrid I. Distribuciones Discretas Bernoulli (p) Aplicaciones:

Más detalles

Determinación del tamaño de muestra (para una sola muestra)

Determinación del tamaño de muestra (para una sola muestra) STATGRAPHICS Rev. 4/5/007 Determinación del tamaño de muestra (para una sola muestra) Este procedimiento determina un tamaño de muestra adecuado para la estimación o la prueba de hipótesis con respecto

Más detalles

Unidad IV: Distribuciones muestrales

Unidad IV: Distribuciones muestrales Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia

Más detalles

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. Introducción al Tema 8 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos

Más detalles

Algunas Distribuciones Discretas de Probabilidad. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Discretas de Probabilidad. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Discretas de Probabilidad UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

TEMA 3: Probabilidad. Modelos. Probabilidad

TEMA 3: Probabilidad. Modelos. Probabilidad TEM 3: Probabilidad. Modelos Probabilidad Fenómeno aleatorio: es aquel cuyos resultados son impredecibles. Ejemplos: Lanzamiento de una moneda: Resultados posibles: cara, cruz. Selección al azar de un

Más detalles

Unidad Temática 3: Probabilidad y Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA FACULTAD DE INGENIERÍA U N A M PROBABILIDAD Y ESTADÍSTICA Irene Patricia Valdez y Alfaro irenev@unam.mx T E M A S DEL CURSO 1. Análisis Estadístico de datos muestrales. 2. Fundamentos de la Teoría de la

Más detalles

1. La Distribución Normal

1. La Distribución Normal 1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando

Más detalles

Cap. 5 : Distribuciones muestrales

Cap. 5 : Distribuciones muestrales Cap. 5 : Distribuciones muestrales Alexandre Blondin Massé Departamento de Informática y Matematica Université du Québec à Chicoutimi 18 de junio del 2015 Modelado de sistemas aleatorios Ingeniería de

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA 4 horas a la semana 8 créditos Semestre variable según la carrera Objetivo del curso: Analizar y resolver problemas de naturaleza aleatoria en la ingeniería, aplicando conceptos

Más detalles

Capítulo 6: Variable Aleatoria Bidimensional

Capítulo 6: Variable Aleatoria Bidimensional Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el

Más detalles

INDICE. Prólogo a la Segunda Edición

INDICE. Prólogo a la Segunda Edición INDICE Prólogo a la Segunda Edición XV Prefacio XVI Capitulo 1. Análisis de datos de Negocios 1 1.1. Definición de estadística de negocios 1 1.2. Estadística descriptiva r inferencia estadística 1 1.3.

Más detalles

Expresión decimal. Aproximación y estimación. Notación científica. Polinomios. Divisibilidad de polinomios. Regla de Ruffini.

Expresión decimal. Aproximación y estimación. Notación científica. Polinomios. Divisibilidad de polinomios. Regla de Ruffini. Otras páginas Matemáticas 5º Matemáticas I. Bloque I: ARITMÉTICA Y ÁLGEBRA Los números reales Los números reales, concepto y características. Estructura algebraica, orden, representación en la recta real

Más detalles

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad II Algunas distribuciones notables Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid La distribución normal f (x; µ, σ) = 1 σ 2π e 1 2( x µ σ ) 2, x R, µ R, σ > 0 E(X

Más detalles

CONTENIDO. Prólogo a la 3. a edición en español ampliada... Prólogo...

CONTENIDO. Prólogo a la 3. a edición en español ampliada... Prólogo... CONTENIDO Prólogo a la 3. a edición en español ampliada.................................. Prólogo.................................................................. vii xvii 1. Métodos descriptivos................................................

Más detalles

Derivada y diferencial

Derivada y diferencial Derivada y diferencial Una cuestión, que aparece en cualquier disciplina científica, es la necesidad de obtener información sobre el cambio o la variación de determinadas cantidades con respecto al tiempo

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad

Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 2.1. Variables aleatorias: funciones de distribución,

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias

Más detalles

Distribuciones de probabilidad multivariadas

Distribuciones de probabilidad multivariadas Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable

Más detalles

ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.

ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la Estimación Puntual, que es uno de los tres grandes conjuntos de técnicas que

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

T2. El modelo lineal simple

T2. El modelo lineal simple T2. El modelo lineal simple Ana J. López y Rigoberto Pérez Dpto Economía Aplicada. Universidad de Oviedo Curso 2010-2011 Curso 2010-2011 1 / 40 Índice 1 Planteamiento e hipótesis básicas 2 Estimación de

Más detalles

Variables aleatorias

Variables aleatorias Distribuciones continuas Se dice que una variable aleatoria X tiene una distribución continua, o que X es una variable continua, si existe una función no negativa f, definida sobre los números reales,

Más detalles

Distribuciones de probabilidad más usuales

Distribuciones de probabilidad más usuales Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y

Más detalles

Tema 13: Distribuciones de probabilidad. Estadística

Tema 13: Distribuciones de probabilidad. Estadística Tema 13: Distribuciones de probabilidad. Estadística 1. Variable aleatoria Una variable aleatoria es una función que asocia a cada elemento del espacio muestral, de un experimento aleatorio, un número

Más detalles

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos INDICE Prefacio VII 1. Introducción 1 1.1. Qué es la estadística moderna? 1 1.2. El crecimiento y desarrollo de la estadística moderna 1 1.3. Estudios enumerativos en comparación con estudios analíticos

Más detalles

INDICE 1. Qué es la Estadística? 2.Descripción de Datos: Distribuciones de Frecuencia y Presentación Gráfica

INDICE 1. Qué es la Estadística? 2.Descripción de Datos: Distribuciones de Frecuencia y Presentación Gráfica INDICE 1. Qué es la Estadística? 1 Introducción 2 Qué significa estadística? 2 Por qué se estudia la estadística? 4 Tipos de estadística 5 Estadística descriptiva 5 Estadística inferencial 6 Tipos de variables

Más detalles

Introducción a los Procesos de Poisson *

Introducción a los Procesos de Poisson * Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22

Más detalles

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido Tema 4 Variables aleatorias En este tema se introduce el concepto de variable aleatoria y se estudian los distintos tipos de variables aleatorias a un nivel muy general, lo que nos permitirá manejar los

Más detalles

CUERPO TÉCNICO, OPCION ESTADISTICA

CUERPO TÉCNICO, OPCION ESTADISTICA CUERPO TÉCNICO, OPCION ESTADISTICA ESTADÍSTICA TEÓRICA BÁSICA TEMA 1. Fenómenos aleatorios. Conceptos de probabilidad. Axiomas. Teoremas de probabilidad. Sucesos independientes. Teorema de Bayes. TEMA

Más detalles

Contrastes de hipótesis paramétricos

Contrastes de hipótesis paramétricos Estadística II Universidad de Salamanca Curso 2011/2012 Outline Introducción 1 Introducción 2 Contraste de Neyman-Pearson Sea X f X (x, θ). Desonocemos θ y queremos saber que valor toma este parámetro,

Más detalles

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4 PS0401 - Probabilidad y Estadística DES: Ingeniería Programa(s) Educativo(s): Ingeniería de Software Tipo de materia: Obligatoria Clave de la materia: PS0401 Cuatrimestre: 4 UNIVERSIDAD AUTÓNOMA DE Área

Más detalles

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso INDICE Capítulo I: Conceptos Básicos 1.- Introducción 3 2.- Definición de calidad 7 3.- Política de calidad 10 4.- Gestión de la calidad 12 5.- Sistema de calidad 12 6.- Calidad total 13 7.- Aseguramiento

Más detalles

Definición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,...

Definición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,... Índice 4 MODELOS DE DISTRIBUCIONES 4.1 4.1 Introducción.......................................... 4.1 4.2 Modelos de distribuciones discretas............................. 4.1 4.2.1 Distribución Uniforme

Más detalles

Definición de probabilidad

Definición de probabilidad Tema 5: LA DISTRIBUCIÓN NORMAL 1. INTRODUCCIÓN A LA PROBABILIDAD: Definición de probabilidad Repaso de propiedades de conjuntos (Leyes de Morgan) Probabilidad condicionada Teorema de la probabilidad total

Más detalles

Ejercicio 1. Ejercicio 2

Ejercicio 1. Ejercicio 2 Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función

Más detalles

Introducción a la Inferencia Estadística

Introducción a la Inferencia Estadística MÁSTER EN ESTADÍSTICA PÚBLICA Experto Universitario: Estadística Aplicada y Técnicas de Encuestación 1 Introducción a la Inferencia Estadística Estimación puntual paramétrica M a Teresa Gómez Departamento

Más detalles

Tema 3: Funcio n de Variable Aleatoria

Tema 3: Funcio n de Variable Aleatoria Tema 3: Funcio n de Variable Aleatoria Teorı a de la Comunicacio n Curso 2007-2008 Contenido 1 Función de una Variable Aleatoria 2 3 Cálculo de la fdp 4 Generación de Números Aleatorios 5 Momentos de una

Más detalles

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria Tema 4: Variables aleatorias discretas Objetivos Dominar el uso de las funciones asociadas a una variable aleatoria discreta para calcular probabilidades. Conocer el signicado y saber calcular la esperanza

Más detalles

Estadística Aplicada

Estadística Aplicada Estadística Aplicada Distribuciones de Probabilidad Variables aleatorias Toman un valor numérico para cada resultado de un espacio muestral Discretas. Sus valores posibles constituyen un conjunto discreto.

Más detalles

Tema 8: Contraste de hipótesis

Tema 8: Contraste de hipótesis Tema 8: Contraste de hipótesis 1 En este tema: Conceptos fundamentales: hipótesis nula y alternativa, nivel de significación, error de tipo I y tipo II, p-valor. Contraste de hipótesis e IC. Contraste

Más detalles

Ejemplos Resueltos Tema 4

Ejemplos Resueltos Tema 4 Ejemplos Resueltos Tema 4 2012 1. Contraste de Hipótesis para la Media µ (con σ conocida) Dada una muestra de tamaño n y conocida la desviación típica de la población σ, se desea contrastar la hipótesis

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es

Más detalles

ÍNDICE CAPÍTULO 1. INTRODUCCIÓN

ÍNDICE CAPÍTULO 1. INTRODUCCIÓN ÍNDICE CAPÍTULO 1. INTRODUCCIÓN 1.1. OBJETO DE LA ESTADÍSTICA... 17 1.2. POBLACIONES... 18 1.3. VARIABLES ALEATORIAS... 19 1.3.1. Concepto... 19 1.3.2. Variables discretas y variables continuas... 20 1.3.3.

Más detalles

I.T. INDUSTRIAL METODOS ESTADÍSTICOS. FORMULARIO I. ESTADISTICA DESCRIPTIVA Xv.a. Media x = n n i x 2 Varianza poblacional σ 2 i

I.T. INDUSTRIAL METODOS ESTADÍSTICOS. FORMULARIO I. ESTADISTICA DESCRIPTIVA Xv.a. Media x = n n i x 2 Varianza poblacional σ 2 i I.T. INDUSTRIAL METODOS ESTADÍSTICOS FORMULARIO I. ESTADISTICA DESCRIPTIVA Xv.a k modalidades x 1,x,..., x k ; datos i x i Media x = i x Variaza poblacioal σ i = x i (x i x) Variaza muestral S = 1 (x i

Más detalles

ESTADÍSTICA. Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5):

ESTADÍSTICA. Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5): ESTADÍSTICA AYUDAS PARA EL TEST (1ºParcial) 1) La suma de probabilidades de todos los casos posibles de un experimento tiene que ser igual a uno. 2) La probabilidad de aprobar este test (5 preguntas, cada

Más detalles

Tema 2: Variables Aleatorias

Tema 2: Variables Aleatorias Estadística Aplicada I. Curso 2009-2010 Tema 2: Variables Aleatorias José G. Clavel 1 1 Departamento de Métodos Cuantitativos para la Economía y la Empresa jjgarvel@um.es Universidad de Murcia 6 de octubre

Más detalles

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith) INTERVALOS DE CONFIANZA La estadística en cómic (L. Gonick y W. Smith) EJEMPLO: Será elegido el senador Astuto? 2 tamaño muestral Estimador de p variable aleatoria poblacional? proporción de personas que

Más detalles

Tema 3. VARIABLES ALEATORIAS.

Tema 3. VARIABLES ALEATORIAS. 3..- Introducción. Tema 3. VARIABLES ALEATORIAS. Objetivo: Encontrar modelos matemáticos para el trabajo con probabilidad de sucesos. En particular, se quiere trabajar con funciones reales de variable

Más detalles

Cálculo y EstadísTICa. Primer Semestre.

Cálculo y EstadísTICa. Primer Semestre. Cálculo y EstadísTICa. Primer Semestre. EstadísTICa Curso Primero Graduado en Geomática y Topografía Escuela Técnica Superior de Ingenieros en Topografía, Geodesia y Cartografía. Universidad Politécnica

Más detalles

Algunas Distribuciones Estadísticas Teóricas. c) Relación entre la Distribuciones de Poisson y Exponencial.

Algunas Distribuciones Estadísticas Teóricas. c) Relación entre la Distribuciones de Poisson y Exponencial. Algunas Distribuciones Estadísticas Teóricas Distribución Continuas: a) Distribución Uniforme b) Distribución de Exponencial c) Relación entre la Distribuciones de Poisson y Exponencial. d) Distribución

Más detalles