Tema 1. Probabilidad y modelos probabiĺısticos

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Tema 1. Probabilidad y modelos probabiĺısticos"

Transcripción

1 1 Tema 1. Probabilidad y modelos probabiĺısticos En este tema: Probabilidad Variables aleatorias Modelos de variables aleatorias más comunes Vectores aleatorios Tema 1. Probabilidad y modelos probabiĺısticos 2 Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad condicionada. Sucesos Independientes. Teoremas fundamentales del cálculo de probabilidades: regla de la multiplicación, th. de la probabilidad total y th. de Bayes. Variables aleatorias: Concepto de variable aleatoria. Variables aleatorias discretas: función de probabilidad, función de distribución, momentos. Variables aleatorias continuas: función de densidad, función de distribución, momentos. Algunas propiedades de la esperanza y la varianza.

2 3 Tema 1. Probabilidad y modelos probabiĺısticos Modelos de variables aleatorias más comunes: Distribución Bernoulli Distribución Binomial Distribución de Poisson Distribución uniforme continua Distribución exponencial Distribución normal Teorema Central del Límite Distribuciones asociadas a la normal (Tema 4. Introducción a la Inferencia Estadística) Vectores aleatorios: Concepto de vector aleatorio. Vectores aleatorios discretos: distribución conjunta, distribuciones marginales, distribuciones condicionadas, independencia. Vectores aleatorios continuos: distribución conjunta, distribuciones marginales, distribuciones condicionadas, independencia. Covarianza, correlación y esperanza condicionada. Algunas propiedades de la esperanza y la varianza Conceptos básicos 4 Experimento aleatorio: proceso de observar un fenómeno del que se conocen de antemano todos sus posibles resultados, pero a partir de las condiciones iniciales no puede predecirse exactamente cuál de estos resultados se producirá. Espacio muestral: es el conjunto de todos los posibles resultados de un experimento aleatorio. Se denota por Ω = {e 1,e 2,...,e n,...} y cada uno de sus elementos se denomina suceso elemental o punto muestral. Un espacio muestral (correspondiente a un determinado experimento aleatorio) tiene asociada una colección F no vacía de subconjuntos de Ω. Los elementos de F se denominan sucesos y se denotan por las letras A,B,C,...

3 Conceptos básicos: ejemplos Experimento aleatorio: lanzamiento de un dado Espacio muestral finito: Ω = {1,2,3,4,5,6} Sucesos elementales (o puntos muestrales): 1, 2,3,4, 5 y 6 Sucesos aleatorios: A = obtener una puntuación par = {2,4,6}, B = obtener una puntuación superior a 3 = {4,5,6}. Exp. aleatorio: número de accesos a la página web de la universidad el próximo lunes Espacio muestral infinito numerable: Ω = {0,1,2,...,n,...} = N {0} Sucesos elementales: 0,1,2,3,... Sucesos aleatorios: A = se reciben al menos 100 accesos = {100,101,...} y B = se reciben menos de 500 accesos = {0,1,...,499}. Exp. aleatorio: precio de una cierta acción al cierre de sesión del próximo lunes Espacio muestral infinito no numerable: Ω = (0,+ ), o siendo realistas, Ω = (0,M) Sucesos elementales: x (0,M) Sucesos aleatorios: A = el precio de cierre es superior a 5 euros = (5,M) y B = precio de cierre entre 3 y 8 euros = (3,8). 5 Sucesos triviales Sucesos: conceptos básicos Suceso seguro: siempre se verifica después del experimento aleatorio. El propio espacio muestral Ω Suceso imposible: nunca se verifica como resultado del experimento aleatorio. El conjunto vacío Ω Suceso complementario o contrario a un suceso A: suceso que se verifica cuando no se verifica A. Es el conjunto de todos los sucesos elementales de Ω que no están en A. Se suele denotar por A c ó A 6

4 Operaciones básicas con sucesos aleatorios 7 Intersección de sucesos: Si A y B son dos sucesos del espacio muestral Ω, entonces el suceso intersección, A B, es el conjunto de todos los elementos de Ω que están en A y en B a la vez. Operaciones básicas con sucesos aleatorios 8 A y B son sucesos incompatibles si no tienen ningún suceso elemental en común, i.e., el suceso intersección es el suceso imposible, A B =

5 Operaciones básicas con sucesos aleatorios 9 Unión de sucesos: Si A y B son dos sucesos de un espacio muestral Ω, entonces el suceso unión, A B, es el conjunto de todos los sucesos elementales de Ω que pertenecen a cualquiera de los dos, A ó B. Operaciones básicas con sucesos aleatorios 10 Diferencia de sucesos: Si A y B son dos sucesos de un espacio muestral Ω, entonces el suceso diferencia, A\B, es el conjunto de todos los sucesos elementales de Ω que pertenecen a A pero no a B.

6 11 Operaciones básicas con sucesos aleatorios Leyes de Morgan Relación entre la unión, intersección y suceso complementario A B = A B A B = A B Ejemplo: lanzamiento de un dado 12 Consideremos el experimento aleatorio resultado observado al lanzar un dado : suceso elemental: el 1, el 2, el 3, el 4, el 5, el 6 espacio muestral: Ω = {1,2,3,4,5,6} suceso: A = {2,4,6} B = {4,5,6} El suceso A es sale un número par. El suceso B es sale un número mayor que tres.

7 13 Ejemplo: lanzamiento de un dado Ω = {1,2,3,4,5,6} A = {2,4,6} B = {4,5,6} Complementario: Intersección: Ā = {1,3,5} B = {1,2,3} A B = {4,6} Ā B = {1,3} Unión: A B = {2,4,5,6} Ā B = {1,2,3,5} A Ā = {1,2,3,4,5,6} = Ω Sucesos incompatibles: A Ā = Probabilidad. Intuición 14 La probabilidad es una medida subjetiva sobre la incertidumbre de que suceda cierto suceso. Al tirar un dado: la probabilidad de que salga un 1 es más pequeña que la probabilidad de que salga un número mayor que uno la probabilidad de que salga un 4 es igual que la probabilidad de que salga un 6. la probabilidad de que salga un 7 es mínima, igual a la probabilidad del suceso imposible la probabilidad de que salga un número positivo es máxima, igual a la probabilidad del suceso seguro

8 Tres enfoques/interpretaciones 15 Probabilidad clásica (regla de Laplace): Considera un experimento para el que todos los sucesos elementales son equiprobables. Si A es un suceso formado por n(a) puntos muestrales, entonces se define la probabilidad de A como P(A) = número de casos favorables a A número de casos posibles = n(a) n(ω). Enfoque frecuentista: Si repetiéramos el experimento muchas veces, la frecuencia con que ocurre el suceso sería una aproximación de la probabilidad. Probabilidad el valor ĺımite de la frecuencia Probabilidad subjetiva: Depende de la información que tengamos en ese momento. Probabilidad creencia o certeza de que ocurra Propiedades de la probabilidad 16 Definición Sea F la colección no vacía de todos los sucesos de Ω. La probabilidad es una aplicación P : F [0,1], que asigna a cada suceso A F un valor numérico P(A), verificando: P(A) 0, para todo suceso A F P(Ω) = 1 Probabilidad de la unión de sucesos disjuntos: si A y B son incompatibles, entonces P(A B) = P(A)+P(B). Propiedades Probabilidad del complementario: P(Ā) = 1 P(A). P( ) = 0. Si A B P(A) P(B) Si A = {e 1,...,e n } finito (o infinito numerable) P(A) = n i=1 P(e i) Probabilidad de la unión: P(A B) = P(A)+P(B) P(A B).

9 17 Ejemplo: lanzamiento de un dado Probabilidad de un suceso elemental: P(e i ) = 1 6 Probabilidad de que salga par: A = {2,4,6}, luego P(A) = P( 2 )+P( 4 )+P( 6 ) = = 1 2 = n(a) n(ω) Probabilidad de que salga mayor que 3: B = {4,5,6}, luego P(B) = P( 4 )+P( 5 )+P( 6 ) = = 1 2 = n(b) n(ω) Probabilidad de que salga impar P(Ā) = 1 P(A) = = 1 2 Ejemplo: lanzamiento de un dado 18 Probabilidad de que salga par o mayor que tres P(A B) = P(A)+P(B) P(A B) Como A B = {4,6}, entonces P(A B) = 2 6 = 1 3 = n(a B) n(ω) P(A B) = = 4 6 = 2 3 = n(a B) n(ω) Probabilidad de que salga par o igual a uno. Los sucesos A = {2,4,6} y C = {1} son incompatibles (A C = ) por tanto P(A C) = P(A)+P(C) = = 4 6 = 2 3 = n(a C) n(ω)

10 Probabilidad condicionada: ejemplo Se clasifica un grupo de 100 ejecutivos de acuerdo a su peso y a si sufren o no de hipertensión. La tabla muestra el número de ejecutivos en cada categoría. Insuficiente Normal Sobrepeso Total Hipertenso Normal Total Experimento aleatorio: seleccionar al azar a uno de esos 100 ejecutivos para medir su tensión y su peso. Espacio muestral: Ω = {(H,I),(H,N),(H,S),(N,I),(N,N),(N,S)} Si se elige un ejecutivo al azar, cuál es la probabilidad de que tenga hipertensión? P(H) = = 0,2 n(h) n(ω) Si se elige a una persona al azar, y se descubre que tiene sobrepeso, cuál es la probabilidad de que tenga hipertensión? Es la misma que antes? 19 Probabilidad condicionada: ejemplo 20 Probabilidad de que sea hipertenso, sabiendo que tiene sobrepeso: P(H S) Para calcularla, nos fijamos sólo en los ejecutivos con sobrepeso: P(H S) = = 0,4 > 0,2 = P(H) La probabilidad de un suceso depende de la mayor o menor información que tengamos La probabilidad condicionada, (o probabilidad condicional) es la probabilidad de que ocurra un suceso, dado que sabemos que ha ocurrido otro suceso.

11 Probabilidad condicionada. Sucesos Independientes Probabilidad condicionada Sean dos sucesos A y B, la probabilidad de A condicionada por el suceso B es: Para que tenga sentido: P(B) > 0. Sucesos Independientes P(A B) = P(A B) P(B) Intuitivamente: la ocurrencia de uno de ellos no nos dice nada nuevo sobre la ocurrencia del otro Definición: se dice que dos sucesos A y B son independientes si P(A B) = P(A)P(B). Propiedad: dos sucesos A y B son independientes si, y sólo si, P(A B) = P(A) y P(B A) = P(B). 21 Teoremas fundamentales del cálculo de probabilidades 22 Regla de la multiplicación ó fórmula de las probabilidades compuestas Es útil para calcular la probabilidad de la ocurrencia simultánea de varios sucesos cuando las probabilidades condicionadas son fáciles de calcular. P(A B) = P(A B)P(B), siempre que P(B > 0). P(A B C) = P(A)P(B A)P(C A B), siempre que P(A B) > 0. Se generaliza al cálculo de la probabilidad de la intersección de n sucesos A 1,...,A n.

12 23 Regla de la multiplicación: ejemplo Se extraen dos cartas de una baraja española. Probabilidad de que: la primera carta sea copa: P(A) = la segunda sea copa, sabiendo que la primera lo fue: P(B A) = las dos cartas sean copas: P(A B) = P(B A)P(A) = Se lanzan dos dados. Probabilidad de que: en el primer dado salga un 1: P(C) = 1 6. en el segundo dado salga un 1, sabiendo que en el primero salió 1: P(D C) = P(D) = 1 6. en el primer dado salga un uno, si en el segundo salió uno: P(C D) = P(C) = en los dos dados salga uno: P(C D) = P(D C)P(C) = P(D)P(C) = (sucesos independientes) Teoremas fundamentales: teorema de la probabilidad total Un conjunto de sucesos B 1,B 2,...,B k son mutuamente excluyentes si Si además de eso cumplen B i B j =, i j. Ω = B 1 B 2... B k, se dice que forman una partición del espacio muestral. 24

13 Teoremas fundamentales: teorema de la probabilidad total Si B 1,B 2,...,B k es una partición del espacio muestral tal que P(B i ) 0, i = 1,...,k, y A es un suceso cualquiera, entonces P(A) = P(A B 1 )+P(A B 2 )+...+P(A B k ) = = P(A B 1 )P(B 1 )+P(A B 2 )P(B 2 )+...+P(A B k )P(B k ). 25 Teorema de la probabilidad total: ejemplo 26 En una fábrica se embalan galletas en cuatro cadenas de montaje: A1, A2, A3, y A4. El 35% de la producción total se embala en la cadena A1, el 20%, 24% y 21% en las cadenas A2, A3 y A4 respectivamente. Los datos indican que no se embalan correctamente un porcentaje pequeño de las cajas: el 1% en la cadena de montaje A1, el 3% en A2, el 2.5% en A3 y el 2% en A4. Cuál es la probabilidad de que una caja elegida al azar de la producción total sea defectuosa (suceso D)? P(D) = P(D A 1 )+P(D A 2 )+P(D A 3 )+P(D A 4 ) = P(D A 1 )P(A 1 )+P(D A 2 )P(A 2 )+P(D A 3 )P(A 3 )+P(D A 4 )P(A 4 ) = =

14 Teoremas fundamentales: teorema de Bayes 27 Para dos sucesos A y B se tiene que P(A B) = P(B A)P(A) P(B) Ejemplo: (continuación del anterior) Supongamos que descubrimos una caja defectuosa, cuál es la probabilidad de que la caja haya sido embalada en la cadena de montaje A1? P(A 1 D) = P(D A 1)P(A 1 ) = P(D) = = donde la probabilidad de que una caja elegida al azar sea defectuosa P(D) se ha calculado aplicando el teorema de la probabilidad total. Teoremas fundamentales: teorema de Bayes 28 Dada una partición del espacio muestral, B 1,B 2,...,B k, tal que P(B i ) 0, i = 1,...,k, y dado un suceso A, se tiene que P(B j A) = para todo j = 1...,k P(A B j )P(B j ) P(A B 1 )P(B 1 )+P(A B 2 )P(B 2 )+...+P(A B k )P(B k ) Probabilidades a priori: p(b 1 ),...,p(b k ) Probabilidades a posteriori: p(b 1 A),...,p(B k A) Verosimilitudes: p(a B 1 ),...,p(a B k )

15 Teoremas fundamentales: utilidad 29 La aplicación del teorema de la probabilidad total y del teorema de Bayes es especialmente útil cuando: El experimento aleatorio se puede separar en 2 etapas Es sencillo dar una partición de todo el espacio muestral Ω mediante sucesos B 1,...,B k correspondientes a resultados en la primera etapa. Son conocidas, o fácilmente calculables, las probabilidades a priori, p(b 1 ),...,p(b k ). Son conocidas, o fácilmente calculables, las verosimilitudes: p(a B 1 ),...,p(a B k ), donde A es un suceso correspondiente a resultados de la segunda etapa. Variables aleatorias 30 Variable aleatoria: definición Variables aleatorias discretas: Función de probabilidad Función de distribución Momentos Variables aleatorias continuas: Función de densidad Función de distribución Momentos Algunas propiedades de la esperanza y la varianza

16 Variables aleatoria: definición 31 Sea Ω el espacio muestral asociado a cierto experimento aleatorio y F el correspondiente conjunto de sucesos. Se denomina variable aletoria (v.a.) a una función X : Ω R, que a cada elemento e i Ω le asigna un valor numérico X(e i ) = x i R. Intuitivamente, una variable aleatoria es una medida o cantidad que varía en función del resultado concreto e i que se observa al realizar el experimento aleatorio. La v.a. se denota con letras mayúsculas, mientras que las letras minúsculas indican el valor concreto que toma la v.a. cuando se evalúa en un punto muestral. Ejemplo: Lanzar un dado una vez. Considerar la v.a. X = resultado de la tirada. Cuántos sucesos elementales hay? Qué valores puede tomar X? Variables aleatoria: ejemplo 32 Experimento aleatorio: lanzamiento de 3 dados Espacio muestral: Ω = {111,112,...,665,666}, de cardinal n(ω) = 6 3 = 216 Variable aleatoria X = número de unos X : Ω R X(abc) = 0, a,b,c = 2,3,...,6 X(1ab) = X(a1b) = X(ab1) = 1, a,b = 2,3,...,6 X(a11) = X(1a1) = X(11a) = 2, a = 2,3,...,6 X(111) = 3

17 33 Variables aleatorias: tipos V.a. discreta Si X toma valores sobre un conjunto S R finito o infinito numerable, se dice que X es una variable aleatoria discreta. V.a. continua Si X toma valores sobre un conjunto S R infinito no numerable (por ejemplo, en intervalo o una unión de intervalos), se dice que X es una variable aleatoria continua. El conjunto S R se denomina soporte de la variable aleatoria X. Variables aleatorias: ejemplos 34 Variables aleatorias discretas resultado al tirar un dado, con soporte S = {1,2,3,4,5,6} finito número de 1 s obtenidos al lanzar 3 dados, con soporte S = {0,1,2,3} finito número de coches que pasan por cierto peaje en una semana, con soporte S = {0,1,2,...} = N {0} infinito numerable. Variables aleatorias continuas altura de una persona, puede considerarse S = [0,+ ). el tiempo de reacción a cierto medicamento, puede considerarse S = [0,+ ).

18 Variables aleatorias discretas 35 Función de probabilidad Sea X una variable aleatoria discreta que toma valores en el conjunto S = {x 1,x 2,...}, finito o infinito numerable, con probabilidades p 1 = P(X = x 1 ), p 2 = P(X = x 2 ),... Se define la función de probabilidad de X o función de masa de X como P(X = x) = { pi, si x = x i S, 0, si x / S. Variables aleatorias discretas Ejemplo X = número de 1 s obtenidos al lanzar 3 dados. Cómo calculamos probabilidades de X? 36 La probabilidad P : F R definida sobre los elementos de Ω se transmite a X P(X = 0) = P({abc /a,b,c = 2,...,6}) = = P(X = 1) = P({{1ab} {a1b} {ab1},a,b = 2,...,6}) = = P(X = 2) = P({{a11} {1a1} {11a},a = 2,...,6}) = = P(X = 3) = P(111) = = x P(X = x)

19 Variables aleatorias discretas 37 Función de probabilidad. Propiedades X variable aleatoria discreta que toma valores en el conjunto S = {x 1,x 2,...} con probabilidades p 1 = P(X = x 1 ), p 2 = P(X = x 2 ),... 0 P(X = x) 1, para todo x R. x SP(X = x) = i P(X = x i ) = i p i = 1. P(X A) = = x). x AP(X P(X x) = P(X (,x]) = P(X = x i ) = p i. P(X > x) = 1 P(X x). i,x i x i,x i x Variables aleatorias discretas 38 Función de probabilidad. Representación gráfica La función de probabilidad se representa mediante un diagrama de barras Ejemplo X = número de 1 s obtenidos al lanzar 3 dados X P(x) 0 0, , , , ,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 Función de probabilidad

20 Función de distribución Variables aleatorias discretas La función de distribución o función de probabilidad acumulada de una variable aleatoria X es una aplicación F : R [0,1], que a cada valor x R le asigna la probabilidad F(x) = P(X x) = P(X (,x]). Atención! F(x) está definida para todo x R y no sólo para los x S. Propiedades 0 F(x) 1 para todo x R. F(y) = 0 para todo y < mins. Por tanto, F( ) = lim x infty = 0. F(y) = 1 para todo y maxs. Por tanto, F( ) = lim x infty = 1. Si x 1 x 2, entonces F(x 1 ) F(x 2 ), es decir, F(x) es monótona no decreciente. Para todo a,b R, P(a < X b) = P(X (a,b]) = P((X (,b])\(x (,a])) = P(X (,b]) P(X (,a]) = F(b) F(a). 39 Variables aleatorias discretas 40 Función de distribución: ejemplo X = número de 1 s al lanzar 3 dados. 0, si x < 0, F(x) = , si 0 x < 1, = , si 1 x < 2, = , si 2 x < 3, = 1, si x 3. OJO! valores x / S pueden tomar valores F(x) > 0.

21 Variables aleatorias discretas 41 Función de distribución: representación gráfica Si X es una v.a. discreta, su función de distribución es de tipo escalón (discontinuidades de salto). Cada escalón corresponde a un x i S y el salto correspondiente es la probabilidad P(X = x i ) = p i. Momentos de una variable aleatoria discreta Los momentos sirven para resumir alguna información sobre la variable aleatoria 42 Sea X una v.a. discreta con soporte S = {x 1,x 2,...}, y función de probabilidad p 1 = P(X = x 1 ), p 2 = P(X = x 2 ),... Esperanza de X: momento de primer orden E(X) = µ = x S xp(x = x) = i x i P(X = x i ) = i x i p i Es una medida de localización En general, se define el momento de orden k como E(X k ) = x S x k P(X = x) = i x k i P(X = x i ) = i x k i p i

22 Momentos de una variable aleatoria discreta 43 X = número de 1 s al lanzar 3 dados, con soporte S = {0,1,2,3} El número esperado de 1 s al lanzar 3 dados equilibrados es: E(X) = 0P(X = 0)+1P(X = 1)+2P(X = 2)+3P(X = 3) = = = 0.5 X = resultado de lanzar un dado, con soporte S = {1,2,3,4,5,6}, y función de probabilidad Su valor esperado es: E(X) = x S x P(X = x) x P(X = x) = = = = 21 6 = Momentos de una variable aleatoria discreta Sea X una v.a. discreta con soporte S = {x 1,x 2,...}, y función de probabilidad p 1 = P(X = x 1 ), p 2 = P(X = x 2 ), Varianza: momento centrado de segundo orden V(X) = σ 2 = E[(X E(X)) 2 ] = x S (x µ) 2 P(X = x) = i (x i µ) 2 P(X = x i ) = = i (x i µ) 2 p i = i x 2 i p i µ 2 = E(X 2 ) E(X) 2 Desviación típica: σ = σ 2 = E[(X µ) 2 ] Son medidas de dispersión (alrededor del valor esperado) En general, se define el momento centrado de orden k como E((X µ) k ) = x S (x µ) k P(X = x) = i (x i µ) k P(X = x i ) = i (x i µ) k p i

23 Momentos de una variable aleatoria discreta 45 X = número de 1 s al lanzar 3 dados, con soporte S = {0,1,2,3}. Su varianza es: V(X) = E((X µ) 2 ) = (0 0.5) 2 P(X = 0)+(1 0.5) 2 P(X = 1)+ +(2 0.5) 2 P(X = 2)+(3 0.5) 2 P(X = 3) = = = X = resultado de lanzar un dado, con soporte S = {1,2,3,4,5,6}. Su varianza es: V(X) = E((X µ) 2 ) = E(X 2 ) µ 2 = x S x 2 P(X = x) µ 2 = = 1 6 ( ) = = Esperanza y varianza de una variable aleatoria discreta Ejemplo X = número de caras al tirar una moneda dos veces. El espacio muestral asociado al experimento aleatorio lanzamiento de dos monedas es Ω = {(cara, cara),(cara, cruz),(cruz, cara),(cruz, cruz)}. La variable X toma valores en S = {0,1,2} con probabilidades P(X = 0) = 1/4, P(X = 1) = 1/4+1/4 = 1/2, P(X = 2) = 1/4. Por tanto, la función de probabilidad de X es x P(X = x) Calculamos su esperanza y varianza: E(X) = x S x P(X = x) = = 1, 46 V(X) = x S (x E(X)) 2 P(X = x) = (0 1) (1 1) (2 1)2 1 4 = 1 2.

24 Función de densidad Variables aleatorias continuas Las probabilidades de una variable aleatoria continua se calculan a partir de una función f : R [0,+ ) denominada función de densidad. 47 Propiedades f(x) 0 para todo x R. f(x)dx = 1, es decir, el área total de la función de densidad es 1. Para todo a,b R, P(a X b) = P(X [a,b]) = b f(x)dx es el a área que determina la función de densidad de X sobre el intervalo [a,b]. Los intervalos [a,b], (a,b), (a,b] y [a,b) tienen la misma probabilidad. Soporte de X: S = {x R/f(x) > 0} Atención! La función de densidad juega el mismo papel que la función de probabilidad para v.a. discretas. Solo tiene sentido calcular probabilidades de intervalos: P(X = x) = 0 para todo x R. Función de distribución Variables aleatorias continuas Para una v.a. continua X, la función de distribución se define como la función F(x) = P(X x) = P(X (,x]) = x f(t)dt, para todo x R. Igual que en el caso discreto, la función F(x) da las probabilidades acumuladas hasta el punto x R, pero ahora se trata de una función continua y no de tipo escalón. Dos ejemplos son: 48

25 Variables aleatorias continuas 49 Propiedades 0 F(x) 1, para todo x R. F( ) = 0. F( ) = 1. Si x 1 x 2, entonces F(x 1 ) F(x 2 ), es decir, F(x) es no decreciente. Para todo a,b R, P(a X b) = F(b) F(a). La función de densidad de X se obtiene derivando la función de distribución, es decir, f(x) = F (x). Variables aleatorias continuas 50 Ejemplo Una variable aleatoria X tiene función de densidad f(x) = { 3x 2, si x (0,1), 0, si x / (0,1) Cómo es la gráfica de la función de densidad de X? Indicar cuál es el área asociada a la probabilidad P(X > 1/2). Calcular la probabilidad P(X > 1/2). Obtener la función de distribución de X.

26 Variables aleatorias continuas 51 Ejemplo Una variable aleatoria X tiene función de densidad f(x) = { 12x 2 (1 x), si 0 < x < 1, 0, en otro caso. P(X 0.5) = 0.5 P(0.2 X 0.5) = F(x) = P(X x) = 0.5 x f(u)du = f(u)du = 12u 2 (1 u)du = u 2 (1 u)du = , ( ) si x 0, x f(u)du = x4 4, si 0 < x 1, 1, si x > 1. Momentos de una variable aleatoria continua 52 Sea X una v.a. continua con soporte S R, y función de densidad f. Esperanza de X: momento de primer orden E(X) = µ = xf(x)dx Es una medida de localización En general, se define el momento de orden k como E(X k ) = x k f(x)dx S S

27 Momentos de una variable aleatoria continua 53 Ejemplo Una variable aleatoria X tiene función de densidad f(x) = { 12x 2 (1 x), si 0 < x < 1, 0, en otro caso. Calculamos su esperanza: E(X) = = R 1 0 x f(x)dx = 1 ( x 12(x 3 x 4 4 )dx = 12 0 x 12x 2 (1 x)dx 4 x5 5 ) 1 0 = 12 ( ) = Momentos de una variable aleatoria continua 54 Sea X una v.a. continua con soporte S R, y función de densidad f. Varianza: momento centrado de segundo orden V(X) = σ 2 = E[(X E(X)) 2 ] = (x µ) 2 f(x)dx = S = E(X 2 ) E(X) 2 = x 2 f(x)dx µ 2 Desviación típica: σ = σ 2 = E[(X µ) 2 ] Son medidas de dispersión (alrededor del valor esperado) En general, se define el momento centrado de orden k como E((X µ) k ) = (x µ) k f(x)dx S S

28 Momentos de una variable aleatoria continua 55 Ejemplo f(x) = Calculamos su varianza: { 12x 2 (1 x), si 0 < x < 1, 0, en otro caso. var(x) = E[(X E(X)) 2 ] = R (x E(X))2 f(x)dx = 1( 0 x 3 2 5) 12x 2 (1 x)dx = ( x x x x2) dx = 12 ( 1 6 x = 12 ( x x x3) ) = 0.04 Ejemplo de repaso: distribución uniforme en (3,5) 56 Algunas probabilidades Una variable aleatoria X que sigue una distribución uniforme en el intervalo (3, 5) tiene función de densidad f(x) = { = 1 2, si x (3,5) 0, si x / (3,5). dist. uniforme Calculamos algunas probabilidades: P(X 0.5) = 0.5 f(u)du = 0 P(X 4) = 4 f(u)du = du = 1 2 u 4 3 = 1 2 P(3.5 X 4.5) = f(u)du = du = 1 2

29 Ejemplo de repaso: distribución uniforme en (3,5) 57 Función de distribución F(x) = P(X x) = x f(u)du =... Si x 3 entonces F(x) = P(X x) = 0. Si 3 x < 5 entonces F(x) = P(X x) = x 3 Si x 5 entonces F(x) = P(X x) = du = u 4 0, si x 3, x 3 F(x) = 2, si 3 < x < 5, 1, si x 5. 2 du = u 2 x 3 = x = = 1. Ejemplo de repaso: distribución uniforme en (3,5) 58 Esperanza E(X) = R x f(x)dx = 5 3 x 1 2 dx = x = = 4 Varianza var(x) = R x2 f(x)dx E 2 [X] = 5 3 x 2 2 dx 42 = x =

30 Esperanza de una transformación Sea X una variable aleatoria y sea g(x) una transformación de X. Entonces: g(x)p(x = x), si X v.a. discreta E(g(X)) = x S g(x)f(x)dx, si X v.a. continua S Ejemplo: si tomamos g(x) = kx, con k R constante, entonces kxp(x = x) = ke(x), si X v.a. discreta E(kX) = x S kxf(x)dx = ke(x), si X v.a. continua S Para la varianza tenemos, (kx kµ) 2 P(X = x) = k 2 V(X), V(kX) = x S (kx kµ) 2 f(x)dx = k 2 V(X), S si X v.a. discreta si X v.a. continua 59 Algunos modelos probabiĺısticos 60 Variables aleatorias discretas más comunes Ensayos de Bernoulli Distribución Binomial Distribución de Poisson Variables aleatorias continuas más comunes Distribución uniforme continua Distribución exponencial Distribución normal Teorema Central del Límite Distribuciones asociadas a la normal (Tema 4. Introducción a la Inferencia Estadística)

31 Descripción / Definición Ensayos de Bernoulli Es una forma de modelar estadísticamente cualquier experimento aleatorio que tenga solamente dos resultados posibles, mútuamente excluyentes, que suelen llamarse éxito y fracaso, con la condición de que la probabilidad de estos dos resultados se mantenga constante en cada realización del experimento (experimentos o ensayos de Bernoulli). Si la probabilidad de éxito es p (por tanto, la de fracaso es 1 p), se define la variable aleatoria de Bernoulli como 61 X = { 1, si se observa un éxito, 0, si se observa un fracaso. Soporte de X: S = {0,1}, con probabilidades P(X = 0) = 1 p = q, P(X = 1) = p. Para denotar que X sigue una distribución Bernoulli de parámetro p escribiremos X Ber(p). Ejemplo Resultado de lanzar una moneda al aire Ensayos de Bernoulli 62 X = { 1, sale cara, 0, si sale cruz. Es un ensayo Bernoulli, donde se ha considerado como éxito el observar una cara. X sigue una distribución Bernoulli de parámetro 1/2 (si la moneda no está trucada). Ejemplo Una ĺınea aérea estima que los pasajeros que compran un billete no se presentan al embarque con una probabilidad de Definimos { 1, si el pasajero se presenta, Y = 0, si el pasajero no se presenta. Y sigue una distribución Bernoulli con parámetro 0.95.

32 Ensayos de Bernoulli 63 Función de Probabilidad: Función de distribución: F(x) = P(X = 0) = 1 p P(X = 1) = p 0, si x < 0 1 p, si 0 x < 1 1, si x 1 Propiedades E(X) = 0P(X = 0)+1P(X = 1) = 0(1 p)+1p = p E(X 2 ) = 0 2 P(X = 0)+1 2 P(X = 1) = 0 2 (1 p)+1 2 p = p V(X) = E(X 2 ) E(X) 2 = p p 2 = p(1 p) = pq Distribución Binomial 64 Descripción / Definición Se realizan n ensayos de Bernoulli independientes con la misma probabilidad de éxito p. La v.a. X que cuenta el número de éxitos observados en estos n ensayos se dice que sigue una distribución Binomial de parámetros n y p y se escribe X B(n,p). La v.a. X toma valores en S = {0,1,2,...,n} y su función de probabilidad viene dada por la fórmula ( n P(X = x) = p x) x (1 p) n x, x = 0,1,...,n, 0 p 1, donde ( ) n x = n! x!(n x)!, para 0 x n. Recordad que, por convenio, 0! = 1. Propiedades E(X) = np, V(X) = np(1 p) = npq.

33 Ejemplo Distribución Binomial La ĺınea aérea del ejemplo anterior ha vendido 80 billetes para un vuelo. La probabilidad de que un pasajero no se presente al embarque es de Definimos X = número de pasajeros que se presentan al embarque. Entonces (suponiendo independencia) X B(80,0.95) 65 La probabilidad de que los 80 pasajeros se presenten es ( ) 80 P(X = 80) = (1 0.95) = La probabilidad de que al menos un pasajero no se presente es P(X < 80) = 1 P(X = 80) = = Distribución Binomial: función de probabilidad La función de probabilidad de X B(80,0.95) es 66 Binomial Distribution: Trials = 80, Probability of success = 0.95 Probability Mass Number of Successes Cambiando la probabilidad de éxito: Binomial Distribution: Trials = 80, Probability of success = 0.5 Binomial Distribution: Trials = 80, Probability of success = 0.1 Probability Mass Probability Mass Number of Successes Number of Successes

34 Distribución de Poisson: sucesos raros Descripción / Definición Cuenta el número de sucesos raros que ocurren en una determinada unidad de tiempo o de espacio. Por ejemplo, llamadas de teléfono en una hora, erratas en una página, accidentes de tráfico a la semana,... Una v.a. X sigue una distribución de Poisson de parámetro λ, y se denotará por X Pois(λ), si su función de probabilidad es λ λx P(X = x) = e, para x = 0,1,2,... x! Observad que X toma valores en S = {0,1,2,...} = N {0}. Propiedades E(X) = λ, V(X) = λ. λ representa el número medio de sucesos que se producen por unidad de tiempo o de espacio. Exponencial 67 Distribución de Poisson: sucesos raros 68 Propiedad de la Poisson Si X Pois(λ) y representa el número de sucesos raros en una unidad de tiempo o de espacio, e Y es una variable aleatoria que representa el número de dichos sucesos raros en s unidades, se tiene que: Y Pois(sλ)

35 69 Distribución de Poisson: sucesos raros Ejemplo El número medio de erratas por transparencias es de 0.2. Sea X es la v.a. que cuenta el número de erratas por transparencia, entonces X Pois(0.2) Cuál es la probabilidad de que en una transparencia no haya erratas? P(X = 0) = e 0! = e 0.2 = Cuál es la probabilidad de que en 4 transparencias haya exactamente una errata? Sea Y la v.a. que cuenta el número de erratas en 4 transparencias. Entonces: Y Pois(0.2 4) = Pois(0.8) P(Y = 1) = e 1! = e = Distribución uniforme 70 Descripción / Definición Se dice que una variable X sigue una distribución uniforme en el intervalo (a,b), y se denota por X U(a,b), si su función de densidad es f(x) = { 1 b a, si x (a,b), 0, si x / (a,b). Esta v.a. queda definida por los extremos del intervalo, es decir, a y b son sus parámetros. Propiedades E(X) = a+b (b a)2 2, V(X) = 12.

36 71 Distribución uniforme Descripción / Definición Distribución exponencial La distribución exponencial es aquella que modela el tiempo transcurrido entre dos sucesos que se producen de forma independiente, separada y uniforme en el tiempo. Se dice que una v.a. X sigue una distribución exponencial de parámetro λ, y se denota por X exp(λ), si su función de densidad es f(x) = λe λx, para x Observad que X toma valores en el conjunto S = [0,+ ). Ejemplos Tiempo entre llegadas de camiones al punto de descarga. Tiempo entre llamadas de emergencia. Tiempo de vida de una bombilla.

37 73 Distribución exponencial Distribución exponencial 74 Propiedades E(X) = 1 λ V(X) = 1 λ 2 Función de distribución: F(x) = { 1 e λx, si x 0, 0, si x < 0. Está relacionada con la distribución de Poisson. Poisson λ es el número medio de ocurrencias del suceso por unidad de tiempo.

38 Ejemplo Distribución exponencial Hemos observado que en cierta provincia se producen, en promedio, 50 incendios serios cada año. Suponemos que estos incendios se producen de forma independiente y decidimos modelar el número de incendios por año mediante una distribución Poisson. 75 Cuál es el tiempo medio que transcurre entre dos incendios consecutivos? Si acaba de ocurrir un incendio cuál es la probabilidad de que el próximo se produzca al cabo de dos semanas? Sabemos que: El número de incendios por año N Pois(λ) con λ = 50. El tiempo entre dos incendios X exp(λ) con λ = 50. El tiempo medio entre dos incendios E(X) = 1 λ = 1/50 años, 7.3 días. 2 7 Dos semanas, en años son: 365 = , P[X > ] = 1 P[X ] = 1 (1 e ) = Distribución normal 76 Descripción / Definición La distribución normal describe una variable aleatoria ideal. Se trata de un modelo teórico que aproxima bien muchas situaciones reales. La inferencia estadística se fundamenta básicamente en la distribución normal y en distribuciones que se derivan de ella. Se dice que una v.a. X sigue una distribución normal o gausiana con parámetros µ y σ, y se denota por X N(µ,σ), si su función de densidad es { 1 f(x) = σ 2π exp 1 } µ)2 2σ2(x Propiedades E(X) = µ, V(X) = σ 2.

39 77 Distribución normal Función de densidad para 3 valores distintos de µ y σ Distribución normal 78 Propiedad Si X N(µ,σ), entonces: P(µ σ < X < µ+σ) P(µ 2σ < X < µ+2σ) P(µ 3σ < X < µ+3σ) 0.997

40 79 Distribución normal Transformación lineal Estandarización o Tipificación Si X N(µ,σ), considero Y = a+bx N(a+bµ, b σ) Z = X µ σ Se llama distribución normal estándar. N(0,1) Distribución normal: Ejemplo Sea Z N(0, 1). Calculemos algunas probabilidades: P(Z < 1.5) = = DISTR.NORM(1.5;0;1;VERDADERO) 80

41 Distribución normal: Ejemplo (cont.) 81 P(Z > 1.5) = P(Z < 1.5) = por qué? P(Z < 1.5) = P(Z > 1.5) = 1 P(Z < 1.5) = = = por qué no? P( 1.5 < Z < 1.5) = P(Z < 1.5) P(Z < 1.5) = = DISTR.NORM(1.5;0;1;VERDADERO) DISTR.NORM(-1.5;0;1;VERDADERO) = = Distribución normal: Ejemplo 82 Sea X N(µ = 2,σ = 3). Para calcular P(X < 4), si no tenemos ordenador, hay que recurrir a las tablas de la distribución normal estándar. Para ello, tipificamos la variable original: ( X 2 P(X < 4) = P < 4 2 ) = P ( Z < ) donde Z N(0,1) Cuál es P( 1 < X < 3.5)? donde Z N(0,1) P( 1 < X < 3.5) = P( 1 2 < X 2 < 3.5 2) = ( 1 2 P < X 2 < ) = P( 1 < Z < 0.5) = P(Z < 0.5) P(Z < 1) = =

42 83 Distribución normal: Ejemplo (cont.) Sea X N(µ = 2,σ = 3). Si usamos Excel no hace falta tipificar X. Directamente calculamos P(X < 4) = DISTR.NORM(4;2;3;VERDADERO) = P( 1 < X < 3.5) = P(X < 3.5) P(X < 1) = = DISTR.NORM(3.5;2;3;VERDADERO) DISTR.NORM(-1;2;3;VERDADERO) = = = Distribución normal: otro ejemplo Es difícil etiquetar la carne empaquetada con su peso correcto debido a los efectos de pérdida de ĺıquido (definido como porcentaje del peso original de la carne). Supongamos que la pérdida de ĺıquido en un paquete de pechuga de pollo puede modelarse mediante una distribución normal con media 4% y desviación típica 1%. Sea X la pérdida de ĺıquido de un paquete de pechuga de pollo elegido al azar. Cuál es la probabilidad de que 3% < X < 5%? Cuál es el valor de x para que un 90% de paquetes tengan pérdidas de ĺıquido menores que x? En una muestra de 4 paquetes, hallar la probabilidad de que todos tengan pérdidas de peso de entre 3% y 5%. 84 Sexauer, B. (1980) Drained-Weight Labelling for Meat and Poultry: An Economic Analysis of a Regulatory Proposal, Journal of Consumer Affairs, 14,

43 Distribución normal: otro ejemplo (cont.) 85 La variable aleatoria X sigue una distribución N(4, 1). Entonces: P(3 < X < 5) = P(X < 5) P(X < 3) = = DISTR.NORM(5;4;1;VERDADERO) DISTR.NORM(3;4;1;VERDADERO) = = = Distribución normal: otro ejemplo (cont.) 86 Queremos encontrar el valor de x 0 para el que P(X < x 0 ) = 0.9. Tenemos que calcular la función inversa de la función de distribución de X. En Excel x 0 = DISTR.NORM.INV(0,9;4;1) = Conclusión: un 90% de los paquetes tienen pérdidas de menos del 5.28%.

44 Distribución normal: otro ejemplo (cont.) 87 Todas las probabilidades normales anteriores se pueden obtener a partir de la normal estándar como sigue. ( 3 4 P(3 < X < 5) = P < X 4 < 5 4 ) = P( 1 < Z < 1) = P(Z < 1) P(Z < 1) = = Queremos P(X < x) = 0.9. Entonces ( X 4 P < x 4 ) 1 1 = P(Z < x 4) = 0.9 Mirando las tablas, tenemos x que implica que un 90% de las paquetes tienen pérdidas de menos de x = 5.28%. Distribución normal: otro ejemplo (cont.) 88 binomial Y = número de paquetes en la muestra que tienen pérdidas de entre 3% y 5%. Y B(4,p), siendo p = P(éxito) = P(pérdida de peso entre 3% y 5%) = P(3 < X < 5) = Entonces, P(Y = 4) = ( 4 4 ) ( ) 4 =

45 Teorema Central del Límite (TCL) El siguiente teorema nos habla de la distribución de la media de un conjunto de v.a. independientes e idénticamente distribuidas (i.i.d.), es decir, todas con la misma ley de probabilidad, n 89 X = 1 n i=1 X i y nos dice que, para n grande, la media de v.a. independientes e igualmente distribuidas es normal, sea cual sea la distribución de las v.a. De aquí el papel central que juega la distribución normal o de Gauss. Teorema Sean X 1,X 2,...,X n v.a. i.i.d. con media µ y desviación típica σ (ambas finitas). Si n es suficientemente grande, se tiene que X µ σ/ n N(0,1) Aproximaciones 90 Binomial (Teorema de De Moivre-Laplace) Si X B(n,p) con n suficientemente grande X np np(1 p) N(0,1) Poisson Si X Pois(λ) con λ suficientemente grande X λ λ N(0,1)

46 TCL y aproximaciones: Ejemplo Sea X B(100,1/3). Estimar P(X < 40). binomial propiedades 91 Calculamos primero la media y varianza de X. E(X) = = var(x) = = D.T.(X) = = Usamos la aproximación normal ( X P(X < 40) = P < ) P (Z < 1.414) 0.921, donde Z N(0,1). Vectores aleatorios 92 Concepto de vector aleatorio. Vectores aleatorios discretos: distribución conjunta, distribuciones marginales, distribuciones condicionadas, independencia. Vectores aleatorios continuos: distribución conjunta, distribuciones marginales, distribuciones condicionadas, independencia. Covarianza, correlación y esperanza condicionada. Algunas propiedades de la esperanza y la varianza

47 Concepto de vector aleatorio 93 Qué relación hay entre el precio de las acciones y los tipos de interés? Qué relación hay entre los años de escolarización y el salario medio por hora? Cómo influye en los hábitos de consumo la cantidad de tarjetas de crédito de las que se dispone? Para contestar a estas preguntas necesitamos estudiar conjuntamente estas características, cómo? Concepto de vector aleatorio 94 Se denomina vector aleatorio (o v.a. multidimensional) a una función (X 1,...,X n ) : Ω R n, que a cada elemento e i Ω le asigna un vector numérico (X 1,...,X n )(e i ) = (X 1 (e 1 ),...,X n (e i )) R n. X 1 (e 1 ),...,X n (e i ) representan las n características que queremos analizar conjuntamente. Para ganar claridad nos restringiremos al caso n = 2, Denotaremos los vectores aleatorios por las letras mayúsculas (X, Y). Las letras minúsculas (x,y) indican el valor concreto que toma el vector aleatorio cuando se evalúa en un punto muestral.

48 95 Vectores aleatorios: tipos Vector aleatorio discreto Un vector aleatorio (X,Y) es discreto cuando solo puede tomar un número finito o numerable de valores. Vector aleatorio continuo Un vector aleatorio (X,Y) es continuo cuando los posibles valores que puede tomar son todos los puntos de R 2, o del cuadrante [0,+ ) [0,+ ), o de un cuadrado, o de un triángulo etc. El conjunto de valores S R 2 que puede tomar se denomina soporte del vector aleatorio (X,Y). Vectores aleatorios discretos Vectores aleatorios: ejemplos número de 1 s y 2 s obtenidos al lanzar 3 dados, con soporte S {0,1,2,3} S = {0,1,2,3} finito número de coches que pasan por cierto peaje en un día y día de la semana de que se trata, con soporte S = {0,1,2,...} {1,...,7}, donde 1 = lunes,...,7 =domingo. número de tarjetas de crédito y número de compras que se realizan a la semana, con soporte S = {0,1,2,...,M 1 } {0,1,...,M 2 } Vectores aleatorios continuos altura y peso de una persona años de escolarización y salario medio por hora de una persona índice compuesto S&P 500 ( =10) y tipo (%) de las Letras del Tesoro estadounidense a tres años en un año 96

49 Vectores aleatorios discretos: distribución conjunta Función de probabilidad (o de masa) conjunta de (X,Y) Determina el modelo de probabilidad conjunta de un vector aleatorio discreto. Nos da la probabilidad de cada uno de los posibles valores que puede tomar: p(x i,y j ) = P(X = x i,y = y j ), (x i,y j ) S = {x 1,...,x m } {y 1,...,y n } Representación Propiedades y 1 y j y n x x i P(X = x i,y = y j ).. x m... 0 p(x i,y j ) 1 para todo i = 1,...,m, j = 1,...,n. m i=1 n j=1 p(x i,y j ) = Vectores aleatorios discretos: distribución conjunta Se clasifica un grupo de 100 ejecutivos de acuerdo a su peso y a si sufren o no de hipertensión. La tabla muestra el número de ejecutivos en cada categoría. Insuficiente Normal Sobrepeso Total Hipertenso Normal Total Experimento aleatorio: seleccionar al azar a uno de esos 100 ejecutivos para medir su tensión y su peso. (X,Y) : Ω {0,1} {0,1,2}, siendo Ω el conjunto de los 100 ejecutivos, definido por (X,Y)(e i ) = (0,0), si el individuo e i es Hipertenso y de peso Insuf. (X,Y)(e i ) = (0,1), si e i es Hipertenso y de peso Normal (X,Y)(e i ) = (0,0), si e i es Hipertenso y tiene Sobrepeso (X,Y)(e i ) = (1,0), si e i tiene la tensión Normal y es de peso Insuf. (X,Y)(e i ) = (1,1), si e i tiene la tensión Normal y es de peso Normal (X,Y)(e i ) = (1,0), si e i tiene la tensión Normal y tiene Sobrepeso 98

50 99 Vectores aleatorios discretos: distribución conjunta La función de de probabilidad (o de masa) conjunta es: X \Y Vectores aleatorios discretos: distribuciones marginales Las distribuciones marginales de un vector aleatorio (X,Y) son las que se obtienen al considerar cada característica por separado (como si la otra no existiera). En el caso discreto tenemos: Distribución marginal de X: v.a. discreta con función de probabilidad 100 p X (x i ) = P(X = x i ) = n P(x i,y j ), i = 1,...m j=1 Distribución marginal de Y: v.a. discreta con función de probabilidad p Y (y j ) = P(Y = y j ) = m P(x i,y j ), j = 1,...n i=1 Las distribuciones marginales de X e Y son simplemente v.a. unidimensionales discretas. Podemos obtener su media, su varianza, etc.

51 Vectores aleatorios discretos: distribuciones marginales 101 En el ejemplo anterior las distribuciones marginales de X e Y son: X \Y p X p Y Vectores aleatorios discretos: distribuciones condicionadas 102 La distribución de la v.a. X, condicionada por un valor fijo y j de la v.a. Y tal que P(Y = y j ) > 0, viene dada por la función de probabilidad P(X = x i Y = y j ) = P(X = x i,y = y j ) P(Y = y j ) = p(x i,y j ) p Y (y j ), i = 1,...,m La distribución de Y condicionada por X = x i (con P X (x i ) > 0) se define de forma análoga

52 Vectores aleatorios discretos: distribuciones condicionadas 103 Volviendo al ejemplo: X \Y p X p Y Distribución de X condicionada a que el individuo tiene sobrepeso: X p(x = x i Y = 2) 0.25 = = 0.6 Distribución de Y condicionada a que el individuo tiene hipertensión: Y p(y = x j X = 0) 0.2 = = = 0.5 Vectores aleatorios discretos: independencia 104 Intuitivamente: no hay relación entre X e Y Definición: dos variables aleatorias discretas, X e Y, son independientes cuando p(x i,y j ) = P(X = x i,y = y j ) = P(X = x i )P(Y = y j ) = p X (x i )p Y (y j ), i, j Propiedades: Si X e Y son independientes, las distribuciones condicionadas coinciden con las marginales correspondientes P(X = x i Y = y j ) = P(X = x i,y = y j ) P(Y = y j ) = p(x i,y j ) p Y (y j ) = p X(x i )p Y (y j ) p Y (y j ) = p X (x i ) para todo i = 1,...,m, y para todo valor y j con P(Y j = y j ) > 0. En el ejemplo, X e Y no son independientes.

53 Vectores aleatorios discretos: ejemplo 105 Lanzamos 3 veces una moneda equilibrada y consideramos el vector aleatorio (X,Y) que se obtiene definiendo: X = número de caras Y = diferencia, en valor absoluto, entre número de caras y de cruces Determina el espacio muestral del experimento y define la aplicación correspondiente al vector aleatorio (X, Y) Calcula la función de probabilidad conjunta de (X,Y) Obtén las distribuciones marginales a partir de la distribución conjunta Si estamos interesados en conocer la probabilidad de obtener un número determinado de caras cuando la diferencia entre caras y cruces es 1, qué distribución tenemos que obtener? obténla. Son independientes X e Y? Vectores aleatorios continuos: distribución conjunta 106 Función de densidad conjunta de (X,Y) Determina el modelo de probabilidad conjunta de un vector aleatorio continuo. Se trata de una función f : R 2 R 2 verificando: f(x,y) 0 para todo (x,y) R 2. El volumen total bajo la función de densidad es 1: R 2 f(x,y)dx dy = f(x,y)dx dy = 1 La probabilidad de cualquier suceso A R 2 se obtiene resolviendo la integral correspondiente: P(A) = f(x,y)dx dy Nota. No se exigirá que se sepan resolver integrales dobles. No se pedirá calcular probabilidades de sucesos A en R 2 A

54 Vectores aleatorios continuos: distribuciones marginales 107 Las distribuciones marginales de un vector aleatorio (X,Y) son las que se obtienen al considerar cada característica por separado (como si la otra no existiera). En el caso continuo tenemos: Distribución marginal de X: v.a. continua con función de densidad f X (x) = f(x,y)dy, x R R Distribución marginal de Y: v.a. continua con función de densidad f Y (y) = f(x,y)dx, y R R Las distribuciones marginales de X e Y son simplemente v.a. unidimensionales continuas. Podemos obtener su media, su varianza, etc. Vectores aleatorios discretos: distribuciones marginales Nota. Al integrar con respecto a una de las dos variables, la otra actúa como una constante. Sea (X,Y) el vector aleatorio con soporte S = [0,1] [0,1] y función de densidad conjunta f(x,y) = La densidad marginal de X es: f X (x) = 1 0 { x +y, si 0 x 1, 0 y 1, 0, en otro caso. (x +y)dy = [ xy + y2 2 ] y=1 y=0 = x + 1 2, 0 x 1 En la integral anterior x actúa como una constante. La densidad marginal de Y es: [ ] x=1 1 x 2 f Y (y) = (x +y)dx = 2 +xy = 1 2 +y, 0 y 1 0 En la integral anterior y actúa como una constante. x=0 108

55 Vectores aleatorios continuos: distribuciones condicionadas 109 La distribución de la v.a. X, condicionada por un valor fijo y 0 de la v.a. Y tal que f Y (y 0 ) > 0, viene dada por la función de densidad f(x Y = y 0 ) = f(x,y 0) f Y (y 0 ), x R La distribución de Y condicionada por X = x 0 (con f X (x 0 ) > 0) se define de forma análoga Volviendo al ejemplo: f(x Y = 0.2) = f(x,0.2) f Y (0.2) = x +0.2, 0 x Vectores aleatorios discretos: independencia 110 Intuitivamente: no hay relación entre X e Y Definición: dos variables aleatorias continuas, X e Y, son independientes cuando f(x,y) = f X (x)f Y (y), x R,y R Propiedades: Si X e Y son independientes, las distribuciones condicionadas coinciden con las marginales correspondientes f(x Y = y 0 ) = f(x,y 0) f Y (y 0 ) = f X(x), x R En el ejemplo, X e Y no son independientes: f(x,y) = x +y (x )(1 2 +y)

56 Covarianza, correlación y esperanza condicionada Se define la covarianza entre X e Y como Cov(X,Y) = σ XY = E[(X E[X])(Y E[Y])] = E[XY] E[X]E[Y] 111 Si X e Y son v.a. discretas, entonces m n Cov(X,Y) = (x i E[X])(y j E[Y])p(x i,y j ) = = i=1 m i=1 j=1 n x i y j p(x i,y j ) E[X]E[Y] j=1 Si X e Y son v.a. continuas, entonces Cov(X,Y) = (x E[X])(y E[Y])f(x,y)dx dy = R 2 = xyf(x,y)dx dy E[X]E[Y] R 2 En este caso, no se pedirá que se calculen covarianzas, dado que implican la integración en R 2 Covarianza, correlación y esperanza condicionada La covarianza es una medida de asociación lineal Cuando Cov(X,Y) = 0 se dice que X e Y están incorreladas Sean X e Y variables aleatorias, la correlación entre X e Y es 112 Cor(X,Y) = r xy = Cov(X,Y) σ x σ y donde σ X = V(X) y σ Y = V(Y) denotan, respectivamente, las desviaciones típicas de las distribuciones marginales X e Y. Propiedades Si X e Y son independientes, entonces X e Y estn incorreladas En general, Cov(X,Y) = 0 no implica independencia. Si X e Y son normales y Cov(X,Y) = 0, entonces son independientes 1 Cor(X,Y) 1 Cor(X,Y) > 0 las variables son dependientes positivamente Cor(X,Y) < 0 las variables son dependientes negativamente

57 Covarianza, correlación y esperanza condicionada Dado le vector aleatorio (X,Y), las variables aleatorias: X, condicionada por un valor fijo y 0 de la v.a. Y potencialmente observable Y, condicionada por un valor fijo x 0 de la v.a. X potencialmente observable son variables aleatorias unidimensionales continuas o discretas dependiendo de la naturaleza de X e Y. Podemos calcular sus medias y varianzas. Se define la esperanza condicionada de X a un valor de Y como 113 E(X Y = y 0 ) = { m i=1 x ip(x = x i Y = y 0 ), si (X,Y) es discreto, R xf(x Y = y 0)dx, si (X,Y) es continuo Para cada valor fijo y 0 de Y, la esperanza condicionada es un número Se puede definir la función esperanza condicionada: E(X Y) : Sop(Y) R y 0 E(X Y = y 0 ) Algunas propiedades de la esperanza y la varianza 114 Como ya vimos en el caso unidimensional, la esperanza de cualquier función g(x,y) se obtiene como E[g(X,Y)] = m i=1 n g(x i,y j )p(x i,y j ) si (X,Y) es discreto j=1 E[g(X,Y)] = g(x,y) f(x,y)dxdy si (X,Y) es continuo R 2 Ejemplo Esperanza del producto { m n i=1 j=1 E[XY] = x iy j p(x i,y j ), si (X,Y) es discreto, xyf(x,y)dx dy, si (X,Y) es continuo. R 2

Tema 3. Probabilidad y variables aleatorias

Tema 3. Probabilidad y variables aleatorias 1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad

Más detalles

Tema 4. Probabilidad y variables aleatorias

Tema 4. Probabilidad y variables aleatorias Tema 4. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad

Más detalles

Tema 1. Probabilidad y modelos probabiĺısticos

Tema 1. Probabilidad y modelos probabiĺısticos 1 Tema 1. Probabilidad y modelos probabiĺısticos En este tema: Probabilidad Variables aleatorias Modelos de variables aleatorias más comunes Vectores aleatorios 2 Tema 1. Probabilidad y modelos probabiĺısticos

Más detalles

Estadística I Tema 4: Probabilidad

Estadística I Tema 4: Probabilidad Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada

Más detalles

Estadística I Tema 5: Modelos probabiĺısticos

Estadística I Tema 5: Modelos probabiĺısticos Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y función de distribución.

Más detalles

Estadística I Tema 5: Modelos probabiĺısticos

Estadística I Tema 5: Modelos probabiĺısticos Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y Función de distribución.

Más detalles

Estadística I Tema 4: Probabilidad y modelos probabiĺısticos

Estadística I Tema 4: Probabilidad y modelos probabiĺısticos Estadística I Tema 4: Probabilidad y modelos probabiĺısticos Tema 4. Probabilidad y modelos probabiĺısticos Contenidos Probabilidad: Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos.

Más detalles

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de

Más detalles

Estadística aplicada al Periodismo

Estadística aplicada al Periodismo Estadística aplicada al Periodismo Temario de la asignatura Introducción. Análisis de datos univariantes. Análisis de datos bivariantes. Series temporales y números índice. Probabilidad y Modelos probabilísticos.

Más detalles

Estadística I Tema 4: Probabilidad

Estadística I Tema 4: Probabilidad Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

Repaso de Estadística

Repaso de Estadística Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio

Más detalles

MATEMÁTICAS II PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL

MATEMÁTICAS II PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL MATEMÁTICAS II PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL 1) PROBABILIDAD Experimentos aleatorios. Concepto de espacio muestral y de suceso elemental. Operaciones con sucesos. Leyes de De Morgan.

Más detalles

Resumen de Probabilidad

Resumen de Probabilidad Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS

Más detalles

RESUMEN CONTENIDOS TERCERA EVALUACIÓN PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL

RESUMEN CONTENIDOS TERCERA EVALUACIÓN PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL RESUMEN CONTENIDOS TERCERA EVALUACIÓN PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL 1) PROBABILIDAD Experimentos aleatorios. Concepto de espacio muestral y de suceso elemental. Operaciones con

Más detalles

Repaso de Probabilidad y Estadística

Repaso de Probabilidad y Estadística Repaso de Probabilidad y Estadística Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Probabilidad 2 Definición.............................................................

Más detalles

Variables Aleatorias y Distribución de Probabilidades

Variables Aleatorias y Distribución de Probabilidades Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables

Más detalles

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Tema 6 - Introducción 1 Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Generalización Tema 6. Variables aleatorias unidimensionales

Más detalles

TEMA 2.- VARIABLES ALEATORIAS

TEMA 2.- VARIABLES ALEATORIAS TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 16/17 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias. 2.2. Variables aleatorias discretas. Diagrama de barras. 2.3. Función de

Más detalles

Universidad Nacional de La Plata

Universidad Nacional de La Plata Universidad Nacional de La Plata Facultad de Ciencias Agrarias y Forestales CÁLCULO ESTADÍSTICO STICO Y BIOMETRÍA CONTENIDOS UNIDAD 3: Introducción al Cálculo de Probabilidades. Experimento aleatorio.

Más detalles

TEMA 3.- VECTORES ALEATORIOS.- CURSO

TEMA 3.- VECTORES ALEATORIOS.- CURSO TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.

Más detalles

TEMA 3: Probabilidad. Modelos. Probabilidad

TEMA 3: Probabilidad. Modelos. Probabilidad TEM 3: Probabilidad. Modelos Probabilidad Fenómeno aleatorio: es aquel cuyos resultados son impredecibles. Ejemplos: Lanzamiento de una moneda: Resultados posibles: cara, cruz. Selección al azar de un

Más detalles

Valeri Makarov: Estadística Aplicada y Cálculo Numérico (Grado en Química)

Valeri Makarov: Estadística Aplicada y Cálculo Numérico (Grado en Química) Estadística Aplicada y Cálculo Numérico (Grado en Química) Valeri Makarov 10/02/2015 29/05/2015 F.CC. Matemáticas, Desp. 420 http://www.mat.ucm.es/ vmakarov e-mail: vmakarov@mat.ucm.es Capítulo 4 Variables

Más detalles

Tema 2 Modelos de probabilidad

Tema 2 Modelos de probabilidad Tema 2 Modelos de probabilidad José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Estructura de este tema Conceptos básicos de probabilidad. Modelos discretos: la distribución

Más detalles

3. Variables aleatorias

3. Variables aleatorias 3. Variables aleatorias Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 3. Variables aleatorias Curso 2009-2010 1 / 33 Contenidos 1 Variables aleatorias y su distribución

Más detalles

Capítulo 5: Probabilidad e inferencia

Capítulo 5: Probabilidad e inferencia Capítulo 5: Probabilidad e inferencia estadística (Fundamentos Matemáticos de la Biotecnología) Departamento de Matemáticas Universidad de Murcia Contenidos Principios de la probabilidad Conceptos básicos

Más detalles

Definición de probabilidad

Definición de probabilidad Tema 5: LA DISTRIBUCIÓN NORMAL 1. INTRODUCCIÓN A LA PROBABILIDAD: Definición de probabilidad Repaso de propiedades de conjuntos (Leyes de Morgan) Probabilidad condicionada Teorema de la probabilidad total

Más detalles

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22 Unidad 3. Probabilidad Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre 2018-1 1 / 22 Espacios de probabilidad El modelo matemático para estudiar la probabilidad se conoce como espacio de

Más detalles

Tema 4: Variables aleatorias multidimensionales

Tema 4: Variables aleatorias multidimensionales 1 Tema 4: Variables aleatorias multidimensionales En este tema: Distribución conjunta de probabilidad Probabilidad/densidad marginal Probabilidad/densidad condicionada Esperanza, varianza, desviación típica

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con

Más detalles

Distribución conjunta de variables aleatorias

Distribución conjunta de variables aleatorias Distribución conjunta de variables aleatorias En muchos problemas prácticos, en el mismo experimento aleatorio, interesa estudiar no sólo una variable aleatoria sino dos o más. Por ejemplo: Ejemplo 1:

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

Prof. Eliana Guzmán U. Semestre A-2015

Prof. Eliana Guzmán U. Semestre A-2015 Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos

Más detalles

En el resultado de los experimentos aleatorios interviene el azar, cuando ésto no ocurre así, hablaríamos de sucesos deterministas.

En el resultado de los experimentos aleatorios interviene el azar, cuando ésto no ocurre así, hablaríamos de sucesos deterministas. 1.- EXPERIMENTOS ALEATORIOS Y SUCESOS Un experimento aleatorio es aquel que cumple las siguientes condiciones: Se conocen todos sus posibles resultados No se puede conocer el resultado que se obtendrá

Más detalles

Tema 5: Modelos probabilísticos

Tema 5: Modelos probabilísticos Tema 5: Modelos probabilísticos 1. Variables aleatorias: a) Concepto. b) Variables discretas y continuas. c) Función de probabilidad (densidad) y función de distribución. d) Media y varianza de una variable

Más detalles

Distribución de probabilidad

Distribución de probabilidad Los experimentos aleatorios originan resultados y los resultados nos permiten tomar decisiones Por ejemplo, en un partido de fútbol si se lanza una moneda y sale cara parte la visita, de lo contrario parte

Más detalles

Tema 4: Variables aleatorias.

Tema 4: Variables aleatorias. Estadística 46 Tema 4: Variables aleatorias. El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos aleatorios, que en muchos

Más detalles

Tema 5 Modelos de distribuciones de Probabilidad

Tema 5 Modelos de distribuciones de Probabilidad Tema 5 Modelos de distribuciones de Probabilidad Variable aleatoria unidimensional Dado un espacio de Probabilidad (E, F, P), una variable aleatoria es una aplicación del espacio muestral E al conjunto

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Ruido en los sistemas de comunicaciones

Ruido en los sistemas de comunicaciones Capítulo 2 Ruido en los sistemas de comunicaciones Cuando una señal se transmite a través de un canal de comunicaciones hay dos tipos de imperfecciones que hacen que la señal recibida sea diferente de

Más detalles

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice

Más detalles

TEMA 10: DISTRIBUCIONES DE PROBABILIDAD DE VARIABLE DISCRETA. LA BINOMIAL.

TEMA 10: DISTRIBUCIONES DE PROBABILIDAD DE VARIABLE DISCRETA. LA BINOMIAL. TEMA 10: DISTRIBUCIONES DE PROBABILIDAD DE VARIABLE DISCRETA. LA BINOMIAL. 10.1 Experimentos aleatorios. Sucesos. 10.2 Frecuencias relativas y probabilidad. Definición axiomática. 10.3 Distribuciones de

Más detalles

TEMA 1.- PROBABILIDAD.-CURSO 2016/2017

TEMA 1.- PROBABILIDAD.-CURSO 2016/2017 TEMA 1.- PROBABILIDAD.-CURSO 2016/2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

NIVELACIÓN DE ESTADISTICA. Carlos Darío Restrepo

NIVELACIÓN DE ESTADISTICA. Carlos Darío Restrepo NIVELACIÓN DE ESTADISTICA Qué es la probabilidad? La probabilidad mide la frecuencia con la que aparece un resultado determinado cuando se realiza un experimento. Por ejemplo: tiramos un dado al aire y

Más detalles

1 CÁLCULO DE PROBABILIDADES

1 CÁLCULO DE PROBABILIDADES 1 CÁLCULO DE PROBABILIDADES 1.1 EXPERIENCIAS ALEATORIAS. SUCESOS 1.1.1 Definiciones Experiencia aleatoria: experiencia o experimento cuyo resultado depende del azar. Suceso aleatorio: acontecimiento que

Más detalles

Bloque I: Estadística y Probabilidad

Bloque I: Estadística y Probabilidad Bloque I: Estadística y Probabilidad 1. Probabilidad 1. Teoría de la probabilidad 2. Probabilidad condicionada 3. Dependencia e independencia de sucesos 4. Técnicas de recuento: diagramas de árbol, tablas

Más detalles

Tema 1: Introducción a la Estadística Bayesiana

Tema 1: Introducción a la Estadística Bayesiana Tema 1: Introducción a la Estadística Bayesiana Introducción En general, se usan probabilidades de modo informal para expresar la información o la incertidumbre que se tiene acerca de observaciones de

Más detalles

TEMA 1.- PROBABILIDAD.- CURSO

TEMA 1.- PROBABILIDAD.- CURSO TEMA 1.- PROBABILIDAD.- CURSO 2017-2018 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Combinatoria. Regla del producto 1.2.- Probabilidad condicionada.

Más detalles

ESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo

ESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo ESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo Sobre la aleatoriedad y la probabilidad Variables cuantitativas Modelos de probabilidad más comunes Estadística (Ambientales).

Más detalles

Distribuciones de Probabilidad

Distribuciones de Probabilidad Distribuciones de Probabilidad Experimento aleatorio Probabilidad Definición variable aleatoria: discretas y continuas Función de distribución y medidas Distribución Binomial Distribución de Poisson Distribución

Más detalles

1 CÁLCULO DE PROBABILIDADES

1 CÁLCULO DE PROBABILIDADES 1 CÁLCULO DE PROBABILIDADES 1.1 EXPERIENCIAS ALEATORIAS. SUCESOS 1.1.1 Definiciones Experiencia aleatoria: experiencia o experimento cuyo resultado depende del azar. Suceso aleatorio: acontecimiento que

Más detalles

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. Introducción al Tema 8 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos

Más detalles

VARIABLES ALEATORIAS CONTINUAS

VARIABLES ALEATORIAS CONTINUAS VARIABLES ALEATORIAS CONTINUAS El zoo binomial: las probabilidades en la distribución binomial. Tutorial 5, sección 2 X = número de éxitos al repetir n veces un experimento con probabilidaf de éxito p

Más detalles

Variables aleatorias. Descripción breve del tema. Objetivos. Descripción breve del tema. Tema 4

Variables aleatorias. Descripción breve del tema. Objetivos. Descripción breve del tema. Tema 4 Descripción breve del tema Variables aleatorias Tema 4 Ignacio Cascos Depto. Estadística, Universidad Carlos III 1 Ignacio Cascos Depto. Estadística, Universidad Carlos III 2 Objetivos Descripción breve

Más detalles

Capítulo 6: Variable Aleatoria Bidimensional

Capítulo 6: Variable Aleatoria Bidimensional Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el

Más detalles

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando

Más detalles

Modelos Básicos de Distribuciones Discretas y Continuas

Modelos Básicos de Distribuciones Discretas y Continuas Modelos de Distribuciones Discretas y Continuas 1/27 Modelos Básicos de Distribuciones Discretas y Continuas Departamento de Estadística e Investigación Operativa Universidad de Sevilla Contenidos Modelos

Más detalles

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. Desde un punto de vista formal, los vectores aleatorios son la herramienta matemática adecuada para transportar

Más detalles

GRADO TURISMO TEMA 7: INTRODUCCIÓN A LOS MODELOS DE PROBABILIDAD

GRADO TURISMO TEMA 7: INTRODUCCIÓN A LOS MODELOS DE PROBABILIDAD GRADO TURISMO TEMA 7: INTRODUCCIÓN A LOS MODELOS DE PROBABILIDAD Prof. Rosario Martínez Verdú TEMA 7: INTRODUCCIÓN A LOS MODELOS DE PROBABILIDAD 1. Nociones básicas de teoría de la probabilidad. 2. Variable

Más detalles

Axiomática de la Teoría de Probabilidades

Axiomática de la Teoría de Probabilidades Axiomática de la Teoría de Probabilidades Modelos matemáticos Según el experimento Cada ejecución del experimento se denomina prueba o ensayo Determinísticos Aleatorios Conjunto de resultados posibles

Más detalles

Estadís5ca. María Dolores Frías Domínguez Jesús Fernández Fernández Carmen María Sordo. Tema 3. Probabilidad y variable aleatoria

Estadís5ca. María Dolores Frías Domínguez Jesús Fernández Fernández Carmen María Sordo. Tema 3. Probabilidad y variable aleatoria Estadís5ca Tema 3. Probabilidad y variable aleatoria María Dolores Frías Domínguez Jesús Fernández Fernández Carmen María Sordo Departamento de Matemá.ca Aplicada y Ciencias de la Computación Este tema

Más detalles

Distribuciones de probabilidad más usuales

Distribuciones de probabilidad más usuales Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando

Más detalles

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema: Tema 4: Variables aleatorias Tema 4: Variables Aleatorias Distribución de Bernouilli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno

Más detalles

Estadística Grupo V. Tema 10: Modelos de Probabilidad

Estadística Grupo V. Tema 10: Modelos de Probabilidad Estadística Grupo V Tema 10: Modelos de Probabilidad Algunos modelos de distribuciones de v.a. Hay variables aleatorias que aparecen con frecuencia en las Ciencias Sociales y Económicas. Experimentos dicotómicos

Más detalles

Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración

Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración por Curso Propedéutico de Cálculo Sesión 6: de la Joaquín Ortega Sánchez Centro de Investigación en Matemáticas, CIMAT Guanajuato, Gto., Mexico Esquema por 1 por 2 Esquema por 1 por 2 por Al contrario

Más detalles

Tema 4: Variables aleatorias multidimensionales

Tema 4: Variables aleatorias multidimensionales Tema 4: Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Distribución conjunta de probabilidad Probabilidad/densidad marginales y condicionadas Independencia

Más detalles

Tema 1: Distribuciones en el muestreo

Tema 1: Distribuciones en el muestreo Tema 1: Distribuciones en el muestreo 1 (transparencias de A. Jach http://www.est.uc3m.es/ajach/) Muestras aleatorias Estadísticos Concepto de distribución muestral Media muestral Distribución muestral

Más detalles

TEMA 1.- PROBABILIDAD.- CURSO

TEMA 1.- PROBABILIDAD.- CURSO TEMA 1.- PROBABILIDAD.- CURSO 2016-2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

VARIABLES ALEATORIAS CONTINUAS

VARIABLES ALEATORIAS CONTINUAS VARIABLES ALEATORIAS CONTINUAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Definición de una V.A.C. Definición de una V.A.C.

Más detalles

Introducción al Diseño de Experimentos.

Introducción al Diseño de Experimentos. Introducción al Diseño de Experimentos www.academia.utp.ac.pa/humberto-alvarez Introducción Una población o universo es una colección o totalidad de posibles individuos, especímenes, objetos o medidas

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

Tema 4: Modelos probabilísticos

Tema 4: Modelos probabilísticos Tema 4: Modelos probabilísticos 1. Variables aleatorias: a) Concepto. b) Variables discretas y continuas. c) Función de probabilidad (densidad) y función de distribución. d) Media y varianza de una variable

Más detalles

Introducción al Tema 7. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Introducción al Tema 7. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. Introducción al Tema 7 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos

Más detalles

Definición de variable aleatoria

Definición de variable aleatoria Variables aleatorias Instituto Tecnológico Superior de Tepeaca Agosto-Diciembre 2015 Ingeniería en Sistemas Computacionales M.C. Ana Cristina Palacios García Definición de variable aleatoria Las variables

Más detalles

EXPERIMENTO ALEATORIO

EXPERIMENTO ALEATORIO EXPERIMENTO ALEATORIO En concepto de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, en otras palabras,

Más detalles

Variables aleatorias

Variables aleatorias Estadística Variables aleatorias Supongamos que realizamos el experimento: tirar dos veces un dado. Hasta ahora, hemos tratado sucesos, por ejemplo: A2 = la suma de dos tiradas de un dado es 2. Podemos

Más detalles

Tema 6: Modelos de probabilidad.

Tema 6: Modelos de probabilidad. Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos

Más detalles

TEMA 3.- MODELOS DISCRETOS

TEMA 3.- MODELOS DISCRETOS TEMA 3.- MODELOS DISCRETOS 3.1. Introducción. 3.2. Distribución uniforme discreta de parámetro n. 3.3.Distribución Bernoulli de parámetro p. 3.4.Distribución Binomial de parámetros n y p. Notación: X Bn,

Más detalles

Sesión 2: Teoría de Probabilidad

Sesión 2: Teoría de Probabilidad Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para

Más detalles

Son los experimentos de los que podemos predecir el resultado antes de que se realicen.

Son los experimentos de los que podemos predecir el resultado antes de que se realicen. Probabilidad Experimentos deterministas Son los experimentos de los que podemos predecir el resultado antes de que se realicen. Ejemplo Si dejamos caer una piedra desde una ventana sabemos, sin lugar a

Más detalles

Tema 4: Probabilidad y Teoría de Muestras

Tema 4: Probabilidad y Teoría de Muestras Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009

Más detalles

Material introductorio

Material introductorio Material introductorio Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Vanessa Gómez Verdejo Índice general. Variables aleatorias unidimensionales..................................

Más detalles

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones Part VI notables El proceso de Bernoulli En cada observación se clasifica el elemento de la población en una de las dos posibles categorías, correspondientes a la ocurrencia o no de un suceso. Llamaremos

Más detalles

Sesión 2: Teoría de Probabilidad

Sesión 2: Teoría de Probabilidad Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad las reglas mátemáticas de la probabilidad no son simplemente reglas para calcular frecuencias de variables aleatorias;

Más detalles

Tema 3: Cálculo de Probabilidades. Métodos Estadísticos

Tema 3: Cálculo de Probabilidades. Métodos Estadísticos Tema 3: Cálculo de Probabilidades Métodos Estadísticos 2 INTRODUCCIÓN Qué es la probabilidad? Es la creencia en la ocurrencia de un evento o suceso. Ejemplos de sucesos probables: Sacar cara en una moneda.

Más detalles

Bases Formales de la Computación: Sesión 1. Probabilidad Discreta

Bases Formales de la Computación: Sesión 1. Probabilidad Discreta Bases Formales de la Computación: Sesión 1. Probabilidad Discreta Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali 11 de abril

Más detalles

Son los experimentos de los que podemos predecir el resultado antes de que se realicen.

Son los experimentos de los que podemos predecir el resultado antes de que se realicen. PROBABILIDAD Definición de probabilidad La probabilidad de un suceso es un número, comprendido entre 0 y 1, que indica las posibilidades que tiene de verificarse cuando se realiza un experimento aleatorio.

Más detalles

Probabilidad, Variables Aleatorias y Distribuciones

Probabilidad, Variables Aleatorias y Distribuciones GRUPO A Prueba de Evaluación Continua 5-XII-.- Tres plantas de una fábrica de automóviles producen diariamente 00, 00 y 000 unidades respectivamente. El porcentaje de unidades del modelo A es 60%, 0% y

Más detalles

4.1. Definición de variable aleatoria. Clasificación.

4.1. Definición de variable aleatoria. Clasificación. Capítulo 4 Variable aleatoria Una variable aleatoria es un valor numérico que corresponde a un resultado de un experimento aleatorio. Algunos ejemplos son: número de caras obtenidas al lanzar seis veces

Más detalles

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones

Más detalles

Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y

Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y Profesores de TMDE Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y estadística Monograph 9 de septiembre de 23 Springer Índice general. Variables aleatorias

Más detalles