Tema 1. Probabilidad y modelos probabiĺısticos
|
|
- Arturo Palma Mendoza
- hace 7 años
- Vistas:
Transcripción
1 1 Tema 1. Probabilidad y modelos probabiĺısticos En este tema: Probabilidad Variables aleatorias Modelos de variables aleatorias más comunes Vectores aleatorios Tema 1. Probabilidad y modelos probabiĺısticos 2 Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad condicionada. Sucesos Independientes. Teoremas fundamentales del cálculo de probabilidades: regla de la multiplicación, th. de la probabilidad total y th. de Bayes. Variables aleatorias: Concepto de variable aleatoria. Variables aleatorias discretas: función de probabilidad, función de distribución, momentos. Variables aleatorias continuas: función de densidad, función de distribución, momentos. Algunas propiedades de la esperanza y la varianza.
2 3 Tema 1. Probabilidad y modelos probabiĺısticos Modelos de variables aleatorias más comunes: Distribución Bernoulli Distribución Binomial Distribución de Poisson Distribución uniforme continua Distribución exponencial Distribución normal Teorema Central del Límite Distribuciones asociadas a la normal (Tema 4. Introducción a la Inferencia Estadística) Vectores aleatorios: Concepto de vector aleatorio. Vectores aleatorios discretos: distribución conjunta, distribuciones marginales, distribuciones condicionadas, independencia. Vectores aleatorios continuos: distribución conjunta, distribuciones marginales, distribuciones condicionadas, independencia. Covarianza, correlación y esperanza condicionada. Algunas propiedades de la esperanza y la varianza Conceptos básicos 4 Experimento aleatorio: proceso de observar un fenómeno del que se conocen de antemano todos sus posibles resultados, pero a partir de las condiciones iniciales no puede predecirse exactamente cuál de estos resultados se producirá. Espacio muestral: es el conjunto de todos los posibles resultados de un experimento aleatorio. Se denota por Ω = {e 1,e 2,...,e n,...} y cada uno de sus elementos se denomina suceso elemental o punto muestral. Un espacio muestral (correspondiente a un determinado experimento aleatorio) tiene asociada una colección F no vacía de subconjuntos de Ω. Los elementos de F se denominan sucesos y se denotan por las letras A,B,C,...
3 Conceptos básicos: ejemplos Experimento aleatorio: lanzamiento de un dado Espacio muestral finito: Ω = {1,2,3,4,5,6} Sucesos elementales (o puntos muestrales): 1, 2,3,4, 5 y 6 Sucesos aleatorios: A = obtener una puntuación par = {2,4,6}, B = obtener una puntuación superior a 3 = {4,5,6}. Exp. aleatorio: número de accesos a la página web de la universidad el próximo lunes Espacio muestral infinito numerable: Ω = {0,1,2,...,n,...} = N {0} Sucesos elementales: 0,1,2,3,... Sucesos aleatorios: A = se reciben al menos 100 accesos = {100,101,...} y B = se reciben menos de 500 accesos = {0,1,...,499}. Exp. aleatorio: precio de una cierta acción al cierre de sesión del próximo lunes Espacio muestral infinito no numerable: Ω = (0,+ ), o siendo realistas, Ω = (0,M) Sucesos elementales: x (0,M) Sucesos aleatorios: A = el precio de cierre es superior a 5 euros = (5,M) y B = precio de cierre entre 3 y 8 euros = (3,8). 5 Sucesos triviales Sucesos: conceptos básicos Suceso seguro: siempre se verifica después del experimento aleatorio. El propio espacio muestral Ω Suceso imposible: nunca se verifica como resultado del experimento aleatorio. El conjunto vacío Ω Suceso complementario o contrario a un suceso A: suceso que se verifica cuando no se verifica A. Es el conjunto de todos los sucesos elementales de Ω que no están en A. Se suele denotar por A c ó A 6
4 Operaciones básicas con sucesos aleatorios 7 Intersección de sucesos: Si A y B son dos sucesos del espacio muestral Ω, entonces el suceso intersección, A B, es el conjunto de todos los elementos de Ω que están en A y en B a la vez. Operaciones básicas con sucesos aleatorios 8 A y B son sucesos incompatibles si no tienen ningún suceso elemental en común, i.e., el suceso intersección es el suceso imposible, A B =
5 Operaciones básicas con sucesos aleatorios 9 Unión de sucesos: Si A y B son dos sucesos de un espacio muestral Ω, entonces el suceso unión, A B, es el conjunto de todos los sucesos elementales de Ω que pertenecen a cualquiera de los dos, A ó B. Operaciones básicas con sucesos aleatorios 10 Diferencia de sucesos: Si A y B son dos sucesos de un espacio muestral Ω, entonces el suceso diferencia, A\B, es el conjunto de todos los sucesos elementales de Ω que pertenecen a A pero no a B.
6 11 Operaciones básicas con sucesos aleatorios Leyes de Morgan Relación entre la unión, intersección y suceso complementario A B = A B A B = A B Ejemplo: lanzamiento de un dado 12 Consideremos el experimento aleatorio resultado observado al lanzar un dado : suceso elemental: el 1, el 2, el 3, el 4, el 5, el 6 espacio muestral: Ω = {1,2,3,4,5,6} suceso: A = {2,4,6} B = {4,5,6} El suceso A es sale un número par. El suceso B es sale un número mayor que tres.
7 13 Ejemplo: lanzamiento de un dado Ω = {1,2,3,4,5,6} A = {2,4,6} B = {4,5,6} Complementario: Intersección: Ā = {1,3,5} B = {1,2,3} A B = {4,6} Ā B = {1,3} Unión: A B = {2,4,5,6} Ā B = {1,2,3,5} A Ā = {1,2,3,4,5,6} = Ω Sucesos incompatibles: A Ā = Probabilidad. Intuición 14 La probabilidad es una medida subjetiva sobre la incertidumbre de que suceda cierto suceso. Al tirar un dado: la probabilidad de que salga un 1 es más pequeña que la probabilidad de que salga un número mayor que uno la probabilidad de que salga un 4 es igual que la probabilidad de que salga un 6. la probabilidad de que salga un 7 es mínima, igual a la probabilidad del suceso imposible la probabilidad de que salga un número positivo es máxima, igual a la probabilidad del suceso seguro
8 Tres enfoques/interpretaciones 15 Probabilidad clásica (regla de Laplace): Considera un experimento para el que todos los sucesos elementales son equiprobables. Si A es un suceso formado por n(a) puntos muestrales, entonces se define la probabilidad de A como P(A) = número de casos favorables a A número de casos posibles = n(a) n(ω). Enfoque frecuentista: Si repetiéramos el experimento muchas veces, la frecuencia con que ocurre el suceso sería una aproximación de la probabilidad. Probabilidad el valor ĺımite de la frecuencia Probabilidad subjetiva: Depende de la información que tengamos en ese momento. Probabilidad creencia o certeza de que ocurra Propiedades de la probabilidad 16 Definición Sea F la colección no vacía de todos los sucesos de Ω. La probabilidad es una aplicación P : F [0,1], que asigna a cada suceso A F un valor numérico P(A), verificando: P(A) 0, para todo suceso A F P(Ω) = 1 Probabilidad de la unión de sucesos disjuntos: si A y B son incompatibles, entonces P(A B) = P(A)+P(B). Propiedades Probabilidad del complementario: P(Ā) = 1 P(A). P( ) = 0. Si A B P(A) P(B) Si A = {e 1,...,e n } finito (o infinito numerable) P(A) = n i=1 P(e i) Probabilidad de la unión: P(A B) = P(A)+P(B) P(A B).
9 17 Ejemplo: lanzamiento de un dado Probabilidad de un suceso elemental: P(e i ) = 1 6 Probabilidad de que salga par: A = {2,4,6}, luego P(A) = P( 2 )+P( 4 )+P( 6 ) = = 1 2 = n(a) n(ω) Probabilidad de que salga mayor que 3: B = {4,5,6}, luego P(B) = P( 4 )+P( 5 )+P( 6 ) = = 1 2 = n(b) n(ω) Probabilidad de que salga impar P(Ā) = 1 P(A) = = 1 2 Ejemplo: lanzamiento de un dado 18 Probabilidad de que salga par o mayor que tres P(A B) = P(A)+P(B) P(A B) Como A B = {4,6}, entonces P(A B) = 2 6 = 1 3 = n(a B) n(ω) P(A B) = = 4 6 = 2 3 = n(a B) n(ω) Probabilidad de que salga par o igual a uno. Los sucesos A = {2,4,6} y C = {1} son incompatibles (A C = ) por tanto P(A C) = P(A)+P(C) = = 4 6 = 2 3 = n(a C) n(ω)
10 Probabilidad condicionada: ejemplo Se clasifica un grupo de 100 ejecutivos de acuerdo a su peso y a si sufren o no de hipertensión. La tabla muestra el número de ejecutivos en cada categoría. Insuficiente Normal Sobrepeso Total Hipertenso Normal Total Experimento aleatorio: seleccionar al azar a uno de esos 100 ejecutivos para medir su tensión y su peso. Espacio muestral: Ω = {(H,I),(H,N),(H,S),(N,I),(N,N),(N,S)} Si se elige un ejecutivo al azar, cuál es la probabilidad de que tenga hipertensión? P(H) = = 0,2 n(h) n(ω) Si se elige a una persona al azar, y se descubre que tiene sobrepeso, cuál es la probabilidad de que tenga hipertensión? Es la misma que antes? 19 Probabilidad condicionada: ejemplo 20 Probabilidad de que sea hipertenso, sabiendo que tiene sobrepeso: P(H S) Para calcularla, nos fijamos sólo en los ejecutivos con sobrepeso: P(H S) = = 0,4 > 0,2 = P(H) La probabilidad de un suceso depende de la mayor o menor información que tengamos La probabilidad condicionada, (o probabilidad condicional) es la probabilidad de que ocurra un suceso, dado que sabemos que ha ocurrido otro suceso.
11 Probabilidad condicionada. Sucesos Independientes Probabilidad condicionada Sean dos sucesos A y B, la probabilidad de A condicionada por el suceso B es: Para que tenga sentido: P(B) > 0. Sucesos Independientes P(A B) = P(A B) P(B) Intuitivamente: la ocurrencia de uno de ellos no nos dice nada nuevo sobre la ocurrencia del otro Definición: se dice que dos sucesos A y B son independientes si P(A B) = P(A)P(B). Propiedad: dos sucesos A y B son independientes si, y sólo si, P(A B) = P(A) y P(B A) = P(B). 21 Teoremas fundamentales del cálculo de probabilidades 22 Regla de la multiplicación ó fórmula de las probabilidades compuestas Es útil para calcular la probabilidad de la ocurrencia simultánea de varios sucesos cuando las probabilidades condicionadas son fáciles de calcular. P(A B) = P(A B)P(B), siempre que P(B > 0). P(A B C) = P(A)P(B A)P(C A B), siempre que P(A B) > 0. Se generaliza al cálculo de la probabilidad de la intersección de n sucesos A 1,...,A n.
12 23 Regla de la multiplicación: ejemplo Se extraen dos cartas de una baraja española. Probabilidad de que: la primera carta sea copa: P(A) = la segunda sea copa, sabiendo que la primera lo fue: P(B A) = las dos cartas sean copas: P(A B) = P(B A)P(A) = Se lanzan dos dados. Probabilidad de que: en el primer dado salga un 1: P(C) = 1 6. en el segundo dado salga un 1, sabiendo que en el primero salió 1: P(D C) = P(D) = 1 6. en el primer dado salga un uno, si en el segundo salió uno: P(C D) = P(C) = en los dos dados salga uno: P(C D) = P(D C)P(C) = P(D)P(C) = (sucesos independientes) Teoremas fundamentales: teorema de la probabilidad total Un conjunto de sucesos B 1,B 2,...,B k son mutuamente excluyentes si Si además de eso cumplen B i B j =, i j. Ω = B 1 B 2... B k, se dice que forman una partición del espacio muestral. 24
13 Teoremas fundamentales: teorema de la probabilidad total Si B 1,B 2,...,B k es una partición del espacio muestral tal que P(B i ) 0, i = 1,...,k, y A es un suceso cualquiera, entonces P(A) = P(A B 1 )+P(A B 2 )+...+P(A B k ) = = P(A B 1 )P(B 1 )+P(A B 2 )P(B 2 )+...+P(A B k )P(B k ). 25 Teorema de la probabilidad total: ejemplo 26 En una fábrica se embalan galletas en cuatro cadenas de montaje: A1, A2, A3, y A4. El 35% de la producción total se embala en la cadena A1, el 20%, 24% y 21% en las cadenas A2, A3 y A4 respectivamente. Los datos indican que no se embalan correctamente un porcentaje pequeño de las cajas: el 1% en la cadena de montaje A1, el 3% en A2, el 2.5% en A3 y el 2% en A4. Cuál es la probabilidad de que una caja elegida al azar de la producción total sea defectuosa (suceso D)? P(D) = P(D A 1 )+P(D A 2 )+P(D A 3 )+P(D A 4 ) = P(D A 1 )P(A 1 )+P(D A 2 )P(A 2 )+P(D A 3 )P(A 3 )+P(D A 4 )P(A 4 ) = =
14 Teoremas fundamentales: teorema de Bayes 27 Para dos sucesos A y B se tiene que P(A B) = P(B A)P(A) P(B) Ejemplo: (continuación del anterior) Supongamos que descubrimos una caja defectuosa, cuál es la probabilidad de que la caja haya sido embalada en la cadena de montaje A1? P(A 1 D) = P(D A 1)P(A 1 ) = P(D) = = donde la probabilidad de que una caja elegida al azar sea defectuosa P(D) se ha calculado aplicando el teorema de la probabilidad total. Teoremas fundamentales: teorema de Bayes 28 Dada una partición del espacio muestral, B 1,B 2,...,B k, tal que P(B i ) 0, i = 1,...,k, y dado un suceso A, se tiene que P(B j A) = para todo j = 1...,k P(A B j )P(B j ) P(A B 1 )P(B 1 )+P(A B 2 )P(B 2 )+...+P(A B k )P(B k ) Probabilidades a priori: p(b 1 ),...,p(b k ) Probabilidades a posteriori: p(b 1 A),...,p(B k A) Verosimilitudes: p(a B 1 ),...,p(a B k )
15 Teoremas fundamentales: utilidad 29 La aplicación del teorema de la probabilidad total y del teorema de Bayes es especialmente útil cuando: El experimento aleatorio se puede separar en 2 etapas Es sencillo dar una partición de todo el espacio muestral Ω mediante sucesos B 1,...,B k correspondientes a resultados en la primera etapa. Son conocidas, o fácilmente calculables, las probabilidades a priori, p(b 1 ),...,p(b k ). Son conocidas, o fácilmente calculables, las verosimilitudes: p(a B 1 ),...,p(a B k ), donde A es un suceso correspondiente a resultados de la segunda etapa. Variables aleatorias 30 Variable aleatoria: definición Variables aleatorias discretas: Función de probabilidad Función de distribución Momentos Variables aleatorias continuas: Función de densidad Función de distribución Momentos Algunas propiedades de la esperanza y la varianza
16 Variables aleatoria: definición 31 Sea Ω el espacio muestral asociado a cierto experimento aleatorio y F el correspondiente conjunto de sucesos. Se denomina variable aletoria (v.a.) a una función X : Ω R, que a cada elemento e i Ω le asigna un valor numérico X(e i ) = x i R. Intuitivamente, una variable aleatoria es una medida o cantidad que varía en función del resultado concreto e i que se observa al realizar el experimento aleatorio. La v.a. se denota con letras mayúsculas, mientras que las letras minúsculas indican el valor concreto que toma la v.a. cuando se evalúa en un punto muestral. Ejemplo: Lanzar un dado una vez. Considerar la v.a. X = resultado de la tirada. Cuántos sucesos elementales hay? Qué valores puede tomar X? Variables aleatoria: ejemplo 32 Experimento aleatorio: lanzamiento de 3 dados Espacio muestral: Ω = {111,112,...,665,666}, de cardinal n(ω) = 6 3 = 216 Variable aleatoria X = número de unos X : Ω R X(abc) = 0, a,b,c = 2,3,...,6 X(1ab) = X(a1b) = X(ab1) = 1, a,b = 2,3,...,6 X(a11) = X(1a1) = X(11a) = 2, a = 2,3,...,6 X(111) = 3
17 33 Variables aleatorias: tipos V.a. discreta Si X toma valores sobre un conjunto S R finito o infinito numerable, se dice que X es una variable aleatoria discreta. V.a. continua Si X toma valores sobre un conjunto S R infinito no numerable (por ejemplo, en intervalo o una unión de intervalos), se dice que X es una variable aleatoria continua. El conjunto S R se denomina soporte de la variable aleatoria X. Variables aleatorias: ejemplos 34 Variables aleatorias discretas resultado al tirar un dado, con soporte S = {1,2,3,4,5,6} finito número de 1 s obtenidos al lanzar 3 dados, con soporte S = {0,1,2,3} finito número de coches que pasan por cierto peaje en una semana, con soporte S = {0,1,2,...} = N {0} infinito numerable. Variables aleatorias continuas altura de una persona, puede considerarse S = [0,+ ). el tiempo de reacción a cierto medicamento, puede considerarse S = [0,+ ).
18 Variables aleatorias discretas 35 Función de probabilidad Sea X una variable aleatoria discreta que toma valores en el conjunto S = {x 1,x 2,...}, finito o infinito numerable, con probabilidades p 1 = P(X = x 1 ), p 2 = P(X = x 2 ),... Se define la función de probabilidad de X o función de masa de X como P(X = x) = { pi, si x = x i S, 0, si x / S. Variables aleatorias discretas Ejemplo X = número de 1 s obtenidos al lanzar 3 dados. Cómo calculamos probabilidades de X? 36 La probabilidad P : F R definida sobre los elementos de Ω se transmite a X P(X = 0) = P({abc /a,b,c = 2,...,6}) = = P(X = 1) = P({{1ab} {a1b} {ab1},a,b = 2,...,6}) = = P(X = 2) = P({{a11} {1a1} {11a},a = 2,...,6}) = = P(X = 3) = P(111) = = x P(X = x)
19 Variables aleatorias discretas 37 Función de probabilidad. Propiedades X variable aleatoria discreta que toma valores en el conjunto S = {x 1,x 2,...} con probabilidades p 1 = P(X = x 1 ), p 2 = P(X = x 2 ),... 0 P(X = x) 1, para todo x R. x SP(X = x) = i P(X = x i ) = i p i = 1. P(X A) = = x). x AP(X P(X x) = P(X (,x]) = P(X = x i ) = p i. P(X > x) = 1 P(X x). i,x i x i,x i x Variables aleatorias discretas 38 Función de probabilidad. Representación gráfica La función de probabilidad se representa mediante un diagrama de barras Ejemplo X = número de 1 s obtenidos al lanzar 3 dados X P(x) 0 0, , , , ,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 Función de probabilidad
20 Función de distribución Variables aleatorias discretas La función de distribución o función de probabilidad acumulada de una variable aleatoria X es una aplicación F : R [0,1], que a cada valor x R le asigna la probabilidad F(x) = P(X x) = P(X (,x]). Atención! F(x) está definida para todo x R y no sólo para los x S. Propiedades 0 F(x) 1 para todo x R. F(y) = 0 para todo y < mins. Por tanto, F( ) = lim x infty = 0. F(y) = 1 para todo y maxs. Por tanto, F( ) = lim x infty = 1. Si x 1 x 2, entonces F(x 1 ) F(x 2 ), es decir, F(x) es monótona no decreciente. Para todo a,b R, P(a < X b) = P(X (a,b]) = P((X (,b])\(x (,a])) = P(X (,b]) P(X (,a]) = F(b) F(a). 39 Variables aleatorias discretas 40 Función de distribución: ejemplo X = número de 1 s al lanzar 3 dados. 0, si x < 0, F(x) = , si 0 x < 1, = , si 1 x < 2, = , si 2 x < 3, = 1, si x 3. OJO! valores x / S pueden tomar valores F(x) > 0.
21 Variables aleatorias discretas 41 Función de distribución: representación gráfica Si X es una v.a. discreta, su función de distribución es de tipo escalón (discontinuidades de salto). Cada escalón corresponde a un x i S y el salto correspondiente es la probabilidad P(X = x i ) = p i. Momentos de una variable aleatoria discreta Los momentos sirven para resumir alguna información sobre la variable aleatoria 42 Sea X una v.a. discreta con soporte S = {x 1,x 2,...}, y función de probabilidad p 1 = P(X = x 1 ), p 2 = P(X = x 2 ),... Esperanza de X: momento de primer orden E(X) = µ = x S xp(x = x) = i x i P(X = x i ) = i x i p i Es una medida de localización En general, se define el momento de orden k como E(X k ) = x S x k P(X = x) = i x k i P(X = x i ) = i x k i p i
22 Momentos de una variable aleatoria discreta 43 X = número de 1 s al lanzar 3 dados, con soporte S = {0,1,2,3} El número esperado de 1 s al lanzar 3 dados equilibrados es: E(X) = 0P(X = 0)+1P(X = 1)+2P(X = 2)+3P(X = 3) = = = 0.5 X = resultado de lanzar un dado, con soporte S = {1,2,3,4,5,6}, y función de probabilidad Su valor esperado es: E(X) = x S x P(X = x) x P(X = x) = = = = 21 6 = Momentos de una variable aleatoria discreta Sea X una v.a. discreta con soporte S = {x 1,x 2,...}, y función de probabilidad p 1 = P(X = x 1 ), p 2 = P(X = x 2 ), Varianza: momento centrado de segundo orden V(X) = σ 2 = E[(X E(X)) 2 ] = x S (x µ) 2 P(X = x) = i (x i µ) 2 P(X = x i ) = = i (x i µ) 2 p i = i x 2 i p i µ 2 = E(X 2 ) E(X) 2 Desviación típica: σ = σ 2 = E[(X µ) 2 ] Son medidas de dispersión (alrededor del valor esperado) En general, se define el momento centrado de orden k como E((X µ) k ) = x S (x µ) k P(X = x) = i (x i µ) k P(X = x i ) = i (x i µ) k p i
23 Momentos de una variable aleatoria discreta 45 X = número de 1 s al lanzar 3 dados, con soporte S = {0,1,2,3}. Su varianza es: V(X) = E((X µ) 2 ) = (0 0.5) 2 P(X = 0)+(1 0.5) 2 P(X = 1)+ +(2 0.5) 2 P(X = 2)+(3 0.5) 2 P(X = 3) = = = X = resultado de lanzar un dado, con soporte S = {1,2,3,4,5,6}. Su varianza es: V(X) = E((X µ) 2 ) = E(X 2 ) µ 2 = x S x 2 P(X = x) µ 2 = = 1 6 ( ) = = Esperanza y varianza de una variable aleatoria discreta Ejemplo X = número de caras al tirar una moneda dos veces. El espacio muestral asociado al experimento aleatorio lanzamiento de dos monedas es Ω = {(cara, cara),(cara, cruz),(cruz, cara),(cruz, cruz)}. La variable X toma valores en S = {0,1,2} con probabilidades P(X = 0) = 1/4, P(X = 1) = 1/4+1/4 = 1/2, P(X = 2) = 1/4. Por tanto, la función de probabilidad de X es x P(X = x) Calculamos su esperanza y varianza: E(X) = x S x P(X = x) = = 1, 46 V(X) = x S (x E(X)) 2 P(X = x) = (0 1) (1 1) (2 1)2 1 4 = 1 2.
24 Función de densidad Variables aleatorias continuas Las probabilidades de una variable aleatoria continua se calculan a partir de una función f : R [0,+ ) denominada función de densidad. 47 Propiedades f(x) 0 para todo x R. f(x)dx = 1, es decir, el área total de la función de densidad es 1. Para todo a,b R, P(a X b) = P(X [a,b]) = b f(x)dx es el a área que determina la función de densidad de X sobre el intervalo [a,b]. Los intervalos [a,b], (a,b), (a,b] y [a,b) tienen la misma probabilidad. Soporte de X: S = {x R/f(x) > 0} Atención! La función de densidad juega el mismo papel que la función de probabilidad para v.a. discretas. Solo tiene sentido calcular probabilidades de intervalos: P(X = x) = 0 para todo x R. Función de distribución Variables aleatorias continuas Para una v.a. continua X, la función de distribución se define como la función F(x) = P(X x) = P(X (,x]) = x f(t)dt, para todo x R. Igual que en el caso discreto, la función F(x) da las probabilidades acumuladas hasta el punto x R, pero ahora se trata de una función continua y no de tipo escalón. Dos ejemplos son: 48
25 Variables aleatorias continuas 49 Propiedades 0 F(x) 1, para todo x R. F( ) = 0. F( ) = 1. Si x 1 x 2, entonces F(x 1 ) F(x 2 ), es decir, F(x) es no decreciente. Para todo a,b R, P(a X b) = F(b) F(a). La función de densidad de X se obtiene derivando la función de distribución, es decir, f(x) = F (x). Variables aleatorias continuas 50 Ejemplo Una variable aleatoria X tiene función de densidad f(x) = { 3x 2, si x (0,1), 0, si x / (0,1) Cómo es la gráfica de la función de densidad de X? Indicar cuál es el área asociada a la probabilidad P(X > 1/2). Calcular la probabilidad P(X > 1/2). Obtener la función de distribución de X.
26 Variables aleatorias continuas 51 Ejemplo Una variable aleatoria X tiene función de densidad f(x) = { 12x 2 (1 x), si 0 < x < 1, 0, en otro caso. P(X 0.5) = 0.5 P(0.2 X 0.5) = F(x) = P(X x) = 0.5 x f(u)du = f(u)du = 12u 2 (1 u)du = u 2 (1 u)du = , ( ) si x 0, x f(u)du = x4 4, si 0 < x 1, 1, si x > 1. Momentos de una variable aleatoria continua 52 Sea X una v.a. continua con soporte S R, y función de densidad f. Esperanza de X: momento de primer orden E(X) = µ = xf(x)dx Es una medida de localización En general, se define el momento de orden k como E(X k ) = x k f(x)dx S S
27 Momentos de una variable aleatoria continua 53 Ejemplo Una variable aleatoria X tiene función de densidad f(x) = { 12x 2 (1 x), si 0 < x < 1, 0, en otro caso. Calculamos su esperanza: E(X) = = R 1 0 x f(x)dx = 1 ( x 12(x 3 x 4 4 )dx = 12 0 x 12x 2 (1 x)dx 4 x5 5 ) 1 0 = 12 ( ) = Momentos de una variable aleatoria continua 54 Sea X una v.a. continua con soporte S R, y función de densidad f. Varianza: momento centrado de segundo orden V(X) = σ 2 = E[(X E(X)) 2 ] = (x µ) 2 f(x)dx = S = E(X 2 ) E(X) 2 = x 2 f(x)dx µ 2 Desviación típica: σ = σ 2 = E[(X µ) 2 ] Son medidas de dispersión (alrededor del valor esperado) En general, se define el momento centrado de orden k como E((X µ) k ) = (x µ) k f(x)dx S S
28 Momentos de una variable aleatoria continua 55 Ejemplo f(x) = Calculamos su varianza: { 12x 2 (1 x), si 0 < x < 1, 0, en otro caso. var(x) = E[(X E(X)) 2 ] = R (x E(X))2 f(x)dx = 1( 0 x 3 2 5) 12x 2 (1 x)dx = ( x x x x2) dx = 12 ( 1 6 x = 12 ( x x x3) ) = 0.04 Ejemplo de repaso: distribución uniforme en (3,5) 56 Algunas probabilidades Una variable aleatoria X que sigue una distribución uniforme en el intervalo (3, 5) tiene función de densidad f(x) = { = 1 2, si x (3,5) 0, si x / (3,5). dist. uniforme Calculamos algunas probabilidades: P(X 0.5) = 0.5 f(u)du = 0 P(X 4) = 4 f(u)du = du = 1 2 u 4 3 = 1 2 P(3.5 X 4.5) = f(u)du = du = 1 2
29 Ejemplo de repaso: distribución uniforme en (3,5) 57 Función de distribución F(x) = P(X x) = x f(u)du =... Si x 3 entonces F(x) = P(X x) = 0. Si 3 x < 5 entonces F(x) = P(X x) = x 3 Si x 5 entonces F(x) = P(X x) = du = u 4 0, si x 3, x 3 F(x) = 2, si 3 < x < 5, 1, si x 5. 2 du = u 2 x 3 = x = = 1. Ejemplo de repaso: distribución uniforme en (3,5) 58 Esperanza E(X) = R x f(x)dx = 5 3 x 1 2 dx = x = = 4 Varianza var(x) = R x2 f(x)dx E 2 [X] = 5 3 x 2 2 dx 42 = x =
30 Esperanza de una transformación Sea X una variable aleatoria y sea g(x) una transformación de X. Entonces: g(x)p(x = x), si X v.a. discreta E(g(X)) = x S g(x)f(x)dx, si X v.a. continua S Ejemplo: si tomamos g(x) = kx, con k R constante, entonces kxp(x = x) = ke(x), si X v.a. discreta E(kX) = x S kxf(x)dx = ke(x), si X v.a. continua S Para la varianza tenemos, (kx kµ) 2 P(X = x) = k 2 V(X), V(kX) = x S (kx kµ) 2 f(x)dx = k 2 V(X), S si X v.a. discreta si X v.a. continua 59 Algunos modelos probabiĺısticos 60 Variables aleatorias discretas más comunes Ensayos de Bernoulli Distribución Binomial Distribución de Poisson Variables aleatorias continuas más comunes Distribución uniforme continua Distribución exponencial Distribución normal Teorema Central del Límite Distribuciones asociadas a la normal (Tema 4. Introducción a la Inferencia Estadística)
31 Descripción / Definición Ensayos de Bernoulli Es una forma de modelar estadísticamente cualquier experimento aleatorio que tenga solamente dos resultados posibles, mútuamente excluyentes, que suelen llamarse éxito y fracaso, con la condición de que la probabilidad de estos dos resultados se mantenga constante en cada realización del experimento (experimentos o ensayos de Bernoulli). Si la probabilidad de éxito es p (por tanto, la de fracaso es 1 p), se define la variable aleatoria de Bernoulli como 61 X = { 1, si se observa un éxito, 0, si se observa un fracaso. Soporte de X: S = {0,1}, con probabilidades P(X = 0) = 1 p = q, P(X = 1) = p. Para denotar que X sigue una distribución Bernoulli de parámetro p escribiremos X Ber(p). Ejemplo Resultado de lanzar una moneda al aire Ensayos de Bernoulli 62 X = { 1, sale cara, 0, si sale cruz. Es un ensayo Bernoulli, donde se ha considerado como éxito el observar una cara. X sigue una distribución Bernoulli de parámetro 1/2 (si la moneda no está trucada). Ejemplo Una ĺınea aérea estima que los pasajeros que compran un billete no se presentan al embarque con una probabilidad de Definimos { 1, si el pasajero se presenta, Y = 0, si el pasajero no se presenta. Y sigue una distribución Bernoulli con parámetro 0.95.
32 Ensayos de Bernoulli 63 Función de Probabilidad: Función de distribución: F(x) = P(X = 0) = 1 p P(X = 1) = p 0, si x < 0 1 p, si 0 x < 1 1, si x 1 Propiedades E(X) = 0P(X = 0)+1P(X = 1) = 0(1 p)+1p = p E(X 2 ) = 0 2 P(X = 0)+1 2 P(X = 1) = 0 2 (1 p)+1 2 p = p V(X) = E(X 2 ) E(X) 2 = p p 2 = p(1 p) = pq Distribución Binomial 64 Descripción / Definición Se realizan n ensayos de Bernoulli independientes con la misma probabilidad de éxito p. La v.a. X que cuenta el número de éxitos observados en estos n ensayos se dice que sigue una distribución Binomial de parámetros n y p y se escribe X B(n,p). La v.a. X toma valores en S = {0,1,2,...,n} y su función de probabilidad viene dada por la fórmula ( n P(X = x) = p x) x (1 p) n x, x = 0,1,...,n, 0 p 1, donde ( ) n x = n! x!(n x)!, para 0 x n. Recordad que, por convenio, 0! = 1. Propiedades E(X) = np, V(X) = np(1 p) = npq.
33 Ejemplo Distribución Binomial La ĺınea aérea del ejemplo anterior ha vendido 80 billetes para un vuelo. La probabilidad de que un pasajero no se presente al embarque es de Definimos X = número de pasajeros que se presentan al embarque. Entonces (suponiendo independencia) X B(80,0.95) 65 La probabilidad de que los 80 pasajeros se presenten es ( ) 80 P(X = 80) = (1 0.95) = La probabilidad de que al menos un pasajero no se presente es P(X < 80) = 1 P(X = 80) = = Distribución Binomial: función de probabilidad La función de probabilidad de X B(80,0.95) es 66 Binomial Distribution: Trials = 80, Probability of success = 0.95 Probability Mass Number of Successes Cambiando la probabilidad de éxito: Binomial Distribution: Trials = 80, Probability of success = 0.5 Binomial Distribution: Trials = 80, Probability of success = 0.1 Probability Mass Probability Mass Number of Successes Number of Successes
34 Distribución de Poisson: sucesos raros Descripción / Definición Cuenta el número de sucesos raros que ocurren en una determinada unidad de tiempo o de espacio. Por ejemplo, llamadas de teléfono en una hora, erratas en una página, accidentes de tráfico a la semana,... Una v.a. X sigue una distribución de Poisson de parámetro λ, y se denotará por X Pois(λ), si su función de probabilidad es λ λx P(X = x) = e, para x = 0,1,2,... x! Observad que X toma valores en S = {0,1,2,...} = N {0}. Propiedades E(X) = λ, V(X) = λ. λ representa el número medio de sucesos que se producen por unidad de tiempo o de espacio. Exponencial 67 Distribución de Poisson: sucesos raros 68 Propiedad de la Poisson Si X Pois(λ) y representa el número de sucesos raros en una unidad de tiempo o de espacio, e Y es una variable aleatoria que representa el número de dichos sucesos raros en s unidades, se tiene que: Y Pois(sλ)
35 69 Distribución de Poisson: sucesos raros Ejemplo El número medio de erratas por transparencias es de 0.2. Sea X es la v.a. que cuenta el número de erratas por transparencia, entonces X Pois(0.2) Cuál es la probabilidad de que en una transparencia no haya erratas? P(X = 0) = e 0! = e 0.2 = Cuál es la probabilidad de que en 4 transparencias haya exactamente una errata? Sea Y la v.a. que cuenta el número de erratas en 4 transparencias. Entonces: Y Pois(0.2 4) = Pois(0.8) P(Y = 1) = e 1! = e = Distribución uniforme 70 Descripción / Definición Se dice que una variable X sigue una distribución uniforme en el intervalo (a,b), y se denota por X U(a,b), si su función de densidad es f(x) = { 1 b a, si x (a,b), 0, si x / (a,b). Esta v.a. queda definida por los extremos del intervalo, es decir, a y b son sus parámetros. Propiedades E(X) = a+b (b a)2 2, V(X) = 12.
36 71 Distribución uniforme Descripción / Definición Distribución exponencial La distribución exponencial es aquella que modela el tiempo transcurrido entre dos sucesos que se producen de forma independiente, separada y uniforme en el tiempo. Se dice que una v.a. X sigue una distribución exponencial de parámetro λ, y se denota por X exp(λ), si su función de densidad es f(x) = λe λx, para x Observad que X toma valores en el conjunto S = [0,+ ). Ejemplos Tiempo entre llegadas de camiones al punto de descarga. Tiempo entre llamadas de emergencia. Tiempo de vida de una bombilla.
37 73 Distribución exponencial Distribución exponencial 74 Propiedades E(X) = 1 λ V(X) = 1 λ 2 Función de distribución: F(x) = { 1 e λx, si x 0, 0, si x < 0. Está relacionada con la distribución de Poisson. Poisson λ es el número medio de ocurrencias del suceso por unidad de tiempo.
38 Ejemplo Distribución exponencial Hemos observado que en cierta provincia se producen, en promedio, 50 incendios serios cada año. Suponemos que estos incendios se producen de forma independiente y decidimos modelar el número de incendios por año mediante una distribución Poisson. 75 Cuál es el tiempo medio que transcurre entre dos incendios consecutivos? Si acaba de ocurrir un incendio cuál es la probabilidad de que el próximo se produzca al cabo de dos semanas? Sabemos que: El número de incendios por año N Pois(λ) con λ = 50. El tiempo entre dos incendios X exp(λ) con λ = 50. El tiempo medio entre dos incendios E(X) = 1 λ = 1/50 años, 7.3 días. 2 7 Dos semanas, en años son: 365 = , P[X > ] = 1 P[X ] = 1 (1 e ) = Distribución normal 76 Descripción / Definición La distribución normal describe una variable aleatoria ideal. Se trata de un modelo teórico que aproxima bien muchas situaciones reales. La inferencia estadística se fundamenta básicamente en la distribución normal y en distribuciones que se derivan de ella. Se dice que una v.a. X sigue una distribución normal o gausiana con parámetros µ y σ, y se denota por X N(µ,σ), si su función de densidad es { 1 f(x) = σ 2π exp 1 } µ)2 2σ2(x Propiedades E(X) = µ, V(X) = σ 2.
39 77 Distribución normal Función de densidad para 3 valores distintos de µ y σ Distribución normal 78 Propiedad Si X N(µ,σ), entonces: P(µ σ < X < µ+σ) P(µ 2σ < X < µ+2σ) P(µ 3σ < X < µ+3σ) 0.997
40 79 Distribución normal Transformación lineal Estandarización o Tipificación Si X N(µ,σ), considero Y = a+bx N(a+bµ, b σ) Z = X µ σ Se llama distribución normal estándar. N(0,1) Distribución normal: Ejemplo Sea Z N(0, 1). Calculemos algunas probabilidades: P(Z < 1.5) = = DISTR.NORM(1.5;0;1;VERDADERO) 80
41 Distribución normal: Ejemplo (cont.) 81 P(Z > 1.5) = P(Z < 1.5) = por qué? P(Z < 1.5) = P(Z > 1.5) = 1 P(Z < 1.5) = = = por qué no? P( 1.5 < Z < 1.5) = P(Z < 1.5) P(Z < 1.5) = = DISTR.NORM(1.5;0;1;VERDADERO) DISTR.NORM(-1.5;0;1;VERDADERO) = = Distribución normal: Ejemplo 82 Sea X N(µ = 2,σ = 3). Para calcular P(X < 4), si no tenemos ordenador, hay que recurrir a las tablas de la distribución normal estándar. Para ello, tipificamos la variable original: ( X 2 P(X < 4) = P < 4 2 ) = P ( Z < ) donde Z N(0,1) Cuál es P( 1 < X < 3.5)? donde Z N(0,1) P( 1 < X < 3.5) = P( 1 2 < X 2 < 3.5 2) = ( 1 2 P < X 2 < ) = P( 1 < Z < 0.5) = P(Z < 0.5) P(Z < 1) = =
42 83 Distribución normal: Ejemplo (cont.) Sea X N(µ = 2,σ = 3). Si usamos Excel no hace falta tipificar X. Directamente calculamos P(X < 4) = DISTR.NORM(4;2;3;VERDADERO) = P( 1 < X < 3.5) = P(X < 3.5) P(X < 1) = = DISTR.NORM(3.5;2;3;VERDADERO) DISTR.NORM(-1;2;3;VERDADERO) = = = Distribución normal: otro ejemplo Es difícil etiquetar la carne empaquetada con su peso correcto debido a los efectos de pérdida de ĺıquido (definido como porcentaje del peso original de la carne). Supongamos que la pérdida de ĺıquido en un paquete de pechuga de pollo puede modelarse mediante una distribución normal con media 4% y desviación típica 1%. Sea X la pérdida de ĺıquido de un paquete de pechuga de pollo elegido al azar. Cuál es la probabilidad de que 3% < X < 5%? Cuál es el valor de x para que un 90% de paquetes tengan pérdidas de ĺıquido menores que x? En una muestra de 4 paquetes, hallar la probabilidad de que todos tengan pérdidas de peso de entre 3% y 5%. 84 Sexauer, B. (1980) Drained-Weight Labelling for Meat and Poultry: An Economic Analysis of a Regulatory Proposal, Journal of Consumer Affairs, 14,
43 Distribución normal: otro ejemplo (cont.) 85 La variable aleatoria X sigue una distribución N(4, 1). Entonces: P(3 < X < 5) = P(X < 5) P(X < 3) = = DISTR.NORM(5;4;1;VERDADERO) DISTR.NORM(3;4;1;VERDADERO) = = = Distribución normal: otro ejemplo (cont.) 86 Queremos encontrar el valor de x 0 para el que P(X < x 0 ) = 0.9. Tenemos que calcular la función inversa de la función de distribución de X. En Excel x 0 = DISTR.NORM.INV(0,9;4;1) = Conclusión: un 90% de los paquetes tienen pérdidas de menos del 5.28%.
44 Distribución normal: otro ejemplo (cont.) 87 Todas las probabilidades normales anteriores se pueden obtener a partir de la normal estándar como sigue. ( 3 4 P(3 < X < 5) = P < X 4 < 5 4 ) = P( 1 < Z < 1) = P(Z < 1) P(Z < 1) = = Queremos P(X < x) = 0.9. Entonces ( X 4 P < x 4 ) 1 1 = P(Z < x 4) = 0.9 Mirando las tablas, tenemos x que implica que un 90% de las paquetes tienen pérdidas de menos de x = 5.28%. Distribución normal: otro ejemplo (cont.) 88 binomial Y = número de paquetes en la muestra que tienen pérdidas de entre 3% y 5%. Y B(4,p), siendo p = P(éxito) = P(pérdida de peso entre 3% y 5%) = P(3 < X < 5) = Entonces, P(Y = 4) = ( 4 4 ) ( ) 4 =
45 Teorema Central del Límite (TCL) El siguiente teorema nos habla de la distribución de la media de un conjunto de v.a. independientes e idénticamente distribuidas (i.i.d.), es decir, todas con la misma ley de probabilidad, n 89 X = 1 n i=1 X i y nos dice que, para n grande, la media de v.a. independientes e igualmente distribuidas es normal, sea cual sea la distribución de las v.a. De aquí el papel central que juega la distribución normal o de Gauss. Teorema Sean X 1,X 2,...,X n v.a. i.i.d. con media µ y desviación típica σ (ambas finitas). Si n es suficientemente grande, se tiene que X µ σ/ n N(0,1) Aproximaciones 90 Binomial (Teorema de De Moivre-Laplace) Si X B(n,p) con n suficientemente grande X np np(1 p) N(0,1) Poisson Si X Pois(λ) con λ suficientemente grande X λ λ N(0,1)
46 TCL y aproximaciones: Ejemplo Sea X B(100,1/3). Estimar P(X < 40). binomial propiedades 91 Calculamos primero la media y varianza de X. E(X) = = var(x) = = D.T.(X) = = Usamos la aproximación normal ( X P(X < 40) = P < ) P (Z < 1.414) 0.921, donde Z N(0,1). Vectores aleatorios 92 Concepto de vector aleatorio. Vectores aleatorios discretos: distribución conjunta, distribuciones marginales, distribuciones condicionadas, independencia. Vectores aleatorios continuos: distribución conjunta, distribuciones marginales, distribuciones condicionadas, independencia. Covarianza, correlación y esperanza condicionada. Algunas propiedades de la esperanza y la varianza
47 Concepto de vector aleatorio 93 Qué relación hay entre el precio de las acciones y los tipos de interés? Qué relación hay entre los años de escolarización y el salario medio por hora? Cómo influye en los hábitos de consumo la cantidad de tarjetas de crédito de las que se dispone? Para contestar a estas preguntas necesitamos estudiar conjuntamente estas características, cómo? Concepto de vector aleatorio 94 Se denomina vector aleatorio (o v.a. multidimensional) a una función (X 1,...,X n ) : Ω R n, que a cada elemento e i Ω le asigna un vector numérico (X 1,...,X n )(e i ) = (X 1 (e 1 ),...,X n (e i )) R n. X 1 (e 1 ),...,X n (e i ) representan las n características que queremos analizar conjuntamente. Para ganar claridad nos restringiremos al caso n = 2, Denotaremos los vectores aleatorios por las letras mayúsculas (X, Y). Las letras minúsculas (x,y) indican el valor concreto que toma el vector aleatorio cuando se evalúa en un punto muestral.
48 95 Vectores aleatorios: tipos Vector aleatorio discreto Un vector aleatorio (X,Y) es discreto cuando solo puede tomar un número finito o numerable de valores. Vector aleatorio continuo Un vector aleatorio (X,Y) es continuo cuando los posibles valores que puede tomar son todos los puntos de R 2, o del cuadrante [0,+ ) [0,+ ), o de un cuadrado, o de un triángulo etc. El conjunto de valores S R 2 que puede tomar se denomina soporte del vector aleatorio (X,Y). Vectores aleatorios discretos Vectores aleatorios: ejemplos número de 1 s y 2 s obtenidos al lanzar 3 dados, con soporte S {0,1,2,3} S = {0,1,2,3} finito número de coches que pasan por cierto peaje en un día y día de la semana de que se trata, con soporte S = {0,1,2,...} {1,...,7}, donde 1 = lunes,...,7 =domingo. número de tarjetas de crédito y número de compras que se realizan a la semana, con soporte S = {0,1,2,...,M 1 } {0,1,...,M 2 } Vectores aleatorios continuos altura y peso de una persona años de escolarización y salario medio por hora de una persona índice compuesto S&P 500 ( =10) y tipo (%) de las Letras del Tesoro estadounidense a tres años en un año 96
49 Vectores aleatorios discretos: distribución conjunta Función de probabilidad (o de masa) conjunta de (X,Y) Determina el modelo de probabilidad conjunta de un vector aleatorio discreto. Nos da la probabilidad de cada uno de los posibles valores que puede tomar: p(x i,y j ) = P(X = x i,y = y j ), (x i,y j ) S = {x 1,...,x m } {y 1,...,y n } Representación Propiedades y 1 y j y n x x i P(X = x i,y = y j ).. x m... 0 p(x i,y j ) 1 para todo i = 1,...,m, j = 1,...,n. m i=1 n j=1 p(x i,y j ) = Vectores aleatorios discretos: distribución conjunta Se clasifica un grupo de 100 ejecutivos de acuerdo a su peso y a si sufren o no de hipertensión. La tabla muestra el número de ejecutivos en cada categoría. Insuficiente Normal Sobrepeso Total Hipertenso Normal Total Experimento aleatorio: seleccionar al azar a uno de esos 100 ejecutivos para medir su tensión y su peso. (X,Y) : Ω {0,1} {0,1,2}, siendo Ω el conjunto de los 100 ejecutivos, definido por (X,Y)(e i ) = (0,0), si el individuo e i es Hipertenso y de peso Insuf. (X,Y)(e i ) = (0,1), si e i es Hipertenso y de peso Normal (X,Y)(e i ) = (0,0), si e i es Hipertenso y tiene Sobrepeso (X,Y)(e i ) = (1,0), si e i tiene la tensión Normal y es de peso Insuf. (X,Y)(e i ) = (1,1), si e i tiene la tensión Normal y es de peso Normal (X,Y)(e i ) = (1,0), si e i tiene la tensión Normal y tiene Sobrepeso 98
50 99 Vectores aleatorios discretos: distribución conjunta La función de de probabilidad (o de masa) conjunta es: X \Y Vectores aleatorios discretos: distribuciones marginales Las distribuciones marginales de un vector aleatorio (X,Y) son las que se obtienen al considerar cada característica por separado (como si la otra no existiera). En el caso discreto tenemos: Distribución marginal de X: v.a. discreta con función de probabilidad 100 p X (x i ) = P(X = x i ) = n P(x i,y j ), i = 1,...m j=1 Distribución marginal de Y: v.a. discreta con función de probabilidad p Y (y j ) = P(Y = y j ) = m P(x i,y j ), j = 1,...n i=1 Las distribuciones marginales de X e Y son simplemente v.a. unidimensionales discretas. Podemos obtener su media, su varianza, etc.
51 Vectores aleatorios discretos: distribuciones marginales 101 En el ejemplo anterior las distribuciones marginales de X e Y son: X \Y p X p Y Vectores aleatorios discretos: distribuciones condicionadas 102 La distribución de la v.a. X, condicionada por un valor fijo y j de la v.a. Y tal que P(Y = y j ) > 0, viene dada por la función de probabilidad P(X = x i Y = y j ) = P(X = x i,y = y j ) P(Y = y j ) = p(x i,y j ) p Y (y j ), i = 1,...,m La distribución de Y condicionada por X = x i (con P X (x i ) > 0) se define de forma análoga
52 Vectores aleatorios discretos: distribuciones condicionadas 103 Volviendo al ejemplo: X \Y p X p Y Distribución de X condicionada a que el individuo tiene sobrepeso: X p(x = x i Y = 2) 0.25 = = 0.6 Distribución de Y condicionada a que el individuo tiene hipertensión: Y p(y = x j X = 0) 0.2 = = = 0.5 Vectores aleatorios discretos: independencia 104 Intuitivamente: no hay relación entre X e Y Definición: dos variables aleatorias discretas, X e Y, son independientes cuando p(x i,y j ) = P(X = x i,y = y j ) = P(X = x i )P(Y = y j ) = p X (x i )p Y (y j ), i, j Propiedades: Si X e Y son independientes, las distribuciones condicionadas coinciden con las marginales correspondientes P(X = x i Y = y j ) = P(X = x i,y = y j ) P(Y = y j ) = p(x i,y j ) p Y (y j ) = p X(x i )p Y (y j ) p Y (y j ) = p X (x i ) para todo i = 1,...,m, y para todo valor y j con P(Y j = y j ) > 0. En el ejemplo, X e Y no son independientes.
53 Vectores aleatorios discretos: ejemplo 105 Lanzamos 3 veces una moneda equilibrada y consideramos el vector aleatorio (X,Y) que se obtiene definiendo: X = número de caras Y = diferencia, en valor absoluto, entre número de caras y de cruces Determina el espacio muestral del experimento y define la aplicación correspondiente al vector aleatorio (X, Y) Calcula la función de probabilidad conjunta de (X,Y) Obtén las distribuciones marginales a partir de la distribución conjunta Si estamos interesados en conocer la probabilidad de obtener un número determinado de caras cuando la diferencia entre caras y cruces es 1, qué distribución tenemos que obtener? obténla. Son independientes X e Y? Vectores aleatorios continuos: distribución conjunta 106 Función de densidad conjunta de (X,Y) Determina el modelo de probabilidad conjunta de un vector aleatorio continuo. Se trata de una función f : R 2 R 2 verificando: f(x,y) 0 para todo (x,y) R 2. El volumen total bajo la función de densidad es 1: R 2 f(x,y)dx dy = f(x,y)dx dy = 1 La probabilidad de cualquier suceso A R 2 se obtiene resolviendo la integral correspondiente: P(A) = f(x,y)dx dy Nota. No se exigirá que se sepan resolver integrales dobles. No se pedirá calcular probabilidades de sucesos A en R 2 A
54 Vectores aleatorios continuos: distribuciones marginales 107 Las distribuciones marginales de un vector aleatorio (X,Y) son las que se obtienen al considerar cada característica por separado (como si la otra no existiera). En el caso continuo tenemos: Distribución marginal de X: v.a. continua con función de densidad f X (x) = f(x,y)dy, x R R Distribución marginal de Y: v.a. continua con función de densidad f Y (y) = f(x,y)dx, y R R Las distribuciones marginales de X e Y son simplemente v.a. unidimensionales continuas. Podemos obtener su media, su varianza, etc. Vectores aleatorios discretos: distribuciones marginales Nota. Al integrar con respecto a una de las dos variables, la otra actúa como una constante. Sea (X,Y) el vector aleatorio con soporte S = [0,1] [0,1] y función de densidad conjunta f(x,y) = La densidad marginal de X es: f X (x) = 1 0 { x +y, si 0 x 1, 0 y 1, 0, en otro caso. (x +y)dy = [ xy + y2 2 ] y=1 y=0 = x + 1 2, 0 x 1 En la integral anterior x actúa como una constante. La densidad marginal de Y es: [ ] x=1 1 x 2 f Y (y) = (x +y)dx = 2 +xy = 1 2 +y, 0 y 1 0 En la integral anterior y actúa como una constante. x=0 108
55 Vectores aleatorios continuos: distribuciones condicionadas 109 La distribución de la v.a. X, condicionada por un valor fijo y 0 de la v.a. Y tal que f Y (y 0 ) > 0, viene dada por la función de densidad f(x Y = y 0 ) = f(x,y 0) f Y (y 0 ), x R La distribución de Y condicionada por X = x 0 (con f X (x 0 ) > 0) se define de forma análoga Volviendo al ejemplo: f(x Y = 0.2) = f(x,0.2) f Y (0.2) = x +0.2, 0 x Vectores aleatorios discretos: independencia 110 Intuitivamente: no hay relación entre X e Y Definición: dos variables aleatorias continuas, X e Y, son independientes cuando f(x,y) = f X (x)f Y (y), x R,y R Propiedades: Si X e Y son independientes, las distribuciones condicionadas coinciden con las marginales correspondientes f(x Y = y 0 ) = f(x,y 0) f Y (y 0 ) = f X(x), x R En el ejemplo, X e Y no son independientes: f(x,y) = x +y (x )(1 2 +y)
56 Covarianza, correlación y esperanza condicionada Se define la covarianza entre X e Y como Cov(X,Y) = σ XY = E[(X E[X])(Y E[Y])] = E[XY] E[X]E[Y] 111 Si X e Y son v.a. discretas, entonces m n Cov(X,Y) = (x i E[X])(y j E[Y])p(x i,y j ) = = i=1 m i=1 j=1 n x i y j p(x i,y j ) E[X]E[Y] j=1 Si X e Y son v.a. continuas, entonces Cov(X,Y) = (x E[X])(y E[Y])f(x,y)dx dy = R 2 = xyf(x,y)dx dy E[X]E[Y] R 2 En este caso, no se pedirá que se calculen covarianzas, dado que implican la integración en R 2 Covarianza, correlación y esperanza condicionada La covarianza es una medida de asociación lineal Cuando Cov(X,Y) = 0 se dice que X e Y están incorreladas Sean X e Y variables aleatorias, la correlación entre X e Y es 112 Cor(X,Y) = r xy = Cov(X,Y) σ x σ y donde σ X = V(X) y σ Y = V(Y) denotan, respectivamente, las desviaciones típicas de las distribuciones marginales X e Y. Propiedades Si X e Y son independientes, entonces X e Y estn incorreladas En general, Cov(X,Y) = 0 no implica independencia. Si X e Y son normales y Cov(X,Y) = 0, entonces son independientes 1 Cor(X,Y) 1 Cor(X,Y) > 0 las variables son dependientes positivamente Cor(X,Y) < 0 las variables son dependientes negativamente
57 Covarianza, correlación y esperanza condicionada Dado le vector aleatorio (X,Y), las variables aleatorias: X, condicionada por un valor fijo y 0 de la v.a. Y potencialmente observable Y, condicionada por un valor fijo x 0 de la v.a. X potencialmente observable son variables aleatorias unidimensionales continuas o discretas dependiendo de la naturaleza de X e Y. Podemos calcular sus medias y varianzas. Se define la esperanza condicionada de X a un valor de Y como 113 E(X Y = y 0 ) = { m i=1 x ip(x = x i Y = y 0 ), si (X,Y) es discreto, R xf(x Y = y 0)dx, si (X,Y) es continuo Para cada valor fijo y 0 de Y, la esperanza condicionada es un número Se puede definir la función esperanza condicionada: E(X Y) : Sop(Y) R y 0 E(X Y = y 0 ) Algunas propiedades de la esperanza y la varianza 114 Como ya vimos en el caso unidimensional, la esperanza de cualquier función g(x,y) se obtiene como E[g(X,Y)] = m i=1 n g(x i,y j )p(x i,y j ) si (X,Y) es discreto j=1 E[g(X,Y)] = g(x,y) f(x,y)dxdy si (X,Y) es continuo R 2 Ejemplo Esperanza del producto { m n i=1 j=1 E[XY] = x iy j p(x i,y j ), si (X,Y) es discreto, xyf(x,y)dx dy, si (X,Y) es continuo. R 2
Tema 3. Probabilidad y variables aleatorias
1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad
Más detallesTema 4. Probabilidad y variables aleatorias
Tema 4. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad
Más detallesTema 1. Probabilidad y modelos probabiĺısticos
1 Tema 1. Probabilidad y modelos probabiĺısticos En este tema: Probabilidad Variables aleatorias Modelos de variables aleatorias más comunes Vectores aleatorios 2 Tema 1. Probabilidad y modelos probabiĺısticos
Más detallesEstadística I Tema 4: Probabilidad
Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada
Más detallesEstadística I Tema 5: Modelos probabiĺısticos
Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y función de distribución.
Más detallesEstadística I Tema 5: Modelos probabiĺısticos
Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y Función de distribución.
Más detallesEstadística I Tema 4: Probabilidad y modelos probabiĺısticos
Estadística I Tema 4: Probabilidad y modelos probabiĺısticos Tema 4. Probabilidad y modelos probabiĺısticos Contenidos Probabilidad: Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos.
Más detallesTEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18
TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de
Más detallesEstadística aplicada al Periodismo
Estadística aplicada al Periodismo Temario de la asignatura Introducción. Análisis de datos univariantes. Análisis de datos bivariantes. Series temporales y números índice. Probabilidad y Modelos probabilísticos.
Más detallesEstadística I Tema 4: Probabilidad
Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada
Más detallesProcesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
Más detallesRepaso de Estadística
Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio
Más detallesMATEMÁTICAS II PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL
MATEMÁTICAS II PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL 1) PROBABILIDAD Experimentos aleatorios. Concepto de espacio muestral y de suceso elemental. Operaciones con sucesos. Leyes de De Morgan.
Más detallesResumen de Probabilidad
Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS
Más detallesRESUMEN CONTENIDOS TERCERA EVALUACIÓN PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL
RESUMEN CONTENIDOS TERCERA EVALUACIÓN PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL 1) PROBABILIDAD Experimentos aleatorios. Concepto de espacio muestral y de suceso elemental. Operaciones con
Más detallesRepaso de Probabilidad y Estadística
Repaso de Probabilidad y Estadística Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Probabilidad 2 Definición.............................................................
Más detallesVariables Aleatorias y Distribución de Probabilidades
Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables
Más detallesTema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.
Tema 6 - Introducción 1 Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Generalización Tema 6. Variables aleatorias unidimensionales
Más detallesTEMA 2.- VARIABLES ALEATORIAS
TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 16/17 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias. 2.2. Variables aleatorias discretas. Diagrama de barras. 2.3. Función de
Más detallesUniversidad Nacional de La Plata
Universidad Nacional de La Plata Facultad de Ciencias Agrarias y Forestales CÁLCULO ESTADÍSTICO STICO Y BIOMETRÍA CONTENIDOS UNIDAD 3: Introducción al Cálculo de Probabilidades. Experimento aleatorio.
Más detallesTEMA 3.- VECTORES ALEATORIOS.- CURSO
TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.
Más detallesTEMA 3: Probabilidad. Modelos. Probabilidad
TEM 3: Probabilidad. Modelos Probabilidad Fenómeno aleatorio: es aquel cuyos resultados son impredecibles. Ejemplos: Lanzamiento de una moneda: Resultados posibles: cara, cruz. Selección al azar de un
Más detallesValeri Makarov: Estadística Aplicada y Cálculo Numérico (Grado en Química)
Estadística Aplicada y Cálculo Numérico (Grado en Química) Valeri Makarov 10/02/2015 29/05/2015 F.CC. Matemáticas, Desp. 420 http://www.mat.ucm.es/ vmakarov e-mail: vmakarov@mat.ucm.es Capítulo 4 Variables
Más detallesTema 2 Modelos de probabilidad
Tema 2 Modelos de probabilidad José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Estructura de este tema Conceptos básicos de probabilidad. Modelos discretos: la distribución
Más detalles3. Variables aleatorias
3. Variables aleatorias Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 3. Variables aleatorias Curso 2009-2010 1 / 33 Contenidos 1 Variables aleatorias y su distribución
Más detallesCapítulo 5: Probabilidad e inferencia
Capítulo 5: Probabilidad e inferencia estadística (Fundamentos Matemáticos de la Biotecnología) Departamento de Matemáticas Universidad de Murcia Contenidos Principios de la probabilidad Conceptos básicos
Más detallesDefinición de probabilidad
Tema 5: LA DISTRIBUCIÓN NORMAL 1. INTRODUCCIÓN A LA PROBABILIDAD: Definición de probabilidad Repaso de propiedades de conjuntos (Leyes de Morgan) Probabilidad condicionada Teorema de la probabilidad total
Más detallesUnidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22
Unidad 3. Probabilidad Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre 2018-1 1 / 22 Espacios de probabilidad El modelo matemático para estudiar la probabilidad se conoce como espacio de
Más detallesTema 4: Variables aleatorias multidimensionales
1 Tema 4: Variables aleatorias multidimensionales En este tema: Distribución conjunta de probabilidad Probabilidad/densidad marginal Probabilidad/densidad condicionada Esperanza, varianza, desviación típica
Más detallesProbabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.
Más detallesVariables aleatorias
Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con
Más detallesDistribución conjunta de variables aleatorias
Distribución conjunta de variables aleatorias En muchos problemas prácticos, en el mismo experimento aleatorio, interesa estudiar no sólo una variable aleatoria sino dos o más. Por ejemplo: Ejemplo 1:
Más detallesTEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor
Más detallesTécnicas Cuantitativas para el Management y los Negocios I
Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:
Más detallesProf. Eliana Guzmán U. Semestre A-2015
Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos
Más detallesEn el resultado de los experimentos aleatorios interviene el azar, cuando ésto no ocurre así, hablaríamos de sucesos deterministas.
1.- EXPERIMENTOS ALEATORIOS Y SUCESOS Un experimento aleatorio es aquel que cumple las siguientes condiciones: Se conocen todos sus posibles resultados No se puede conocer el resultado que se obtendrá
Más detallesTema 5: Modelos probabilísticos
Tema 5: Modelos probabilísticos 1. Variables aleatorias: a) Concepto. b) Variables discretas y continuas. c) Función de probabilidad (densidad) y función de distribución. d) Media y varianza de una variable
Más detallesDistribución de probabilidad
Los experimentos aleatorios originan resultados y los resultados nos permiten tomar decisiones Por ejemplo, en un partido de fútbol si se lanza una moneda y sale cara parte la visita, de lo contrario parte
Más detallesTema 4: Variables aleatorias.
Estadística 46 Tema 4: Variables aleatorias. El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos aleatorios, que en muchos
Más detallesTema 5 Modelos de distribuciones de Probabilidad
Tema 5 Modelos de distribuciones de Probabilidad Variable aleatoria unidimensional Dado un espacio de Probabilidad (E, F, P), una variable aleatoria es una aplicación del espacio muestral E al conjunto
Más detallesEstadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10
Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,
Más detallesRuido en los sistemas de comunicaciones
Capítulo 2 Ruido en los sistemas de comunicaciones Cuando una señal se transmite a través de un canal de comunicaciones hay dos tipos de imperfecciones que hacen que la señal recibida sea diferente de
Más detallesCálculo de probabilidad. Tema 3: Variables aleatorias continuas
Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice
Más detallesTEMA 10: DISTRIBUCIONES DE PROBABILIDAD DE VARIABLE DISCRETA. LA BINOMIAL.
TEMA 10: DISTRIBUCIONES DE PROBABILIDAD DE VARIABLE DISCRETA. LA BINOMIAL. 10.1 Experimentos aleatorios. Sucesos. 10.2 Frecuencias relativas y probabilidad. Definición axiomática. 10.3 Distribuciones de
Más detallesTEMA 1.- PROBABILIDAD.-CURSO 2016/2017
TEMA 1.- PROBABILIDAD.-CURSO 2016/2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas
Más detallesNIVELACIÓN DE ESTADISTICA. Carlos Darío Restrepo
NIVELACIÓN DE ESTADISTICA Qué es la probabilidad? La probabilidad mide la frecuencia con la que aparece un resultado determinado cuando se realiza un experimento. Por ejemplo: tiramos un dado al aire y
Más detalles1 CÁLCULO DE PROBABILIDADES
1 CÁLCULO DE PROBABILIDADES 1.1 EXPERIENCIAS ALEATORIAS. SUCESOS 1.1.1 Definiciones Experiencia aleatoria: experiencia o experimento cuyo resultado depende del azar. Suceso aleatorio: acontecimiento que
Más detallesBloque I: Estadística y Probabilidad
Bloque I: Estadística y Probabilidad 1. Probabilidad 1. Teoría de la probabilidad 2. Probabilidad condicionada 3. Dependencia e independencia de sucesos 4. Técnicas de recuento: diagramas de árbol, tablas
Más detallesTema 1: Introducción a la Estadística Bayesiana
Tema 1: Introducción a la Estadística Bayesiana Introducción En general, se usan probabilidades de modo informal para expresar la información o la incertidumbre que se tiene acerca de observaciones de
Más detallesTEMA 1.- PROBABILIDAD.- CURSO
TEMA 1.- PROBABILIDAD.- CURSO 2017-2018 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Combinatoria. Regla del producto 1.2.- Probabilidad condicionada.
Más detallesESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo
ESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo Sobre la aleatoriedad y la probabilidad Variables cuantitativas Modelos de probabilidad más comunes Estadística (Ambientales).
Más detallesDistribuciones de Probabilidad
Distribuciones de Probabilidad Experimento aleatorio Probabilidad Definición variable aleatoria: discretas y continuas Función de distribución y medidas Distribución Binomial Distribución de Poisson Distribución
Más detalles1 CÁLCULO DE PROBABILIDADES
1 CÁLCULO DE PROBABILIDADES 1.1 EXPERIENCIAS ALEATORIAS. SUCESOS 1.1.1 Definiciones Experiencia aleatoria: experiencia o experimento cuyo resultado depende del azar. Suceso aleatorio: acontecimiento que
Más detallesIntroducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.
Introducción al Tema 8 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos
Más detallesVARIABLES ALEATORIAS CONTINUAS
VARIABLES ALEATORIAS CONTINUAS El zoo binomial: las probabilidades en la distribución binomial. Tutorial 5, sección 2 X = número de éxitos al repetir n veces un experimento con probabilidaf de éxito p
Más detallesVariables aleatorias. Descripción breve del tema. Objetivos. Descripción breve del tema. Tema 4
Descripción breve del tema Variables aleatorias Tema 4 Ignacio Cascos Depto. Estadística, Universidad Carlos III 1 Ignacio Cascos Depto. Estadística, Universidad Carlos III 2 Objetivos Descripción breve
Más detallesCapítulo 6: Variable Aleatoria Bidimensional
Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el
Más detallesPart I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas
Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando
Más detallesModelos Básicos de Distribuciones Discretas y Continuas
Modelos de Distribuciones Discretas y Continuas 1/27 Modelos Básicos de Distribuciones Discretas y Continuas Departamento de Estadística e Investigación Operativa Universidad de Sevilla Contenidos Modelos
Más detallesVECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. Desde un punto de vista formal, los vectores aleatorios son la herramienta matemática adecuada para transportar
Más detallesGRADO TURISMO TEMA 7: INTRODUCCIÓN A LOS MODELOS DE PROBABILIDAD
GRADO TURISMO TEMA 7: INTRODUCCIÓN A LOS MODELOS DE PROBABILIDAD Prof. Rosario Martínez Verdú TEMA 7: INTRODUCCIÓN A LOS MODELOS DE PROBABILIDAD 1. Nociones básicas de teoría de la probabilidad. 2. Variable
Más detallesAxiomática de la Teoría de Probabilidades
Axiomática de la Teoría de Probabilidades Modelos matemáticos Según el experimento Cada ejecución del experimento se denomina prueba o ensayo Determinísticos Aleatorios Conjunto de resultados posibles
Más detallesEstadís5ca. María Dolores Frías Domínguez Jesús Fernández Fernández Carmen María Sordo. Tema 3. Probabilidad y variable aleatoria
Estadís5ca Tema 3. Probabilidad y variable aleatoria María Dolores Frías Domínguez Jesús Fernández Fernández Carmen María Sordo Departamento de Matemá.ca Aplicada y Ciencias de la Computación Este tema
Más detallesDistribuciones de probabilidad más usuales
Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y
Más detallesVariables aleatorias
Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando
Más detallesTema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:
Tema 4: Variables aleatorias Tema 4: Variables Aleatorias Distribución de Bernouilli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno
Más detallesEstadística Grupo V. Tema 10: Modelos de Probabilidad
Estadística Grupo V Tema 10: Modelos de Probabilidad Algunos modelos de distribuciones de v.a. Hay variables aleatorias que aparecen con frecuencia en las Ciencias Sociales y Económicas. Experimentos dicotómicos
Más detallesCurso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración
por Curso Propedéutico de Cálculo Sesión 6: de la Joaquín Ortega Sánchez Centro de Investigación en Matemáticas, CIMAT Guanajuato, Gto., Mexico Esquema por 1 por 2 Esquema por 1 por 2 por Al contrario
Más detallesTema 4: Variables aleatorias multidimensionales
Tema 4: Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Distribución conjunta de probabilidad Probabilidad/densidad marginales y condicionadas Independencia
Más detallesTema 1: Distribuciones en el muestreo
Tema 1: Distribuciones en el muestreo 1 (transparencias de A. Jach http://www.est.uc3m.es/ajach/) Muestras aleatorias Estadísticos Concepto de distribución muestral Media muestral Distribución muestral
Más detallesTEMA 1.- PROBABILIDAD.- CURSO
TEMA 1.- PROBABILIDAD.- CURSO 2016-2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas
Más detallesVARIABLES ALEATORIAS CONTINUAS
VARIABLES ALEATORIAS CONTINUAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Definición de una V.A.C. Definición de una V.A.C.
Más detallesIntroducción al Diseño de Experimentos.
Introducción al Diseño de Experimentos www.academia.utp.ac.pa/humberto-alvarez Introducción Una población o universo es una colección o totalidad de posibles individuos, especímenes, objetos o medidas
Más detallesTécnicas Cuantitativas para el Management y los Negocios I
Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:
Más detallesTema 4: Modelos probabilísticos
Tema 4: Modelos probabilísticos 1. Variables aleatorias: a) Concepto. b) Variables discretas y continuas. c) Función de probabilidad (densidad) y función de distribución. d) Media y varianza de una variable
Más detallesIntroducción al Tema 7. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.
Introducción al Tema 7 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos
Más detallesDefinición de variable aleatoria
Variables aleatorias Instituto Tecnológico Superior de Tepeaca Agosto-Diciembre 2015 Ingeniería en Sistemas Computacionales M.C. Ana Cristina Palacios García Definición de variable aleatoria Las variables
Más detallesEXPERIMENTO ALEATORIO
EXPERIMENTO ALEATORIO En concepto de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, en otras palabras,
Más detallesVariables aleatorias
Estadística Variables aleatorias Supongamos que realizamos el experimento: tirar dos veces un dado. Hasta ahora, hemos tratado sucesos, por ejemplo: A2 = la suma de dos tiradas de un dado es 2. Podemos
Más detallesTema 6: Modelos de probabilidad.
Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos
Más detallesTEMA 3.- MODELOS DISCRETOS
TEMA 3.- MODELOS DISCRETOS 3.1. Introducción. 3.2. Distribución uniforme discreta de parámetro n. 3.3.Distribución Bernoulli de parámetro p. 3.4.Distribución Binomial de parámetros n y p. Notación: X Bn,
Más detallesSesión 2: Teoría de Probabilidad
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para
Más detallesSon los experimentos de los que podemos predecir el resultado antes de que se realicen.
Probabilidad Experimentos deterministas Son los experimentos de los que podemos predecir el resultado antes de que se realicen. Ejemplo Si dejamos caer una piedra desde una ventana sabemos, sin lugar a
Más detallesTema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
Más detallesMaterial introductorio
Material introductorio Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Vanessa Gómez Verdejo Índice general. Variables aleatorias unidimensionales..................................
Más detallesPart VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones
Part VI notables El proceso de Bernoulli En cada observación se clasifica el elemento de la población en una de las dos posibles categorías, correspondientes a la ocurrencia o no de un suceso. Llamaremos
Más detallesSesión 2: Teoría de Probabilidad
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad las reglas mátemáticas de la probabilidad no son simplemente reglas para calcular frecuencias de variables aleatorias;
Más detallesTema 3: Cálculo de Probabilidades. Métodos Estadísticos
Tema 3: Cálculo de Probabilidades Métodos Estadísticos 2 INTRODUCCIÓN Qué es la probabilidad? Es la creencia en la ocurrencia de un evento o suceso. Ejemplos de sucesos probables: Sacar cara en una moneda.
Más detallesBases Formales de la Computación: Sesión 1. Probabilidad Discreta
Bases Formales de la Computación: Sesión 1. Probabilidad Discreta Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali 11 de abril
Más detallesSon los experimentos de los que podemos predecir el resultado antes de que se realicen.
PROBABILIDAD Definición de probabilidad La probabilidad de un suceso es un número, comprendido entre 0 y 1, que indica las posibilidades que tiene de verificarse cuando se realiza un experimento aleatorio.
Más detallesProbabilidad, Variables Aleatorias y Distribuciones
GRUPO A Prueba de Evaluación Continua 5-XII-.- Tres plantas de una fábrica de automóviles producen diariamente 00, 00 y 000 unidades respectivamente. El porcentaje de unidades del modelo A es 60%, 0% y
Más detalles4.1. Definición de variable aleatoria. Clasificación.
Capítulo 4 Variable aleatoria Una variable aleatoria es un valor numérico que corresponde a un resultado de un experimento aleatorio. Algunos ejemplos son: número de caras obtenidas al lanzar seis veces
Más detallesEstadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas
Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones
Más detallesTeoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y
Profesores de TMDE Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y estadística Monograph 9 de septiembre de 23 Springer Índice general. Variables aleatorias
Más detalles