Variables aleatorias múltiples
|
|
|
- Eduardo Paz Cano
- hace 9 años
- Vistas:
Transcripción
1 Chapter 4 Variables aleatorias múltiples 4.. Distribución conjunta y marginal Definición 4.. Un vector aleatorio n-dimensional es una función que va de un espacio muestral S a un espacio euclediano n-dimensional R n. Ejemplo 4.. Considere el experimento de lanzar 2 veces un dado. El espacio muestral para este experimento tiene 36 puntos igualmente probables. Sean las variables aleatorias X = suma de los dados, y Y = diferencia de los dados, entonces el vector aleatorio (X, Y ) es llamado vector aleatorio discreto ya que solo tiene un número finito de posibles valores. Definición 4..2 Sea (X, Y ) un vector aleatorio discreto bivariado. Entonces la función f(x, Y ), que va de R 2 hacia R, definido por f(x, y) = Pr(X = x, Y = y) es llamado la función de probabilidad conjunta de (X, Y ). Table 4.: Valores de la función de probabilidad conjunta f(x, y) x y
2 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 43 > set.seed(00) > dado <- sample(:6, size=50000, prob=rep(/6, 6), replace=t) > set.seed(200) > dado2 <- sample(:6, size=50000, prob=rep(/6, 6), replace=t) > x <- dado + dado2 > y <- abs(dado - dado2) > fxy <- table(y, x)/50000 > round(fxy, 3) x y La función de probabilidad conjunta puede usarse en el cálculo de probabilidades para cualquier evento definido en términos de (X, Y ). Sea A un subconjunto de R 2. Entonces: Pr ((X, Y ) A) = (X,Y ) A f(x, y) Ejemplo 4..2 Para (X, Y ) cuya función de probabilidad conjunta se encuentra en la Tabla 4., suponga que A = {(x, y) : x = 7, y 4}, entonces: Pr(X = 7, Y 4) = Pr((X, Y ) A) = f(7, ) + f(7, 3) = = 9 Sea g(x, y) una función de valor real definido para todos los posibles valores (x, y) de vector aleatorio discreto (X, Y ). Entonces g(x, Y ) es también una variable aleatoria y su valor esperado se define por: E[g(X, Y )] = g(x, y)f(x, y) (x,y) R 2
3 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 44 Ejemplo 4..3 Usando la Tabla 4. el valor esperado de g(x, Y ) = XY, E[g(X, Y )] = xyf(x, y) = (2)(0) (7)(5) 8 = 3 8 Las propiedades vistas en el teorema 3.3. son válidas al reemplazar x por (x, y). Por ejemplo, si g (x, y), g 2 (x, y) son dos funciones; a, b y c son constantes, entonces: E[ag (X, Y ) + bg 2 (X, Y ) + c] = ae[g (X, Y )] + be[g 2 (X, Y )] + c La función de probabilidad conjunta del vector aleatorio (X, Y ) debe cumplir con f(x, y) 0, para todo (x, y). Además: (x,y) R 2 f(x, y) = Pr((X, Y ) R 2 ) =. Teorema 4.. Sea (X, Y ) un vector aleatorio discreto cuya función de probabilidad conjunta es f(x, y), entonces la función de probabilidad marginal de X, f X (x) = Pr(X = x), y de Y, f Y (y) = Pr(Y = y), estan dadas por: f X (x) = f(x, y) y f Y (y) = f(x, y) y R x R Ejemplo 4..4 Usando el teorema 4.. se puede calcular las distribuciones marginales de X y Y a partir de la distribución conjunta de la tabla 4.: f Y (0) = 6 f Y () = 5 8 f Y (2) = 2 9 f Y (3) = 6 f Y (4) = 9 f Y (5) = 8 > fy <- apply(fxy,, sum) > fx <- apply(fxy, 2, sum) > fy
4 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 45 Ejemplo 4..5 Usando la función de probabilidad marginal de Y se puede calcular: Pr(Y < 3) = 2 3 E[Y 3 ] = 20 8 Definición 4..3 Una función f(x, y) que va de R 2 hacia R es llamada función de densidad conjunta del vector aleatorio bivariado continuo (X, Y ) si, para todo A R 2 : Pr ((X, Y ) A) = f(x, y)dxdy Si g(x, y) es una función de valor real, entonces el valor esperado de g(x, Y ) se define por: E[g(X, Y )] = A g(x, y)f(x, y)dxdy (4..) Las funciones de densidad marginales de X y Y son definidas, reemplazando las sumatorias por las integrales. Estas funciones pueden usarse para calcular probabilidades o valores esperados que involucran solo a X o Y. Simplificando, las funciones de densidad marginales de X y Y son definidas por: f X (x) = f Y (y) = f(x, y)dy, < x < f(x, y)dx, < y < (4..2) Toda función f(x, y) que satisface f(x, y) 0, para todo (X, Y ) R 2, y: f(x, y)dxdy = se dice que es la función de densidad conjunta para algún vector aleatorio bivariado (X, Y ). Ejemplo 4..6 Se define la función de densidad conjunta por: 6xy 2 0 < x <, 0 < y < f(x, y) = 0 de otro modo
5 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 46 Si se desea calcular Pr(X + Y ), entonces A = {(x, y) : x + y }: Pr(X + Y ) = A f(x, y)dxdy = ˆ y= ˆ x= y=0 x= y 6xy 2 dxdy = 9 0 Usando 4..2 puede obtenerse la función de densidad marginal de X y Y : f X (x) = f(x, y)dxdy = ˆ y= y=0 6xy 2 dy = 2xy 3 y= = 2x Esta función de densidad de X puede ser usada para calcular probabilidades, por ejemplo: Pr(/2 < X < 3/4) = ˆ x=3/4 x=/2 2xdx = 5 0 Ejemplo 4..7 Sea f(x, y) = e y, 0 < x < y. Aparentemente f(x, y) no depende de X sin embargo: f(x, y) = e y I {0<x<y} (x, y) Para calcular Pr(X + Y ) se define A = {(x, y) : x + y }. El proceso de integración es mucho más sencillo si se hace sobre el conjunto B = {(x, y) : x + y < }: Pr(X + Y ) = Pr(X + Y < ) = = ˆ x=/2 ˆ y= x x=0 ˆ /2 0 = 0,84582 y=x y=0 e y dydx (e x e ( x) )dx
6 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 47 Figura 4.: Regiones de integración para el ejemplo 4..7 y B A x + y = x = y x La función de densidad conjunta de (X, Y ) puede describirse completamente usando la función de distribución acumulada conjunta F (x, y) definida por: F (x, y) = Pr(X x, Y y) = ˆ x ˆ y f(s, t)dtds para todo (x, y) R 2. Usando el teorema fundamental del cálculo: 2 F (x, y) x y para todos los puntos de continuidad de f(x, y). = f(x, y) (4..3)
7 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES Distribuciones condicionales e independencia Definición 4.2. Sea (X, Y ) un vector aleatorio bivariado discreto con función de probabilidad conjunta f(x, y) y funciones de probabilidad marginales f X (x) y f Y (y). Para todo x tal que f X (x) > 0, la función de probabilidad condicional de Y dado X = x es la función de y denotada por f(y x) y definida por: f(y x) = Pr(Y = y X = x) = f(x, y) f X (x) Para todo y tal que f Y (y) > 0, la función de probabilidad condicional de x dado que Y = y es la función de x denotada por f(x y) y definida por: f(x y) = Pr(X = x Y = y) = f(x, y) f Y (y) Definición Sea (X, Y ) un vector aleatorio continuo bivariado con función de densidad conjunta f(x, y) y funciones de densidad marginales f X (x) y f Y (y). Para todo x tal que f X (x) > 0, la función de densidad condicional de Y dado que X = x es la función de y denotada por f(y x) y definida por: f(y x) = f(x, y) f X (x) Para todo y tal que f Y (y) > 0, la función de densidad condicional de X dado que Y = y es la función de x denotada por f(x y) y definida por: f(x y) = f(x, y) f Y (y) Si g(y ) es una función de Y, entonces el valor esperado condicional de g(y ) dado que X = x se denota por E[g(Y ) x] y se define por: E[g(Y ) x] = y g(y)f(y x) y E[g(Y ) x] = g(y)f(y x)dy El valor esperado condicional tiene todas las propiedades del valor esperado vistas en el teorema 3.3..
8 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 49 Ejemplo 4.2. Como en el ejemplo 4..7, sea un vector aleatorio continuo (X, Y ) con función de densidad conjunta f(x, y) = e y, 0 < x < y. Suponga se desea calcular la función de densidad condicional de Y dado X = x. La función de densidad marginal de X se puede calcular como sigue: f X (x) = f(x, y)dy = entonces X E(β = ). Luego: f(y x) = ˆ y= y=x e y dy = e x, x > 0 f(x, y) f X (x) = e y e x = e (y x), y > x Dado X = x, la distribución de Y es exponencial donde x es el parámetro de locación y β = es el parámetro de escala. La distribución condicional de Y es diferente para cada valor de x. Además: E[Y X = x] = ˆ y= y=x ye (y x) dy = + x La variancia de la función de densidad f(y x) es llamada variancia condicional de Y dado X = x. Usando la notación Var(Y X) se tiene: Var (Y X) = E[Y 2 X] (E[Y X]) 2 ( = y 2 e (y x) dy ye (y x) dy = x En este caso la variancia condicional de Y dado X = x es la misma para todos los valores de x. Esta variancia condicional puede compararse con la variancia no condicional de Y. La distribución marginal de Y es G (2, ), la cual tiene Var(Y ) = 2. Dado el valor X = x, la variabilidad en Y se reduce considerablemente. Definición Sea (X, Y ) un vector aleatorio bivariado con función de probabilidad o función de densidad conjunta f(x, y) y funciones de probabilidad o densidad marginales f X (x) y f Y (y). Entonces X y Y son llamadas variables aleatorias independientes si, para todo x R y y R, x f(x, y) = f X (x)f Y (y) (4.2.) ) 2
9 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 50 Si X y Y son independientes, la función de probabilidad o densidad condicional Y dado X = x es: f(x y) = f(x, y) f Y (y) = f X(x)f Y (y) f Y (y) = f X (x) para cualquier valor de x. Así, para todo A R y x R, ˆ ˆ Pr(Y A x) = f(y x)dy = f Y (y)dy = Pr(Y A) A El saber que X = x no brinda información adicional acerca de Y. Lema 4.2. Sea (X, Y ) un vector aleatorio bivariado con función de probabilidad o densidad conjunta f(x, y). Entonces X y Y son variables aleatorias independientes sí y solo si existen funciones g(x) y h(y) tales que, para todo x R y y R, A f(x, y) = g(x)h(y) Prueba: Si se define g(x) = f X (x) y h(y) = f Y (y) y usando 4.2. es fácil probar una de las direcciones. Para probar la otra dirección, suponga que f(x, y) = g(x)h(y). Se define g(x)dx = c y h(y)dy = d, donde las constantes c y d satisfacen: cd = g(x)h(y)dxdy = f(x, y)dxdy (4.2.2) Además, las funciones de densidad marginales están dadas por: f X (x) = f Y (y) = g(x)h(y)dy = g(x)d g(x)h(y)dx = h(y)c (4.2.3) Luego, usando y 4.2.3, se tiene: f(x, y) = g(x)h(y) = g(x)h(y)cd = f X (x)f Y (y) demostrando que X y Y son independientes. Reemplazando las integrales por sumatorias se prueba el lema para vectores aleatorios discretos.
10 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 5 Ejemplo Considere la función de densidad conjunta: Si se definen: f(x, y) = 384 x2 y 4 e y (x/2), x > 0, y > 0 x 2 e x/2 x > 0 g(x) = 0 x 0 y 4 e y /384 y > 0 h(y) = 0 y 0 entonces f(x, y) = g(x)h(y) para todo x R y y R. Por el lema 4.2., se concluye que X y Y son variables aleatorias independientes. Notar que no fué necesario calcular las funciones de densidad marginales. Teorema 4.2. Sean X y Y variables aleatorias independientes: a. Para todo A R y B R, Pr(X A, Y B) = Pr(X A) Pr(Y B), esto es, los eventos {X A} y {Y B} son independientes. b. Sea g(x) una función que depende sólo de x y h(y) una función que depende sólo y. Entonces: Prueba: Notar que: E[g(X)h(Y )] = E[g(X)h(Y )] = E[g(X)]E[h(Y )] = g(x)h(y)f(x, y)dxdy g(x)h(y)f X (x)f Y (y)dxdy = h(y)f Y (y) g(x)f X (x)dxdy ( ) ( ) = g(x)f X (x)dx h(y)f Y (y)dy = E[g(X)]E[h(Y )] Sea g(x) la función indicadora del conjunto A y sea h(y) la función indicadora del conjunto B. Notar que g(x)h(y) es la función indicadora del
11 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 52 conjunto C R 2 definido por C = {(x, y) : x A, y B}. Notar que para una función indicadora como g(x), E[g(X)] = Pr(X A). Usando el resultado anterior se tiene: Pr(X A, Y B) = Pr ((X, Y ) C) = E[g(X)h(Y )] = E[g(X)]E[h(Y )] = Pr(X A) Pr(Y B) Ejemplo Sean X y Y variables aleatorias independientes con distribución E (). Por el teorema 4.3. se tiene: Pr(X 4, Y < 3) = Pr(X 4) Pr(Y < 3) Sean g(x) = x 2 y h(y) = y, se tiene que: E[X 2 Y ] = E[X 2 ]E[Y ] = ( Var (X) + E[X] 2) E[Y ] = ( + 2 ) = 2 Teorema Sean X y Y variables aleatorias independientes con funciones generatrices de momentos M X (t) y M Y (t) respectivamente. Entonces la función generatriz de momentos de la variable aleatoria Z = X + Y es: M Z (t) = M X (t)m Y (t) Prueba: Usando la definición de función generatriz de momentos: M Z (t) = E[e tz ] = E[e t(x+y ) ] = E[e tx e ty ] = E[e tx ]E[e ty ] = M X (t)m Y (t) Ejemplo Sean X N (µ, σ 2 ) y Y N (γ, τ 2 ) variables aleatorias independientes. Hallar la distribución de Z = X + Y Transformaciones bivariadas Sea (X, Y ) un vector aleatorio bivariado con una distribución conocida. Considere un nuevo vector aleatorio bivariado (U, V ) definido por U = g (X, Y ) y V = g 2 (X, Y ) donde g (x, y) y g 2 (x, y) son funciones específicas. Si B es cualquier subconjunto de R 2, entonces (U, V ) B sí y solo si (X, Y ) A, donde A = {(x, y) : (g (x, y), g 2 (x, y)) B}. Luego Pr((U, V ) B) = Pr((X, Y ) A) y la distribución conjunta de (U, V ) se determina completamente usando la distribución conjunta de (X, Y ).
12 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES Caso discreto Si (X, Y ) es un vector aleatorio bivariado discreto, entonces existe solo un conjunto numerable de valores para los que la función de probabilidad conjunta de (X, Y ) es positiva, digamos el conjunto A. Se define el conjunto B = {(u, v) : u = g (x, y), v = g 2 (x, y) para algún (x, y) A}. Entonces B es el conjunto numerable de posibles valores para el vector aleatorio discreto (U, V ). Si para todo (u, v) B, A uv se define como {(x, y) A : g (x, y) = u, g 2 (x, y) = v} entonces la función de probabilidad conjunta de (U, V ), f U,V (u, v), puede calcularse a partir de la función de probabilidad conjunta de (X, Y ) por: f U,V (u, v) = Pr((x, y) A uv ) = (x,y) A uv f X,Y (x, y) (4.3.) Ejemplo 4.3. Sean X P (θ) y Y P (λ) variables aleatorias independientes. Hallar la función de probabilidad de X + Y Caso continuo Si (X, Y ) es un vector aleatorio continuo con función de densidad conjunta f X,Y (x, y), entonces la función de densidad conjunta de (U, V ) puede espresarse en términos de f X,Y (x, y), en forma análoga a Sea A = {(x, y) : f X,Y (x, y) > 0} y B = {(u, v) : u = g (x, y), v = g 2 (x, y) para todo (x, y) A}. La función de densidad conjunta f U,V (u, v) será positiva sobre el conjunto B. Si se asume que u = g (x, y) y v = g 2 (x, y) definen transformaciones uno a uno de A hacia B entonces dichas transformaciones seran sobreyectivas según la definición de B. Entonces para todo (u, v) B existe solo un (x, y) A tal que (u, v) = (g (x, y), g 2 (x, y)). Para cada transformación uno a uno y sobreyectiva, se pueden resolver las ecuaciones u = g (x, y) y v = g 2 (x, y) para x y y en términos de u y v. Denotemos estas transformaciones inversas por x = h (u, v) y y = h 2 (u, v). El rol que tuvo la derivada en el caso univariado ahora lo asume una cantidad llamada el Jacobiano de la transformación. Esta función de (u, v), denotada por J, es el determinante de la matriz de derivadas parciales. Se define por: J = x u y u x v y = x y v u v y x u v
13 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 54 donde: x u = h (u, v), x u v = h (u, v), y v u = h 2(u, v) u y y v = h 2(u, v) v Se asume que J es diferente de cero sobre B. Entonces la función de densidad conjunta de (U, V ) está dada por: f U,V (u, v) = f X,Y (h (u, v), h 2 (u, v)) J (4.3.2) donde J es el valor absoluto de J. Ejemplo Sean X y Y variables aleatorias independientes con distribución normal estándar. Se definen las transformaciones U = X + Y y V = X Y. Hallar f(u, v) y probar que U y V son variables aleatorias independientes. Teorema 4.3. Sean X y Y variables aleatorias independientes. Sea g(x) una función que depende sólo de x y h(y) una función que sólo depende de y. Entonces las variables aleatorias U = g(x) y V = h(y ) son independientes. En muchas situaciones las transformaciones de interés no son uno a uno. Sea A = {(x, y) : f X,Y (x, y) > 0}. Suponga que A 0, A,, A k forma una partición de A. El conjunto A 0, que podría ser vacio, satisface Pr((X, Y ) A 0 ) = 0. Las transformaciones U = g (X, Y ) y V = g 2 (X, Y ) son uno a uno, desde A i hacia B para cada i =, 2,, k. Entonces para cada i se pueden hallar las funciones inversas desde B hacia A i. Si se denotan las i-ésimas inversas por x = h i (u, v) y y = h 2i (u, v), éstas dan para (u, v) B un único (x, y) A i tal que (u, v) = (g (x, y), g 2 (x, y)). Sea J i el Jacobiano calculado a partir de las i-ésimas inversas. Entonces se tiene la siguiente representación de la función de densidad conjunta f U,V (u, v): k f U,V (u, v) = f X,Y (h i (u, v), h 2i (u, v)) J i (4.3.3) i= Ejemplo Sean X y Y variables aleatorias independientes con distribución normal estándar. Considere las transformaciones U = X/Y y V = Y. Hallar la función de densidad conjunta de U y V. Cuál es la distribución marginal de U?
14 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES Modelos jerárquicos y mixtura de distribuciones En las secciones anteriores se consideraron variables aleatorias cuya distribución dependía de un conjunto de parámetros. Sin embargo, se puede considerar la posibilidad de que algunos de estos parámetros sean también variables aleatorias con una determinada distribución. Ejemplo 4.4. Un insecto pone un número grande de huevos, cada uno con probabilidad de supervivencia p. En promedio, cuántos huevos sobrevivirán? Sean X = Número de huevos sobrevivientes, y Y = Número de huevos puestos. Se tiene el siguiente modelo jerárquico: X Y BI(Y, p) Y P(λ) La variable de interés tiene la siguiente distribución: Pr(X = x) = Pr(X = x, Y = y) y=x = Pr(X = x Y = y) Pr(Y = y) y=x [( ) ] [ y e = p x ( p) y x λ λ y ] y=x x y! = (λp)x e λ (( p)λ) y x x! (y x)! = (λp)x e λ x! y=x t=0 = (λp)x e λ e ( p)λ x! = (λp)x e λp x! (( p)λ) t es decir que X P(λp). Todo proceso de inferencia marginal sobre X se hace a través de la distribución de Poisson en la que Y no es parte del proceso. Respondiendo a la pregunta inicial, se tiene que en promedio sobrevivirán E[X] = λp huevos. t!
15 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 56 Los cálculos anteriores se pueden simplicar de manera importante usando el siguiente teorema. Teorema 4.4. Si X y Y son variables aleatorias, entonces: E[X] = E Y [E X [X Y ]] (4.4.) siempre que los esperados existan. Prueba: Sea f(x, y) la función de densidad de X y Y. Por definición se tiene: ˆ ˆ E[X] = xf(x, y)dxdy y x ˆ [ˆ ] = xf(x y)dx f Y (y)dy y x ˆ = E [X Y ] f Y (y)dy Volviendo al ejemplo anterior: y = E Y [E X [X Y ]] E[X] = E Y [E X [X Y ]] = E Y [Y p] = pe Y [Y ] = pλ Definición 4.4. Una variable aleatoria X se dice que tiene una mezcla de distribuciones si su distribución depende de una cantidad que también tiene distribución. En el ejemplo 4.4. la distribución P(λp) es una mezcla de distribuciones ya que es el resultado de combinar una distribución BI(Y, p) con Y P(λ). Ejemplo Considere una generalización del ejemplo 4.4.: entonces: X Y BI(Y, p) Y P( ) E(β) E[X] = E Y [E X [X Y ]] = E Y [py ] = pe [E Y [Y ]] = pe [ ] = pβ Este modelo de tres niveles también puede ser expresado como uno de dos jerarquías combinando los últimos dos estados.
16 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 57 Se tiene que: Pr(Y = y) = = 0 0 f(y, λ)dλ f(y λ)f(λ)dλ e λ λ y = 0 y! β e λ/β dλ = λ y e λ(+β ) dλ βy! 0 ( = ) y + β + β La expresión para la función de probabilidad de Y pertenece a la distribución binomial negativa. La jerarquía de tres estados de este ejemplo es equivalente a la siguiente jerarquía de dos estados: X Y BI(Y, p) Y BN (r =, p = ( + β) ) Ejemplo Una generalización para ensayos de Bernoulli considera que la probabilidad de éxito no es constante, manteniendo los ensayos independientes. Un modelo estándar para esta situación es: X i p i B(p i ) i =, 2,, n p i BE(α, β) Este modelo puede ser apropiado, por ejemplo, si se mide el éxito de una droga en n pacientes y debido a que cada paciente es diferente no es posible asumir que la probabilidad de éxito sea constante. Una variable aleatoria de interés es Y = n i=i X i, el número de éxitos, cuya media es: n n n n E[Y ] = E[X i ] = E P [E Xi [X i p i ]] = E P [p i ] = i= i= i= i= α α + β = nα α + β También es posible obtener una expresión para calcular Var (X) usando el valor esperado y la variancia condicional de X Y.
17 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 58 Teorema Sean X y Y dos variables aleatorias, entonces: Prueba: Por definición: Var (X) = E [Var (X Y )] + Var (E[X Y ]) (4.4.2) Var[X] = E [ (X E[X]) 2] = E [ (X E[X Y ] + E[X Y ] E[X]) 2] = E[(X E[X Y ]) 2 ] + E [ (E[X Y ] E[X]) 2] = E [Var (X Y )] + Var (E[X Y ]) Ejemplo Calcular Var(Y ) del ejemplo Covarianza y correlación En las secciones anteriores se mencionó sobre la presencia o ausencia de relación entre dos variables aleatorias. En caso de existir relación esta podría ser fuerte o débil. En esta sección se presentan dos indicadores que miden de la fuerza de la relación existente entre dos variables aleatorias, la covariancia y la correlación. Definición 4.5. La covarianza de X y Y es el número definido por: Cov(X, Y ) = E [(X µ X )(Y µ Y )] Definición La correlación de X y Y es el número definido por: El valor ρ XY ρ XY = Cov(X, Y ) σ X σ Y también es llamado coeficiente de correlación. Teorema 4.5. Sean X y Y dos variables aleatorias, entonces: Cov(X, Y ) = E [XY ] µ X µ Y Teorema Si X y Y son variables aleatorias independientes, entonces Cov(X, Y ) = 0 y ρ XY = 0.
18 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 59 Teorema Si X y Y son variables aleatorias, a y b son constantes, entonces: Var(aX + by ) = a 2 Var(X) + b 2 Var(Y ) + 2abCov(X, Y ) Teorema Si X y Y son variables aleatorias entonces ρ XY. Definición Sean < µ X <, < µ Y <, 0 < σ X, 0 < σ Y, y < ρ < números reales. La función de densidad normal bivariada con medias µ X, µ Y varianzas σ 2 X, σ 2 Y y coeficiente de correlación ρ esta dada por: f(x, y) = 2πσ X σ exp ) Y ρ 2 ( x µx 2 2( ρ 2 ) σ X ( ) ( ) ( ) x µx y µy y µy 2 2ρ + σ X σ Y σ Y para < x <, < y <. Algunas de las propiedades de la función de densidad conjunta anterior son: a. La distribución marginal de X es N (µ X, σ 2 X). b. La distribución marginal de Y es N (µ Y, σ 2 Y ). c. El coeficiente de correlación entre X y Y es ρ X,Y = ρ. d. Para a y b constantes, la distribución de ax + by es: N (aµ X + bµ Y, a 2 σ 2 X + b 2 σ 2 Y + 2abρσ X σ Y ) e. Todas las distribuciones condicionales también son normales. Por ejemplo: ( ( ) ) σy f(y x) N µ Y + ρ (x µ X ), σy 2 ( ρ 2 ) σ X
19 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 60 Figura 4.2: Distribución normal bivariada rho=0.85 rho=0.5 Z Z Y Y X X rho=0.0 rho= 0.85 Z Z Y Y X X 4.6. Distribuciones multivariadas El vector aleatorio X = (X,, X n ) tiene un espacio muestral que es subconjunto de R n. Si (X,, X n ) es un vector aleatorio discreto (el espacio muestral es numerable) entonces la función de probabilidad conjunta de (X,, X n ) es la función definida por f(x) = f(x,, x n ) = Pr(X = x,, X n = x n ) para cada (x,, x n ) R n. Entonces para todo A R n, Pr(X A) = x A f(x) (4.6.) si (X,, X n ) es un vector aleatorio continuo, entonces la función de
20 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 6 densidad conjunta de (x,, x n ) es la función f(x,, x n ) que satisface: ˆ Pr(X A) = ˆ ˆ f(x)dx = A ˆ f(x,, x n )dx dx n (4.6.2) A Sea g(x) = g(x,, x n ) una función definida sobre el espacio muestral de X. Entonces g(x) es una variable aleatoria y su valor esperado es: E[g(X)] = x R n g(x)f(x) y E[g(X)] = g(x)f(x)dx (4.6.3) en el caso discreto y continuo respectivamente. La función de probabilidad marginal o función de densidad marginal para algún subconjunto de coordenadas de (X,, X n ) puede calcularse sumando o integrando la función de probabilidad o función de densidad conjunta sobre las otras coordenadas. Por ejemplo, la distribución marginal de (X,, X k ), las primeras k-coordenadas de (X,, X n ), está dada por la función de probabilidad o función de densidad: f(x,, x k ) = f(x,, x k ) = (x k+,,x n) R n k f(x,, x n ) (4.6.4) f(x,, x n )dx k+ dx n (4.6.5) para todo (x,, x k ) R k. La función de probabilidad o función de densidad condicional de un subconjunto de coordenadas de (x,, x n ), dados los valores de las coordenadas restantes, se obtiene dividiendo la función de probabilidad o función de densidad conjunta por la función de probabilidad o función de densidad marginal de las coordenadas restantes. Así, por ejemplo, si f(x,, x n ) > 0, la función de probabilidad o función de densidad condicional de (x k+,, x n ) dados X = x,, X k = x k es la función de (x k+,, x n ) definida por: f(x k+,, x n x,, x k ) = f(x,, x n ) f(x,, x k ) (4.6.6) Ejemplo 4.6. Sea la función de densidad conjunta:
21 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES f(x, x 2, x 3, x 4 ) = (x2 + x x x 2 4) 0 < x i < 0 de otro modo del vector aleatorio (X,, X 4 ). Se puede obtener la función de densidad marginal de (X, X 2 ) integrando las variables X 3 y X 4 : f(x, x 2 ) = = ˆ ˆ 0 0 = 3 4 (x2 + x 2 2) + 2 f(x,, x 4 )dx 3 dx (x2 + x x x 2 4)dx 3 dx 4 para 0 < x <, 0 < x 2 <. Cualquier probabilidad o valor esperado que incluya solo X y X 2 puede calcularse usando esta función de distribución marginal. Por ejemplo: E[X X 2 ] = = ˆ ˆ 0 = x x 2 f(x, x 2 )dx dx 2 x x 2 ( 3 4 (x2 + x 2 2) + 2 ) dx dx 2 Para todo (x, x 2 ) con 0 < x <, 0 < x 2 <, f(x, x 2 ) > 0 y la función de densidad condicional de (X 3, X 4 ) dados X = x y X 2 = x 2 puede obtenerse usando 4.6.6: f(x 3, x 4 x, x 2 ) = f(x, x 2, x 3, x 4 ) f(x, x 2 ) 3 4 = (x2 + x x x 2 4) 3 4 (x2 + x 2 2) + 2 = x2 + x x x 2 4 x 2 + x Definición 4.6. Sean n y m enteros positivos y sean p,, p n números tales que 0 p i, i =,, n y n i= p i =. Entonces el vector aleatorio (X,, X n ) tiene distribución multinomial con m ensayos y probabilidades de celda p,, p n si su función de probabilidad conjunta es:
22 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 63 f(x, x n ) = m! x! x n! px p xn n = m! sobre el conjunto de (x,, x n ) tal que cada x i es un entero no negativo y ni= x i = m. El factor m!/(x! x n!) es llamado coeficiente multinomial. n i= p x i i x i! Ejemplo Considere el experiento aleatorio que consiste en lanzar 0 veces un dado. Suponga que el dado no se encuentra balanceado, tal que la probabilidad de observar i es i. Sea el vector aleatorio (X 2,, X 6 ) tal que X i representa el número de lanzamientos en los que se observó el número i, entonces su distribución es multinomial con m = 0 lanzamientos, n = 6 posibles resultados y probabilidades de celda p =, p 2 2 = 2,, p 2 6 = 6. 2 La fórmula anterior puede usarse para calcular la probabilidad de obtener el número 6 en cuatro lanzamientos, el número 5 en tres lanzamientos, el número 4 en dos lanzamientos y el número 3 en solo un lanzamiento: f(0, 0,, 2, 3, 4) = = ( ( ( ( ( ( 0! !0!!2!3!4! 2)0 2)0 2) 2)2 2) Teorema 4.6. (Teorema Multinomial) Sean m y n enteros positivos. Sea A el conjunto de vectores x = (x,, x n ) tal que cada x i es un entero no negativo y n i= x i = m. Entonces, para números reales p, p 2,, p n : (p + + p n ) m = x A m! x! x n! px p xn n Definición Sean X,, X n vectores aleatorios con función de probabilidad o función de densidad conjunta f(x,, x n ). Sea f Xi (x i ) la función de probabilidad o función de densidad marginal de X i. Entonces X,, X n son vectores aleatorios mutuamente independientes si, para todo (x,, x n ): n f(x,, x n ) = f X (x ) f Xn (x n ) = f Xi (x i ) i= si todas las X i s son unidimensionales, entonces X,, X n son llamadas variables aleatorias mutuamente independientes. ) 4
23 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES 64 Teorema Sean X,, X n variables aleatorias mutuamente independientes. Sean g,, g n funciones tales que g i (x i ) es una función solo de x i, i =, 2,, n, entonces: E [g (X ) g n (X n )] = E [g (X )] E [g n (X n )] Teorema Sean X,, X n variables aleatorias mutuamente independientes con funciones generatrices de momentos M X (t),, M Xn (t). Si Z = X + + X n, entonces: M Z (t) = M X (t) M Xn (t) En particular, si las variables aleatorias X,, X n tienen la misma distribución, con función generatriz de momentos M X (t), entonces: M Z (t) = [M X (t)] n Ejemplo Suponga X,, X n son variables aleatorias mutuamente independientes y la distribución de X i G(α i, β). Hallar la distribución de Z = X + + X n. Corolario 4.6. Sean X,, X n variables aleatorias mutuamente independientes con funciones generatrices de momentos M X (t),, M Xn (t). Si a,, a n y b,, b n son constantes, entonces la función generatriz de momentos de Z = n i= (a i X i + b i ) es: M Z (t) = e t b i M X (a t) M Xn (a n t) Ejemplo Sean X,, X n variables aleatorias mutuamente independientes con X i N (µ i, σ 2 i ). Si a,, a n y b,, b n son constantes, hallar la distribución de Z = n i= (a i X i + b i ). Teorema (Generalización del teorema 4.3.) Sean X,, X n vectores aleatorios independientes. Sea g i (x i ) una función que solo depende de x i, i =,, n. Entonces las variables aleatorias U i = g i (X i ) son mutuamente independientes.
24 CHAPTER 4. VARIABLES ALEATORIAS MÚLTIPLES Transformaciones sobre un vector aleatorio Sea (X,, X n ) un vector aleatorio con función de densidad f X (x). Sea A = {x : f X (x) > 0}. Considere un nuevo vector aleatorio (U,, U n ) definido por U i = g i (X,, X n ), i =,, n. Suponga que A 0, A,, A k forman una partición de A. El conjunto A 0, el cual podría ser vacio, satisface Pr((X,, X n ) A 0 ) = 0. La transformación (U,, U n ) es una transformación - desde A i hacia B. Entonces para cada i, se puede obtener las funciones inversas desde B hacia A i. Denote la i-ésima inversa por x = h i (u,, u n ), x 2 = h 2i (u,, u n ),, x n = h ni (u,, u n ). Estas inversas dan un único (x,, x n ) A i tal que (u,, u n ) = (g (x,, x n ),, g n (x,, x n )). Sea J i el jacobiano calculado desde la i-ésima inversa, es decir: J i = x x u x 2 x 2 u. x n u u 2 x u n x u 2 2 u n..... x n x u 2 n u n = h i (u) u h 2i (u) u. h ni (u) u h i (u) h i (u) u n h 2i (u) u n u 2 h 2i (u) u h ni (u) u 2 h ni (u) u n es el determinante de la matriz n n. Luego la función de densidad conjunta para u B es: k f U (u,, u n ) = f X (h i (u,, u n ),, h ni (u,, u n )) J i (4.7.) i= Ejemplo 4.7. Sean X, X 2 y X 3 variables aleatorias independientes con distribución E(β = ). Probar que: U = X X + X 2 U 2 = X + X 2 X + X 2 + X 3 U 3 = X + X 2 + X 3 son variables aleatorias mutuamente independientes.
Transformaciones y esperanza
Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es
Tema 4: Variables aleatorias multidimensionales
Tema 4: Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Distribución conjunta de probabilidad Probabilidad/densidad marginales y condicionadas Independencia
Momentos de Funciones de Vectores Aleatorios
Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)
Resumen de Probabilidad
Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS
Variables Aleatorias y Distribución de Probabilidades
Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables
Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22
Unidad 3. Probabilidad Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre 2018-1 1 / 22 Espacios de probabilidad El modelo matemático para estudiar la probabilidad se conoce como espacio de
Distribuciones multivariadas
Distribuciones multivariadas Si X 1,X 2,...,X p son variables aleatorias discretas, definiremos la función de probabilidad conjunta de X como p(x) =p(x 1,x 2,...,x k )=P (X 1 = x 1,X 2 = x 2,...,X p =
Tema 4: Variables aleatorias multidimensionales
1 Tema 4: Variables aleatorias multidimensionales En este tema: Distribución conjunta de probabilidad Probabilidad/densidad marginal Probabilidad/densidad condicionada Esperanza, varianza, desviación típica
Probabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 5 Esperanza y momentos Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid [email protected] Javier Cárcamo PREST.
Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos
Definición Dado un espacio muestral S, diremos que X =(X 1, X 2,, X k ) es un vector aleatorio de dimension k si cada una de sus componentes es una variable aleatoria X i : S R, para i = 1, k. Notemos
TEMA 3.- VECTORES ALEATORIOS.- CURSO
TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.
Cálculo de Probabilidades II Preguntas Tema 2
Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor
Tema 5: Funciones homogéneas
Tema 5: Funciones homogéneas f se dice homogénea de grado α si se verifica: f(λ x) = λ α f( x), x, λ > 0 Propiedades: 1. Si f y g son homogéneas de grado α, entonces f ± g es también homogénea de grado
Variables aleatorias
Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con
VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. Desde un punto de vista formal, los vectores aleatorios son la herramienta matemática adecuada para transportar
DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD
DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA)
Familias de distribuciones
Capítulo 2 Familias de distribuciones 2.1. Introducción Las distribuciones estadísticas son usadas para modelar poblaciones a través de un miembro de una familia de distribuciones. Cada familia se encuentra
Estadística I Tema 5: Modelos probabiĺısticos
Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y Función de distribución.
Tablas de Probabilidades
Tablas de Probabilidades Ernesto Barrios Zamudio José Ángel García Pérez José Matuk Villazón Departamento Académico de Estadística Instituto Tecnológico Autónomo de México Mayo 2016 Versión 1.00 1 Barrios
Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación
Estadística Tema 3 Esperanzas 31 Esperanza Propiedades 32 Varianza y covarianza Correlación 33 Esperanza y varianza condicional Predicción Objetivos 1 Medidas características distribución de VA 2 Media
VECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios
VECTORES ALEATORIOS 1 Introducción En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa analizar varias características simultáneamente, como por ejemplo la velocidad de transmisión
Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas
Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando
Cálculo de Probabilidades II Preguntas Tema 1
Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga
Vectores aleatorios. Estadística I curso 2008 2009
Vectores aleatorios Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 En numerosas ocasiones estudiamos más de una variable asociada a
TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES
TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES Recordemos que el concepto de variable aleatoria surge de la necesidad de transformar el espacio muestral asociado a un experimento aleatorio en un espacio
Variables aleatorias bidimensionales discretas
Universidad de San Carlos de Guatemala Facultad de Ingeniería Área de Estadística VARIABLES ALEATORIAS BIDIMENSIONALES Concepto: Sean X e Y variables aleatorias. Una variable aleatoria bidimensional (X,
Repaso de Teoría de la Probabilidad
Repaso de Teoría de la Probabilidad Luis Mendo Tomás Escuela Politécnica Superior Universidad Autónoma de Madrid Febrero de 2008 1. Introducción Este documento contiene, de forma esquemática, los conceptos
Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas
Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones
Tema 4: Variable Aleatoria Bidimensional
Curso 2016-2017 Contenido 1 Definición de Variable Aleatoria Bidimensional 2 Distribución y fdp Conjunta 3 Clasificación de Variables Aleatorias Bidimensionales 4 Distribuciones Condicionales 5 Funciones
VARIABLES ALEATORIAS DISCRETAS
VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:
Lista de Ejercicios (Parte 1)
ACT-11302 Cálculo Actuarial III ITAM Lista de Ejercicios (Parte 1) Prof.: Juan Carlos Martínez-Ovando 15 de agosto de 2016 P0 - Preliminar 1. Deriva las expresiones de las funciones de densidad (o masa
Funciones de Variables Aleatorias. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides
Funciones de Variables Aleatorias UCR ECCI CI-135 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción En los métodos estadísticos estándar, el resultado de la prueba
Variables aleatorias continuas, TCL y Esperanza Condicional
Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función
ENUNCIADO y SOLUCIONES. Problema 1
Ingeniería Industrial Métodos estadísticos de la Ingeniería Examen Junio 007. ENUNCIADO y SOLUCIONES Problema La memoria RAM para un ordenador se puede recibir de dos fabricantes A y B con igual probabilidad.
2. Ejercicio: 003_VACD_081
FACULTAD DE INGENIERÍA DIVISIÓN DE CIENCIAS BÁSICAS COORDINACIÓN DE CIENCIAS APLICADAS ACADEMIA DE PROBABILIDAD Semestre: 7- SERIE TEMA VARIABLES ALEATORIAS CONJUNTAS. Ejercicio: _VACD_8 Sean las distribuciones
Cálculo de probabilidad. Tema 3: Variables aleatorias continuas
Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice
Unidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Tema 5: Vectores aleatorios bidimensionales.
Estadística 52 Tema 5: Vectores aleatorios bidimensionales. Hasta ahora hemos estudiado las variables aleatorias unidimensionales, es decir, los valores de una característica aleatoria. En muchos casos,
Prof. Eliana Guzmán U. Semestre A-2015
Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos
Principios de reducción de la data
Capítulo 6 Principios de reducción de la data 6.1. Introducción Un experimentador usa la información en una muestra X 1,, X n para realizar el proceso de inferencia sobre algun parámetro desconocido θ.
Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.
Tema 6 - Introducción 1 Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Generalización Tema 6. Variables aleatorias unidimensionales
Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10
Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,
TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18
TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de
Introducción al Tema 9
Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. Tema 5. Series temporales y números índice. Introducción al Tema 9 Descripción de variables
Tema1. Modelo Lineal General.
Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La
Distribución conjunta de variables aleatorias
Distribución conjunta de variables aleatorias En muchos problemas prácticos, en el mismo experimento aleatorio, interesa estudiar no sólo una variable aleatoria sino dos o más. Por ejemplo: Ejemplo 1:
PyE_ EF2_TIPO1_
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA DIVISIÓN DE CIENCIAS BÁSICAS COORDINACIÓN DE CIENCIAS APLICADAS DEPARTAMENTO DE PROBABILIDAD Y ESTADÍSTICA SEGUNDO EXAMEN FINAL RESOLUCIÓN
Procesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
VARIABLES ALEATORIAS CONTINUAS
VARIABLES ALEATORIAS CONTINUAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Definición de una V.A.C. Definición de una V.A.C.
Distribuciones de probabilidad bidimensionales o conjuntas
Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso
Probabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid [email protected] Javier Cárcamo PREST.
Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:
Probabilidad Condicional Teorema de Bayes para probabilidades condicionales: Definición: Sea S el espacio muestral de un experimento. Una función real definida sobre el espacio S es una variable aleatoria.
Part I. Momentos de una variable aleatoria. Esperanza y varianza. Modelos de Probabilidad. Mario Francisco. Esperanza de una variable aleatoria
una una típica Part I Momentos. Esperanza y varianza Esperanza una una típica Definición Sea X una discreta que toma los valores x i con probabilidades p i. Supuesto que i x i p i
Estadística Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri
Estadística 2011 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri Clase 1 1. Las Definiciones de Probabilidad 2. Variables Aleatorias 3. Función de Densidad
5. Distribuciones de probabilidad multivariadas
5. Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable binomial
Maestría en Bioinformática Probabilidad y Estadística: Clase 3
Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff [email protected] Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias
Probabilidad y Estadística
Vectores aleatorios Probabilidad y Estadística Vectores aleatorios Federico De Olivera Cerp del Sur-Semi Presencial curso 2015 Federico De Olivera (Cerp del Sur-Semi Presencial) Probabilidad y Estadística
Unidad 3. Probabilidad
Unidad 3. Probabilidad Javier Santibáñez 17 de agosto de 2018 1. Introducción Definición 1. La probabilidad es una medida subjetiva del grado de creencia que se tiene acerca de que algo desconocido sea
Ejercicios para auto evaluación Variables continuas y Teorema de Límite Central
Ejercicios para auto evaluación Variables continuas y Teorema de Límite Central Enero 2008. Sea f(u) = ce u, u R. Determine el valor de c para que f sea una función de densidad de probabilidad y calcule
Conceptos Fundamentales. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas
Conceptos Fundamentales Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas Análisis de datos en física de partículas Experimento en física de partículas: Observación de n sucesos de un cierto tipo (colisiones
Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas
Distribuciones Probabilísticas Curso de Estadística TAE,005 J.J. Gómez Cadenas Distribución Binomial Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo
REVISION DE CONCEPTOS BÁSICOS
REVISION DE CONCEPTOS BÁSICOS Objetivos Introducir, de manera muy general, algunos de los conceptos matemáticos y estadísticos que se utilizan en el análisis de regresión. La revisión no es rigurosa y
FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD
FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD Jorge M. Galbiati pág. DISTRIBUCION BINOMIAL 2 DISTRIBUCION POISSON 4 DISTRIBUCION HIPERGEOMETRICA 5 DISTRIBUCION GEOMETRICA 7 DISTRIBUCION NORMAL 8 DISTRIBUCION
Tema 3 Normalidad multivariante
Aurea Grané Máster en Estadística Universidade Pedagógica Aurea Grané Máster en Estadística Universidade Pedagógica Tema 3 Normalidad multivariante 3 Normalidad multivariante Distribuciones de probabilidad
Capítulo 6: Variable Aleatoria Bidimensional
Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el
Cap. 3 : Variables aleatorias
Cap. 3 : Variables aleatorias Alexandre Blondin Massé Departamento de Informática y Matematica Université du Québec à Chicoutimi 16 de junio del 2015 Modelado de sistemas aleatorios Ingeniería de sistemas,
Tema 5. Variables Aleatorias Conjuntas.
Tema 5. Variables Aleatorias Conjuntas. Objetivo: El alumno conocerá el concepto de variables aleatorias conjuntas podrá analizar el comportamiento probabilista, conjunta e individualmente, de las variables
Trimestre Septiembre-Diciembre 2007 Departamento de Cómputo Científico y Estadística Probabilidades para Ingenieros CO3121 Guía de ejercicios # 6
Trimestre Septiembre-Diciembre 2007 Departamento de Cómputo Científico y Estadística Probabilidades para Ingenieros CO3121 Guía de ejercicios # 6 Contenido Valor Esperado, Caso Discreto. Valor Esperado,
Hoja 4 Variables aleatorias multidimensionales
Hoja 4 Variables aleatorias multidimensionales 1.- Estudiar si F (x, y) = 1, si x + 2y 1, 0, si x + 2y < 1, es una función de distribución en IR 2. 2.- Dada la variable aleatoria 2-dimensional (X, Y )
APUNTES DE PROBABILIDAD Y ESTADISTICA ING. GUILLERMO CASAR MARCOS
CAPITULO V APUNTES DE PROBABILIDAD Y ESTADISTICA VARIABLES ALEATORIAS CONJUNTAS. CONSIDERANDO EL CASO DE DOS DIMENSIONES. DADO UN ESPERIMENTO, EL PAR ( x, y ) SE CONOCE COMO UNA VARIABLE ALEATORIA BIDIMENSIONAL
Distribuciones de probabilidad multivariadas
Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable
Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales
Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.
3. Variables aleatorias
3. Variables aleatorias Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 3. Variables aleatorias Curso 2009-2010 1 / 33 Contenidos 1 Variables aleatorias y su distribución
Introducción a la Teoría de Probabilidades
Capítulo 1 Introducción a la Teoría de Probabilidades 1.1. Introducción El objetivo de la Teoría de Probabilidades es desarrollar modelos para experimentos que están gobernados por el azar y estudiar sus
Variables aleatorias unidimensionales
Estadística II Universidad de Salamanca Curso 2011/2012 Outline Variable aleatoria 1 Variable aleatoria 2 3 4 Variable aleatoria Definición Las variables aleatorias son funciones cuyos valores dependen
1. ECUACIONES DIFERENCIALES ORDINARIAS
1 1. ECUACIONES DIFERENCIALES ORDINARIAS 1.1. PRIMERAS DEFINICIONES. PROBLEMA DEL VALOR INICIAL Definición 1.1. Una ecuación diferencial es una ecuación en la que intervienen una variable dependiente y
Modelos Estocásticos I. Notas de Curso. Cimat, A.C.
Modelos Estocásticos I Notas de Curso Joaquín Ortega Sánchez Víctor Rivero Mercado Cimat, A.C. Índice general 1. Introducción a la Teoría de Probabilidad 1 1.1. Introducción............................................
Estadística I Tema 4: Probabilidad y modelos probabiĺısticos
Estadística I Tema 4: Probabilidad y modelos probabiĺısticos Tema 4. Probabilidad y modelos probabiĺısticos Contenidos Probabilidad: Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos.
