Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. Tema 5. Series temporales y números índice. Introducción al Tema 9 Descripción de variables y datos socioeconómicos 1 Tema 5. Probabilidad. Tema 6. Variables aleatorias unidimensionales. Tema 7. Modelos probabilísticos discretos. Tema 8. Modelos probabilísticos continuos. Tema 9. Variables aleatorias multidimensionales. Modelización de la incertidumbre en las variables socieconómicas Tema 5 Tema 6 Tema 7 Tema 8 Introducción a la Probabilidad Variables aleatorias unidimensionales: Definición y propiedades Ejemplos. Tema 9 Variables aleatorias multidimensionales : Definición y propiedades Ejemplos. Estudiar situaciones más realistas
2 Tema 9. Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. Distribución normal multivariante. Lecturas recomendadas: Capítulo 6 del libro de Peña (2005) y las secciones 3.7, 4.4 y 5.4 de Newbold (2001).
3 Ejemplo 1. Se lanzan tres monedas distintas con probabilidades de cara de 0,5, 0,4 y 0,3 respectivamente. Sean X el número de caras (c) en las primeras dos monedas e Y el número de cruces (x) en las últimas dos lanzadas. Los posibles resultados del experimento, sus probabilidades y los valores de las variables X e Y son los siguientes. Resultado Prob. X Y {c, c, c} 0,06 2 0 {c, c, x} 0,14 2 1 {c, x, c} 0,09 1 1 {c, x, x} 0,21 1 2 {x, c, c} 0,06 1 0 {x, c, x} 0,14 1 1 {x, x, c} 0,09 0 1 {x, x, x} 0,21 0 2 Hacemos una tabla de doble entrada mostrando la distribución conjunta de las dos variables.
Distribución conjunta de X e Y 4 Definición 1. Para dos variables discretas X e Y, la distribución conjunta de X e Y es el conjunto de probabilidades Pr(X = x, Y = y) para todos los posibles valores de x e y. Ejemplo 1. Y 0 1 2 0 0,00 0,09 0,21 X 1 0,06 0,23 0,21 2 0,06 0,14 0,00 Observamos que Pr(X = x, Y = y) = 1. x y
Distribuciones marginales de X e Y 5 Definición 2. Para dos variables discretas X e Y con distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la distribución marginal de X es Pr(X = x) = Pr(X = x, Y = y), y la distribución marginal de Y es y Pr(Y = y) = Pr(X = x, Y = y). x Ejemplo 1. Y 0 1 2 0 0,00 0,09 0,21 0,3 X 1 0,06 0,23 0,21 0,5 2 0,06 0,14 0,00 0,2 0,12 0,46 0,42 1,0 La distribución marginal de X es Pr(X = x) = 0,3 si x = 0 0,5 si x = 1 0,2 si x = 2 0 si no Ejercicio: Distribución marginal de Y.
Distribución condicionada 6 Definición 3. Para dos variables discretas X e Y con distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la distribución condicionada de X dado Y = y es Pr(X = x, Y = y) Pr(X = x Y = y) =, Pr(Y = y) y la distribución condicionada de Y dado X = x es Pr(X = x, Y = y) Pr(Y = y X = x) =, Pr(X = x) Ejemplo 1. La distribución condicionada de Y dado X = 2 es 0,3 si y = 0 P (Y = y X = 2) = 0,7 si y = 1 0 si no Ejercicio: Distribución condicionada de X dado Y = 0.
Independencia 7 Definición 4. Se dicen que dos variables (discretas) X e Y son independientes si para todos los valores de x e y. Pr(X = x, Y = y) = Pr(X = x) Pr(Y = y) Esta definición equivale a decir que para todos los valores de x e y. Pr(X = x Y = y) = Pr(X = x) o Pr(Y = y X = x) = Pr(Y = y), Ejemplo 1. X e Y no son independientes pues, por ejemplo: Pr(X = 0, Y = 0) = 0,00 0,30 0,12 = Pr(X = 0) Pr(Y = 0).
Vector de esperanzas 8 Definición 5. Para dos variables discretas X e Y con distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza de (X, Y ) es [( )] X µ = E = ( x Pr(X = x, Y = y). Y y) x y E [( X Y )] ( = ( = x x x y ) y x Pr(X = x, Y = y) = y y Pr(X = x, Y = y) ) ( ) x Pr(X = x) E[X] =. y Pr(X = x) E[Y ] ( x x ) y Pr(X = x, Y = y) y y x Pr(X = x, Y = y) La esperanza de un vector, (X, Y ), es el vector de las esperanzas de sus componentes.
Esperanza de g(x, Y ) 9 La esperanza de una función de la variable o vector aleatorio, (X, Y ), que tiene distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y es: E[g(X, Y )] = g(x, y) Pr(X = x, Y = y). x y Ejemplo 2. Con los datos del Ejemplo 1, calcule E[XY ]. Y 0 1 2 0 0,00 0,09 0,21 0,3 X 1 0,06 0,23 0,21 0,5 2 0,06 0,14 0,00 0,2 0,12 0,46 0,42 1,0 Entonces, E[XY ] = (0 0) 0,00 + (0 1) 0,09 + + (2 2) 0,00 = 0,93.
Covarianza 10 Definición 6. Para dos variables X e Y, la covarianza entre X e Y es Cov(X, Y ) = E[(X E[X])(Y E[Y ])] A menudo, se escribe σ XY para representar la covarianza. En la práctica, normalmente, se evalúa la covarianza a través de otra fórmula equivalente: Teorema 1. Cov[X, Y ] = E[XY ] E[X]E[Y ] Cov(X, Y ) = E[(Y E[Y ])(X E[X])] = Cov(Y, X).
Matriz de varianzas y covarianzas 11 Definición 7. Para dos variables X e Y, la matriz de varianzas y covarianzas entre X e Y es [ ] V (X) Cov(X, Y ) S =. Cov(Y, X) V (Y ) Ejemplo 3. Volvemos al Ejemplo 1. Tenemos: E[X] = 0 0,3 + 1 0,5 + 2 0,2 = 0,9 E[Y ] = 0 0,12 + 1 0,46 + 2 0,52 = 1,5 E [ X 2] = 0 2 0,3 + 1 2 0,5 + 2 2 0,2 = 1,3 V [X] = 1,3 0,9 2 = 0,49 E [ Y 2] = 0 2 0,12 + 1 2 0,46 + 2 2 0,52 = 2,54 V [Y ] = 2,54 0,93 2 = 1,6751 E[XY ] = 0 0 0,00 + 0 1 0,09 +... + 2 2 0 = 0,93 Cov[X, Y ] = 0,93 0,9 1,5 = 0,42 µ y S?
Suma y diferencia de variables aleatorias 12 Proposición 1. Sean X e Y dos variables con distribución conjunta Pr(X = x, Y = y), y sea Z = X + Y, entonces: i) E[Z] = E[X + Y ] = E[X] + E[Y ]. ii) V (Z) = V (X) + V (Y ) + 2Cov(X, Y ). Demostración E[Z] = x = x (x + y) Pr(X = x, Y = y) y x Pr(X = x, Y = y) + y x y Pr(X = x, Y = y) y = x x y Pr(X = x, Y = y) + y y x Pr(X = x, Y = y) = x x Pr(X = x) + y y Pr(Y = y) = E[X] + E[Y ].
Suma y diferencia de variables aleatorias 13 V (Z) = E[Z 2 ] E[Z] 2 = x (x + y) 2 Pr(X = x, Y = y) (E[X] + E[Y ]) 2 y = x y (x2 + 2xy + y 2 ) Pr(X = x, Y = y) (E[X] + E[Y ]) 2 = E[X 2 ] + 2E[XY ] + E[Y 2 ] (E[X] 2 + 2E[X]E[Y ] + E[Y ] 2 ) = V (X) + 2Cov(X, Y ) + V (Y ). Análogamente se prueba que Proposición 2. Sean X e Y dos variables con distribución conjunta Pr(X = x, Y = y), y sea Z = X Y, entonces: i) E[Z] = E[X + Y ] = E[X] E[Y ]. ii) V (Z) = V (X) + V (Y ) 2Cov(X, Y ).
Correlación 14 Definición 8. Definición 9. X e Y es La correlación entre X e Y es ρ XY = Corr[X, Y ] = Cov[X, Y ] DT [X]DT [Y ] Para dos variables X e Y, la matriz de correlaciones entre [ ] 1 Corr(X, Y ) R =. Corr(Y, X) 1 Ejemplo 4. Tenemos (ver Ejemplo 3) DT [X] = 0,7 DT [Y ] = 1,294 Cov[X, Y ] = 0,42 Corr[X, Y ] = 0,42 0,7 1,294 0,464. Hay una relación negativa entre las dos variables.
Propiedades de la correlación 15 1. 1 ρ XY 1 2. La correlación es igual a 1 si y sólo si existe una relación lineal positiva entre X e Y, es decir Y = α + βx, donde β > 0. 3. La correlación es 1 si y sólo si existe una relación lineal negativa Y = α βx donde β < 0. 4. Si X e Y son independientes, ρ XY = 0. El recíproco del último resultado no es cierto: existen variables incorreladas pero dependientes.
Esperanza condicionada 16 Definición 10. Para dos variables discretas X e Y con distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza condicionada de X dado Y = y es E[X Y = y] = x x Pr(X = x Y = y), y la esperanza condicionada de Y dado X = x es: E[Y X = x] = y y Pr(Y = y X = x). Ejemplo 5. Volvemos al Ejemplo 1. La media condicionada de Y dado X = 2 es E[Y X = 2] = 0,3 0 + 0,7 1 = 0,7.
Ley de las esperanzas iteradas 17 Proposición 3. E[E[X Y ]] = E[X]. Demostración Primero, debemos notar que E[X Y ] es una v.a. que depende de Y, por tanto se aplica el resultado E[g(Y )] = y g(y) Pr(Y = y): E[E[X Y = y]] = y = y ( ) x Pr(X = x Y = y) Pr(Y = y) x x Pr(X = x, Y = y) x = x x y Pr(X = x, Y = y) = x x Pr(X = x) = E[X]. Análogamente, E[Y ] = E[E[Y X]].
18 Tema 9. Variables aleatorias multidimensionales Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. V.A. Discretas Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. V.A. Continuas Distribución normal multivariante.
Generalización para variables continuas 19 Definición 11. Para dos variables aleatorias cualesquiera, se define la función de distribución conjunta por F (x, y) = P (X x, Y y) y en el caso de v.a. continuas se define la función de densidad conjunta por f(x, y) = 2 F (x, y). x y Se tiene que x y f(x, y) dx dy = F (x, y). Se calculan la distribuciones marginales, condicionadas, media, covarianza, etc. de manera similar al cálculo para variables discretas sustituyendo integrales por las sumas donde sea necesario.
20 Ejemplo 6. Verificar que la siguiente función bivariante es una densidad f (x, y) = 6xy 2, 0 < x < 1, 0 < y < 1, En primer lugar observamos que f(x, y) 0 y en segundo lugar, debemos comprobar que la densidad integra a 1. 1 1 0 0 6xy 2 dxdy = = 1 0 1 0 [ y 3 6x 3 ] 1 0 dx 6x 1 3 dx = 2 [ x 2 2 ] 1 0 = 1.
Densidades marginales 21 La densidad marginal de X es f(x) = f(x, y) dy La densidad marginal de X es f(x) = f(x, y) dy Ejemplo 6. Tenemos f(x) = 1 0 6xy 2 dy = [6x y3 = 2x para 0 < x < 1 3 ] 1 0 Igualmente, la densidad marginal de Y es f(y) = 1 0 6xy 2 dx = ] 1 [6 x2 2 y2 0 = 3y 2 para 0 < y < 1
Independencia 22 Definición 12. Se dicen que dos variables X e Y son independientes si F (x, y) = F (x)f (y), para todos los valores de x e y. Para v.a. continuas independientes tenemos, equivalentemente, que f(x, y) = f(x)f(y) para todos los valores de x e y. Ejemplo 6. Observamos que f(x, y) = 6xy 2 = 2x 3y 2 = f(x)f(y) Entonces, X e Y son independientes.
Independencia y correlación 23 Proposición 4. Si X y Y son v.a. independientes, entonces Cov(X, Y ) = Corr(X, Y ) = 0. El resultado recíproco no es cierto Ejemplo 7. Sea X una v.a. distribuida N (0, 1), e Y = X 2, entonces: E[X] = 0 E[Y ] = E[X 2 ] = 1 E[XY ] = E[X 3 ] = 0 por ser una distribución simétrica Cov(X, Y ) = E[XY ] E[X]E[Y ] = 0. Y, sin embargo, X e Y son claramente dependientes.
24 Tema 9. Variables aleatorias multidimensionales Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. Distribución normal multivariante.
Distribución normal multivariante 25 Definición 13. Una variable aleatoria multivariante X = (X 1, X 2,..., X p ) sigue una distribución normal multivariante si tiene como función de densidad a { 1 f(x) = exp 1 } (2π) p/2 Σ 1/2 2 (x µ) Σ 1 (x µ), donde µ = (µ 1, µ 2,..., µ p ), y Σ = σ 2 1 σ 12 σ 1p σ 21 σ 2 2 σ 2p...... σ p1 σ p2 σ 2 p. Si X tiene una distribución normal multivariante, se escribe X N (µ, Σ).
Propiedades de la distribución normal multivariante 26 1. La función de densidad es simétrica alrededor de µ. 2. La media del vector aleatorio X es µ, i.e., E [X] = µ. 3. La matriz de varianzas y covarianzas del vector aleatorio X es Σ, i.e., E [(X µ)(x µ) ] = Σ. 4. Cualquier subconjunto de h variables univariantes del vector x, con h < p, sigue una distribución normal h-dimensional. En particular, las distribuciones marginales son normales univariantes. 5. Si definimos un vector Y = AY, donde A es una matriz de constantes reales de dimensión k p, entonces Y sigue una distribución normal k-dimensional.
Propiedades de la distribución normal multivariante 27 Podemos completar la propiedad anterior con los siguientes resultados validos para vectores aleatorios cualesquiera: Sea X un vector aleatorio p-dimensional tal que E [X] = µ y E [(X µ)(x µ) ] = Σ. Sea Y = AX, donde A es una matriz de constantes reales de dimensión k p entonces: E [Y ] = Aµ. E [(Y Aµ)(Y Aµ) ] = AΣA. Re-escribimos la propiedad 5 como: 5. Si definimos un vector Y = AX, donde A es una matriz de constantes reales de dimensión k p, entonces Y sigue una distribución normal k-dimensional, N k (Aµ, AΣA ).
28 El siguiente gráfico muestra la función de densidad conjunta de una distribución normal bivariante estándar, con media µ = (0, 0) T y matriz de varianzas y covarianzas Σ = I. 0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 3 2 1 0 1 2 3 3 2 1 0 1 2 3
Independencia y correlación bajo normalidad 29 Proposición 5. Si (X, Y ) es un vector aleatorio normal, y X e Y son incorrelados (Cov(X,Y) = 0) entonces X e Y son independientes. Recordar que Independientes Correlación = 0 Independientes Correlación = 0 Independientes Correlación = 0 + Normalidad Ejemplo 8. Sea (X, Y ) un vector normal [ bivariante ] de media µ = (4, 6) y 2 1 matriz de varianza y covarianzas Σ =. Sean Z = 1 5 X+Y 3 y T = 2X Y 3. Compruebe que Z y T son independientes.
30 Ejemplo 9. (Junio/2002 modificado) Las calificaciones obtenidas en dos pruebas distintas A y B por los alumnos presentados a la Selectividad, son ( in?)dependientes y siguen las distribuciones normales: N A (µ = 62; σ = 20), N B (µ = 52; σ = 10). La covarianza entre ellas es 100. La prueba se considera superada con 50 puntos. Calcular: (a) La probabilidad de que un alumno en la prueba A haya obtenido una puntuación menor que 40. (b) La probabilidad que haya superado la prueba B. (c) Si para el acceso a una Universidad se necesita que la media aritmética de las dos notas anteriores sea mayor que 70, cuál es la probabilidad de que un alumno escogido al azar pueda acceder a dicha Universidad? Sea X la nota en la prueba A e Y la nota en la prueba B. Sea T = X+Y 2.
31 Qué sabemos? y [ ] X Y [ ] X T = [0,5 0,5] N Y N ( 57; ) 175. N ([ ] 62 ; 52 ( [0,5 0,5] [ ]) 400 100. 100 100 [ ] 62 ; [0,5 0,5] 52 [ 400 100 100 100 ] [ ]) 0,5 0,5 Por tanto, Pr(M > 70) = Pr ( M 57 175 > ) 70 57 175 Pr(Z > 0,98) = Pr(Z < 0,98) = 0,1635.
Recapitulación 32 Tema 9. Variables aleatorias multidimensionales Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. Extensión del concepto de variable aleatoria y su caracterización. Distribución normal multivariante. Extensión multivariante de la distribución normal