Introducción al Tema 9



Documentos relacionados
Tema 4: Variables aleatorias multidimensionales

La distribución normal o gaussiana es la distribución. Definición 42 Se dice que una variable X se distribuye como normal con parámetros µ y σ si

9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES

TEMA 3.- VECTORES ALEATORIOS.- CURSO

Tema 4: Variables aleatorias multidimensionales

Ejercicios de Vectores Aleatorios

Capítulo 6: Variable Aleatoria Bidimensional

Si quisiéramos estudiar también cuánto distan, es decir a b, tendríamos 6 resultados: 0, 1, 2, 3, 4 ó 5, con distribución de probabilidad dada por:

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales

Momentos de Funciones de Vectores Aleatorios

Los objetivos del aprendizaje de esta unidad temática son los siguientes:

Relación de Problemas. Tema 6

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

Resumen de Probabilidad

MODELO DE RESPUESTAS Objetivos del 1 al 9

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

1 Tema 4: Variable Aleatoria Bidimensional y n-dimensional

VECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios

Dr. Mauro Gutierrez Martinez Dr. Christiam Gonzales Chávez

Requisitos Matemáticos. Clase 01. Profesor: Carlos R. Pitta. ICPM050, Econometría. Universidad Austral de Chile Escuela de Ingeniería Comercial

Distribución conjunta de variables aleatorias

Propiedades en una muestra aleatoria

Variable Aleatoria. Relación de problemas 6

Tema 3: Cálculo de Probabilidades Unidad 2: Variables Aleatorias

Probabilidad y Estadística

1 Variables aleatorias independientes

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Trimestre Septiembre-Diciembre 2007 Departamento de Cómputo Científico y Estadística Probabilidades para Ingenieros CO3121 Guía de ejercicios # 6

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Tema 3 Normalidad multivariante

Repaso de Teoría de la Probabilidad

Distribuciones de probabilidad bidimensionales o conjuntas

Universidad Central de Venezuela Facultad de Ciencias Escuela de Computación Probabilidad y Estadística Práctica Nº 4

ANÁLISIS DE DATOS MULTIDIMENSIONALES

Ejercicios de Variables Aleatorias

Unidad III Variables Aleatorias Unidimensionales

Estadística I Tema 5: Modelos probabiĺısticos

2. Probabilidad y. variable aleatoria. Curso Estadística Probabilidad. Probabilidad y variable aleatoria

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Tema 5. Muestreo y distribuciones muestrales

Tema 4: Variable Aleatoria Bidimensional

Probabilidad y Estadística

Tema 6: Distribuciones Multivariantes

Variables aleatorias bidimensionales discretas

Tema 5: Principales Distribuciones de Probabilidad

Tema 4: Variable aleatoria. Métodos Estadísticos

Vectores aleatorios. Estadística I curso

Formulario y Tablas de Probabilidad para los Cursos de Probabilidad, Inferencia Estadística y Econometría

Material introductorio

ÍNDICE CAPITULO UNO CAPITULO DOS. Pág.

Regresión lineal múltiple

5. VARIABLES ALEATORIAS Y SUS MOMENTOS


Tema 5: Vectores aleatorios bidimensionales.

CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA

DISTRIBUCIONES DE PROBABILIDAD

PROBABILIDAD Y ESTADÍSTICA. Sesión 5 (En esta sesión abracamos hasta tema 5.8)

Estadística Avanzada y Análisis de Datos

Distribuciones multivariadas

Tema 5. Variables Aleatorias Conjuntas.

TEMA 2.- VARIABLES ALEATORIAS

2. Ejercicio: 003_VACD_081

Estadística Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

EJERCICIOS RESUELTOS TEMA 7

2.5. Vectores aleatorios

Variables aleatorias múltiples

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

Espacios Normados (Normas en R n )

2. Ortogonalidad. En todo el capítulo trabajaremos sobre un espacio vectorial euclídeo U.

TEMA II: DISTRIBUCIONES RELACIONADAS CON LA NORMAL

Variable Estadística Bidimensional

Elementos de Probabilidad y Estadística Segundo de Economía Examen del 26 de junio de 2006 DURACIÓN: 2 horas

ESTADISTICA APLICADA: PROGRAMA

Unidad 1: Espacio de Probabilidad

TEMA 2: LA FUNCION DE ESPERANZA CONDICIONAL

Probabilidad. Distribuciones binomial y normal

Práctica 3 Esperanza Condicional

Cuestiones propuestas de la primera prueba de la primera preparación

Variables Aleatorias y Distribución de Probabilidades

Examen de Estadística

Estadística II Tema 4. Regresión lineal simple. Curso 2010/11

Conceptos Fundamentales. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas

Transcripción:

Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. Tema 5. Series temporales y números índice. Introducción al Tema 9 Descripción de variables y datos socioeconómicos 1 Tema 5. Probabilidad. Tema 6. Variables aleatorias unidimensionales. Tema 7. Modelos probabilísticos discretos. Tema 8. Modelos probabilísticos continuos. Tema 9. Variables aleatorias multidimensionales. Modelización de la incertidumbre en las variables socieconómicas Tema 5 Tema 6 Tema 7 Tema 8 Introducción a la Probabilidad Variables aleatorias unidimensionales: Definición y propiedades Ejemplos. Tema 9 Variables aleatorias multidimensionales : Definición y propiedades Ejemplos. Estudiar situaciones más realistas

2 Tema 9. Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. Distribución normal multivariante. Lecturas recomendadas: Capítulo 6 del libro de Peña (2005) y las secciones 3.7, 4.4 y 5.4 de Newbold (2001).

3 Ejemplo 1. Se lanzan tres monedas distintas con probabilidades de cara de 0,5, 0,4 y 0,3 respectivamente. Sean X el número de caras (c) en las primeras dos monedas e Y el número de cruces (x) en las últimas dos lanzadas. Los posibles resultados del experimento, sus probabilidades y los valores de las variables X e Y son los siguientes. Resultado Prob. X Y {c, c, c} 0,06 2 0 {c, c, x} 0,14 2 1 {c, x, c} 0,09 1 1 {c, x, x} 0,21 1 2 {x, c, c} 0,06 1 0 {x, c, x} 0,14 1 1 {x, x, c} 0,09 0 1 {x, x, x} 0,21 0 2 Hacemos una tabla de doble entrada mostrando la distribución conjunta de las dos variables.

Distribución conjunta de X e Y 4 Definición 1. Para dos variables discretas X e Y, la distribución conjunta de X e Y es el conjunto de probabilidades Pr(X = x, Y = y) para todos los posibles valores de x e y. Ejemplo 1. Y 0 1 2 0 0,00 0,09 0,21 X 1 0,06 0,23 0,21 2 0,06 0,14 0,00 Observamos que Pr(X = x, Y = y) = 1. x y

Distribuciones marginales de X e Y 5 Definición 2. Para dos variables discretas X e Y con distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la distribución marginal de X es Pr(X = x) = Pr(X = x, Y = y), y la distribución marginal de Y es y Pr(Y = y) = Pr(X = x, Y = y). x Ejemplo 1. Y 0 1 2 0 0,00 0,09 0,21 0,3 X 1 0,06 0,23 0,21 0,5 2 0,06 0,14 0,00 0,2 0,12 0,46 0,42 1,0 La distribución marginal de X es Pr(X = x) = 0,3 si x = 0 0,5 si x = 1 0,2 si x = 2 0 si no Ejercicio: Distribución marginal de Y.

Distribución condicionada 6 Definición 3. Para dos variables discretas X e Y con distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la distribución condicionada de X dado Y = y es Pr(X = x, Y = y) Pr(X = x Y = y) =, Pr(Y = y) y la distribución condicionada de Y dado X = x es Pr(X = x, Y = y) Pr(Y = y X = x) =, Pr(X = x) Ejemplo 1. La distribución condicionada de Y dado X = 2 es 0,3 si y = 0 P (Y = y X = 2) = 0,7 si y = 1 0 si no Ejercicio: Distribución condicionada de X dado Y = 0.

Independencia 7 Definición 4. Se dicen que dos variables (discretas) X e Y son independientes si para todos los valores de x e y. Pr(X = x, Y = y) = Pr(X = x) Pr(Y = y) Esta definición equivale a decir que para todos los valores de x e y. Pr(X = x Y = y) = Pr(X = x) o Pr(Y = y X = x) = Pr(Y = y), Ejemplo 1. X e Y no son independientes pues, por ejemplo: Pr(X = 0, Y = 0) = 0,00 0,30 0,12 = Pr(X = 0) Pr(Y = 0).

Vector de esperanzas 8 Definición 5. Para dos variables discretas X e Y con distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza de (X, Y ) es [( )] X µ = E = ( x Pr(X = x, Y = y). Y y) x y E [( X Y )] ( = ( = x x x y ) y x Pr(X = x, Y = y) = y y Pr(X = x, Y = y) ) ( ) x Pr(X = x) E[X] =. y Pr(X = x) E[Y ] ( x x ) y Pr(X = x, Y = y) y y x Pr(X = x, Y = y) La esperanza de un vector, (X, Y ), es el vector de las esperanzas de sus componentes.

Esperanza de g(x, Y ) 9 La esperanza de una función de la variable o vector aleatorio, (X, Y ), que tiene distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y es: E[g(X, Y )] = g(x, y) Pr(X = x, Y = y). x y Ejemplo 2. Con los datos del Ejemplo 1, calcule E[XY ]. Y 0 1 2 0 0,00 0,09 0,21 0,3 X 1 0,06 0,23 0,21 0,5 2 0,06 0,14 0,00 0,2 0,12 0,46 0,42 1,0 Entonces, E[XY ] = (0 0) 0,00 + (0 1) 0,09 + + (2 2) 0,00 = 0,93.

Covarianza 10 Definición 6. Para dos variables X e Y, la covarianza entre X e Y es Cov(X, Y ) = E[(X E[X])(Y E[Y ])] A menudo, se escribe σ XY para representar la covarianza. En la práctica, normalmente, se evalúa la covarianza a través de otra fórmula equivalente: Teorema 1. Cov[X, Y ] = E[XY ] E[X]E[Y ] Cov(X, Y ) = E[(Y E[Y ])(X E[X])] = Cov(Y, X).

Matriz de varianzas y covarianzas 11 Definición 7. Para dos variables X e Y, la matriz de varianzas y covarianzas entre X e Y es [ ] V (X) Cov(X, Y ) S =. Cov(Y, X) V (Y ) Ejemplo 3. Volvemos al Ejemplo 1. Tenemos: E[X] = 0 0,3 + 1 0,5 + 2 0,2 = 0,9 E[Y ] = 0 0,12 + 1 0,46 + 2 0,52 = 1,5 E [ X 2] = 0 2 0,3 + 1 2 0,5 + 2 2 0,2 = 1,3 V [X] = 1,3 0,9 2 = 0,49 E [ Y 2] = 0 2 0,12 + 1 2 0,46 + 2 2 0,52 = 2,54 V [Y ] = 2,54 0,93 2 = 1,6751 E[XY ] = 0 0 0,00 + 0 1 0,09 +... + 2 2 0 = 0,93 Cov[X, Y ] = 0,93 0,9 1,5 = 0,42 µ y S?

Suma y diferencia de variables aleatorias 12 Proposición 1. Sean X e Y dos variables con distribución conjunta Pr(X = x, Y = y), y sea Z = X + Y, entonces: i) E[Z] = E[X + Y ] = E[X] + E[Y ]. ii) V (Z) = V (X) + V (Y ) + 2Cov(X, Y ). Demostración E[Z] = x = x (x + y) Pr(X = x, Y = y) y x Pr(X = x, Y = y) + y x y Pr(X = x, Y = y) y = x x y Pr(X = x, Y = y) + y y x Pr(X = x, Y = y) = x x Pr(X = x) + y y Pr(Y = y) = E[X] + E[Y ].

Suma y diferencia de variables aleatorias 13 V (Z) = E[Z 2 ] E[Z] 2 = x (x + y) 2 Pr(X = x, Y = y) (E[X] + E[Y ]) 2 y = x y (x2 + 2xy + y 2 ) Pr(X = x, Y = y) (E[X] + E[Y ]) 2 = E[X 2 ] + 2E[XY ] + E[Y 2 ] (E[X] 2 + 2E[X]E[Y ] + E[Y ] 2 ) = V (X) + 2Cov(X, Y ) + V (Y ). Análogamente se prueba que Proposición 2. Sean X e Y dos variables con distribución conjunta Pr(X = x, Y = y), y sea Z = X Y, entonces: i) E[Z] = E[X + Y ] = E[X] E[Y ]. ii) V (Z) = V (X) + V (Y ) 2Cov(X, Y ).

Correlación 14 Definición 8. Definición 9. X e Y es La correlación entre X e Y es ρ XY = Corr[X, Y ] = Cov[X, Y ] DT [X]DT [Y ] Para dos variables X e Y, la matriz de correlaciones entre [ ] 1 Corr(X, Y ) R =. Corr(Y, X) 1 Ejemplo 4. Tenemos (ver Ejemplo 3) DT [X] = 0,7 DT [Y ] = 1,294 Cov[X, Y ] = 0,42 Corr[X, Y ] = 0,42 0,7 1,294 0,464. Hay una relación negativa entre las dos variables.

Propiedades de la correlación 15 1. 1 ρ XY 1 2. La correlación es igual a 1 si y sólo si existe una relación lineal positiva entre X e Y, es decir Y = α + βx, donde β > 0. 3. La correlación es 1 si y sólo si existe una relación lineal negativa Y = α βx donde β < 0. 4. Si X e Y son independientes, ρ XY = 0. El recíproco del último resultado no es cierto: existen variables incorreladas pero dependientes.

Esperanza condicionada 16 Definición 10. Para dos variables discretas X e Y con distribución conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza condicionada de X dado Y = y es E[X Y = y] = x x Pr(X = x Y = y), y la esperanza condicionada de Y dado X = x es: E[Y X = x] = y y Pr(Y = y X = x). Ejemplo 5. Volvemos al Ejemplo 1. La media condicionada de Y dado X = 2 es E[Y X = 2] = 0,3 0 + 0,7 1 = 0,7.

Ley de las esperanzas iteradas 17 Proposición 3. E[E[X Y ]] = E[X]. Demostración Primero, debemos notar que E[X Y ] es una v.a. que depende de Y, por tanto se aplica el resultado E[g(Y )] = y g(y) Pr(Y = y): E[E[X Y = y]] = y = y ( ) x Pr(X = x Y = y) Pr(Y = y) x x Pr(X = x, Y = y) x = x x y Pr(X = x, Y = y) = x x Pr(X = x) = E[X]. Análogamente, E[Y ] = E[E[Y X]].

18 Tema 9. Variables aleatorias multidimensionales Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. V.A. Discretas Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. V.A. Continuas Distribución normal multivariante.

Generalización para variables continuas 19 Definición 11. Para dos variables aleatorias cualesquiera, se define la función de distribución conjunta por F (x, y) = P (X x, Y y) y en el caso de v.a. continuas se define la función de densidad conjunta por f(x, y) = 2 F (x, y). x y Se tiene que x y f(x, y) dx dy = F (x, y). Se calculan la distribuciones marginales, condicionadas, media, covarianza, etc. de manera similar al cálculo para variables discretas sustituyendo integrales por las sumas donde sea necesario.

20 Ejemplo 6. Verificar que la siguiente función bivariante es una densidad f (x, y) = 6xy 2, 0 < x < 1, 0 < y < 1, En primer lugar observamos que f(x, y) 0 y en segundo lugar, debemos comprobar que la densidad integra a 1. 1 1 0 0 6xy 2 dxdy = = 1 0 1 0 [ y 3 6x 3 ] 1 0 dx 6x 1 3 dx = 2 [ x 2 2 ] 1 0 = 1.

Densidades marginales 21 La densidad marginal de X es f(x) = f(x, y) dy La densidad marginal de X es f(x) = f(x, y) dy Ejemplo 6. Tenemos f(x) = 1 0 6xy 2 dy = [6x y3 = 2x para 0 < x < 1 3 ] 1 0 Igualmente, la densidad marginal de Y es f(y) = 1 0 6xy 2 dx = ] 1 [6 x2 2 y2 0 = 3y 2 para 0 < y < 1

Independencia 22 Definición 12. Se dicen que dos variables X e Y son independientes si F (x, y) = F (x)f (y), para todos los valores de x e y. Para v.a. continuas independientes tenemos, equivalentemente, que f(x, y) = f(x)f(y) para todos los valores de x e y. Ejemplo 6. Observamos que f(x, y) = 6xy 2 = 2x 3y 2 = f(x)f(y) Entonces, X e Y son independientes.

Independencia y correlación 23 Proposición 4. Si X y Y son v.a. independientes, entonces Cov(X, Y ) = Corr(X, Y ) = 0. El resultado recíproco no es cierto Ejemplo 7. Sea X una v.a. distribuida N (0, 1), e Y = X 2, entonces: E[X] = 0 E[Y ] = E[X 2 ] = 1 E[XY ] = E[X 3 ] = 0 por ser una distribución simétrica Cov(X, Y ) = E[XY ] E[X]E[Y ] = 0. Y, sin embargo, X e Y son claramente dependientes.

24 Tema 9. Variables aleatorias multidimensionales Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. Distribución normal multivariante.

Distribución normal multivariante 25 Definición 13. Una variable aleatoria multivariante X = (X 1, X 2,..., X p ) sigue una distribución normal multivariante si tiene como función de densidad a { 1 f(x) = exp 1 } (2π) p/2 Σ 1/2 2 (x µ) Σ 1 (x µ), donde µ = (µ 1, µ 2,..., µ p ), y Σ = σ 2 1 σ 12 σ 1p σ 21 σ 2 2 σ 2p...... σ p1 σ p2 σ 2 p. Si X tiene una distribución normal multivariante, se escribe X N (µ, Σ).

Propiedades de la distribución normal multivariante 26 1. La función de densidad es simétrica alrededor de µ. 2. La media del vector aleatorio X es µ, i.e., E [X] = µ. 3. La matriz de varianzas y covarianzas del vector aleatorio X es Σ, i.e., E [(X µ)(x µ) ] = Σ. 4. Cualquier subconjunto de h variables univariantes del vector x, con h < p, sigue una distribución normal h-dimensional. En particular, las distribuciones marginales son normales univariantes. 5. Si definimos un vector Y = AY, donde A es una matriz de constantes reales de dimensión k p, entonces Y sigue una distribución normal k-dimensional.

Propiedades de la distribución normal multivariante 27 Podemos completar la propiedad anterior con los siguientes resultados validos para vectores aleatorios cualesquiera: Sea X un vector aleatorio p-dimensional tal que E [X] = µ y E [(X µ)(x µ) ] = Σ. Sea Y = AX, donde A es una matriz de constantes reales de dimensión k p entonces: E [Y ] = Aµ. E [(Y Aµ)(Y Aµ) ] = AΣA. Re-escribimos la propiedad 5 como: 5. Si definimos un vector Y = AX, donde A es una matriz de constantes reales de dimensión k p, entonces Y sigue una distribución normal k-dimensional, N k (Aµ, AΣA ).

28 El siguiente gráfico muestra la función de densidad conjunta de una distribución normal bivariante estándar, con media µ = (0, 0) T y matriz de varianzas y covarianzas Σ = I. 0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 3 2 1 0 1 2 3 3 2 1 0 1 2 3

Independencia y correlación bajo normalidad 29 Proposición 5. Si (X, Y ) es un vector aleatorio normal, y X e Y son incorrelados (Cov(X,Y) = 0) entonces X e Y son independientes. Recordar que Independientes Correlación = 0 Independientes Correlación = 0 Independientes Correlación = 0 + Normalidad Ejemplo 8. Sea (X, Y ) un vector normal [ bivariante ] de media µ = (4, 6) y 2 1 matriz de varianza y covarianzas Σ =. Sean Z = 1 5 X+Y 3 y T = 2X Y 3. Compruebe que Z y T son independientes.

30 Ejemplo 9. (Junio/2002 modificado) Las calificaciones obtenidas en dos pruebas distintas A y B por los alumnos presentados a la Selectividad, son ( in?)dependientes y siguen las distribuciones normales: N A (µ = 62; σ = 20), N B (µ = 52; σ = 10). La covarianza entre ellas es 100. La prueba se considera superada con 50 puntos. Calcular: (a) La probabilidad de que un alumno en la prueba A haya obtenido una puntuación menor que 40. (b) La probabilidad que haya superado la prueba B. (c) Si para el acceso a una Universidad se necesita que la media aritmética de las dos notas anteriores sea mayor que 70, cuál es la probabilidad de que un alumno escogido al azar pueda acceder a dicha Universidad? Sea X la nota en la prueba A e Y la nota en la prueba B. Sea T = X+Y 2.

31 Qué sabemos? y [ ] X Y [ ] X T = [0,5 0,5] N Y N ( 57; ) 175. N ([ ] 62 ; 52 ( [0,5 0,5] [ ]) 400 100. 100 100 [ ] 62 ; [0,5 0,5] 52 [ 400 100 100 100 ] [ ]) 0,5 0,5 Por tanto, Pr(M > 70) = Pr ( M 57 175 > ) 70 57 175 Pr(Z > 0,98) = Pr(Z < 0,98) = 0,1635.

Recapitulación 32 Tema 9. Variables aleatorias multidimensionales Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. Extensión del concepto de variable aleatoria y su caracterización. Distribución normal multivariante. Extensión multivariante de la distribución normal