VECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios

Documentos relacionados
Momentos de Funciones de Vectores Aleatorios

Tema 4: Variables aleatorias multidimensionales

Distribuciones multivariadas

1 Tema 4: Variable Aleatoria Bidimensional y n-dimensional

Distribución conjunta de variables aleatorias

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias

Capítulo 6: Variable Aleatoria Bidimensional

Variables aleatorias

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Tema 4: Variables aleatorias multidimensionales

Variables aleatorias bidimensionales discretas

Probabilidad y Estadística

TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

Vectores aleatorios (distribuciones multivariantes)

Tema 4: Variable Aleatoria Bidimensional

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

Distribuciones de probabilidad bidimensionales o conjuntas

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

Probabilidad y Estadística

Tema 3 Normalidad multivariante

Introducción al Tema 9

Práctica 3 Esperanza Condicional

Experimento de lanzar 3 monedas al aire. Denominando por (C) a Cara y (X) a Cruz, el espacio muestral será: Ω={CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX}

Variables Aleatorias y Distribución de Probabilidades

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

TEMA 3 REGRESIÓN Y CORRELACIÓN

Estadística II Tema 1: Distribución normal multivariante

Procesos estocásticos

Probabilidad y Estadística

Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Matemática MA Probabilidades y Estadística

Material introductorio

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas


Conceptos Fundamentales. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas

Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad

Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B

Variables aleatorias múltiples

DISTRIBUCIONES DE PROBABILIDAD

Otras distribuciones multivariantes

Departamento de Matemática Aplicada a la I.T.T.

TEMA 3: Probabilidad. Modelos. Probabilidad

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Repaso de conceptos de álgebra lineal

Tema 3. VARIABLES ALEATORIAS.

CÁLCULO DE PROBABILIDADES

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2

REVISION DE CONCEPTOS BÁSICOS

CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Tema 5: Vectores aleatorios bidimensionales.

4. Modelos Multivariantes

Unidad 1: Espacio de Probabilidad

Tema 3: Funcio n de Variable Aleatoria

Ejercicio 1. Ejercicio 2

Variables aleatorias

Funciones de Variables Aleatorias. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Ruido en los sistemas de comunicaciones

Descriptiva y Probabilidad

Departamento de Matemática Aplicada a la I.T. de Telecomunicación

Variables aleatorias. Función de distribución y características asociadas

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso

Estadística Descriptiva y Probabilidad FORMULARIO

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

C L A S E N 5 I N S E M E S T R E O T O Ñ O,

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Variable aleatoria. Conceptos básicos. Carlos Gamero Burón José Luis Iranzo Acosta Departamento de Economía Aplicada Universidad de Málaga

Tema 3: Cálculo de Probabilidades Unidad 2: Variables Aleatorias

Vectores aleatorios. Estadística I curso

Prof. Eliana Guzmán U. Semestre A-2015

A. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones.

Regresión y Correlación

MÉTODOS ESTADÍSTICOS APLICADOS

Distribuciones de Probabilidad para Variables Aleatorias Discretas 1

Variables aleatorias

9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES

Álgebra Lineal Capítulo 11. Tópicos Especiales y Aplicaciones Producto tensorial de espacios vectoriales y matrices

Tema 1. Preliminares. 1.1 Resultados algebraicos

ESTADÍSTICA. Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5):

Departamento de Matemática Aplicada a la I.T.T.

Cálculo de Probabilidades II Preguntas Tema 1

Tema 2 Datos multivariantes

Universidad Técnica de Babahoyo CORRELACIÓN DE VARIABLES Y REGRESIÓN LINEAL

. Luego, para el período n + 1 los resultados estarán, en cualquier caso, en el conjunto {λ k n 0 } n+1. k= (n+1). Consideremos Y = λ U n

Variables aleatorias

1. Funciones Medibles

Tema 5. Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias

2 Modelos de probabilidad discretos sobre R

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

Tema 8 Ecuaciones diferenciales

Tablas de Probabilidades

Esperanza Matemática. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Concepto de VA bidimensional. Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL. Concepto de VA bidimensional. Concepto de VA bidimensional

VARIABLE ALEATORIA. Una variable aleatoria discreta es el modelo teórico de una variable estadística discreta (con valores sin agrupar).

Distribuciones de probabilidad multivariadas

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Transcripción:

VECTORES ALEATORIOS 1 Introducción En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa analizar varias características simultáneamente, como por ejemplo la velocidad de transmisión de un mensaje y la proporción de errores. De esta forma seremos capaces de estudiar no solo el comportamiento de cada variable por separado, sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo principal de este tema es elaborar un modelo matemático que permita analizar experimentos aleatorios en los que cada resultado experimental A tiene asociados p valores numéricos. Estos modelos serán la base para la construcción de los modelos inferenciales necesarios en este contexto para extrapolar los resultados de una muestra a la población. Vectores aleatorios El concepto de vector aleatorio nace como una generalización natural de la noción de variable aleatoria, al considerar simultáneamente el comportamiento aleatorio de varias características asociadas a un experimento. Definición.1 (Vector aleatorio.) Dado un un espacio probabilístico (E, A, P ) y el espacio probabilizable (R p, β) con β σ-álgebra de Borel en R p, se dice que una aplicación x = (x 1..., x p ) t x : E R p es un vector aleatorio si es medible, es decir x 1 (B) A B β, por tanto cada una de sus componentes x i, i = 1,... p es una variable aleatoria. Veamos algunos ejemplos sencillos de vectores aleatorios. El vector (x 1, x ) representa la temperatura máxima que puede alcanzar una resistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es más frecuente utilizar la notación (X,Y).) 1

VECTORES ALEATORIOS Los componentes del vector (x 1, x, x 3, x 4, x 5, x 6 ) t representan, respectivamente, la edad, peso, estatura, sexo, colesterol y triglicéridos de una persona. Definición. (Probabilidad inducida.) Dado un vector aleatorio x definido sobre (E, A, P ), se denomina probabilidad inducida por el vector a la aplicación P x : β R p definida por: P x (B) = P [x 1 (B)] B β (R p, β, P x ) es el espacio probabilístico inducido por x. La distribución de probabilidad inducida por un vector aleatorio se puede caracterizar mediante la función de distribución. Definición.3 (Función de distribución.) Dado el vector aleatorio x se denomina función de distribución asociada, a la función F : R p R definida por: F (a) = P [x 1 a 1,..., x p a p ] Las propiedades más importantes de las funciones de distribución son: 1. F (, a,..., a p ) = = F (,, a i,, ) =.. F (,..., ) = 1. 3. F es continua por la derecha respecto de cada variable. 4. F es no decreciente respecto a cada variable. 5. En el caso bidimensional dados h i > se verifica que P ((a 1 < x 1 a 1 + h 1 ) (a < x a + h )) = = F (a 1 + h 1, a + h ) F (a 1, a + h ) F (a 1 + h 1, a ) + F (a 1, a ) Mientras que en el caso p-dimensional se tendría la expresión: p F (a 1 +h 1,..., a p +h p ) F (a 1 +h 1,..., a i 1 +h i 1, a i, a i+1 +h i+1,..., a p +h p ) + p i,j=1,i j i=1 F (a 1 +h 1,..., a i 1 +h i 1, a i, a i+1 +h i+1,..., a j 1 +h j 1, a j, a j+1 +h j+1,..., a p +h p ) +..., +( 1) p F (a 1,..., a p ) Los vectores aleatorios se pueden clasificar teniendo en cuenta el tipo de las variables aleatorias que lo componen.

3 3 Vectores aleatorios discretos La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus componentes sean v. a. discretas. Definición 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio definido sobre (E, A, P ) y S = {a R p /P (a) > }, se dice que x es discreto si se cumple que: 1. S. El cardinal de S es a lo sumo infinito numerable. 3. a S P (a) = 1. 4. P [x B] = a B S P (a). Al conjunto S se le llama conjunto soporte del vector x. En este caso la función de distribución es discontinua y viene dada por la expresión: F (x) = a S x P (a) con S x = {a R p /a x}. 4 Vectores aleatorios continuos En los vectores aleatorios continuos cada componente es una v. a. de tipo continuo y análogamente al caso unidimensional para caracterizar su distribución es conveniente emplear la función de densidad. Definición 4.1 (Función de densidad) Una función f : R p R se dice que es función de densidad si verifica las condiciones: 1. f(x) x R p. R f(x) dx = p... f(x) dx = 1 Definición 4. (Vector aleatorio continuo) Un vector aleatorio x se dice que es continuo si su función de distribución se puede expresar como: F (x) = x1... xp f(y)dy x R p

4 5 DISTRIBUCIONES MARGINALES donde f es una función de densidad en R p. El conjunto S x = {a R p /f(a) > } se denomina conjunto soporte de x. Las propiedades más importantes de los vectores continuos son: 1. La función de distribución es continua.. En los puntos de continuidad de la función de densidad se cumple que: f(x) = p F (x) x 1... x p 3. S = {a R p /P x (a) > } =, es decir, P (a) = a R p 4. P [x B] = B f(x)dx 5 Distribuciones marginales Las componentes de los vectores aleatorios son v. a. y resulta en muchos casos de interés de estudiar el comportamiento de cada una de esas variables por separado o de grupos de las mismas. Para abordar este problemas se definen las distribuciones marginales. Definición 5.1 (Distribuciones marginales) Sea x un vector aleatorio con función de distribución F(x), entonces cada una de sus componentes, x i son variables aleatorias unidimensionales con las siguientes funciones de distribución marginal para la componente x i F i (x i ) = F (+, +, x i, +, + ) También se puede hablar de distribuciones marginales de un subvector, así si x = (x 1, x )se define la función de distribución marginal de x 1 como F 1 (x 1 ) = F (x 1, +, + ) Si el vector es continuo se tiene las función de densidad marginal de la componente x i, f i (x i ) = R p 1 f(a 1,... a i 1, x i, a i+1,... a n )da 1... da i 1 da i+1,... da n Mientras que si x es discreto las expresiones para las distribución de probabilidad marginal de la componente x i son: P i (x i ) = P (y) y S,y i =x i Análogamente se tendrían las distribuciones de los subvectores.

5 6 Distribuciones condicionadas En muchos problemas reales puede interesa estudiar el comportamiento de una variable teniendo cierta información complementaria sobre el experimento. Por ejemplo sea (X, Y) un vector aleatorio cuyas componentes representan, respectivamente, las intensidades de las señales enviadas y recibidas a través de un canal de información. Un aspecto fundamental es este tipo de problemas es conocer el comportamiento de la señal recibida Y condicionada a que se ha enviado una señal (X=x), es decir, analizar la distribución de (Y / X=x). Otro problema muy interesante es el complementario del anterior, o sea, estudiar la señal que se envió cuando se conoce la señal recibida (X/ Y=y). Cuando el suceso que condiciona tiene una probabilidad estrictamente positiva el problema se reduce a utilizar la probabilidad condicionada para calcular la distribución de (x /x 1 = a). F x /x 1 =a(b) = P (x 1 = a, x b) P (x 1 = a) En el caso que esta función sea absolutamente continua se puede considerar la función de densidad condicionada de (x /x 1 = a) que será f x /x 1 =a(b) = p (F x /x 1 =a(x )) x en los puntos de continuidad de la función de distribución Sin embargo cuando el vector x 1 es de tipo continuo, el suceso (x 1 = a) tiene siempre una probabilidad igual a cero, y no se puede emplear el método anterior. En este caso se define la función de densidad condicionada. b Definición 6.1 (Función de densidad condicionada) Dado el vector aleatorio ( x 1, x ) la función de densidad de x condicionada a (x 1 = a), se define como una función no negativa f x /x 1 =a, que satisface: F x /x 1 =a(b) = {t R p /t b} f x /x 1 =a(t) dt x R p El siguiente resultado nos permite calcular la función de densidad condicionada en el caso de trabajar con vectores aleatorios continuos. Proposición 6.1 Dado un vector aleatorio ( x 1, x ) cuya función de densidad es f( x 1, x ) se verifica que en todo punto de continuidad de f en el que f x (b) >,

6 7 MOMENTOS la función de densidad de (x 1 /x = b) existe y vale: f x1 /x =b(a) = f(a, b) f x (b) Definición 6. (Independencia de vectores aleatorios) Dado el vector aleatorio x=(x 1, x ) se dice que x 1 y x son independientes cuando se verifica que: F x (a, b) = F x1 (a) F x (b) (a, b) R p Si trabajamos con la función de densidad esta condición es equivalente a: f x (a, b) = f x1 (a) f x (b) (a, b) R p Cuando las variables son discretas la independencia equivales a: P x (a, b) = P x1 (a) P x (b) (a, b) R p Una propiedad muy interesante es que si x 1 y x son independientes entonces nuevas variables aleatorias g(x 1 ) y h( x ), obtenidas como transformaciones de las anteriores, también los son. También es interesante hacer notar que si dos vectores x 1 y x son independientes no quiere decir que las componentes de x 1 lo sean. Es decir en el caso multidimensional pueden aparecer muchos tipos de independencia como la independencia condicional Definición 6.3 (Independencia condicional ) Dado el vector aleatorio x=(x 1, x, x 3 ) se dice que x 1 y x son condicionalmente independientes dado x 3 cuando se verifica que x 1 /x 3 y x /x 3 son independientes. 7 Momentos En este apartado se da la definición de momento para poder describir de manera resumida el comportamiento de los vectores aleatorios. Definición 7.1 (Momentos respecto al origen) Dado una vector aleatorio p-dimensional continuo x se denomina momento respecto al origen de orden (r 1,..., r p ), si existe, al valor dado por la expresión: a r1,...,r p (x) = E(x r 1 1... xr p p ) = donde f(x) es la función de densidad. Análogamente se definiría para el caso discreto. x r 1 1... xr p p f(x)dx R p

7 Los momentos respecto al origen más importantes son los orden uno que permiten definir el vector esperanza del vector aleatorio. Definición 7. (Vector esperanza) Dado un vector aleatorio p-dimensional x se denomina vector esperanza, E(x), al vector µ de componentes (µ 1,..., µ p ) t definidas por :. µ i = Es inmediato comprobar que: x f xi (x) dx µ i = E(x i ) = a...,,1i,,...,(x) Cuando se trabaja con una función g(x) la esperanza de la nueva variable aleatoria se puede calcular mediante la expresión: E[g(x)] = R p g(x) f(x) dx Entre las propiedades más importantes del vector esperanza, si existe, se encuentran: 1 Linealidad para transformaciones y=ax+b, siendo A una matriz (n,p): E[ y]=a E[x]+b. E[g 1 (x 1 )] = R p g 1 (x 1 ) f(x)dx = R p 1 g 1(x 1 ) f 1 (x 1 )dx 1. 3 Linealidad E[a 1 g 1 (x) + a g (x)] = a 1 E[g 1 (x)] + a E[g (x)], siendo a i R Otros momentos muy importantes son los centrados respecto al vector de medias. La expresiones que aparecen a continuación se refieren al caso continuo, ya que el caso discreto se desarrolla de manera análoga a la realizada hasta este momento. Definición 7.3 (Momentos centrados) Dado una vector aleatorio p-dimensional continuo x se denomina momento centrado de orden (r 1,..., r p ), si existe, al valor dado por la expresión: m r1,...,r p (x) = (x 1 µ 1 ) r 1... (x p µ p ) rp f(x)dx R p donde f(x) es la función de densidad.

8 7 MOMENTOS Los momentos centrados de orden dos para una de las componentes r i =, cero para el resto, r j = si j i), dan lugar a las varianzas de cada componente x i, que se va a denotar por σ ii. V ar(x i ) = σ ii = E(x i µ i ) = m...,,i,,...,(x) El momento centrado de orden (...,, 1 i,,...,, 1 j,,..., ) se denomina covarianza entre la componentes x i, x j, y se va a denotar por σ ij, tiene una gran importancia porque nos permite estudiar si las componentes están relacionadas linealmente. Definición 7.4 (Matriz de Varianzas-Covarianzas) Dado un vector aleatorio x se define su matriz de varianzas-covarianzas, si existe, como: σ 11... σ 1p Σ = E[(x µ) (x µ) t ] =..... σ p1... σ pp Entre sus propiedades destacan: Las matrices de varianzas-covarianzas son siempre matrices simétricas y semidefinidas positivas Σ = E[x x t ] µ µ t Var (a t x)=a t Σa Var(Ax+b)= A Σ A t También se pueden definir matrices de varianzas-covarianzas entre dos vectores aleatorios definidos sobre el mismo espacio probabilístico, Definición 7.5 Dado un vector aleatorio p-dimensional, x, y otro q-dimensional, y, se define su matriz de varianzas-covarianzas, si existe, como: σ x1,y 1... σ x1,y q Cov(x, y) = E[(x µ x ) (y µ y ) t ] =..... σ xp,y1... σ xp,yq Entre sus propiedades destacan: Σ=Cov(x,x)

9 Cov(x,y)= (Cov(y,x)) t Cov(Ax,By)= A Cov(x,y) B t Cov(x 1 +x,y)= Cov(x 1,y) + Cov(x,y) Si los vectores tienen la misma dimensión Var(x+y)=Σ x+y = Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y) Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)=, pero el recíproco no tiene porque ser cierto. Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X, Y) en el que existen los momentos centrados de orden dos, se verifica que: E [X Y ] E(X ) E(Y ) además la igualdad se alcanza si y solo si existen dos números reales α y β, con al menos uno de ellos distinto de cero, tales que P [α X + β Y = ] = 1. Definición 7.6 (Coeficiente de correlación de Pearson) Dadas dos componentes x i, x j de un vector aleatorio x se denomina coeficiente de correlación de Pearson entre esas componentes, ρ ij a la expresión: ρ ij = σ ij σii σ jj son: Las propiedades más importantes del Coeficiente de correlación de Pearson 1. 1 ρ ij 1.. ρ ij alcanza los extremos si y solo si x j es una función lineal de x i, o al reves. 3. Si ρ ij =, se dice que x i e x j son linealmente independientes, pero en general la independencia lineal no implica la independencia estadística. 4. Si x i e x j son independientes entonces son linealmente independientes. Definición 7.7 (Matriz de correlación de Pearson) Dado un vector aleatorio x se denomina matriz de correlación entre sus componentes a:

1 7 MOMENTOS 1... ρ 1p R =..... ρ p1... 1 Ejemplo 1.(Continuación) La correlación de Pearson entre X e Y es: ρ = Cov(X, Y ) σ X σ Y = 1 11 por lo tanto tienen una relación lineal muy pequeña. Ejemplo. Sea X una v. a. con distribución U(-1, 1), y definimos la variable Y=X. Comprobar que X e Y son linealmente independientes pero no son independientes. E(X) = 1 x 1 dx =. E(X.Y) = E(X. X ) = E(X 3 ) = 1 1 x3 dx =. Cov(X, Y) = E(X.Y) - E(X) E(Y) = ρ = por lo tanto X e Y son linealmente independientes pero no independientes puesto que Y = X. Definición 7.8 (Función generatriz de momentos) Dado un vector aleatorio x p-dimensional la función generatriz de momentos,si existe, se define como: g x (t) = E(e tt x ) = e tt x f(x) dx Entre las propiedades más interesantes de la función generatriz de momentos están las siguientes: 1. g()=1. g cuando existe caracteriza la distribución. 3. Los vectores aleatorias x,y son independientes si y solo si la función generatriz de momentos conjunta es igual al producto de las funciones generatrices de las marginales. R p g x,y (t 1, t ) = g x (t 1 ) g y (t ) (t 1, t ) entorno de R p+q 4. Si x,y son vectores aleatorios independientes entonces la función generatriz de x+y verifica: g x+y (t) = g x (t) g y (t)

11 Definición 7.9 (Función característica ) Dado un vector aleatorio x p-dimensional la función característica se define como: φ x (t) = E(e itt x ) = e itt x f(x) dx R p Esta función existe siempre y caracteriza totalmente la distribución del vector aleatorio x. Presenta unas propiedades análogas a la función generatriz de momentos. Relacionada con la función característica tienen gran importancia el siguiente Teorema Teorema 7. (Teorema de Cramer- Wald) La distribución de un vector aleatorio p-dimansional x está completamente determinada por el conocimiento del comportamiento de todas las variables unidimensionales que se puedan formar como combinación lineal de sus componentes. 8 Momentos Condicionados Estos momentos juegan un papel importante en el manejo de las distribuciones multivariantes, sobre todo cuando se imponen condiciones a algunas de sus componentes. Definición 8.1 (Esperanza condicionada ) Dado un vector aleatorio x p-dimensional del que se consideran la partición (x 1, x ) se define la esperanza del vector x 1 condicionada por el valor x de la segunda componente como E[x 1 /x ] = x 1 f x1 /x (x 1 )dx 1 R p 1 En general esta expresión será una función del valor de x. Obsérvese que se hace un abuso de notación cuando x 1 tienen dimensión mayor que 1, ya que en este caso habría que tener un vector esperanza, cuyas componentes son las integrales de las correspondientes componentes de x 1. Por otro lado si considero x un vector aleatorio entonces la esperanza condicionada también será un vector aleatorio. Por tanto podrá hablarse de su esperanza, que verifica el siguiente resultado, si todas las esperanzas existen E[x 1 ] = E[E[x 1 /x ]]

1 9 FUNCIÓN DE UN VECTOR ALEATORIO La curva o superficie que a cada valor de x le hace corresponder E[x 1 /x ] se llama la curva o superficie general de regresión de x 1 sobre x. En el caso de que esta superficie sea lineal se tiene la regresión lineal. Definición 8. (Varianza condicionada ) Dado un vector aleatorio x p-dimensional del que se consideran la partición (x 1, x ) se define la varianza del vector x 1 condicionada por el valor x como V [x 1 /x ] = V 1 como la matriz de varianzas respecto a la distribución condicionada (x 1 /x ) En el caso bidimensional (x 1, x ) se verifica que E(x i ) = E[E(x i /x j )] V ar(x i ) = E[V ar(x i /x j )] + V ar[e(x i /x j )] 9 Función de un vector aleatorio En este apartado estudiaremos algunos métodos que nos permiten calcular la distribución de probabilidad de funciones de un vector aleatorio. El método más general consiste en obtener directamente la función de distribución del nuevo vector aleatorio. Dado y = g(x), entonces F y (y) = P (y y) = P [ x R p / g(x) y] Veamos algunos ejemplos sencillos en los que g es una función de R en R, es decir Z es una variable aleatoria. Ejemplo Sea (X, Y)un vector aleatorio continuo cuya función de densidad vale: { 1 si < x < 1 ; < y < 1 f(x, y) = en el resto Calcular la distribución de la variable Z = Y X. El conjunto soporte de Z es S Z = (, ). P (Z z) = P ( Y X z) = P (Y z X) Cuando < z < 1 la función de distribución vale: F (z) = zx f(x, y) dx dy = zx dx dy = z

13 Cuando z > 1 la función de distribución vale: F (z) = /z zx dx dy + 1/z dx dy = 1 z + (1 1 z ) = 1 1 z Por lo tanto la función de distribución es: si z z F (z) = si < z 1 1 1 si z > 1 z, Cuando la función g verifique ciertas condiciones de regularidad es posible calcular directamente la función de densidad del vector aleatorio transformado. Proposición 9.1 Dado un vector aleatorio continuo x con función de densidad f(x), sea z=g(x) una transformación que verifica en el conjunto soporte S x las siguientes condiciones : 1. La función g:r p R p es biyectiva,salvo un conjunto de Lebesgue de medida nula. es decir existen las transformaciones z i = g i (x), i = 1,... p x i = h i (z), i = 1,... p. Todas las transformaciones son continuas. 3. Existen y son continuas las derivadas parciales x z, J = z x (x) (z) es distinto de cero en el recorrido de la transformación. Entonces se cumple que { f x [h(z)] J si z S z f z (z) = en el resto

14 1 EJEMPLOS Corolario 9.1 Si el conjunto soporte S se puede expresar como una unión finita de conjuntos disjuntos S i i = 1... n, en cada uno de los cuales la función g es biyectiva y verifica las condiciones del teorema anterior, con inversas: h Si y Jacobianos: J i entonces n f x [h Si (z)] J i si z S z f z (z) = i=1 en el resto Las trasformaciones lineales y=ax+b donde A es una matriz no singular, es decir, det(a), son transformaciones biyectivas, su inversa es x = A 1 (y b) t y el jacobiano de la transformación inversa vale J=det(A 1 ). Aplicando el teorema anterior la función de densidad de y es: f y (y) = f x [A 1 (y-b) t ] det(a 1 ) 1 Ejemplos Ejemplo 1. Calcula el valor de c para que f(x, y) sea función de densidad. { c (x + y) si < x < 1 ; < y < 1 f(x, y) = en el resto 1. La función f(x, y). Tomando c> se verifica la primera condición.. f(x, y) dx dy = 1. f(x, y) dx dy = c (x + y)dx dy = c ( 1 + y) dy = c Por lo tanto el valor que buscamos es c=1. Calcula la probabilidad de que P[ X,5 ; Y,75]. P [ X, 5 ; Y, 75] =,5,75 f(x, y) dy dx

15 =,5,75 (x + y) dy dx =,5 ( 3x 4 + 9 3 Calcula las distribuciones marginales de X e Y. ) dx = 15 64 1. La marginal de la variable X es: f 1 (x) = f(x, y) dy = (x + y) dy = x + 1 si < x < 1 en el resto. La marginal de la variable Y es: f (y) = f(x, y) dx = (x + y) dx = y + 1 si < y < 1 en el resto Calcula las distribuciones condicionadas de (Y/X=x), (X/Y=y), E(Y/X=x) y E(X/Y=y). 1. Como la marginal f 1 (x) = x + 1 la función de densidad de (Y/X=x) será: f(x, y) (x + y) si < y < 1 f Y/X (y/x) = = x + 1 f 1 (x) en el resto E(Y/X = x) = y f Y/X (y/x) dy = y (x + y) x + 1 dy = 3x + 6x + 3. Como la marginal f (y) = y + 1 la función de densidad de (X/Y=y) será: f(x, y) (x + y) si < x < 1 f X/Y (x/y) = = y + 1 f (y) en el resto E(X/Y = y) = y f X/Y (x/y) dx = x (x + y) y + 1 dx = 3y + 6y + 3 Estudia la independencia de X e Y. La densidad conjunta es: { (x + y) si < x < 1 ; < y < 1 f(x, y) = en el resto

16 1 EJEMPLOS y las densidades marginales son: x + 1 si < x < 1 f 1 (x) = en el resto y + 1 si < y < 1 f (y) = en el resto Y). Entonces f(x, y) f 1 (x) f (y) y por lo tanto X e Y no son independientes. Calcula el vector de medias y la matriz de varianzas covarianzas de (X, 1. En primer lugar vamos a obtener el vector de medias. E(X) = E(Y ) = x f 1 (x) dx = y f (y) dy = x (x + 1 ) dx = 7 1 y (y + 1 ) dy = 7 1. Para calcular la matriz de varianzas-covarianzas necesitamos obtener las varianzas y la covarianza. E(X ) = y la varianza de X es x f 1 (x) dx = x (x + 1 ) dx = 5 1 V ar(x) = E(X ) E (X) = 11 144 E(Y ) = y la varianza de Y es y f (y) dx = y (y + 1 ) dy = 5 1 V ar(y ) = E(Y ) E (Y ) = 11 144 Para obtener la covarianza calculamos primero el momento de orden (1, 1) E(X Y ) = x y f(x, y) dy dx = x y (x + y) dy dx

17 = ( x + x 3 ) dx = 1 3 Cov(X, Y ) = E(X Y ) E(X) E(Y ) = 1 144 La matriz de varianzas-covarianzas es : ( Σ = 1 144 11 1 1 11 ) La correlación de Pearson entre X e Y es: ρ = Cov(X, Y ) σ X σ Y = 1 11 por lo tanto tienen una relación lineal muy pequeña. Ejemplo. Comprueba que f(x, y) es función de densidad. 3 si < x 1 ; < y < x 4 f(x, y) = 3 si 1 < x < ; < y < x en el resto 1. La primera condición f(x, y) se comprueba de forma inmediata.. f(x, y) dx dy = 1. f(x, y) dx dy = x dy dx + 3 x 1 4 dy dx 3 = x 3 dx + 4( x) dx = 1 1 3 3 + 3 = 1 Calcula la probabilidad de que P[ X 1,5 ; Y,5]. P [ X 1, 5 ; Y, 5] =,5,5 f(x, y) dy dx =,5 x 1,5 dy dx + dy dx + 3,5 3 = 1 1 + 1 + 4 1 = 7 1 Calcula las distribuciones marginales de X e Y.,5,5 1 4 dy dx 3

18 1 EJEMPLOS 1. La marginal de la variable X es: f 1 (x) = f(x, y) dy = x x 3 dy = x si < x 1 3 4 4( x) 3 dy = si 1 < x < 3 en el resto. La marginal de la variable Y es: { f (y) = y 3 dx + y 4 1 3 dx = (1 y) si < y < 1 en el resto Calcular las distribuciones condicionadas de (X/Y=y) e (Y/X=x). 1. Teniendo en cuenta la expresión de f (y), la densidad de (X/Y=y) es: /3 f(x, y) (1 y) = 1 si < x 1 3(1 y) f X/Y (x/y) = 4/3 f (y) (1 y) = si 1 < x < 3(1 y) en el resto cuando el valor de y, que condiciona, pertenezca al intervalo (, 1).. Para calcular la densidad de (Y/X=x)hemos de tener en cuenta que f 1 (x), cambia de expresión dependiendo del valor de x. Para < x 1 se tiene: f Y/X (y/x) = Para 1 < x < se tiene: f Y/X (y/x) = f(x, y) f 1 (x) f(x, y) f 1 (x) /3 x/3 = 1 si < y < x x en el resto 4/3 4( x)/3 = 1 si < y < x x en el resto Y). Calcula el vector de medias y la matriz de varianzas covarianzas de (X, 1. El vector de medias de (X, Y) es E(X) = x f 1 (x) dx = x x 3 dx + x 1 4( x) 3 dx = 1 9 E(Y ) = y f (y) dy = y (1 y) dy = 1 3

19. E(X ) = x f 1 (x) dx = x x 3 dx + 1 4( x) x dx = 5 3 18 La varianza de X es V ar(x) = E(X ) [E(X)] = 5 16 E(Y ) = La varianza de Y es y f (y) dy = y (1 y) dy = 1 6 El momento de orden (1, 1) E(X Y ) = V ar(y ) = E(Y ) [E(Y )] = 1 18 x y f(x, y) dy dx = x x y 3 dy dx + 1 x Cov(X, Y ) = E(X Y ) E(X) E(Y ) = 13 36 1 9 1 3 = 1 18 La matriz de varianzas-covarianzas es : Σ = ( 5 16 1 18 Ejemplo 3. Sea (X, Y) un vector aleatorio discreto con la siguiente distribución de probabilidad 1 18 1 18 X\Y 1 3 3 1 1 8 8 8 1 1 8 8 Calcular las distribuciones marginales de X e Y. 1. La v. a. marginal X toma los valores 1, y sus probabilidades son: ) x y 4 3 dy dx = 13 36 P 1 (X = 1) = P ( 1 X = ) = 3 P (1, y) = + 3 8 + 8 + 1 8 = 3 4 y= 3 P (, y) = 1 8 + + + 1 8 = 1 4 y=

1 EJEMPLOS. La v. a. marginal Y toma los valores,1,, 3 con probabilidades: P (Y = ) = P (x, ) = + 1 8 = 1 8 x=1 P (Y = 1) = P (Y = ) = P (Y = 3) = P (x, 1) = 3 8 + = 3 8 x=1 P (x, ) = 8 + = 8 x=1 P (x, 3) = 1 8 + 1 8 = 8 Ejemplo 4. Sea (X, Y) un vector aleatorio continuo cuya función de densidad vale: { si < x y < 1 f(x, y) = en el resto x=1 Calcular las distribuciones marginales de X e Y. 1. La v. a. marginal X tiene como conjunto soporte S X =(, 1) y su función de densidad es: { f 1 (x) = f(x, y) dy = x dy = x si < x < 1 en el resto. La v. a. marginal Y tiene el mismo conjunto soporte S Y =(, 1) y su función de densidad es: { y f (y) = f(x, y) dx = dx = y si < y < 1 en el resto Calcular las distribuciones condicionadas de (Y/X=x) y (X/Y=y). 1. La función de densidad de (Y/X=x) será: f Y/X (y/x) = f(x, y) f(x) = y = 1 y si < x y < 1. La función de densidad de (X/Y=y) será: f X/Y (x/y) = f(x, y) f(y) = x = 1 1 x si < x y < 1

1 Ejemplo 5. Sea (X, Y) un vector aleatorio cuya función de densidad es: { 1 si < x < 1 ; < y < 1 f(x, y) = en el resto Estudia si la independencia de X e Y. (x, y) R entonces X e Y son independientes. Calcularemos en primer lugar las distribuciones marginales de X e Y. f 1 (x) = f (y) = Como f(x, y) = f 1 (x)f (y) { { 1 si < x < 1 en el resto 1 si < y < 1 en el resto Ejemplo 6. Sea (X, Y) un vector aleatorio continuo cuya función de densidad vale: f(x, y) = { x si < x < 1 ; < y < 1 en el resto Calcular la distribución de la variable (U, V)=(X+Y, X-Y). Las funciones g y h están definidas de la siguiente formas: u = g 1 (x, y) = x + y v = g (x, y) = x y x = h 1 (u, v) = u + v y = h (u, v) = u v El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y) y la transformación realizada. Como u=x+y, es evidente que < u < ; por otra parte tenemos < x < 1 < u + v < 1 < u + v < u < v < u < y < 1 < u v < 1 < u + v < u < v < u es decir, < u < ; Max(u, u) < v < min(u, u)

1 EJEMPLOS Si u (, 1] = Max(u-, -u)=-u ; min(u, -u)=u. Si u (1, ) = Max(u-, -u)=u- ; min(u, -u)=-u. Por lo tanto S U V = {(u, v) R / < u < 1 u < v < u 1 < u < u < v < u} d(x, y) El jacobiano de la transformación inversa vale J = d(u, v) = 1 y la función de densidad de (U, V) se calcula a partir de la expresión es decir, f(u, v) = f[ u + v, u v ] J u + v si < u 1 ; u < v < u f(u, v) = u + v si 1 < u < ; u < v < u en el resto El vector aleatorio (U, V) del ejemplo anterior con U=X+Y, V=X-Y, es un caso particular de las transformaciones del tipo U = a 11 X + a 1 Y ; V = a 1 X + a Y que se pueden representar en forma matricial como. (U, V ) t = A (X, Y ) t