Distribuciones de probabilidad multivariadas

Documentos relacionados
5. Distribuciones de probabilidad multivariadas

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

Tema 4: Variable Aleatoria Bidimensional

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Secuencias Aleatorias

Momentos de Funciones de Vectores Aleatorios

Tema 12: Distribuciones de probabilidad

Unidad Temática 3: Probabilidad y Variables Aleatorias

ENUNCIADO y SOLUCIONES. Problema 1

TEMA 3.- VECTORES ALEATORIOS.- CURSO

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Estadística Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Probabilidad y Estadística

INSTITUTO DE FÍSICA FACULTAD DE INGENIERÍA FÍSICA ESTADÍSTICA

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74

Repaso de Teoría de la Probabilidad

Tema 2: Variables Aleatorias Unidimensionales

Distribución de probabilidad

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

Notas de clase. Prof. Nora Arnesi

Distribuciones Continuas

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Material introductorio

Ruido en los sistemas de comunicaciones

10.1 Enfoque Bayesiano del problema de la estimación

Estadística I Tema 5: Modelos probabiĺısticos

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

METODOS ESTADÍSTICOS

Procesos estocásticos

Cálculo estocástico: una introducción

TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES

Movimiento Browniano o proceso de Wiener

2.3. Análisis bayesiano para datos normales

Modelos de distribuciones discretas y continuas

Estadística I Tema 5: Introducción a la inferencia estadística

Tema 13: Distribuciones de probabilidad. Estadística

Distribuciones Fundamentales de Muestreo. UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides

Variables aleatorias continuas y Teorema Central del Limite

TEMA 3 REGRESIÓN Y CORRELACIÓN

Distribuciones multivariadas

2 Modelos de probabilidad discretos sobre R

7. Forma de Lagrange para el polinomio interpolador. 9. Forma de Newton para el polinomio interpolador

Estadística Clase 4. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Distribuciones de probabilidad bidimensionales o conjuntas

Cálculo de Probabilidades II Preguntas Tema 2

Tema 6: Introducción a la Inferencia Bayesiana

DISTRIBUCIONES CONTINUAS INFERENCIA ESTADISTICA LIC. MIGUEL CANO.

Tema 3: Funcio n de Variable Aleatoria

Tema 2: VARIABLE ALEATORIA UNIDIMENSIONAL

Introducción al Diseño de Experimentos.

TEMA 7. Estimación. Alicia Nieto Reyes BIOESTADÍSTICA. Alicia Nieto Reyes (BIOESTADÍSTICA) TEMA 7. Estimación 1 / 13

Práctica 11 Probabilidades

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Variables aleatorias

Guía: Distribuciones de Probabilidad Clásicas y Cuánticas para la Posición

Variables aleatorias continuas

Variables Aleatorias y Distribución de Probabilidades

Ejercicios de Procesos Estocásticos

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Folleto de Estadísticas. Teoría del 2do Parcial

Teóricas de Análisis Matemático (28) - Práctica 8 - Polinomio de Taylor

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

2. VARIABLE ALEATORIA. Estadística I Dr. Francisco Rabadán Pérez

2.3 El método de matriz de transferencia: modelo de Ising en d = 1

PROCESOS ESTOCÁSTICOS II Ejercicios - Semestre 2009-I

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Conceptos de Probabilidad y estadística. Jhon Jairo Padilla A., PhD

Integral de Fourier y espectros continuos

Procesos estocásticos

Distribución Gaussiana Multivariable

Ecuaciones Diferenciales Ordinarias Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Matemática Semestre de Otoño, 2012

Teorema de la Función Implícita

Cálculo de Probabilidades II Preguntas Tema 1

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales

Transcripción:

Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable binomial número de total de éxitos y X 2 el número de éxitos en las k primeras pruebas. Si las variables aleatorias X 1, X 2,..., X n están definidas sobre el mismo espacio muestral S se dice que están conjuntamente distribuidas. 3.1. Distribución de probabilidad conjunta La función de distribución conjunta para las variables aleatorias X 1, X 2,..., X n se define como F X1,...,X n x 1,..., x n Prob {X 1 < x 1,..., X n < x n } 3.1 donde {X 1 < x 1,..., X n < x n } = {X 1 < x 1 } {X 1 < x 2 }... {X n < x n }. En otras palabras, F X1,...,X n x 1,..., x n es la probabilidad de que las variables aleatorias X i tomen simultaneamente valores en los intervalos { < X i < x i } con i = 1,..., n. La densidad de probabilidad conjunta f X1,...,X n x 1,..., x n se define entonces como de tal manera que f X1,...,X n x 1,..., x n = n F X1,...,X n x 1,..., x n x 1... x n 3.2 x1 xn F X1,...,X n x 1,..., x n = dx 1... dx n f X1,...,X n x 1,..., x n 3.3 Consideremos por simplicidad de aqui en mas solo dos variables aleatorias X e Y, con funciones de distribución y densidad F X,Y x, y y f X,Y x, y respectivamente. La función de distribución satisface F X,Y, y = F X,Y x, = F X,Y, = 0 y F X,Y, = 1. Ademas: F X,Y x 2, y F X,Y x 1, y = Prob {x 1 < X 1 < x 2 ; Y < y} La densidad de probabilidad f X,Y x, y satisface las condiciones f X,Y x, y 0 y dx dy f X,Y x, y = 1 3.4 Dadas dos variables X e Y distribuidas conjuntamente, la función de distribución reducida o marginal F X x para la variable X viene dada por F X x = F X,Y x, = x 29 dx dy f X,Y x, y 3.5

30 Y de la misma manera, la densidad de probabilidad marginal f X x para la variable X se define como f X x = dy f X,Y x, y 3.6 Las funciones de distribución y marginal para la variable Y se obtienen de manera semejante. El momento n-ésimo de la variable X se define como x n = dx dy x n f X,Y x, y = Los momentos conjuntos para las variables X e Y se definen como x n y m = x n f X x dx dx dy x n y m f X,Y x, y 3.7 El momento conjunto mas comunmente utilizado en física es la covariancia CovX, Y = x x y y = xy x y 3.8 que nos da una medida de la correlación entre fluctuaciones de ambas variables. Altermativamente, suele usarse la función de correlación también llamada coeficiente de Pearson: CorX, Y = CovX, Y σ X σ Y 3.9 la cual es adimensional. La función de correlación satisface las siguientes propiedades facilmente demostrables: CorX, Y = CorY, X 1 CorX, Y 1 CorX, X = 1, CorX, X = 1 CoraX + b, cy + d = CorX, Y si a, c 0 Dos variables aleatorias X e Y son independientes si f X,Y x, y = f X x f Y y x, y Si X e Y son independientes se satisfacen las siguientes propiedades x m y n = x m y n CorX, Y = 0 V X + Y = V X + V Y Esta última propiedad se generaliza directamente al caso de n variables X 1,..., X n todas independientes entre sí: n n V X i = V X i 3.10 i=1 i=1 Al tratar con muchas variables aleatorias, a menudo necesitamos encontrar la densidad de probabilidad de una nueva variable que es función de las anteriores. Por ejemplo, supongamos que conocemos la densidad conjunta f X,Y x, y y queremos obtener la densidad de probabilidad de la

31 variable Z = GX, Y, donde G es una función conocida de dos variables. En una generalización de la Ec.2.20, tenemos que f Z Z = dx dy δ z Gx, y f X,Y x, y 3.11 esta expresión se generaliza facilmente al caso de n variables. Tomemos un ejemplo. Sean X e Y dos variables aleatorias independientes, con distribuciones gaussianas de media nula y variancia unitaria, esto es f X x = f Y y = 1 2π e x2 /2 1 2π e y2 /2 Supongamos que queremos conocer la densidad conjunta de las variables Tenemos que V = X + Y W = X Y 3.12 f V,W v, w = 1 dx dy δ v v x, y δ w w x, y e x2 +y 2 /2 2π donde v x, y = x + y y w x, y = x y. Cambiando las variables de integración a v, w : f V,W v, w = 1 dv dw x y J 2π v w donde hemos usado que x 2 + y 2 = w 2 + v 2 /2 y J x y v w es el Jacobiano de la transformación 3.12. Así, δ v v δ w w e w 2 +y 2 /4 = 1 2 f V,W v, w = 1 4π e w2 +v 2 /4 Dado que f V,W v, w es factorizable, las variables V y W son independientes. De la Ec.3.11 la función característica para una variable Z = GX, Y resulta f Z k = 3.2. Distribuciones binomiales 3.2.1. Derivación mediante la función característica dx dy e ikgx,y f X,Y x, y 3.13 Resulta instructivo derivar nuevamente la distribución binomial a partir de los conceptos que hemos visto en esta sección. En un experimento binomial podemos describir el resultado de cada prueba individual mediante una variable aleatoria X i, donde el índice i corresponde al número de la

32 prueba. La variable X i puede tomar los valores x = 1 con probabilidad p y x = 0 con probabilidad 1 p. La densidad de probabilidad para esta variable es y su función característica resulta f Xi x = p δx 1 + 1 p δx 3.14 f Xi k = 1 p + p e ik 3.15 Dado que todas las pruebas son independientes, la densidad de probabilidad conjunta para las variables correspondientes a las n pruebas es f X1,...,X n x 1,..., x n = f X1 x 1 f Xn x n La variable binomial número de éxitos en las n pruebas puede expresarse como Y n = n i=1 X i. De la Ec.3.13, la función característica para la variable Y n resulta f Yn k = dx 1 dx n e ikx 1+ +x n f X1 x 1 f Xn x n = f X1 k f Xn k = q + p e ik n 3.16 donde q = 1 p. Expandiendo el binomio tenemos f Yn k = n l=0 n l de donde la densidad de probabilidad para la variable Y n resulta f Yn y = 1 dk e iky fyn k = 2π que es equivalente a la expressión 2.5. 3.2.2. Límite n p l q n l e ikl 3.17 n l=0 n l p l q n l δy l 3.18 En muchas aplicaciones vamos a trabajar con distribuciones binomiales con n muy grande. Queremos entonces obtener el comportamiento asintótico de la distribución binomial cuando n. Tanto el valor medio cono la variancia divergen en este caso. Así, resulta práctico trabajar con la variable aleatoria normalizada Z n = Y n y n σ Yn La densidad de probabilidad para la variable Z n es f Zn z = dy δ z y pn f Yn y pq n y la función característica f Zn k = dz e ikz f Zn z = = Y n pn pq n 3.19 = e ik pn/q fyn k pq n = dy exp ik y pn pq n f Yn y q e ik p/qn + p e ik q/pn n 3.20

33 donde hemos usado la Ec.3.16 y que q = 1 p. A continuación desarrollamos la cantidad entre paréntesis en potencias de k. Es facil ver que los dos primeros términos no nulos son 1 k 2 /2n. Así, podemos expresar donde R n = 2 f Zn k = m=3 n 1 k2 2n 1 + R n 3.21 1 ik m 2 pq m + q p m m! n pq m/2 Para n tenemos que R n 0. Sea Z = lím n Z n. Entonces Así, en el límite n obtenemos f Z k lím f Zn k = lím n n n 1 k2 = e k2 /2 2n 3.22 f Z z = 1 dk e ikz e k2 /2 = 1 e z2 /2 2π 2π 3.23 La variable Z tiene una distribución gaussiana con media nula y variancia σ Z = 1. Para el caso n 1, pero finito, aún podemos aproximar f Zn z 1 2π exp z 2 /2. Transformando nuevamente a la variable y = σ Y z + y tenemos finalmente f Yn y 3.2.3. Caminata aleatoria dz δ y σ Y z + y f Z z = 1 y y 2 exp σ Y 2π 2σY 2 3.24 El problema de la caminata aleatoria es un ejemplo de un problema binomial en física. Este es un modelo simplificado para el movimiento Browniano, esto es, el movimiento de una partícula bajo la acción de fuerzas aleatorias sin correlación entre sí y constituye la explicación mas básica del fenómeno de difusión. Veremos el caso mas simple de una caminata unidimensional. Consideremos el caso de una partícula restringida a moverse a lo largo del eje x. A cada intervalo de tiempo τ la partícula tiene una probabilidad p = 1/2 de dar un paso de longitud hacia la derecha y una probabilidad q = 1/2 de dar un paso equivalente hacia la izquierda. Supongamos que la partícula ha dado N pasos y que los pasos son estadísticamente independientes la probabilidad de un paso a la derecha o a la izquierda a cada instante es independiente de todos los anteriores. El paso i-ésimo tiene entonces asociada una variable X i que toma los valores x = ± con probabilidades p = q = 1/2 y por lo tanto su densidad de probabilidad es f Xi x = 1 2 δx + δx + y la función característica resulta f Xi k = cosk. El desplazamiento neto Y N de la partícula al cabo de N pasos esta dado por Y N = N i=1 X i, suponiendo que la partícula parte del orígen. De la Ec.3.16 tenemos que la función característica para la variable Y N es f YN k = cosk N 3.25 Vamos a analizar ahora el límite cuando tanto el desplazamiento neto en un paso como el tiempo entre pasos τ se vuelven infinitesimalmente pequeños. En dicho límite tanto Y N como el

34 Figura 3.1: Densidad de probabilidad para la caminata aleatoria unidimensional con D = 1/2. tiempo transcurrido t = Nτ pueden aproximarse por variables contínuas. Podemos escribir entonces f YN k = f Y k, t. Dado que la partícula parte del orígen y = 0, tenemos que f Y y, t = 0 = δy y por lo tanto f Y k, 0 = 1. De la Ec.3.25 podemos escribir f Y k, t + τ f Y k, t = cosk 1 f Y k, t = k2 2 2 + Si tomamos el límite para N y τ 0 manteniendo t = Nτ constante, tenemos lím lím N τ 0 De la Ec.3.26 tenemos entonces f Y k, t f Y k, t + τ f Y k, t = lím N lím τ 0 lím 0 = 1 τ τ k2 2 2 = f Y k, t + La única manera de que este límite sea finito y distinto de cero es que lím lím 2 τ 0 0 τ en cuyo caso obtenemos la ecuación diferencial f Y k, t cuya solución con la condición inicial f Y k, 0 = 1 es = D < f Y k, t 3.26 3.27 f Y k, t 3.28 = D k 2 fy k, t, 3.29 La densidad de probabilidad es f Y k, t = e Dk2 t f Y y, t = 1 1 e iky e Dk2t = 2π 4π Dt exp y2 4Dt 3.30 3.31

35 Así, la probabilidad de encontrar al caminante en una posición entre y e y + dy es gaussiana con media nula y desviación estándar σ = 2Dt. La densidad de probabilidad se desparrama en el tiempo manteniendo el área unitaria, como se muestra en la Fig.3.1. Notemos que y 2 = σ t. Este es el comportamiento característico de un movimiento difusivo: el desplazamiento de una partícula browniana de su posición inicial crece com t. La constante D se conoce como coeficiente de difusión. De hecho, notemos que de la definición tenemos que f Y y, t = 1 2π e iky fy k, t y f Y y, t = 1 e iky f Y k, t 2π Así, antitransformando la Ec.3.29 obtenemos 2 f Y y, t y 2 = 1 k 2 e iky fy k, t 2π f Y k, t = D 2 f Y y, t y 2 3.32 Esta última ecuación diferencial se conoce como ecuación de difusión tiene la misma estructura que la ecuación de difusión de calor y su solución viene dada por la Ec.3.31. 3.3. El Teorema del Límite Central Consideremos un conjunto de N variables aleatórias X i, todas independientes entre sí e idénticamente distribuidas, esto es, la densidad de probabilidad f X x es la misma para todas. Un ejemplo de esto podría ser la repetición independiente de un mismo experimento N veces. Sean µ = x y σ 2 = V X el valor medio y la variancia correspondientes a la densidad f X x. Consideremos ahora la variable Y N, definida como la desviación del promedio aritmético de las N variables respecto de µ, esto es donde Y N 1 N N N X i µ = Z i 3.33 i=1 i=1 donde Z i = 0 y V Z i = σ 2 /N 2. Resulta inmediato que Z i 1 N x i µ 3.34 con lo cual N X i = Nµ i=1 Y N = 0 3.35 Pensemos en que queremos medir una cierta cantidad, la cual fluctua de experimento en experimento X i. Habitualmente queremos estimar el valor medio de esta variable µ, para lo cual repetimos

36 el experimento N veces y aproximamos µ por el promedio aritmético de las N mediciones. Sin embargo, ese promedio es a su vez una variable aleatoria si repetimos la serie de N experimentos, el nuevo promedio también fluctua. La Ec.3.35 nos dice que el valor medio de este promedio coincide con µ, con lo es en principio un estimador aceptable. Sin embargo, querríamos evaluar de alguna manera el error cometido en esta estimación. Para eso tenemos que analizar las fluctuaciones del promedio aritmético respecto de su valor medio, las cuales están descriptas por la variable Y N. Si recordamos la ecuación 3.10, vemos que, bajo el supuesto de que las mediciones son completamente independientes entre sí, tenemos que V Y N = N i=1 V Z i = σ2 N 3.36 con lo cual σ YN = σ/ N. Podemos concluir a partir de este resultado que la dispersión del promedio disminuye con N? Estrictamente no, ya que podria ocurrir que momentos de orden superior al segundo se hagan muy grandes. Para dar una respuesta a la pregunta anterior debemos obtener la distribución de probabilidad para la variable Y N. Para ello calculamos primero la función característica para las variables Z i. Tenemos que f Z k = dx e ik/nx µ f X x = 1 1 2 k 2 N 2 σ2 + 3.37 donde hemos desarrollado en serie de Taylor la exponencial e integrado término a término. Si este desarrollo es válido, es decir, si los momentos de f X x son finitos, los término superiores pueden despreciarse para N suficientemente grande notemos que el caracter oscilatorio del integrando asegura que la integral se va a cero para valores grandes de k. La función característica para Y N es por lo tanto f YN k = 1 1 2 y la densidad de la variable Y N : k 2 N N 2 σ2 + exp k2 σ 2 2N f YN x 1 dk e iky exp k2 σ 2 N = 2π 2N 2πσ 2 exp para N 3.38 Ny2 2σ 2 3.39 Independientemente de la forma particular de f X x, si sus momentos son finitos, el promedio de un número grande de mediciones de X tiene una distribución gaussiana centrada en x y con desvío estándar igual al devío de X dividido por N. Este el el Teorema del Límite Central.