Notas sobre convergencia y funciones generatrices

Documentos relacionados
Probabilidades: Vectores Aleatorios

Ejercicios para auto evaluación Variables continuas y Teorema de Límite Central

CO3121: Problemario Marzo 2005.

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Transformaciones y esperanza

Modelos Básicos de Distribuciones Discretas y Continuas

Variables aleatorias continuas y Teorema Central del Limite

Variables Aleatorias y Distribución de Probabilidades

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

Resumen de Probabilidad

Procesos estocásticos

Variables aleatorias continuas, TCL y Esperanza Condicional

Función característica. Sean X e Y v.a. en (Ω, A, P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C.

Momentos de Funciones de Vectores Aleatorios

Teoría Estadística Elemental I Teoría (resumida) del 2 do Tema

Procesos de Poisson. 21 de marzo, FaMAF 1 / 25

Estadística I Tema 5: Modelos probabiĺısticos

Probabilidad y Estadística

Curso de Probabilidad y Estadística

Tema 6: Modelos de probabilidad.

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

Comportamiento asintótico de estimadores

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones

Función característica. Sean X e Y v.a. en (Ω,A,P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C

Cálculo de Probabilidades II Preguntas Tema 2

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

Funciones generadoras de probabilidad

Tema 12: Distribuciones de probabilidad

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Tema 7: Modelos de variables aleatorias discretas y absolutamente continuas

Tema 6: Características numéricas asociadas a una variable aleatoria. Función generatriz de momentos

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Part I. Momentos de una variable aleatoria. Esperanza y varianza. Modelos de Probabilidad. Mario Francisco. Esperanza de una variable aleatoria

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

f n (x), donde N N n=1 f n(x), donde x A R,

Modelos de distribuciones discretas y continuas

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:

Unidad 1: Espacio de Probabilidad

Repaso de Estadística

Técnicas Cuantitativas para el Management y los Negocios I

Práctica 11 Probabilidades

Probabilidad y Procesos Aleatorios

6-1. Dos preguntas sobre 100 tiradas de dado

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias

Curso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013

Folleto de Estadísticas. Teoría del 2do Parcial

Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013

VARIABLES ALEATORIAS CONTINUAS

Cap. 5 : Distribuciones muestrales

2.5. Vectores aleatorios

Cálculo infinitesimal Grado en Matemáticas Curso 20014/15 Clave de soluciones n o 6. Derivadas de orden superior

Tema 4: Probabilidad y Teoría de Muestras

Probabilidad y Estadística

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

8 Resolución de algunos ejemplos y ejercicios del tema 8.

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

Tema 3: VARIABLES ALEATORIAS

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006

Estadística I Tema 5: Modelos probabiĺısticos

Modelo de Probabilidad

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

Variables aleatorias

Valeri Makarov: Estadística Aplicada y Cálculo Numérico (Grado en Química)

2 Modelos de probabilidad discretos sobre R

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

Unidad 3. Probabilidad

Tema 3: Funcio n de Variable Aleatoria

Probabilidad y Estadística

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)

9 APROXIMACIONES DE LA BINOMIAL

Tema 2 Modelos de probabilidad

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

2. VARIABLE ALEATORIA. Estadística I Dr. Francisco Rabadán Pérez

Estadística I Tema 5: Introducción a la inferencia estadística

Ejercicios Adicionales de Cálculo de Probabilidades LICENCIATURA EN MATEMÁTICAS. CURSO

Definición de variable aleatoria

ESTADÍSTICA (Química) PRÁCTICA 4 Sumas de variables aleatorias

U3: Procesos Poisson. Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi

EXAMEN DE ESTADÍSTICA Junio 2011

1.3. El teorema de los valores intermedios

Función Característica

Series de funciones. a k (x). k=1

Hoja de Problemas Tema 3 (Variables aleatorias multidimensionales)

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido

Sucesiones y series de funciones

Introducción al Diseño de Experimentos.

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios

TEMA 2.- VARIABLES ALEATORIAS

Funciones continuas. Definición y propiedades

Divisibilidad Infinita Libre, Teoremas de Convergencia

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD

Modelos de distribuciones discretas y continuas

Transcripción:

Notas sobre convergencia y funciones generatrices Universidad Carlos III de Madrid Abril 2013 Para modelar un fenómeno aleatorio que depende del tiempo, podemos considerar sucesiones de variables X 1,X 2,... donde X i modela el estado del fenómeno a tiempo i. El conjunto de índices puede representar unidades de tiempo, iteraciones de un proceso, etc. Es natural que en este tipo de situaciones, si queremos tener una información que no dependa del tiempo, nos preguntemos acerca del comportamiento de X n cuando n. Antes de formalizar esta idea consideremos el siguiente ejemplo. Ejemplo. Supongamos que lanzamos un dado n veces, n un número muy grande, y observamos que el promedio de los números observados es a n = 3,500867. Al comparar este valor con el valor esperado de la variable aleatoria que modela el número observado al lanzar un dado al azar, 1 6 1 + 2 +... + 6) = 3,5, podemos ver que están muy cerca. Es natural conjeturar que a n 3,5 cuando n 1. Desigualdad de Chebyshev y Ley de Grandes Números Varios resultados de la teoría de probabilidad establecen condiciones para probar conjeturas del tipo si repetimos un experimento muchas veces entonces el promedio de los resultados se aproxima al valor esperado. Teorema Desigualdad de Markov). Sea X una variable aleatoria y g una función positiva entonces, para todo ε > 0, PgX) ε) EgX)) ε Prueba. Supongamos que X es continua, el caso discreto es similar. EgX)) = gx) f x)dx + gx) f x)dx {x:gx) ε} {x:gx)<ε} gx) f x)dx {x:gx) ε} ε f x)dx {x:gx) ε} = εpgx) ε) 1

Un caso particular de la desigualdad de Markov es la súper conocida Desigualdad de Chebyshev. Corolario. Si X es una variable aleatoria con EX) = µ entonces Prueba P X µ ε) 1 ε 2VarX) P X µ ε) = P X µ 2 ε 2 ) 1 ε 2 EX µ)2 ) = 1 ε 2VarX) Esta desigualdad es muy útil para aproximar cuán concentrada está una variable alrededor de su valor esperado. Sean X 1,X 2,...,X n variables i.i.d. con EX i ) = µ y VarX i ) = σ 2. Denotemos el promedio muestral por X n = S n n = X 1 + X 2 +... + X n. n Ya que y EX n ) = E X 1 + X 2 +... + X n ) = 1 n n nµ VarX n ) = 1 n 2VarX 1 + X 2 +... + X n ) = σ2 n, usando la desigualdad de Chebyshev se tiene que P X n µ ε) 1 σ 2 ε 2 n Decimos que X n converge en probabilidad a X si para todo ε > 0, P X n X ε) 0 cuando n. Teorema Ley Débil de Grande Números). Sean X 1,X 2,...,X n variables i.i.d. con EX i ) <, entonces el promedio muestral X n converge en probabilidad a µ. La Ley Débil de Grandes Números ofrece un potente método de estimación conocido como el Método de Monte Carlo. El siguiente ejemplo ilustra la idea básica del método. Ejemplo. Sea X,Y ) un vector aleatorio distribuído uniformemente en el rectángulo B = [0, a] [0,b]. Sea A un área contenida en B, así, p = PX,Y ) A) = A ab Para estimar p, generamos puntos X 1,Y 1 ),...,X n,y n ) i.i.d. U[0,a] [0,b] y consideramos la v.a. Bernoulli Z i = 1 si X i,y i ) A = 0 en caso contrario Es fácil verificar el promedio Z n converge en probabilidad a p. 2

6 0.6 0.5 5 0.4 4 0.3 3.5 3 0.2 0 100 200 2,5 0 100 200 2. Función generatriz de momentos Hemos visto que la esperanza y la varianza dan información acerca de la v.a. Para obtener esta información necesitamos calcular E[X] y E[X 2 ]. El momento de orden k no es más que la extensión de esta idea para tener más información acerca de la variable. Definición. El momento de k-ésimo orden de una v.a. X es E[X k ] siempre y cuando E[ X k ] <. Ejemplo: Si X tiene distribución Gamman,β) entonces el momento de orden k es E[X k ] = x k 0 βn Γn) e βx dx = Ejemplo: Si X tiene distribución Cauchy entonces E[X k ] = nn + 1)...n + k 1) β k x k 1 π1 + x 2 ) dx En vista de que la integral no converge en valor absoluto para ningún k 1 decimos que la distribución de Cauchy no tiene momentos. Un criterio útil para garantizar la existencia de momentos es: E[ X k ] < implica E[ X r ] < para 1 r k En particular, cuando digamos que VarX) <, estaremos diciendo que los momentos de primer y segundo orden existen. Si lo que estamos buscando es obtener información de una variable; formalmente de la distribución de probabilidad; a través de sus momentos, parece natural construir una función que reproduzca el valor de todos los momentos si es que existen. Definición. La función generatriz de momentos de una v.a. X es la función M X t) = E[e tx ] para todo t para el cual la esperanza existe Ejemplo: Si X tiene distribución Gamman,β) entonces ) β n M X t) = para t β β t 3

Ejemplo: Si X tiene distribución Cauchy entonces M X t) sólo está definida para t = 0. Ejemplo: Si X tiene distribución Normalµ,σ 2 ) entonces M X t) = e µt+σ2 t 2 /2 para todo t R Ejemplo: Si X tiene distribución Poissonλ) entonces M X t) = e λ1 et) para todo t R. Volviendo a nuestro problema, cómo reproducir los momentos de una v.a. a partir de su función generatriz?. El siguiente teorema responde la pregunta. Teorema. Si M X existe en un entorno de 0, entonces para cualquier k 1 E[X k ] = dk dt k M X0) La prueba formal de este teorema se escapa del alcance de estas notas. La idea básica es la siguiente: La esperanza es una sumatoria o una integral dependiendo cual sea el caso que estemos estudiando. Estos operadores sumatoria e integral) conmutan, bajo condiciones de regularidad, con el operador derivada puede el lector construir ejemplos concretos donde esto ocurre?). Así resulta que d k dt k M Xt) = dk dt k E[etX ] = E[ dk dt k etx ] = E[X k e tx ] evaluando la identidad anterior en t = 0 obtenemos el resultado del teorema. Más que reproducir los momentos de una distribución, la función generatriz provee una manera de caracterizar distribuciones de probabilidad, tal y como lo expresa el siguiente teorema. Teorema. Si M X existe en un entorno de 0, entonces hay una única distribución con función generatriz M X. Además, bajo esta condición todos los momentos existen, no importa el orden, y el desarrollo de Taylor de la función generatriz es M X t) = E[X k ] tk k=0 k! Del teorema anterior podemos observar que no basta conocer todos los momentos para caracterizar una distribución, es necesario que la serie E[X k ] tk k=0 k! converja en un entorno de cero, tal como aparece en la hipótesis del teorema. La prueba de este teorema se basa en propiedades de la transformada de Laplace y la omitiremos, sin embargo, su aplicación es de gran utilidad al conectarla con las siguientes propiedades: 4

Para números a,b se tiene M ax+b t) = E[e ax+b)t ] = e bt E[e atx ] = e tb M X at) Si X,Y son independientes entonces M X+Y t) = E[e tx+y ) ] = E[e tx e ty ] = E[e tx ]E[e ty ] = M X t)m Y t) Usando recursivamente la propiedad anterior, si X 1,...,X n son independientes, entonces M X1 +...+X n = M X1...M Xn Ejemplo: Sean X 1,...,X n v.a.i.i.d. Exponencialesβ). Cuál es la distribución de la suma S n = X 1 +... + X n?. Sabiendo que la función generatriz de una exponencial es M X1 t) = β β t para t β podemos usar las propiedades enunciadas y verificar que ) β n M Sn t) = para t β β t que corresponde a la función generatriz de una Gamman, β). Usando el teorema anterior podemos concluir que la suma de n exponenciales i.i.d de parámetro β tiene distribución Gamman,β). El lector puede usar esta técnica para probar los siguientes resultados: sumas de normales independientes es normal sumas de Poisson independientes es Poisson En general, pruebe que si M X t)) 1/n es la función generatriz de una v.a. Z, entonces sumas de n réplicas independientes de Z se distribuye como X. 3. Función característica Como vimos, la función generatriz ofrece un poderoso método para identificar distribuciones de probabilidad. El problema es que la función generatriz no siempre existe, como es el caso de la Cauchy. La clase de distribuciones para la cual no existe es suficientemente grande como para necesitar una alternativa. Usando la fórmula de Moivre es fácil ver que e iω = cosω + isenω, con i = 1 M X iω) = E[cosωX)] + ie[senωx)] Ya que las funciones coseno y seno son acotadas, la función φ X ω) = M X iω) 5

siempre existe y tiene propiedades equivalentes a las de la función generatriz. Por lo cual conviene introducir la siguiente definición Definición. La función característica de una v.a. X es la función φ X ω) = E[e iωx ] En estas notas, suponemos que el lector no está familiarizado con el cálculo en variable compleja. Para calcular φ X ω) = E[e iωx ], se puede usar la identidad cuando M X t) existe. φ X ω) = M X t) para t = iω Ejemplo: Si X tiene distribución Gamman,β) entonces β φ X ω) = β iω Cuando M X t) no existe, por ejemplo para el caso Cauchy, el uso de tablas para la transformada de fourier puede ser muy útil. Casi cualquier función característica ya ha sido tabulada. En particular, si X es Cauchy, φ X ω) = 1 2 e ω El hecho de que la función característica siempre exista simplifica el criterio de caracterización análogo al que estudiamos para la función generatriz de momentos. Teorema. Las v.a. X,Y tienen la misma distribución sí y sólo sí φ X ω) = φ Y ω) para todo ω. Aún más, si X es continua con densidad de probabilidad f, la siguiente fórmula puede ser usada para recobrar f a partir de la función característica f x) = 1 2π + ) n e iωx φ X ω)dω Esta fórmula no es más que la inversa de la transformada de fourier, observando que la función característica es la transformada de fourier de f. φ X ω) = + e iωx f x)dx Para terminar, enunciamos algunas propiedades que el lector puede probar sin dificultad, siguiendo las pruebas análogas para la función generatriz. Para números a,b se tiene φ ax+b ω) = e iωb φ X aω) Si X,Y son independientes entonces φ X+Y ω) = φ X t)φ Y ω) Usando recursivamente la propiedad anterior, si X 1,...,X n son independientes, entonces φ X1 +...+X n = φ X1...φ Xn 6

4. Convergencia en distribución y Teorema Central del Límite Cuando consideramos sucesiones de variables aleatorias X 1,X 2,... es natural preguntarse acerca del comportamiento de X n cuando n. En particular, sobre la distribución de probabilidades de X n cuando n. Antes de formalizar esta idea observemos el siguiente ejemplo: Consideremos la sucesión de variables aleatorias X 1,X 2,... con PX n = 1 n ) = 1. Es decir, con probabilidad 1, X n = n 1. Lo natural sería que {X n} converja a una v.a. X que tiene probabilidad 1 de valer 0. Veamos que pasa con las funciones de distribución de estas v.a. F n x) = PX n x) = 0 si x < 1 n = 1 si x 1 n Por otro lado Fx) = PX x) = 0 si x < 0 = 1 si x 0 lím nx) n = 0 si x 0 = 1 si x > 0 Es decir, con la excepción de 0, que es un punto de discontinuidad de F, lím F nx) = FX). n Este ejemplo muestra que los puntos de discontinuidad de la distribución límite deben ser ignorados, lo cual nos lleva a la siguiente definición. Definición. Consideremos la sucesión de v.a. X 1,X 2,... con funciones de distribución F 1,F 2,... respectivamente. Sea X una v.a. con función de distribución F. Diremos que X n converge en distribución a X, o que X n X en distribución, si para todo x donde F sea continua. lím F nx) = FX) n Ejemplo: Considere el mínimo U n de n variables i.i.d. uniformes en 0,1). Es fácil intuir que pasa con U n cuando n. Ahora bien, qué pasa con nu n cuando n?. Primero que nada, como U n 0,1), entonces nu n 0,n) y PnU n x) = P U n x ) para x 0,n) n Usando la definición del mínimo y la independencia, la probabilidad anterior puede escribirse como 1 PnU n > x) = 1 P U n > x ) [ = 1 P X > x )] n n n 7

con X uniforme en 0,1). Sustituyendo, PnU n x) = 1 Usando el hecho de que si na n a entonces 1 x n) n para x 0,n) lím1 a n ) n = e a 1) se obtiene límpnu n x) = lím1 1 n) x n = 1 e x para x 0, ) que corresponde a la distribución de una variable exponencial de parámetro 1. Es decir, si X 1,X 2,... son v.a.i.i.d. uniformes sobre 0,1), entonces nu n exp1) en distribución. Cuando las variables toman valores enteros la convergencia en distribución se reduce a la convergencia de la funciones de masa. El lector no tendrá dificultad en probar la siguiente proposición. Proposición 1. Si X,X 1,X 2,... toman valores enteros y para todo k entonces X n X en distribución. límpx n = k) = PX = k) Ejemplo. Considere la sucesión de v.a. {X n } con X n binomialn, p n ). Supongamos que p n 0 con np n λ > 0. Es decir, para n grande, X n es una binomial con muchas repeticiones de un experimento que tiene muy poco chance de éxito. Podemos probar y que Usando recurrencia, vemos que límpx n = 0) = e λ lím PX n = k + 1) PX n = k) = λk + 1) λ λk límpx n = k) = e k! que es la función de masa de una Poissonλ). Es decir, X n Poissonλ) en distribución. Los dos ejemplos anteriores muestran la dificultad de probar convergencia en distribución por definición. El siguiente teorema ofrece un método sencillo de hacerlo Teorema de continuidad: Sean X 1,X 2,... v.a. y φ 1,φ 2,... sus respectivas funciones características. Si límφ n ω) =: φω) para todo ω R 8

y φω) es continua en ω = 0, entonces φ es la función característica de una v.a. X tal que X n X en distribución. La prueba de este teorema exige de conocimientos avanzados de análisis matemático, sin embargo el teorema en sí es fácilmente intuible, a excepto de la condición técnica φ continua en cero. Ejemplo: Usar el teorema para probar la convergencia a Poisson del ejemplo anterior. Debemos probar que Para el ejemplo anterior límφ n ω) =: φω) para todo ω R φ n ω) = q n + p n e iω) n y φω) = e λ1 e iω ) Así, límφ n ω) = lím q n + p n e iω) n = lím 1 p n 1 e iω ) ) n = lím 1 λ n 1 eiω ) = e λ1 eiω ) ) n La aplicación por excelencia del teorema de continuidad es el muy famoso Teorema del Límite Central. Sean X 1,X 2,... v.a.i.i.d. con varianza finita σ 2. Denotemos por µ la esperanza común de las variables. Entonces X 1 +... + X n nµ n N0,σ 2 ) en distribución 5. Problemas 1. El número de llamadas que llegan a la central telefónica de Sartenejas en un minuto, es, en promedio, 10 2. La central puede manejar un máximo de 10 3 llamadas, colapsando si recibe más de este número de llamadas en un minuto. Usar la desigualdad de Chebyshev para estimar la probabilidad de que la central colapse en un minuto dado. 2. En el problema de la fábrica del capítulo anterior, supóngase que los amplificadores con Γ < 7,5 10 3 seg 1/2 son rechazados por control de calidad. a) Use la desigualdad de Chebyshev para estimar el% de amplificadores rechazados. b) Calcule la misma probabilidad de la parte a) usando la tabla de la distribución normal. Explique la discrepancia de los resultados. 3. A través de una encuesta se quiere estimar la fracción p de adultos de la población que se interesaría en un nuevo producto. Se interroga a n personas de la población, y se estima p como p = X/n, siendo X el número de personas encuestadas que manifiestan interés en el 9

producto. Utilizando el Teorema del Límite Central, y suponiendo que el verdadero valor de p es 0.35, encuentre, aproximadamente, el menor valor de n para el cual p y p difieren en menos de 0.02, con probabilidad mayor que 0,9. Como resolvería el problema en el caso realista) en que p es desconocido? 4. Tomamos 50 números al azar uniformemente) en el intervalo 1,3). Utilize la desigualdad de Chebyshev para estimar la probabilidad de que el promedio X de estos números se encuentre entre 1,9 y 2,1. Utilize el Teorema del Límite Central para aproximar la misma probabilidad de la parte a) Según la aproximación que nos dá el T.L.C., Cuánto debe ser ε para que X se encuentre en el intervalo 1 ε,1 + ε) con probabilidad 0,95. 5. Use la función generatriz para calcular el momento de tercer orden de una Normalµ,σ 2 ). 2.- Sean {X n } v.a.i.i.d. y N una v.a. a valores enteros positivos independiente de {X n }. Calcule la función generatriz de momentos de X 1 +... + X N y deduzca la esperanza y varianza de esta v.a. 6. {X n } v.a. con P X n = k ) = 1 n + 1 n Pruebe que X n U0,1) en distribución. para k = 1,...n 7. Suponga que X n tiene distribución Gamman,1). Calcule la función generatriz de momentos de Z n = X n n)/ n y demuestre que Qué concluye?. límm Zn t) = e t2 /2 10