Construcción de Paul Lévy del Movimiento Browniano Estándar, según P. Morters y Y. Peres. August 31, 2016
|
|
- Manuel Mario Revuelta Ruiz
- hace 5 años
- Vistas:
Transcripción
1 del Movimiento Browniano Estándar, según P. Morters y Y. Peres August 31, 016
2 Algunos preliminares Definición Una función de distribución (de probabilidades) es una función F : R R tal que 1. F es no decreciente. En particular, F tiene ĺımites por la izquierda.. F ( ) = 0 y F ( ) = 1. En particular, 0 F (x) 1 para todo x R. 3. F es continua por la derecha Teorema Dada una función de distribución de probabilidad F : R R existe un espacio de probabilidad (Ω, F, P) y una v.a. X sobre éste espacio tal que P (X x) = F (x), x R. Esto es, F es la función de distribución de la v.a. X. Algo similar puede decirse para funciones de distribución de probabilidad multivariadas F : R n R. En este caso, existe un espacio de probabilidad (Ω, F, P) y un vector aleatorio X = (X 1,..., X n) tal que P (X 1 x 1,..., X n x n) = F (x 1,..., x n), x = (x 1,.., x n) R n. Esto es, F es la función de distribución del vector aleatorio X = (X 1,..., X n).
3 Algunos preliminares Un hecho notable (Teorema de Existencia de Kolmogorov) Note que si F i : R R, 1 i n, son funciones de distribución, entonces F (x 1,..., x n) = F 1 (x 1 ) F n(x n), x = (x 1,..., x n) R n es una función de distribución n-dimensional. En este caso, las v.a s X 1,..., X n son idependientes. Y si F i = G para todo i = 1,.., n (es decir, se trata de una misma distribución), entonces podemos garantizar que existe un espacio de probabilidad (Ω, F, P) en el cual está definida una colección X 1,..., X n de v.a. s idependientes e idénticamente distribuidas con distribución G. Por supuesto, existe una versión más general de este hecho: Dada una distribución F y un conjunto T, entonces existe un espacio de probabilidad (Ω, F, P) y una colección de v.a. s (X t) t T independientes, idénticamente distribuidas con distribución F.
4 Algunos Preliminares Recordemos: Definición Una variable aleaoria X : (Ω, F, P) (R, B(R)) es normalmente distribuida con media µ R y varianza σ > 0, si P (X > x) = 1 πσ x ) (u µ) exp ( σ du, x R. Decimos que X tiene distribución normal estándar (o que es una normal estándar) si µ = 0 y σ = 1. Definición Un vector aleatorio X = (X 1,..., X n) : (Ω, F, P) (R n, B(R n ))es un vector gaussiano si existe una n m-matriz A, y un vector b R n tal que X t = AY + b donde Y es un vector aleatorio m-dimensional, cuyas entradas son normales estándar independientes (decimos que Y tiene distribución normal estándar n-dimensional).
5 Preliminares La matriz de convarianzas del vector X es la n n-matriz Cov(X) = E((X EX)(X EX) t ] = AA t Esto es, las entradas de Cov(X) son las covarianzas Cov(X i, X j ). Propiedades de la matriz de covarianzas: 1. Es simétrica : Cov(X) = Cov(X) t.. Es definida positiva: x t Cov(X)x > 0, para todo x R n, x 0.
6 Preliminares Teorema Si X y Y son vectores Gaussianos tales que EX = EY y Cov(X) = Cov(Y ), entonces X y Y tienen la misma distribución. Teorema Un vector Gaussiano tiene entradas independientes la matriz de covarianzas Cov(X) es diagonal. Teorema Supongamos que (X n) n 1 es una sucesión de vectores Gaussianos y tal que lim n X n = X, c.s. Si b := lim EXn y C := lim n n CovXn existen, entonces X con media b y matriz de covarianzas C.
7 Preliminares Lema Si X es una v.a. con distribución normal estándar, entonces para todo x 0, x x π e x / P (X > x) 1 x 1 π e x /. Prueba. Para la primera desigualdad, P (X > x) 1 π x u x e u / du = 1 1 e x /. x π Para la segunda, definimos f(x) = xe x / (x + 1) e u / du. x Entonces f es diferenciable y f(0) < 0. Ahora, ( ) f (x) = x e u / du e x /. x x De modo que f (x) > 0 para x > 0. Por tanto f es creciente en x > 0, y dado que lim x f(x) = 0, se sigue que f(x) 0 para todo x > 0, lo que prueba la segunda desigualdad.
8 Preliminares Teorema Si X y Y son v.a. independientes normalmente distribuidas con media µ X y µ Y (resp.), con varianza σx y σ Y (resp.) entonces U = X + Y y V = X Y son v.a s que tienen distribución normal con media µ X + µ Y, µ X µ Y (resp.) y varianza σx + σ Y. Si σ X = σ Y, entonces U y V son independientes.
9 Preliminares Un proceso estocástico es una colección (X(t) : t T ), T un conjunto, de variables aleatorias ω X(ω), definidas sobre un espacio de probabilidad (Ω, F, P). Si T = [0, 1], R, [0, ), para un ω Ω, la función t X(t, ω) es una trayectoria del proceso X
10 Preliminares Un resultado importante de la Teoría de la Probabilidad. Lema (Borel-Cantelli) Sea (A n) n 1 una colección de eventos tales que P (A n) <. n=1 Entonces ( ) P A n = 0. k=1 n=k De hecho, si definimos I n = 1 An, y N = n=1 In, entonces Más aún, P ( k=1 n=k E(N) = P (A n). n=1 ) A n = 0 si y sólo si P (N < ) = 1.
11 Preliminares Un resultado (típico) importante de análisis Teorema Si (f n) n 1 es una sucesión de funciones reales continuas, tales que la serie f = n=1 fn converge uniformenmente a f, entonces f es continua.
12 Definiciones Definición Un proceso estocástico {B(t) : t 0} es un Movimiento Browniano (lineal) que inicia en x R si cumple: 1. B(0) = x.. Incrementos independientes: Para todo 0 t 1 t t n, los incrementos B(t n) B(t n 1 ), B(t n 1 ) B(t n ),, B(t ) B(t 1 ) son v.a. s independientes. 3. Para todo t 0 y h > 0, los incrementos B(t + h) B(t) son normalmente distribuidos con esperanza 0 y varianza h. 4. La función t B(t) es continua, casi seguramente. Esto es, si A = {ω Ω : t B(t)(ω) : R R es continua}, entonces existe un conjunto B medible tal que P (B) = 0 y X\A B. Decimos que {B(t) : t 0} es un movimiento Browniano estándar si x = 0
13 Definiciones
14 Existencia del MBE Teorema (Wiener 193) Existe el movimiento Browniano Estándar.
15 Primero construiremos un MB sobre [0, 1] como un elemento aleatorio del espacio C[0, 1] de las funciones continuas sobre [0, 1]. Ingredientes: 1. Para cada n 0, sea { } k D n = n : 0 k n y sea D = n Dn. Note que Dn D n+1 para todo n 0. Teorema D es denso en [0, 1].. Sea (Ω, F, P) un espacio de probabilidad y sea {Z t : t D} una colección de variables aleatorias independientes idénticamente distribuidas, con distribución normal estándar.
16 Hacemos B(0) = 0 y B(1) = Z 1. Y recursivamente, para n 1 y para todo d D n\d n 1, definimos B(d) = B(d n ) + B(d + n ) + Z d (n+1)/. Por ejemplo, como 1 D 1\D 0 = { } 1, ( ) 1 B(0) + B(1) B = + Z 1/ = Z(1) + Z 1/, y como D \D 1 = { 1 4, 3 4 }, se sigue ( 1 B 4 ( 3 B 4 ) = B(0) + B( 1 ) + Z 1/4 3/ ) = B( 1 ) + B(1) + Z 3/4 3/. Note que B(1/) depende únicamente de Z(1/) y Z(1). Y B(1/4) depende únicamente de Z(1/4), Z(1/) y Z(1). Y B(3/4) depende únicamente de Z(1/), Z(3/4) y Z(1).
17 Por otro lado, note que En tanto que B(1) B(0) B(1/) B(0) = B(1) B(0) B(1) B(1/) = + Z 1/, Z 1/. B(1/) B(0) B(1/4) B(0) = B(1/) B(0) B(1/) B(1/4) = B(1) B(1/) B(3/4) B(1/) = B(1) B(1/) B(1) B(3/4) = + Z 1/4 3/ Z 1/4 3/ + Z 3/4 3/ Z 3/4 3/
18 Tenemos entonces, 1. Para todo n 0 y para todo r < s < t en D n, B(t) B(s) N(0, t s) y B(t) B(s) B(s) B(r).. Los vectores (B(d) : d D n) y (Z t : t D\D n) son independientes.
19 Vamos por partes: Primero... En general, si d D n, entonces B(d) depende únicamente de Z t, con t D n. En efecto: Procediendo por inducción, supongamos es válido para n 1, luego si d D n, entonces B(d) depende únicamente de Z t con t D n 1 si d D n 1, y si d D n\d n 1, entonces d = k+1 n para algún k apropiado, de modo que d ± 1 n = k ± 1 n 1 D n 1, así que B(d) depende únicamente de Z t, con t D n 1 {d} D n.
20 Otra forma de comprender lo anterior, es notar que el término B(d n ) + B(d + n ) es una interpolación lineal de los valores de B en los puntos vecinos de d en D n 1. Se sigue así que B(d) es independiente de (Z t : t D\D n).
21 Ahora vamos a probar que, para todo n 1, si d D n\{0}, entonces los incrementos B(d) B(d n ) y B(d + n ) B(d), son independientes y normalmente distribuidos con media cero y varianza n. Es claro que es cierto para n = 0. En este caso, D 0 \{0} = {1}, y B(1) B(0) = Z(1) N(0, 1).
22 Asumimos que es cierto para todo n 1. Sea d D n\d n 1, Note que d + n, d n D n 1 (y son consecutivos en D n 1 ). De modo que el término B(d + n ) B(d n ) (1) tiene distribución normal con media cero y varianza (k 1) = (k+1). Y como depende únicamente de las v.a. s Z t, con t D k 1, es independiente de Z d, () (k+1)/ la cual tiene distribución normal de media cero y varianza (k+1).
23 Por lo tanto, la suma de (1) y (): B(d + n ) B(d n ) + Z d (n+1)/ y la diferencia de (1) y (): B(d + n ) B(d n ) = B(d + n ) + B(d n ) = B(d) B(d n ), Z d (n+1)/ = B(d + n ) B(d n ) + B(d + n ) = B(d + n ) B(d), son independientes, normalmente distribuidas con media cero y varianza ( (n+1) ) = n. + Z d (n+1)/ B(d n ) Z d (n+1)/
24 Desde luego, si d D n 1, entonces d + n D n\d n 1 y d n D n\d n 1 de donde B(d + n ) B(d) = B(d + n ) B((d + n ) n ) N(0, n ) y B(d) B(d n ) = B((d n ) + n ) B(d n ) N(0, n ), y tales v.a. s son independientes.
25 Ya es casi un hecho que para todo n 1, si d, d D n\{0}, entonces los incrementos B(d) B(d n ) y B(d ) B(d n ) son independientes con distribución normal de media cero y varianza n.
26 Es ciertamente válido si n = 0. Lo es para el caso n = 1: y aun para n = B(1) B(0) B(1/) B(0) = B(1) B(0) B(1) B(1/) = + Z 1/, Z 1/, B(1/) B(0) B(1/4) B(0) = B(1/) B(0) B(1/) B(1/4) = B(1) B(1/) B(3/4) B(1/) = B(1) B(1/) B(1) B(3/4) = + Z 1/4 3/ Z 1/4 3/ + Z 3/4 3/ Z 3/4 3/
27 Como hemos ilustrado, el paso inductivo se sigue de las igualdades (que ya probamos) B(d) B(d n ) = B(d + n ) B(d n ) Z d + (n+1)/ B(d + n ) B(d) = B(d + n ) B(d n ) Z d (n+1)/
28 Teniendo entonces que elegir los valores del proceso sobre todos los puntos diadicos, interpolamos linealmente entre ellos. Formalmente, definimos { Z 1 para t = 1, F 0 (t) = 0 para t = 0, ĺınea entre elllos, y para cada n 1. (n+1)/ Z t para t D n\d n 1 F n(t) = 0 para t D n 1 ĺınea entre puntos consecutivos en D n.
29 Estas funciones son continuas sobre [0, 1] y, para todo n y d D n, n B(d) = F i (d) = F i (d). (3) i=0 i=0
30 Esto puede verse nuevamente por inducción: Es válido para n = 0. Suponga que es válido para n 1. Sea d D n\d n 1. Ya que para 0 i n 1 la función F i es lineal sobre [d n, d + n ], tenemos n 1 i=0 n 1 F i (d) = i=1 F i (d n ) + F i (d + n ) Ya que F n(d) = (n+1)/ Z d, esto da (3). = B(d n ) + B(d + n ).
31 Por otra parte, por definición de Z d existe un c > 1 y n suficientemente grandes tales que P ( Z d c n ) ( c ) n exp, de modo que la serie P ( d D n t.q. Z d c n ) ( P Zd c n ) n=0 n=0 d D n ( c ( n ) n + 1) exp. n=0 Converge si c > log.
32 Fijamos una de estas c. Por el lemma de Borel-Cantelli, existe una v.a. (finita c.s.) N tal que si n N y d D n tenemos Z d < c n. Por lo tanto, para todo n N, F n := sup{ F n(t) : t [0, 1]} < c n n/ < c n/. Esta cota superior implica que, casi seguramente, la serie B(t) = F n(t) n=0 es uniformemente convergente sobre [0, 1]. En efecto, si n N, entonces para todo t, F m(t) F n c n/ 0 si n. m=n m=n m=n
33 Qué tenemos entonces? Las trayectorias de B(t) son continuas (c.s.). Luego, si 0 < t 1 < t < t n están en [0, 1], dado que D es denso en [0, 1], podemos encontrar sucesiones de números en D, t 1,k t,k t n,k tales que lim k t i,k = t i, de manera que B(t i+1 ) B(t i ) = lim k B(t i+1,k) B(t i,k ).
34 Además y lim E(B(t i+1,k) B ti,k)) = 0 k lim Cov(B(t i+1,k) B(t i,k ), B(t j+1,k ) B(t j,k )) k = lim k 1 {i=j}(t i+1,k T i,k ) = 1 {i=j} (t i+1 t i ), los incrementos B(t i+1 ) B(t i ) son v.a. s Gaussianas independientes con media cero y varianza t i+1 t i.
Distribuciones multivariadas
Distribuciones multivariadas Si X 1,X 2,...,X p son variables aleatorias discretas, definiremos la función de probabilidad conjunta de X como p(x) =p(x 1,x 2,...,x k )=P (X 1 = x 1,X 2 = x 2,...,X p =
Más detallesKolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona
Kolmogorov y la teoría de la la probabilidad David Nualart Academia de Ciencias y Universidad de Barcelona 1 La axiomatización del cálculo de probabilidades A. N. Kolmogorov: Grundbegriffe des Wahrscheinlichkeitsrechnung
Más detallesTEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor
Más detallesRepaso de Estadística
Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio
Más detallesCapítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales
Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.
Más detallesVECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. Desde un punto de vista formal, los vectores aleatorios son la herramienta matemática adecuada para transportar
Más detallesEjercicios de teoría de la medida
Ejercicios de teoría de la medida Pedro Alegría Capítulo. Dada una aplicación F : Ω Ω, demostrar que: a) Si A es una σ-álgebra de Ω, A = {B Ω : F B) A} lo es de Ω. b) Si A es una σ-álgebra de Ω, A = F
Más detallesMomentos de Funciones de Vectores Aleatorios
Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)
Más detallesEstadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas
Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones
Más detallesDimensión del Movimiento Browniano Plano. Metáfora intuitiva del movimiento browniano:
Dimensión del Movimiento Browniano Plano. Un ejemplo de movimiento browniano en R 2 es el movimiento aleatorio que siguen algunas partículas microscópicas que se hallan en un medio fluido (por ejemplo,
Más detallesEXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006
EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar
Más detallesResumen de Probabilidad
Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS
Más detallesA. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones.
Tema 1. Espacios de Probabilidad y Variables Aleatorias: Espacios de Probabilidad. 1 A. Probabilidad. Un experimento aleatorio tiene asociados los siguientes elementos: Espacio muestral. Conjunto Ω de
Más detallesUniversidad Autónoma Metropolitana
Universidad Autónoma Metropolitana Unidad Iztapalapa División de Ciencias Básicas e Ingeniería Posgrado en Ciencias Matemáticas Estudio del Movimiento Browniano Fraccionario Tesis para obtener el grado
Más detallesCurso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración
por Curso Propedéutico de Cálculo Sesión 6: de la Joaquín Ortega Sánchez Centro de Investigación en Matemáticas, CIMAT Guanajuato, Gto., Mexico Esquema por 1 por 2 Esquema por 1 por 2 por Al contrario
Más detallesRepaso de álgebra de matrices y probabilidad. Javier Santibáñez (IIMAS, UNAM) Regresión Semestre / 58
Repaso de álgebra de matrices y probabilidad Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 58 Preliminares Definición (matriz) Una matriz de dimensión m n es un arreglo rectangular de números
Más detallesPablo Ferrari, DM-UBA Teoricas de Procesos estocasticos (borrador) Primer cuatrimestre 2015
Pablo Ferrari, DM-UBA Teoricas de Procesos estocasticos (borrador) Primer cuatrimestre 2015 1 Fuentes: Breiman, Feller, Ross, Grimmett&Stirkazer, Haggstromm, Georgii... Descripción del programa tentativo
Más detallesVariables aleatorias continuas y Teorema Central del Limite
Variables aleatorias continuas y Teorema Central del Limite FaMAF 17 de marzo, 2015 Variables aleatorias continuas Definición Una variable aleatoria X se dice (absolutamente continua) si existe f : R R
Más detallesIntroducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47
Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Entropía diferencial. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 19 Definición Definición (Entropía diferencial)
Más detallesProbabilidad y Estadística
Vectores aleatorios Probabilidad y Estadística Vectores aleatorios Federico De Olivera Cerp del Sur-Semi Presencial curso 2015 Federico De Olivera (Cerp del Sur-Semi Presencial) Probabilidad y Estadística
Más detallesVectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos
Definición Dado un espacio muestral S, diremos que X =(X 1, X 2,, X k ) es un vector aleatorio de dimension k si cada una de sus componentes es una variable aleatoria X i : S R, para i = 1, k. Notemos
Más detallesTema 3 Normalidad multivariante
Aurea Grané Máster en Estadística Universidade Pedagógica Aurea Grané Máster en Estadística Universidade Pedagógica Tema 3 Normalidad multivariante 3 Normalidad multivariante Distribuciones de probabilidad
Más detallesPráctica 3 Esperanza Condicional
1. Generalidades Práctica 3 Esperanza Condicional 1. Sea (X i ) i I una familia de variables aleatorias definidas sobre un mismo espacio medible (Ω, F) y sea Y otra variable aleatoria en este espacio.
Más detallesEstadística II Tema 1: Distribución normal multivariante
Estadística II Tema 1: Distribución normal multivariante José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Algunas propiedades de los vectores aleatorios Sea X = (X 1,..., X
Más detalles1. MEDIDA E INTEGRACIÓN.
1. MEDID E INTEGRCIÓN. En este capítulo repasamos algunos conceptos que se vieron en la asignatura mpliación de la Teoría de Funciones de Varias Variables. 1. MEDIDS POSITIVS. (1,1,1) Definición. Una σ-álgebra
Más detallesDivisibilidad Infinita Libre, Teoremas de Convergencia
Divisibilidad Infinita Libre, Teoremas de Convergencia Arturo Jaramillo Trabajo Conjunto con Octavio Arizmendi Arturo Jaramillo (The University of Kansas) Divisibilidad Infinita Libre 1 / 28 Fenómeno del
Más detallesMartingalas. Procesos Estocásticos. Marzo 2012 UC3M
Martingalas Procesos Estocásticos UC3M Marzo 2012 Martingalas Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que, pensemos
Más detallesDepartamento de Matemática Aplicada a la I.T. de Telecomunicación
Departamento de Matemática Aplicada a la I.T. de Telecomunicación ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS CONVOCATORIA: ENERO 22/23 FECHA: 9 de Enero de 23 Duración del examen: 3 horas Fecha publicación
Más detallesForma alternativa del cálculo de momentos:
Forma alternativa del cálculo de momentos: Series Temporales: sesión 4 03//009) Autor: Ángela Fernández Pascual Considerando X 0, ), sabemos que sus momentos toman los valores: Podemos definir: EX k+ )
Más detallesVariables Aleatorias y Distribución de Probabilidades
Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables
Más detallesSecuencias Aleatorias
Caminantes aleatorios. Secuencias Aleatorias Contenidos. Secuencias aleatorias. Caminantes aleatorios. Movimiento Browniano. La hipótesis de eficiencia de los mercados implica que la cotización de un título
Más detallesAnálisis Multivariado. Leticia Gracia Medrano V
Análisis Multivariado Leticia Gracia Medrano V Septiembre 207 ii Capítulo Introducción Álgebra lineal Empezaremos tomando la siguiente matriz: X X 2 X j X p X 2 X 2 X 2j X 2p X = X i X i2 X ij X ip X n
Más detallesCorrelación lineal y correlación de distancias
Correlación lineal y correlación de distancias José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Jornada Pearson, 8 de marzo de 2017 Esquema Ventajas e inconvenientes del coeficiente
Más detallesLos Axiomas de Kolmogorov. Parte II.
Los Axiomas de Kolmogorov. Parte II. 1 Sucesiones infinitas de Eventos y el problema de la Medida de Probabilidad Hasta el momento hemos estudiado modelos de probabilidad cuya clase de eventos incluye
Más detallesFórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática
DEPARTAMENT D ESTADÍSTICA I INVESTIGACIÓ OPERATIVA Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática A. Distribuciones de variables aleatorias. 1. Descripción de una distribución
Más detallesPROCESOS ESTOCÁSTICOS II Ejercicios - Semestre 2009-I
PROCESOS ESTOCÁSTICOS II Ejercicios - Semestre 29-I Proceso de Poisson y Procesos de Renovación 1. Los clientes de una tienda entran al establecimiento de acuerdo a un proceso de Poisson de parámetro λ
Más detallesEstadística I Tema 5: Modelos probabiĺısticos
Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y Función de distribución.
Más detallesModelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad)
Modelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad) 1. Definición y propiedades. Aditividad finita Definición 1. Sea Ω un conjunto finito no vacío. Definimos la medida de probabilidad
Más detallesVariables aleatorias continuas, TCL y Esperanza Condicional
Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función
Más detallesEl Método de Stein y algunas Aplicaciones
El Método de Stein y algunas Aplicaciones Larry Goldstein University of Southern California El Método de Stein y algunas Aplicaciones Outline I. Teoría basica II. 2 Aplicaciones El Lema de Stein Caracterización
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesPráctica 5 Martingalas a tiempo discreto
Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.
Más detallesGustavo Rodríguez Gómez. Agosto Dicembre 2011
Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 44 Capítulo III Descomposición de Matrices 2 / 44 1 Descomposición de Matrices Notación Matrices Operaciones con Matrices 2
Más detallesESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio
ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza
Más detallesMedidas. Problemas para examen. Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez.
Medidas Problemas para examen Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez. Sigma-álgebras 1. Propiedades elementales de σ-álgebras. Demuestre que una σ-álgebra es
Más detallesTema 6: Características numéricas asociadas a una variable aleatoria. Función generatriz de momentos
Tema 6: Características numéricas asociadas a una variable aleatoria. Función generatriz de momentos. Introducción En este Tema 6. construiremos y estudiaremos una serie de parámetros o características
Más detallesVariables aleatorias
Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con
Más detallesClase 3: Vectores gaussianos *
Clase 3: Vectores gaussianos * Índice 1. Vectores gaussianos 1. Simulación de vectores gaussianos.1. Simulación de variables gaussianas: el método de Box-Muller.. Simulation of bi-dimensional Gaussian
Más detallesIntroducción. Capítulo Introducción. Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos
Capítulo 1 Introducción 1.1. Introducción Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos La distribución de esta variable aleatoria es Definimos M n = máx i n X i. P (M n x) = P
Más detallesCONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p)
PESQUIMAT, Revista de la F.C.M. de la Universidad Nacional Mayor de San Marcos Vol. 11- N"1 Pgs. 69-75 Lima - Perú Ag. 1999 CONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p) Wilfredo
Más detallesTEMA 3.- VECTORES ALEATORIOS.- CURSO
TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.
Más detallesDefinición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números
IV. Variables Aleatorias Continuas y sus Distribuciones de Probabilidad 1 Variable Aleatoria Continua Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo
Más detallesTema 3: Funcio n de Variable Aleatoria
Tema 3: Funcio n de Variable Aleatoria Teorı a de la Comunicacio n Curso 2007-2008 Contenido 1 Función de una Variable Aleatoria 2 3 Cálculo de la fdp 4 Generación de Números Aleatorios 5 Momentos de una
Más detalles1. Convergencia en medida
FACULTAD CS. FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE MA3801 Teoría de la Medida. Semestre 2009-02 Profesor: Jaime San Martín Auxiliares: Andrés Fielbaum y Cristóbal Guzmán Clase auxiliar 7 21 de Septiembre
Más detallesNotas de clase. Prof. Nora Arnesi
Notas de clase Este material está sujeto a correcciones, comentarios y demostraciones adicionales durante el dictado de las clases, no se recomienda su uso a aquellos alumnos que no concurran a las mismas
Más detallesMatrices. Álgebra de matrices.
Matrices. Álgebra de matrices. 1. Definiciones generales Definición 1.1 Si m y n son dos números naturales, se llama matriz de números reales de orden m n a una aplicación A : {1, 2, 3,..., m} {1, 2, 3,...,
Más detallesI Conceptos Generales 1
Índice I Conceptos Generales 1 1. Procesos Estocásticos 3 1.1. Introducción............................ 3 1.2. Definición de proceso estocástico................ 4 1.3. Distribución de un proceso estocástico.............
Más detallesElementos Básicos de Análisis Funcional en. Dr. Oldemar Rodríguez Rojas
Elementos Básicos de Análisis Funcional en Análisis Numérico Dr. Oldemar Rodríguez Rojas Agosto 2008 Contents 1 Elementos Básicos de Análisis Funcional 2 1.1 Espacios normados...........................
Más detallesTeoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y
Profesores de TMDE Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y estadística Monograph 9 de septiembre de 23 Springer Índice general. Variables aleatorias
Más detallesMaterial introductorio
Material introductorio Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Vanessa Gómez Verdejo Índice general. Variables aleatorias unidimensionales..................................
Más detallesTEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18
TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 5.1. Concepto de proceso estocástico. Tipos de procesos. Realización de un proceso. 5.2. Características de un proceso estocástico. 5.3. Ejemplos de procesos
Más detallesTema1. Modelo Lineal General.
Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La
Más detallesMedida y Probabilidad
Medida y Probabilidad Jorge Salazar 1 Enero 2015 1 Con el apoyo del Programa PROMETEO/SENESCYT del Gobierno del Ecuador. ii Contents 7 Integral de Lebesgue 1 7.1 Integración de funciones simples.................
Más detallesCadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM
Cadenas de Markov Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadena de Markov Considere variable aleratorio X 0, X 1,... tomando valores en un conjunto finito o discreto, E. Entonces {X n } n 0 es
Más detallesMa34a Probabilidades y Procesos Estocásticos 21 de Noviembre, Resumen No. 3
Ma34a Probabilidades y Procesos Estocásticos 21 de Noviembre, 2004 Resumen No. 3 Prof. Cátedra: M. Kiwi Prof. Auxiliares: M. Soto, R. Cortez 1 Variables Aleatorias 1.1 Variables Aleatorias Absolutamente
Más detallesProcesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
Más detallesCurso Propedéutico de Cálculo Sesión 7:
Curso Propedéutico de Cálculo Sesión 7: Joaquín Ortega Sánchez Centro de Investigación en Matemáticas, CIMAT Guanajuato, Gto., Mexico Esquema 1 2 3 4 Esquema 1 2 3 4 Hasta ahora nos hemos enfocado en funciones
Más detallesCurso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 3 de septiembre del 013 Definamos más formalmente que entenderémos por una muestra. Definción Sea X la v.a. correspondiente a una población
Más detallesTema 3: Función de Variable Aleatoria y Teoremas Asintóticos
Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Curso 2016-2017 Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable
Más detallesVectores aleatorios (distribuciones multivariantes)
Vectores aleatorios (distribuciones multivariantes) Tema 9. Distribución conjunta de un vector aleatorio. Distribuciones marginales y condicionadas Ignacio Cascos Depto. Estadística, Universidad Carlos
Más detallesValeri Makarov: Estadística Aplicada y Cálculo Numérico (Grado en Química)
Estadística Aplicada y Cálculo Numérico (Grado en Química) Valeri Makarov 10/02/2015 29/05/2015 F.CC. Matemáticas, Desp. 420 http://www.mat.ucm.es/ vmakarov e-mail: vmakarov@mat.ucm.es Capítulo 4 Variables
Más detallesU3: Procesos Poisson. Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi
U3: Procesos Poisson Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi Analizar el siguiente proceso estocástico: Una fuente radioactiva emite partículas y sea X t : número de partículas
Más detallesDepartamento de Matemática Aplicada a la I.T.T.
Departamento de Matemática Aplicada a la I.T.T. ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS EXAMEN FINAL Otoño 3 Duración: 3 horas FECHA: 9 de Enero de 4 Fecha publicación notas: 6--4 Fecha revisión
Más detallesDistribución Gaussiana Multivariable
Distribución Gaussiana Multivariable Carlos Belaustegui Goitia, Juan Augusto Maya 8 de Agosto de Resumen En este documento presentamos la deducción de la expresión de la función densidad de probabilidad
Más detallessup si A no es acotado.
Capítulo 5 Teoría de Baire 1. El teorema de Cantor En este capítulo estudiaremos más a fondo los espacios métricos completos. Lo primero que haremos es establecer la equivalencia entre completitud y la
Más detallesGermán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1
. Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones
Más detallesMétodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Más detallesComportamiento asintótico de estimadores
Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos
Más detallesIntegral de Lebesgue
Integral de Lebesgue Problemas para examen n todos los problemas se supone que (, F, µ) es un espacio de medida. Integración de funciones simples positivas. La representación canónica de una función simple
Más detallesProcesos Estocásticos II
Procesos Estocásticos II Capacitación técnica especializada en el nuevo marco de Solvencia Gerónimo Uribe Bravo Instituto de Matemáticas Universidad Nacional Autónoma de México CAPÍTULO 1 Martingalas
Más detalles2.3. Aplicaciones del teorema de Baire a espacios de Banach
40 CAPÍTULO. COMPLETITUD Y CATEGORÍAS.3. Aplicaciones del teorema de Baire a espacios de Banach En esta sección, veremos algunas aplicaciones del teorema de Baire a espacios vectoriales normados. En particular,
Más detallesEspacios vectoriales
CAPíTULO 2 Espacios vectoriales 1. Definición de espacio vectorial Es frecuente representar ciertas magnitudes físicas (velocidad, fuerza,...) mediante segmentos orientados o vectores. Dados dos de tales
Más detallesAnálisis multivariante II
Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid pedro.galeano@uc3m.es Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano
Más detallesVARIABLES ALEATORIAS DISCRETAS
VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:
Más detallesEstadística. Grado en Biología. Universidad de Alcalá. Curso Capítulo 4: Variables Aleatorias. Fernando San Segundo. Actualizado:
Grado en Biología. Universidad de Alcalá. Curso 2017-18. Fernando San Segundo. Actualizado: 2017-10-16 Fernando San Segundo. Actualizado: 2017-10-16 1 Qué es una variable aleatoria? Pronto veremos una
Más detallesTema 4: Variable Aleatoria Bidimensional
Curso 2016-2017 Contenido 1 Definición de Variable Aleatoria Bidimensional 2 Distribución y fdp Conjunta 3 Clasificación de Variables Aleatorias Bidimensionales 4 Distribuciones Condicionales 5 Funciones
Más detallesEl Teorema de la Convergencia Dominada
Capítulo 22 l Teorema de la Convergencia Dominada Los dos teoremas de convergencia básicos en la integración Lebesgue son el teorema de la convergencia monótona (Lema 19.10), que vimos el capítulo y el
Más detallesMovimiento Browniano o proceso de Wiener
1 Movimiento Browniano o proceso de Wiener Se dice que Z [ ] es un proceso de Wiener o movimiento Browniano si Z es una función definida en algún intervalo I = [, T ] (eventualmente puede ser T = + ),
Más detallesSUBSUCESIONES. Las sucesiones convergentes son acotadas, como hemos visto. El recíproco no es cierto. No toda sucesión acotada es covergente.
ANÁLISIS MATEMÁTICO BÁSICO. SUBSUCESIONES. Las sucesiones convergentes son acotadas, como hemos visto. El recíproco no es cierto. No toda sucesión acotada es covergente. Ejemplo.. Sea la sucesión (x n
Más detallesEsperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso
Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso 2010-11 Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad y esperanza condicionada: recordatorio
Más detallesTeoremas de la función inversa, función implícita y del rango constante
Teoremas de la función inversa, función implícita y del rango constante Pablo Zadunaisky 13 de marzo de 2015 A lo largo de este documento usamos varias normas sobre espacios vectoriales de dimensión finita,
Más detallesIntegración estocástica y tiempo local
PONTIFICIA UNIVERSIDAD CATÓLICA DEL PERÚ ESCUELA DE POSGRADO Integración estocástica y tiempo local Tesis para optar el grado de Magíster en Matemáticas. Autor Juan Arturo Mogollón Aparicio. Asesor Dr.
Más detallesProcesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26
Procesos de ramificación y árboles aleatorios. Juan Carlos Pardo Millán CIMAT, Guanajuato 1/ 26 Progama: Preliminares de probabilidad. Cadenas de Markov. Caminatas aleatorias. Procesos de Bienaymé-Galton-Watson.
Más detallesSucesiones Introducción
Temas Límites de sucesiones. convergentes. Sucesiones divergentes. Sucesiones Capacidades Conocer y manejar conceptos de sucesiones convergentes y divergentes. Conocer las principales propiedades de las
Más detalles