Construcción de Paul Lévy del Movimiento Browniano Estándar, según P. Morters y Y. Peres. August 31, 2016

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Construcción de Paul Lévy del Movimiento Browniano Estándar, según P. Morters y Y. Peres. August 31, 2016"

Transcripción

1 del Movimiento Browniano Estándar, según P. Morters y Y. Peres August 31, 016

2 Algunos preliminares Definición Una función de distribución (de probabilidades) es una función F : R R tal que 1. F es no decreciente. En particular, F tiene ĺımites por la izquierda.. F ( ) = 0 y F ( ) = 1. En particular, 0 F (x) 1 para todo x R. 3. F es continua por la derecha Teorema Dada una función de distribución de probabilidad F : R R existe un espacio de probabilidad (Ω, F, P) y una v.a. X sobre éste espacio tal que P (X x) = F (x), x R. Esto es, F es la función de distribución de la v.a. X. Algo similar puede decirse para funciones de distribución de probabilidad multivariadas F : R n R. En este caso, existe un espacio de probabilidad (Ω, F, P) y un vector aleatorio X = (X 1,..., X n) tal que P (X 1 x 1,..., X n x n) = F (x 1,..., x n), x = (x 1,.., x n) R n. Esto es, F es la función de distribución del vector aleatorio X = (X 1,..., X n).

3 Algunos preliminares Un hecho notable (Teorema de Existencia de Kolmogorov) Note que si F i : R R, 1 i n, son funciones de distribución, entonces F (x 1,..., x n) = F 1 (x 1 ) F n(x n), x = (x 1,..., x n) R n es una función de distribución n-dimensional. En este caso, las v.a s X 1,..., X n son idependientes. Y si F i = G para todo i = 1,.., n (es decir, se trata de una misma distribución), entonces podemos garantizar que existe un espacio de probabilidad (Ω, F, P) en el cual está definida una colección X 1,..., X n de v.a. s idependientes e idénticamente distribuidas con distribución G. Por supuesto, existe una versión más general de este hecho: Dada una distribución F y un conjunto T, entonces existe un espacio de probabilidad (Ω, F, P) y una colección de v.a. s (X t) t T independientes, idénticamente distribuidas con distribución F.

4 Algunos Preliminares Recordemos: Definición Una variable aleaoria X : (Ω, F, P) (R, B(R)) es normalmente distribuida con media µ R y varianza σ > 0, si P (X > x) = 1 πσ x ) (u µ) exp ( σ du, x R. Decimos que X tiene distribución normal estándar (o que es una normal estándar) si µ = 0 y σ = 1. Definición Un vector aleatorio X = (X 1,..., X n) : (Ω, F, P) (R n, B(R n ))es un vector gaussiano si existe una n m-matriz A, y un vector b R n tal que X t = AY + b donde Y es un vector aleatorio m-dimensional, cuyas entradas son normales estándar independientes (decimos que Y tiene distribución normal estándar n-dimensional).

5 Preliminares La matriz de convarianzas del vector X es la n n-matriz Cov(X) = E((X EX)(X EX) t ] = AA t Esto es, las entradas de Cov(X) son las covarianzas Cov(X i, X j ). Propiedades de la matriz de covarianzas: 1. Es simétrica : Cov(X) = Cov(X) t.. Es definida positiva: x t Cov(X)x > 0, para todo x R n, x 0.

6 Preliminares Teorema Si X y Y son vectores Gaussianos tales que EX = EY y Cov(X) = Cov(Y ), entonces X y Y tienen la misma distribución. Teorema Un vector Gaussiano tiene entradas independientes la matriz de covarianzas Cov(X) es diagonal. Teorema Supongamos que (X n) n 1 es una sucesión de vectores Gaussianos y tal que lim n X n = X, c.s. Si b := lim EXn y C := lim n n CovXn existen, entonces X con media b y matriz de covarianzas C.

7 Preliminares Lema Si X es una v.a. con distribución normal estándar, entonces para todo x 0, x x π e x / P (X > x) 1 x 1 π e x /. Prueba. Para la primera desigualdad, P (X > x) 1 π x u x e u / du = 1 1 e x /. x π Para la segunda, definimos f(x) = xe x / (x + 1) e u / du. x Entonces f es diferenciable y f(0) < 0. Ahora, ( ) f (x) = x e u / du e x /. x x De modo que f (x) > 0 para x > 0. Por tanto f es creciente en x > 0, y dado que lim x f(x) = 0, se sigue que f(x) 0 para todo x > 0, lo que prueba la segunda desigualdad.

8 Preliminares Teorema Si X y Y son v.a. independientes normalmente distribuidas con media µ X y µ Y (resp.), con varianza σx y σ Y (resp.) entonces U = X + Y y V = X Y son v.a s que tienen distribución normal con media µ X + µ Y, µ X µ Y (resp.) y varianza σx + σ Y. Si σ X = σ Y, entonces U y V son independientes.

9 Preliminares Un proceso estocástico es una colección (X(t) : t T ), T un conjunto, de variables aleatorias ω X(ω), definidas sobre un espacio de probabilidad (Ω, F, P). Si T = [0, 1], R, [0, ), para un ω Ω, la función t X(t, ω) es una trayectoria del proceso X

10 Preliminares Un resultado importante de la Teoría de la Probabilidad. Lema (Borel-Cantelli) Sea (A n) n 1 una colección de eventos tales que P (A n) <. n=1 Entonces ( ) P A n = 0. k=1 n=k De hecho, si definimos I n = 1 An, y N = n=1 In, entonces Más aún, P ( k=1 n=k E(N) = P (A n). n=1 ) A n = 0 si y sólo si P (N < ) = 1.

11 Preliminares Un resultado (típico) importante de análisis Teorema Si (f n) n 1 es una sucesión de funciones reales continuas, tales que la serie f = n=1 fn converge uniformenmente a f, entonces f es continua.

12 Definiciones Definición Un proceso estocástico {B(t) : t 0} es un Movimiento Browniano (lineal) que inicia en x R si cumple: 1. B(0) = x.. Incrementos independientes: Para todo 0 t 1 t t n, los incrementos B(t n) B(t n 1 ), B(t n 1 ) B(t n ),, B(t ) B(t 1 ) son v.a. s independientes. 3. Para todo t 0 y h > 0, los incrementos B(t + h) B(t) son normalmente distribuidos con esperanza 0 y varianza h. 4. La función t B(t) es continua, casi seguramente. Esto es, si A = {ω Ω : t B(t)(ω) : R R es continua}, entonces existe un conjunto B medible tal que P (B) = 0 y X\A B. Decimos que {B(t) : t 0} es un movimiento Browniano estándar si x = 0

13 Definiciones

14 Existencia del MBE Teorema (Wiener 193) Existe el movimiento Browniano Estándar.

15 Primero construiremos un MB sobre [0, 1] como un elemento aleatorio del espacio C[0, 1] de las funciones continuas sobre [0, 1]. Ingredientes: 1. Para cada n 0, sea { } k D n = n : 0 k n y sea D = n Dn. Note que Dn D n+1 para todo n 0. Teorema D es denso en [0, 1].. Sea (Ω, F, P) un espacio de probabilidad y sea {Z t : t D} una colección de variables aleatorias independientes idénticamente distribuidas, con distribución normal estándar.

16 Hacemos B(0) = 0 y B(1) = Z 1. Y recursivamente, para n 1 y para todo d D n\d n 1, definimos B(d) = B(d n ) + B(d + n ) + Z d (n+1)/. Por ejemplo, como 1 D 1\D 0 = { } 1, ( ) 1 B(0) + B(1) B = + Z 1/ = Z(1) + Z 1/, y como D \D 1 = { 1 4, 3 4 }, se sigue ( 1 B 4 ( 3 B 4 ) = B(0) + B( 1 ) + Z 1/4 3/ ) = B( 1 ) + B(1) + Z 3/4 3/. Note que B(1/) depende únicamente de Z(1/) y Z(1). Y B(1/4) depende únicamente de Z(1/4), Z(1/) y Z(1). Y B(3/4) depende únicamente de Z(1/), Z(3/4) y Z(1).

17 Por otro lado, note que En tanto que B(1) B(0) B(1/) B(0) = B(1) B(0) B(1) B(1/) = + Z 1/, Z 1/. B(1/) B(0) B(1/4) B(0) = B(1/) B(0) B(1/) B(1/4) = B(1) B(1/) B(3/4) B(1/) = B(1) B(1/) B(1) B(3/4) = + Z 1/4 3/ Z 1/4 3/ + Z 3/4 3/ Z 3/4 3/

18 Tenemos entonces, 1. Para todo n 0 y para todo r < s < t en D n, B(t) B(s) N(0, t s) y B(t) B(s) B(s) B(r).. Los vectores (B(d) : d D n) y (Z t : t D\D n) son independientes.

19 Vamos por partes: Primero... En general, si d D n, entonces B(d) depende únicamente de Z t, con t D n. En efecto: Procediendo por inducción, supongamos es válido para n 1, luego si d D n, entonces B(d) depende únicamente de Z t con t D n 1 si d D n 1, y si d D n\d n 1, entonces d = k+1 n para algún k apropiado, de modo que d ± 1 n = k ± 1 n 1 D n 1, así que B(d) depende únicamente de Z t, con t D n 1 {d} D n.

20 Otra forma de comprender lo anterior, es notar que el término B(d n ) + B(d + n ) es una interpolación lineal de los valores de B en los puntos vecinos de d en D n 1. Se sigue así que B(d) es independiente de (Z t : t D\D n).

21 Ahora vamos a probar que, para todo n 1, si d D n\{0}, entonces los incrementos B(d) B(d n ) y B(d + n ) B(d), son independientes y normalmente distribuidos con media cero y varianza n. Es claro que es cierto para n = 0. En este caso, D 0 \{0} = {1}, y B(1) B(0) = Z(1) N(0, 1).

22 Asumimos que es cierto para todo n 1. Sea d D n\d n 1, Note que d + n, d n D n 1 (y son consecutivos en D n 1 ). De modo que el término B(d + n ) B(d n ) (1) tiene distribución normal con media cero y varianza (k 1) = (k+1). Y como depende únicamente de las v.a. s Z t, con t D k 1, es independiente de Z d, () (k+1)/ la cual tiene distribución normal de media cero y varianza (k+1).

23 Por lo tanto, la suma de (1) y (): B(d + n ) B(d n ) + Z d (n+1)/ y la diferencia de (1) y (): B(d + n ) B(d n ) = B(d + n ) + B(d n ) = B(d) B(d n ), Z d (n+1)/ = B(d + n ) B(d n ) + B(d + n ) = B(d + n ) B(d), son independientes, normalmente distribuidas con media cero y varianza ( (n+1) ) = n. + Z d (n+1)/ B(d n ) Z d (n+1)/

24 Desde luego, si d D n 1, entonces d + n D n\d n 1 y d n D n\d n 1 de donde B(d + n ) B(d) = B(d + n ) B((d + n ) n ) N(0, n ) y B(d) B(d n ) = B((d n ) + n ) B(d n ) N(0, n ), y tales v.a. s son independientes.

25 Ya es casi un hecho que para todo n 1, si d, d D n\{0}, entonces los incrementos B(d) B(d n ) y B(d ) B(d n ) son independientes con distribución normal de media cero y varianza n.

26 Es ciertamente válido si n = 0. Lo es para el caso n = 1: y aun para n = B(1) B(0) B(1/) B(0) = B(1) B(0) B(1) B(1/) = + Z 1/, Z 1/, B(1/) B(0) B(1/4) B(0) = B(1/) B(0) B(1/) B(1/4) = B(1) B(1/) B(3/4) B(1/) = B(1) B(1/) B(1) B(3/4) = + Z 1/4 3/ Z 1/4 3/ + Z 3/4 3/ Z 3/4 3/

27 Como hemos ilustrado, el paso inductivo se sigue de las igualdades (que ya probamos) B(d) B(d n ) = B(d + n ) B(d n ) Z d + (n+1)/ B(d + n ) B(d) = B(d + n ) B(d n ) Z d (n+1)/

28 Teniendo entonces que elegir los valores del proceso sobre todos los puntos diadicos, interpolamos linealmente entre ellos. Formalmente, definimos { Z 1 para t = 1, F 0 (t) = 0 para t = 0, ĺınea entre elllos, y para cada n 1. (n+1)/ Z t para t D n\d n 1 F n(t) = 0 para t D n 1 ĺınea entre puntos consecutivos en D n.

29 Estas funciones son continuas sobre [0, 1] y, para todo n y d D n, n B(d) = F i (d) = F i (d). (3) i=0 i=0

30 Esto puede verse nuevamente por inducción: Es válido para n = 0. Suponga que es válido para n 1. Sea d D n\d n 1. Ya que para 0 i n 1 la función F i es lineal sobre [d n, d + n ], tenemos n 1 i=0 n 1 F i (d) = i=1 F i (d n ) + F i (d + n ) Ya que F n(d) = (n+1)/ Z d, esto da (3). = B(d n ) + B(d + n ).

31 Por otra parte, por definición de Z d existe un c > 1 y n suficientemente grandes tales que P ( Z d c n ) ( c ) n exp, de modo que la serie P ( d D n t.q. Z d c n ) ( P Zd c n ) n=0 n=0 d D n ( c ( n ) n + 1) exp. n=0 Converge si c > log.

32 Fijamos una de estas c. Por el lemma de Borel-Cantelli, existe una v.a. (finita c.s.) N tal que si n N y d D n tenemos Z d < c n. Por lo tanto, para todo n N, F n := sup{ F n(t) : t [0, 1]} < c n n/ < c n/. Esta cota superior implica que, casi seguramente, la serie B(t) = F n(t) n=0 es uniformemente convergente sobre [0, 1]. En efecto, si n N, entonces para todo t, F m(t) F n c n/ 0 si n. m=n m=n m=n

33 Qué tenemos entonces? Las trayectorias de B(t) son continuas (c.s.). Luego, si 0 < t 1 < t < t n están en [0, 1], dado que D es denso en [0, 1], podemos encontrar sucesiones de números en D, t 1,k t,k t n,k tales que lim k t i,k = t i, de manera que B(t i+1 ) B(t i ) = lim k B(t i+1,k) B(t i,k ).

34 Además y lim E(B(t i+1,k) B ti,k)) = 0 k lim Cov(B(t i+1,k) B(t i,k ), B(t j+1,k ) B(t j,k )) k = lim k 1 {i=j}(t i+1,k T i,k ) = 1 {i=j} (t i+1 t i ), los incrementos B(t i+1 ) B(t i ) son v.a. s Gaussianas independientes con media cero y varianza t i+1 t i.

Distribuciones multivariadas

Distribuciones multivariadas Distribuciones multivariadas Si X 1,X 2,...,X p son variables aleatorias discretas, definiremos la función de probabilidad conjunta de X como p(x) =p(x 1,x 2,...,x k )=P (X 1 = x 1,X 2 = x 2,...,X p =

Más detalles

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona Kolmogorov y la teoría de la la probabilidad David Nualart Academia de Ciencias y Universidad de Barcelona 1 La axiomatización del cálculo de probabilidades A. N. Kolmogorov: Grundbegriffe des Wahrscheinlichkeitsrechnung

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

Repaso de Estadística

Repaso de Estadística Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio

Más detalles

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.

Más detalles

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. Desde un punto de vista formal, los vectores aleatorios son la herramienta matemática adecuada para transportar

Más detalles

Ejercicios de teoría de la medida

Ejercicios de teoría de la medida Ejercicios de teoría de la medida Pedro Alegría Capítulo. Dada una aplicación F : Ω Ω, demostrar que: a) Si A es una σ-álgebra de Ω, A = {B Ω : F B) A} lo es de Ω. b) Si A es una σ-álgebra de Ω, A = F

Más detalles

Momentos de Funciones de Vectores Aleatorios

Momentos de Funciones de Vectores Aleatorios Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)

Más detalles

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones

Más detalles

Dimensión del Movimiento Browniano Plano. Metáfora intuitiva del movimiento browniano:

Dimensión del Movimiento Browniano Plano. Metáfora intuitiva del movimiento browniano: Dimensión del Movimiento Browniano Plano. Un ejemplo de movimiento browniano en R 2 es el movimiento aleatorio que siguen algunas partículas microscópicas que se hallan en un medio fluido (por ejemplo,

Más detalles

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006 EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar

Más detalles

Resumen de Probabilidad

Resumen de Probabilidad Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS

Más detalles

A. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones.

A. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones. Tema 1. Espacios de Probabilidad y Variables Aleatorias: Espacios de Probabilidad. 1 A. Probabilidad. Un experimento aleatorio tiene asociados los siguientes elementos: Espacio muestral. Conjunto Ω de

Más detalles

Universidad Autónoma Metropolitana

Universidad Autónoma Metropolitana Universidad Autónoma Metropolitana Unidad Iztapalapa División de Ciencias Básicas e Ingeniería Posgrado en Ciencias Matemáticas Estudio del Movimiento Browniano Fraccionario Tesis para obtener el grado

Más detalles

Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración

Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración por Curso Propedéutico de Cálculo Sesión 6: de la Joaquín Ortega Sánchez Centro de Investigación en Matemáticas, CIMAT Guanajuato, Gto., Mexico Esquema por 1 por 2 Esquema por 1 por 2 por Al contrario

Más detalles

Repaso de álgebra de matrices y probabilidad. Javier Santibáñez (IIMAS, UNAM) Regresión Semestre / 58

Repaso de álgebra de matrices y probabilidad. Javier Santibáñez (IIMAS, UNAM) Regresión Semestre / 58 Repaso de álgebra de matrices y probabilidad Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 58 Preliminares Definición (matriz) Una matriz de dimensión m n es un arreglo rectangular de números

Más detalles

Pablo Ferrari, DM-UBA Teoricas de Procesos estocasticos (borrador) Primer cuatrimestre 2015

Pablo Ferrari, DM-UBA Teoricas de Procesos estocasticos (borrador) Primer cuatrimestre 2015 Pablo Ferrari, DM-UBA Teoricas de Procesos estocasticos (borrador) Primer cuatrimestre 2015 1 Fuentes: Breiman, Feller, Ross, Grimmett&Stirkazer, Haggstromm, Georgii... Descripción del programa tentativo

Más detalles

Variables aleatorias continuas y Teorema Central del Limite

Variables aleatorias continuas y Teorema Central del Limite Variables aleatorias continuas y Teorema Central del Limite FaMAF 17 de marzo, 2015 Variables aleatorias continuas Definición Una variable aleatoria X se dice (absolutamente continua) si existe f : R R

Más detalles

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47 Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Entropía diferencial. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 19 Definición Definición (Entropía diferencial)

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Vectores aleatorios Probabilidad y Estadística Vectores aleatorios Federico De Olivera Cerp del Sur-Semi Presencial curso 2015 Federico De Olivera (Cerp del Sur-Semi Presencial) Probabilidad y Estadística

Más detalles

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos Definición Dado un espacio muestral S, diremos que X =(X 1, X 2,, X k ) es un vector aleatorio de dimension k si cada una de sus componentes es una variable aleatoria X i : S R, para i = 1, k. Notemos

Más detalles

Tema 3 Normalidad multivariante

Tema 3 Normalidad multivariante Aurea Grané Máster en Estadística Universidade Pedagógica Aurea Grané Máster en Estadística Universidade Pedagógica Tema 3 Normalidad multivariante 3 Normalidad multivariante Distribuciones de probabilidad

Más detalles

Práctica 3 Esperanza Condicional

Práctica 3 Esperanza Condicional 1. Generalidades Práctica 3 Esperanza Condicional 1. Sea (X i ) i I una familia de variables aleatorias definidas sobre un mismo espacio medible (Ω, F) y sea Y otra variable aleatoria en este espacio.

Más detalles

Estadística II Tema 1: Distribución normal multivariante

Estadística II Tema 1: Distribución normal multivariante Estadística II Tema 1: Distribución normal multivariante José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Algunas propiedades de los vectores aleatorios Sea X = (X 1,..., X

Más detalles

1. MEDIDA E INTEGRACIÓN.

1. MEDIDA E INTEGRACIÓN. 1. MEDID E INTEGRCIÓN. En este capítulo repasamos algunos conceptos que se vieron en la asignatura mpliación de la Teoría de Funciones de Varias Variables. 1. MEDIDS POSITIVS. (1,1,1) Definición. Una σ-álgebra

Más detalles

Divisibilidad Infinita Libre, Teoremas de Convergencia

Divisibilidad Infinita Libre, Teoremas de Convergencia Divisibilidad Infinita Libre, Teoremas de Convergencia Arturo Jaramillo Trabajo Conjunto con Octavio Arizmendi Arturo Jaramillo (The University of Kansas) Divisibilidad Infinita Libre 1 / 28 Fenómeno del

Más detalles

Martingalas. Procesos Estocásticos. Marzo 2012 UC3M

Martingalas. Procesos Estocásticos. Marzo 2012 UC3M Martingalas Procesos Estocásticos UC3M Marzo 2012 Martingalas Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que, pensemos

Más detalles

Departamento de Matemática Aplicada a la I.T. de Telecomunicación

Departamento de Matemática Aplicada a la I.T. de Telecomunicación Departamento de Matemática Aplicada a la I.T. de Telecomunicación ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS CONVOCATORIA: ENERO 22/23 FECHA: 9 de Enero de 23 Duración del examen: 3 horas Fecha publicación

Más detalles

Forma alternativa del cálculo de momentos:

Forma alternativa del cálculo de momentos: Forma alternativa del cálculo de momentos: Series Temporales: sesión 4 03//009) Autor: Ángela Fernández Pascual Considerando X 0, ), sabemos que sus momentos toman los valores: Podemos definir: EX k+ )

Más detalles

Variables Aleatorias y Distribución de Probabilidades

Variables Aleatorias y Distribución de Probabilidades Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables

Más detalles

Secuencias Aleatorias

Secuencias Aleatorias Caminantes aleatorios. Secuencias Aleatorias Contenidos. Secuencias aleatorias. Caminantes aleatorios. Movimiento Browniano. La hipótesis de eficiencia de los mercados implica que la cotización de un título

Más detalles

Análisis Multivariado. Leticia Gracia Medrano V

Análisis Multivariado. Leticia Gracia Medrano V Análisis Multivariado Leticia Gracia Medrano V Septiembre 207 ii Capítulo Introducción Álgebra lineal Empezaremos tomando la siguiente matriz: X X 2 X j X p X 2 X 2 X 2j X 2p X = X i X i2 X ij X ip X n

Más detalles

Correlación lineal y correlación de distancias

Correlación lineal y correlación de distancias Correlación lineal y correlación de distancias José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Jornada Pearson, 8 de marzo de 2017 Esquema Ventajas e inconvenientes del coeficiente

Más detalles

Los Axiomas de Kolmogorov. Parte II.

Los Axiomas de Kolmogorov. Parte II. Los Axiomas de Kolmogorov. Parte II. 1 Sucesiones infinitas de Eventos y el problema de la Medida de Probabilidad Hasta el momento hemos estudiado modelos de probabilidad cuya clase de eventos incluye

Más detalles

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática DEPARTAMENT D ESTADÍSTICA I INVESTIGACIÓ OPERATIVA Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática A. Distribuciones de variables aleatorias. 1. Descripción de una distribución

Más detalles

PROCESOS ESTOCÁSTICOS II Ejercicios - Semestre 2009-I

PROCESOS ESTOCÁSTICOS II Ejercicios - Semestre 2009-I PROCESOS ESTOCÁSTICOS II Ejercicios - Semestre 29-I Proceso de Poisson y Procesos de Renovación 1. Los clientes de una tienda entran al establecimiento de acuerdo a un proceso de Poisson de parámetro λ

Más detalles

Estadística I Tema 5: Modelos probabiĺısticos

Estadística I Tema 5: Modelos probabiĺısticos Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y Función de distribución.

Más detalles

Modelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad)

Modelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad) Modelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad) 1. Definición y propiedades. Aditividad finita Definición 1. Sea Ω un conjunto finito no vacío. Definimos la medida de probabilidad

Más detalles

Variables aleatorias continuas, TCL y Esperanza Condicional

Variables aleatorias continuas, TCL y Esperanza Condicional Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función

Más detalles

El Método de Stein y algunas Aplicaciones

El Método de Stein y algunas Aplicaciones El Método de Stein y algunas Aplicaciones Larry Goldstein University of Southern California El Método de Stein y algunas Aplicaciones Outline I. Teoría basica II. 2 Aplicaciones El Lema de Stein Caracterización

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Práctica 5 Martingalas a tiempo discreto

Práctica 5 Martingalas a tiempo discreto Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.

Más detalles

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Gustavo Rodríguez Gómez. Agosto Dicembre 2011 Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 44 Capítulo III Descomposición de Matrices 2 / 44 1 Descomposición de Matrices Notación Matrices Operaciones con Matrices 2

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

Medidas. Problemas para examen. Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez.

Medidas. Problemas para examen. Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez. Medidas Problemas para examen Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez. Sigma-álgebras 1. Propiedades elementales de σ-álgebras. Demuestre que una σ-álgebra es

Más detalles

Tema 6: Características numéricas asociadas a una variable aleatoria. Función generatriz de momentos

Tema 6: Características numéricas asociadas a una variable aleatoria. Función generatriz de momentos Tema 6: Características numéricas asociadas a una variable aleatoria. Función generatriz de momentos. Introducción En este Tema 6. construiremos y estudiaremos una serie de parámetros o características

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con

Más detalles

Clase 3: Vectores gaussianos *

Clase 3: Vectores gaussianos * Clase 3: Vectores gaussianos * Índice 1. Vectores gaussianos 1. Simulación de vectores gaussianos.1. Simulación de variables gaussianas: el método de Box-Muller.. Simulation of bi-dimensional Gaussian

Más detalles

Introducción. Capítulo Introducción. Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos

Introducción. Capítulo Introducción. Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos Capítulo 1 Introducción 1.1. Introducción Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos La distribución de esta variable aleatoria es Definimos M n = máx i n X i. P (M n x) = P

Más detalles

CONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p)

CONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p) PESQUIMAT, Revista de la F.C.M. de la Universidad Nacional Mayor de San Marcos Vol. 11- N"1 Pgs. 69-75 Lima - Perú Ag. 1999 CONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p) Wilfredo

Más detalles

TEMA 3.- VECTORES ALEATORIOS.- CURSO

TEMA 3.- VECTORES ALEATORIOS.- CURSO TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.

Más detalles

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números IV. Variables Aleatorias Continuas y sus Distribuciones de Probabilidad 1 Variable Aleatoria Continua Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo

Más detalles

Tema 3: Funcio n de Variable Aleatoria

Tema 3: Funcio n de Variable Aleatoria Tema 3: Funcio n de Variable Aleatoria Teorı a de la Comunicacio n Curso 2007-2008 Contenido 1 Función de una Variable Aleatoria 2 3 Cálculo de la fdp 4 Generación de Números Aleatorios 5 Momentos de una

Más detalles

1. Convergencia en medida

1. Convergencia en medida FACULTAD CS. FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE MA3801 Teoría de la Medida. Semestre 2009-02 Profesor: Jaime San Martín Auxiliares: Andrés Fielbaum y Cristóbal Guzmán Clase auxiliar 7 21 de Septiembre

Más detalles

Notas de clase. Prof. Nora Arnesi

Notas de clase. Prof. Nora Arnesi Notas de clase Este material está sujeto a correcciones, comentarios y demostraciones adicionales durante el dictado de las clases, no se recomienda su uso a aquellos alumnos que no concurran a las mismas

Más detalles

Matrices. Álgebra de matrices.

Matrices. Álgebra de matrices. Matrices. Álgebra de matrices. 1. Definiciones generales Definición 1.1 Si m y n son dos números naturales, se llama matriz de números reales de orden m n a una aplicación A : {1, 2, 3,..., m} {1, 2, 3,...,

Más detalles

I Conceptos Generales 1

I Conceptos Generales 1 Índice I Conceptos Generales 1 1. Procesos Estocásticos 3 1.1. Introducción............................ 3 1.2. Definición de proceso estocástico................ 4 1.3. Distribución de un proceso estocástico.............

Más detalles

Elementos Básicos de Análisis Funcional en. Dr. Oldemar Rodríguez Rojas

Elementos Básicos de Análisis Funcional en. Dr. Oldemar Rodríguez Rojas Elementos Básicos de Análisis Funcional en Análisis Numérico Dr. Oldemar Rodríguez Rojas Agosto 2008 Contents 1 Elementos Básicos de Análisis Funcional 2 1.1 Espacios normados...........................

Más detalles

Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y

Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y Profesores de TMDE Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y estadística Monograph 9 de septiembre de 23 Springer Índice general. Variables aleatorias

Más detalles

Material introductorio

Material introductorio Material introductorio Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Vanessa Gómez Verdejo Índice general. Variables aleatorias unidimensionales..................................

Más detalles

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 5.1. Concepto de proceso estocástico. Tipos de procesos. Realización de un proceso. 5.2. Características de un proceso estocástico. 5.3. Ejemplos de procesos

Más detalles

Tema1. Modelo Lineal General.

Tema1. Modelo Lineal General. Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La

Más detalles

Medida y Probabilidad

Medida y Probabilidad Medida y Probabilidad Jorge Salazar 1 Enero 2015 1 Con el apoyo del Programa PROMETEO/SENESCYT del Gobierno del Ecuador. ii Contents 7 Integral de Lebesgue 1 7.1 Integración de funciones simples.................

Más detalles

Cadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM

Cadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadenas de Markov Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadena de Markov Considere variable aleratorio X 0, X 1,... tomando valores en un conjunto finito o discreto, E. Entonces {X n } n 0 es

Más detalles

Ma34a Probabilidades y Procesos Estocásticos 21 de Noviembre, Resumen No. 3

Ma34a Probabilidades y Procesos Estocásticos 21 de Noviembre, Resumen No. 3 Ma34a Probabilidades y Procesos Estocásticos 21 de Noviembre, 2004 Resumen No. 3 Prof. Cátedra: M. Kiwi Prof. Auxiliares: M. Soto, R. Cortez 1 Variables Aleatorias 1.1 Variables Aleatorias Absolutamente

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

Curso Propedéutico de Cálculo Sesión 7:

Curso Propedéutico de Cálculo Sesión 7: Curso Propedéutico de Cálculo Sesión 7: Joaquín Ortega Sánchez Centro de Investigación en Matemáticas, CIMAT Guanajuato, Gto., Mexico Esquema 1 2 3 4 Esquema 1 2 3 4 Hasta ahora nos hemos enfocado en funciones

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 3 de septiembre del 013 Definamos más formalmente que entenderémos por una muestra. Definción Sea X la v.a. correspondiente a una población

Más detalles

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Curso 2016-2017 Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable

Más detalles

Vectores aleatorios (distribuciones multivariantes)

Vectores aleatorios (distribuciones multivariantes) Vectores aleatorios (distribuciones multivariantes) Tema 9. Distribución conjunta de un vector aleatorio. Distribuciones marginales y condicionadas Ignacio Cascos Depto. Estadística, Universidad Carlos

Más detalles

Valeri Makarov: Estadística Aplicada y Cálculo Numérico (Grado en Química)

Valeri Makarov: Estadística Aplicada y Cálculo Numérico (Grado en Química) Estadística Aplicada y Cálculo Numérico (Grado en Química) Valeri Makarov 10/02/2015 29/05/2015 F.CC. Matemáticas, Desp. 420 http://www.mat.ucm.es/ vmakarov e-mail: vmakarov@mat.ucm.es Capítulo 4 Variables

Más detalles

U3: Procesos Poisson. Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi

U3: Procesos Poisson. Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi U3: Procesos Poisson Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi Analizar el siguiente proceso estocástico: Una fuente radioactiva emite partículas y sea X t : número de partículas

Más detalles

Departamento de Matemática Aplicada a la I.T.T.

Departamento de Matemática Aplicada a la I.T.T. Departamento de Matemática Aplicada a la I.T.T. ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS EXAMEN FINAL Otoño 3 Duración: 3 horas FECHA: 9 de Enero de 4 Fecha publicación notas: 6--4 Fecha revisión

Más detalles

Distribución Gaussiana Multivariable

Distribución Gaussiana Multivariable Distribución Gaussiana Multivariable Carlos Belaustegui Goitia, Juan Augusto Maya 8 de Agosto de Resumen En este documento presentamos la deducción de la expresión de la función densidad de probabilidad

Más detalles

sup si A no es acotado.

sup si A no es acotado. Capítulo 5 Teoría de Baire 1. El teorema de Cantor En este capítulo estudiaremos más a fondo los espacios métricos completos. Lo primero que haremos es establecer la equivalencia entre completitud y la

Más detalles

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1 . Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo

Más detalles

Comportamiento asintótico de estimadores

Comportamiento asintótico de estimadores Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos

Más detalles

Integral de Lebesgue

Integral de Lebesgue Integral de Lebesgue Problemas para examen n todos los problemas se supone que (, F, µ) es un espacio de medida. Integración de funciones simples positivas. La representación canónica de una función simple

Más detalles

Procesos Estocásticos II

Procesos Estocásticos II Procesos Estocásticos II Capacitación técnica especializada en el nuevo marco de Solvencia Gerónimo Uribe Bravo Instituto de Matemáticas Universidad Nacional Autónoma de México CAPÍTULO 1 Martingalas

Más detalles

2.3. Aplicaciones del teorema de Baire a espacios de Banach

2.3. Aplicaciones del teorema de Baire a espacios de Banach 40 CAPÍTULO. COMPLETITUD Y CATEGORÍAS.3. Aplicaciones del teorema de Baire a espacios de Banach En esta sección, veremos algunas aplicaciones del teorema de Baire a espacios vectoriales normados. En particular,

Más detalles

Espacios vectoriales

Espacios vectoriales CAPíTULO 2 Espacios vectoriales 1. Definición de espacio vectorial Es frecuente representar ciertas magnitudes físicas (velocidad, fuerza,...) mediante segmentos orientados o vectores. Dados dos de tales

Más detalles

Análisis multivariante II

Análisis multivariante II Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid pedro.galeano@uc3m.es Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano

Más detalles

VARIABLES ALEATORIAS DISCRETAS

VARIABLES ALEATORIAS DISCRETAS VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:

Más detalles

Estadística. Grado en Biología. Universidad de Alcalá. Curso Capítulo 4: Variables Aleatorias. Fernando San Segundo. Actualizado:

Estadística. Grado en Biología. Universidad de Alcalá. Curso Capítulo 4: Variables Aleatorias. Fernando San Segundo. Actualizado: Grado en Biología. Universidad de Alcalá. Curso 2017-18. Fernando San Segundo. Actualizado: 2017-10-16 Fernando San Segundo. Actualizado: 2017-10-16 1 Qué es una variable aleatoria? Pronto veremos una

Más detalles

Tema 4: Variable Aleatoria Bidimensional

Tema 4: Variable Aleatoria Bidimensional Curso 2016-2017 Contenido 1 Definición de Variable Aleatoria Bidimensional 2 Distribución y fdp Conjunta 3 Clasificación de Variables Aleatorias Bidimensionales 4 Distribuciones Condicionales 5 Funciones

Más detalles

El Teorema de la Convergencia Dominada

El Teorema de la Convergencia Dominada Capítulo 22 l Teorema de la Convergencia Dominada Los dos teoremas de convergencia básicos en la integración Lebesgue son el teorema de la convergencia monótona (Lema 19.10), que vimos el capítulo y el

Más detalles

Movimiento Browniano o proceso de Wiener

Movimiento Browniano o proceso de Wiener 1 Movimiento Browniano o proceso de Wiener Se dice que Z [ ] es un proceso de Wiener o movimiento Browniano si Z es una función definida en algún intervalo I = [, T ] (eventualmente puede ser T = + ),

Más detalles

SUBSUCESIONES. Las sucesiones convergentes son acotadas, como hemos visto. El recíproco no es cierto. No toda sucesión acotada es covergente.

SUBSUCESIONES. Las sucesiones convergentes son acotadas, como hemos visto. El recíproco no es cierto. No toda sucesión acotada es covergente. ANÁLISIS MATEMÁTICO BÁSICO. SUBSUCESIONES. Las sucesiones convergentes son acotadas, como hemos visto. El recíproco no es cierto. No toda sucesión acotada es covergente. Ejemplo.. Sea la sucesión (x n

Más detalles

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso 2010-11 Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad y esperanza condicionada: recordatorio

Más detalles

Teoremas de la función inversa, función implícita y del rango constante

Teoremas de la función inversa, función implícita y del rango constante Teoremas de la función inversa, función implícita y del rango constante Pablo Zadunaisky 13 de marzo de 2015 A lo largo de este documento usamos varias normas sobre espacios vectoriales de dimensión finita,

Más detalles

Integración estocástica y tiempo local

Integración estocástica y tiempo local PONTIFICIA UNIVERSIDAD CATÓLICA DEL PERÚ ESCUELA DE POSGRADO Integración estocástica y tiempo local Tesis para optar el grado de Magíster en Matemáticas. Autor Juan Arturo Mogollón Aparicio. Asesor Dr.

Más detalles

Procesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26

Procesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26 Procesos de ramificación y árboles aleatorios. Juan Carlos Pardo Millán CIMAT, Guanajuato 1/ 26 Progama: Preliminares de probabilidad. Cadenas de Markov. Caminatas aleatorias. Procesos de Bienaymé-Galton-Watson.

Más detalles

Sucesiones Introducción

Sucesiones Introducción Temas Límites de sucesiones. convergentes. Sucesiones divergentes. Sucesiones Capacidades Conocer y manejar conceptos de sucesiones convergentes y divergentes. Conocer las principales propiedades de las

Más detalles