UNIVERSIDAD NACIONAL DE TRUJILLO LA INTEGRAL ESTOCÁSTICA DE ITO Y ALGUNAS APLICACIONES AL CAMPO DE LAS FINANZAS

Tamaño: px
Comenzar la demostración a partir de la página:

Download "UNIVERSIDAD NACIONAL DE TRUJILLO LA INTEGRAL ESTOCÁSTICA DE ITO Y ALGUNAS APLICACIONES AL CAMPO DE LAS FINANZAS"

Transcripción

1 UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS ESCUELA ACADÉMICO PROFESIONAL DE MATEMÁTICAS LA INTEGRAL ESTOCÁSTICA DE ITO Y ALGUNAS APLICACIONES AL CAMPO DE LAS FINANZAS Primera versión del informe final del trabajo de tesis Autor: Dennis Nicanor Quispe Sanchez Asesor: Dr. Obidio Rubio Mercedes Trujillo - Perú 211

2 ii

3 Presentación Señores miembros del jurado: En cumplimiento a lo dispuesto por el reglamento de la Universidad Nacional de Trujillo, para optar el título de Bachiller en Matemáticas, pongo a su disposición el presente trabajo titulado LA INTEGRAL ESTOCÁSTICA DE ITO Y ALGUNAS APLICACIONES AL CAMPO DE LAS FINANZAS, para que con su aprobación haga realidad mi deseada meta. Con la consideración de que este trabajo pueda estar incompleto, acepto honestamente todas sus apreciaciones y sugerencias que tengan a bien formular, lo cual me servirá para mejorarlo en el futuro. Trujillo, Febrero del 211 El Autor iii

4 iv

5 Introducción. En al cálculo de Newton-Leibniz, se aprende a derivar e integrar funciones determinísticas. Un teorema básico en diferenciación es la regla de la cadena, la cual nos da la derivada de una composición de dos funciones diferenciables.en cálculo avanzado, la integral de Riemann-Stieltjes es definida a través del mismo procedimiento de partición-evaluación-suma-límite como en la integral de Riemann. Al tratar con funciones aleatorias tales como funciones de un movimiento Browniano, la regla de la cadena para el cálculo de Newton-Leibniz falla. Un movimiento Browniano se mueve tan rápida e irregularmente que casi todos sus caminos muestrales son no diferenciables, así no podemos derivar funciones de un movimiento Browniano de la misma forma como en el cálculo de Newton-Leibniz. En 1944, Kiyosi Ito publicó el celebrado paper Stochastic Integral en la Academia Imperial de Tokyo, este fue el inicio del cálculo de Ito, la contraparte del cálculo de Newton-Leibniz para funciones aleatorias. En la sexta página de su paper, Ito introdujo la integral estocástica y una fórmula, conocida desde entonces como la fórmula de Ito. La fórmula de Ito es la regla de la cadena para el cálculo de Ito, pero esta no puede ser expresada como en el cálculo de Newton-Leibniz en términos de derivadas,puesto que un movimiento Browniano es no diferenciable.la fórmula de Ito puede ser interpretada solamente en forma integral,además existe un término adicional en la fórmula, llamado término corrección de Ito, resultante a partir del hecho de que la variación cuadrática de un movimiento Browniano es diferente de cero. Antes que Ito introduzca la integral estocástica en 1944, integrales informales que v

6 vi envolvían ruido blanco (La derivada no existente de un movimiento Browniano, ya habían sido usadas por científicos, la idea innovadora de Ito fue considerar el producto de ruido blanco y el diferencial de tiempo como un diferencial de movimiento Browniano y usarlo como un integrador. El método usado por Ito para definir una integral estocástica es una combinación de las técnicas en la integral de Riemann- Stieltjes(con respecto al integrador y la integral de Lebesgue(con respecto al integrando. El cálculo de Ito fue originalmente motivado por la construcción de procesos de difusión a partir de generadores infinitesinmales, las construcciones previas de tales procesos habían sido realizadas a través de tres pasos, vía la teoría de Hille Yosida, el teorema de representación de Riesz,y el teorema de extensión de Kolmogorov. Sin embargo, Ito construyó estos procesos de difusión directamente en un solo paso como soluciones de ecuaciones diferenciales estocásticas asociadas con los generadores infinitesimales, además, las propiedades de estos procesos pueden ser obtenidos a partir de las mismas ecuaciones y la fórmula de Ito. Durante las últimas cuatro décadas la teoría de integración estocástica de Ito ha sido exitosamente estudiada y aplicada a un amplio rango de campos científicos. Aunque la más notable aplicación es en la teoría de finanzas, en Economía,desarrollada por Fischer Black, Robert Merton y Myron Scholes en la década de los 7,(1973. En este trabajo estamos interesados en la aplicación del cálculo de Ito en el campo de las finanzas, en donde la mayor parte de fenómenos económicos son modelados por ecuaciones diferenciales estocásticas de la forma: ds(t = µ(s, tdt + σ(s, tdw (t, S R +, t, T...(, donde µ(x, t y σ(x, t son funciones medibles con respecto a x R, t, T y W (t es un movimiento Browniano. Para hallar la solución de (* se hace necesario saber como se resuelve o integra una ecuación diferencial estocástica, para ello necesitamos definir una nueva integral la cual tiene como integrando a un proceso estocástico

7 vii f(t, w y como integrador a un movimiento Browniano W (t, w : f(t, wdw (t, w Nuestro objetivo es definir la integral estocástica, para una amplia clase de procesos f(t, w. Entonces el problema que resulta es Qué condiciones son necesarias imponer para la construcción de la integral estocástica de Ito? El presente trabajo se ha dividido en cuatro capítulos: En el capítulo 1, presentamos las nociones básicas de teoría de probabilidad y procesos estocásticos, en especial el proceso de Wiener o movimiento Browniano,del cual damos su definición y mostramos sus principales propiedades,las cuales nos servirán en el capítulo siguiente. En capítulo 2, definimos la integral estocástica de Ito y mostramos sus principales propiedades. En el capítulo 3, extenderemos la integral estocástica a una clase más amplia de procesos estocásticos. En el capítulo 4, demostraremos el Lema de Ito y veremos algunas aplicaciones a la solución de ecuaciones diferenciales estocásticas y al campo de las finanzas, para finalmente dar las conclusiones del presente trabajo con su respectiva bibliografía. El Autor

8 viii

9 Índice general Presentación II Introducción IV 1. Preliminares Variables Aleatorias y Leyes de Probabilidad Procesos Estocásticos Descripción de la Ley de Probabilidad de un Proceso Estocástico El Movimiento Browniano o Proceso de Wiener La Integral Estocástica de Ito Motivación Filtraciones para un Movimiento Browniano Integral Estocástica Los espacios L 2 ad (, T Ω y E Definición de la Integral Estocástica en E y sus propiedades El espacio E es denso en L 2 ad (, T Ω Definición de la Integral Estocástica de Ito en el espacio L 2 ad (, T Ω y sus propieades Procesos Estocásticos definidos por Integrales de Ito Extensión de la Integral Estocástica de Ito Una clase más Amplia de Integración ix

10 x ÍNDICE GENERAL 3.2. Un Lema de Aproximación Definición de la Integral Estocástica de Ito en el espacio L ad (Ω, L 2, T La Fórmula de Ito Motivación Proceo de Ito Aplicaciones de la Integral Estocástica Ecuaciones Diferenciales Estocásticas Existencia y unicidad Aplicaciones del Lema de Ito La E.D.P. de Black - Scholes ( Conclusiones 82 Bibliografía 84

11 Capítulo 1 Preliminares En este capítulo, presentaremos los principales resultados en teoría de probabilidad y procesos estocásticos que serán usados en el siguiente capítulo, en especial nos enfocaremos en un proceso estocástico en especial: El Proceso de Wiener o también llamdo Movimiento Browniano. Enunciaremos y demostraremos algunas de sus propiedades, las cuales usaremos para definir la integral estocástica de Ito Variables Aleatorias y Leyes de Probabilidad Para dar la definición formal de variable aleatoria tenemos que dar la noción de espacio muestral de representación, sucesos y función probabilidad. Definición 1.1 El espacio muestral de representación Ω es el espacio de las representaciones de todos los resultados posibles del fenómeno. Definición 1.2 Un suceso es un conjunto de representaciones muestrales. Se dice que ocurre un suceso E si y sólo si el resultado observado del fenómeno aleatorio tiene una representación muestral en Ω. Observación: Se ha de tener en cuenta que por razones técnicas, normalmente no se permite que todos los subconjuntos de Ω sean sucesos. En lugar de ello y como familia F de sucesos, se trabajará con una familia F de subconjuntos de Ω que tengas las propiedades siguientes: 1. Ω F. 1

12 Variables Aleatorias y Leyes de Probabilidad 2. E F E c F. 3. Si E i F, i = 1, 2,..., entonces E i F. i=1 Esta familia toma el nombre de σ álgebra. Para el desarrollo de la teoría matemática de probabilidades a menudo basta tomar como familia de sucesos la familia más pequeña de subconjuntos de Ω que poseen propiedades 1-3 y además contengan todos los subconjuntos que esperamos nos interesan. Definición 1.3 Suponga que un espacio muestral Ω está asociado a un expermiento y F una familia de sucesos aleatorios. La función de probabilidad P es una aplicación: P : F R, tal que: 1. PE, E F. 2. P(Ω = 1. ( 3. Si E i F, i = 1, 2,..., E i E j =, i j entonces P E i = P(E i. i=1 i=1 En la teoría aplicada de las probabilidades, no se emplean explícitamente los espacios muestrales de representación. En vez de ello, se tratan la mayor parte de problemas en función de variables aleatorias. Se dice que E es un conjunto de Borel, si E puede obtenerse por un número de operaciones numerable, partiendo de un conjunto abierto, consistiendo cada operación en tomar uniones, intersecciones o complementos. La familia B = {B/B es Borel}, que es una σ-álgebra de Borel. Además B es la menor σ-álgebra que contiene a todos los abiertos. Definición 1.4 Se dice que X es una variable aleatoria si:

13 1. Preliminares 3 1. X : Ω R. Es una función de valor real definida en el espacio muestral de representación Ω en cuya familia F de sucesos se ha definido la función probabilidad P. 2. {ω/x(ω B} F, donde B B. Definición 1.5 La función de probabilidad de una variable aleatoria X es una aplicación: P X : B B B P X B = P{ω/X(ω B}. si Definición 1.6 Las Variables Aleatorias X e Y están distribuidas idénticamente P X B = P X B, B B Definición 1.7 La función distribución de la Variable X está definida por F X : R R + x F X (x = PX x. Observación: 1. F X (x = P X x = P X, x = P ω/x(ω, x = P X, x = P X 1, x. 2. F X es no decreciente,f X ( = y F X (+ = 1. Definición 1.8 Una variable aleatoria X se llama continua si existe una función llamada de densidad de probabilidad de X y representada por f X (, en función de la

14 Variables Aleatorias y Leyes de Probabilidad cual se pueda representar P X como una integral, para cualquier conjunto de Borel B: P X B = PX B = f X (xdx. B Observación: Ya que F X (x = x f X (tdt ; < t < x. Se deduce que : Para todo x en los que exista la derivada. f X (x = d dx F X(x. Definición 1.9 Decimos que la variable aleatoria X tiene distribución normal o Gaussiana de parámetros m y σ, si su función densidad es dada por f(x = 1 (x m2 e 2σ 2. 2πσ 2 Definición 1.1 El valor esperado de una variable aleatoria X representado por EX, se define (cuando existe mediante: E(x = xdf X (x = xf X (xdx. siempre que existan las integrales. Definición 1.11 La Varianza de X se define mediante: V ar X = E (X E X 2. Definición 1.12 La desviación típica de una variable aleatoria X se define mediante: σx = V arx.

15 1. Preliminares 5 Definición 1.13 Se dice que varias variables aleatorias X 1, X2,..., Xn están distribuidas conjuntamente si están definidas como funciones en el mismo espacio muestral de representación. Su función conjunta de distribución es: F X1,X 2,...,X n (x 1, x 2,..., x n = P X 1 x 1,..., X n x n. = P {ω : X 1 (ω x 1,..., X n (ω x n }. Definición 1.14 Se dice que las variables aleatorias distribuidas conjuntamente X 1, X 2,..., X n son independientes si y sólo si es cierto uno de los enunciados equivalentes que se indican acontinuación: 1. Criterio en función de las funciones de distribución B 1,..., B n conjuntos de Borel, P X 1 B 1,..., X n B n = P X 1 B 1... P X n B n. 2. Criterio en función de las funciones de distribución x 1,..., x n R. F X1,...,X n (x 1,..., x n = F X1 (x 1... F Xn (x n. 3. Criterio función de las esperanzas matemáticas: g 1 (,..., g n ( funciones medibles y acotadas E g 1 (x 1,..., g n (x n = E g 1 (x 1... E g n (x n. Definición 1.15 Una variable Aleatoria E X A es llamada la esperanza condicional de X relativa a la σ álgebra A si X L 1 (Ω y 1. E X A es A - medible 2. E X A dp = xdp, A A A A Teorema 1.1 Sean X e Y variables aleatorias en L 1 (Ω y A F, una σ álgebra, entonces se cumplen 1 : 1 Para demostración ver 5

16 Variables Aleatorias y Leyes de Probabilidad 1. Si X Y entonces E X A E Y A 2. E ax + by A = ae X A + by A, R 3. Si X es A -Medible y XY es integrable entonces E XY A = X 4. Si Y es A -Medible y XY es integrable entonces E XY A = Y E X A 5. Si A 1, A 2 son σ-álgebras tal que A 1 A 2 son σ-álgebras tal que A 1 A 2, entonces E E X A 2 A 1 = E X A 1 En teoría de probabilidades como en análisis necesitamos usar varias clases de convergencia de variables aleatorias. Tres de estas son particularmente importantes: 1. Convergencia en Probabilidad 2. Convergencia con Probabilidad uno 3. Convergencia en L P (Ω Definición 1.16 La Sucesión de variables aleatorias (x n n 1 converge en Probabilidad a la variable aleatoria X, si para cada ɛ > NOTACIÓN: X n lím P ω Ω/ X n(ω X(ω > ɛ = P X Definición 1.17 La sucesión en variables aleatorias (X n n 1 converge con probabilidad Uno a la variable aleatoria X, si: NOTACIÓN: X n P.1 X P ω Ω/ lím X n (ω = X(ω = 1

17 1. Preliminares 7 Definición 1.18 La sucesión en variables aleatorias (X n n 1 converge en media de orden p, < p < a la variable X si, NOTACIÓN:X n L p X lím E X n X P = Observación: Decimos que las variables aleatorias X 1, X 2,... son independientes, si n N, las variables aleatorias X 1,..., X n son independientes. Lema 1.1 Sea (Y n n 1 una sucesión de variables aleatorias, entonces las siguientes condiciones son equivalentes Y n P.1 2. ɛ > lím P {ω/ Y n ɛ} = k n=k P.1 P Teorema 1.2 Si X n X, entonces X n X Demostración: Considerar Y n = X n X así el problema se reduce a la discusión de la convergencia de Y n a cero. P.1 Puesto que Y n por el lema 1.1 tenemos: lím P {ω/ Y n (ω ɛ} = (1.1 k pero {ω : Y k ɛ} entonces: n=k {ω : Y n (ω ɛ} n=k P ω Ω : Y k (ω ɛ P {ω : Y n (ω ɛ} n=k lím k P ω ω : Y k (ω ɛ lím k P 2 Para demostración ver5 n=k : Y n (ω ɛ

18 Variables Aleatorias y Leyes de Probabilidad Por lo tanto, por (1.1 lím k P ω Ω : Y k (ω =. X n P X. (1.2 Lema 1.2 (Desigualdad de Chebyshev Si X es una variable aleatoria no negativa ɛ >, < p < entonces: 3 Teorema 1.3 Si X n Demostración: P X ɛ E Xp ɛ p. (1.3 L P P X entonces X n X. Sea Y n = X n X, entonces Y n es un variable aleatoria no negativa, por hipótesis tenemos que: lím E X n X p = (1.4 así por la desigualdad de Chebyshev (Lema 1.2 tenemos que: P Y n ɛ E Y p n ɛ p P X n X ɛ E X n X 2 ɛ 2. (1.5 Usando (1.4 en (1.5 obtenemos: lím P X n X ɛ =. (1.6 Por lo tanto: X n P X. (1.7 3 Para demostración ver5

19 1. Preliminares 9 Lema 1.3 (Borel-Cantelli Si Demostración: líma n = n=1 n=1 m=n P(A n < entonces P lím sup A n =. A m m=n A m, Así, P ( líma n P A n P A m < ɛ m=n m=n Si ɛ tenemos que P lím sup A n =. (1.8 Teorema 1.4 Si X n P X entonces existe una subsucesión X kn a X con probabilidad uno, es decir, X kn P.1 X 4 que converge 1.2. Procesos Estocásticos Se considera a la teoría de probabilidad como el estudio de los modelos matemáticos de fenómenos aleatorios. Se define un fenómeno aleatorio como un fenómeno empírico que obedece leyes probabilísticas, más que determinísticas. Un fenómeno aleatorio que surge en un proceso (por ejemplo, el movimiento Browniano que consta de una partícula de polen en el agua ó la producción variable de gasolina en ciclos de trabajo sucesivos de una planta de refinado de petróleo que se desarrolla en el tiempo de una manera controlada por medio de leyes probabilísticas, se denomina un proceso estocástico. Definición 1.19 Un proceso estocástico es una función X :, T Ω R tal que, para cada t fijo, X(t, es una variable aleatoria y para cada ω fijo, X(, ω es una función medible definida sobre, T. 4 Para demostración ver5

20 Descripción de la Ley de Probabilidad de un Proceso Estocástico Definición 1.2 El proceso estocástico X(t, ω se llama medible si la aplicación (t, ω X(t, w es medible con respecto a la σ álgebra producto B(R f. Definición 1.21 El proceso estocástico X(t, ω se llama acotado si existe una constante K tal que para todo w Ω y t, X(t, ω K. Definición 1.22 Sean X(t, ω, Y (t, ω procesos estocásticos definidos sobre (Ω, F, P. Se dice que Y es una realización de X si Pw Ω : X(t, ω = Y (t, ω = 1, t NOTACIÓN: Denotaremos a un proceso estocástico de una de las siguientes formas {X(t; t } ó X(t, ω 1.3. Descripción de la Ley de Probabilidad de un Proceso Estocástico Parece adecuado considerar que un proceso estocśtico X(t, t. Se puede representar para propósitos prácticos de manera conveniente mediante un cierto número finito de ordenadas. Por consiguiente, una manera de representar un proceso estocástico X(t, t consiste en especificar la ley de probabilidad conjunta de las n- variables aleatorias X(t 1,..., X(t n para todos los enteros n y n puntos t 1, t 2,..., t n en, τ Para especificar la ley de probabilidad conjunta de las n variables aleatorias X(t 1,..., X(t n, se debe especificar bien: 1. La función e distribución conjunta, dada por los números reales x 1, x 2,..., X n por: F Xt1,...,tn (x 1, x 2,..., x n = P X t1 x 1,..., X tn x n. Ejemplos:

21 1. Preliminares La sucesión de sumas consecutivas S n = X 1 + X X n de variables aleatorias independientes X n constituye un proceso estocástico. (Parámetro discreto 2. Considérese el proceso estocástico de parámetro continuo X(t, ω definido por: X(t, ω = Acos(ωt + Bsen(ωt. donde la frecuencia ω es una constante positiva conocida y A y B son variables aleatorias independientes distribuidas normalmente con medias y varianza σ 2 Definición 1.23 Sea X(t, ω un proceso estocástico, entonces F t := σ{x(s; s t}. La σ álgebra generada por las variables aleatorias X(s para s t, es llamada la historia del proceso hasta el instante t. Definición 1.24 Una filtración sobre, T es una familia creciente F = {F t ; t T } de σ álgebras. Un proceso estocástico X(t; t T, se dice adaptado a F, si para cada t, la variable aleatoria X(t, es F t medible Definición 1.25 Sea {X(t; t T } un proceso estocástico adaptado a la filtración F = {F t ; t T } y E X(t para todo t, T. Entonces {X(t; t, T } es llamada un martingala con respecto a F si para cualquier s T en, T, EX(t F s = X(s casi seguro. En el caso de que la filtración no sea especifivada, entonces la filtración F = {F t ; t T } es entendida como la generada por las variables aleatorias X(s, s t, es decir: F t = σ{x(s; s t}

22 El Movimiento Browniano o Proceso de Wiener. El concepto de martingala es una generalización de la sucesión de sumas parciales a partir de una sucesión {X n } n 1 de variables aleatorias independientes idéntivamente distribuidas con medida cero. Sea S n = X X n entonces la sucesión {S n } n 1 es un martingala. Martingalas son importantes en teoría de la probabilidad principalmente porque ellas admiten las siguientes poderosas estimativas. Teorema 1.5 Sea {X(t; t T } un proceso estocástico con caminos muestrales continuos casi seguro, 5 i Si {X(t; t T } es un martingala, entonces P w Ω : máx t T X(t, w λ 1 λ E X(T, w, para todo λ > ii Si 1 < p < entonces E ( p p máx X(t p E X(T p t T p El Movimiento Browniano o Proceso de Wiener El Movimiento Browniano fue observado físicamente por un botanista llamado Robert Brown (1928, quien notó que cuando el polen es dispersado en el agua las patículas supendidas realizan un camino aleatorio en tres dimensiones. Este fenómeno fue estudiado por Einstein (195, quien dio una teoría elegante en una serie de trabajos donde describe el movimiento de las partículas suspendidas bajo la acción de una fuerza fluctuante. Ver 2. Lois Bachelier usó el movimiento Browniano como un modelo de precios de acciones (19 en su teoría de la especulación. Pero fue Norbert Wiener (1923 el 5 Para demostración ver4

23 1. Preliminares 13 primer matemático que dió la primera construcción rigurosa del movimiento Browniano. En esta sección definiremos un movimiento Browniano y desarrollaremos sus propiedades básicas. Para nosotros, las propiedades más importantes del movimiento son que éste es un martingala y que éste acumula variación cuadrática a razón de uno por unidad de tiempo. Este hace el cálculo estocástico de Ito diferente del cálculo de Newton - Leibniz. Definición 1.26 Un proceso estocástico W (t, w es llamado un movimiento Browniano estándar si satisface las siguientes condiciones: i Pw Ω : W (, w = = 1 ii Para cualquier s < t, la variable aleatoria W (t W (s es normalmente distribuida con media cero y varianza t s, es decir, para cualquier a < b, Pw Ω : a W (t, w W (s, w b = 1 2π(t s b a e x2 2(t s dx iii W (t, w tiene incrementos independientes, es decir, para cualquier t 1 < t 2 <... < t n las variables aleatorias son independientes. W (t 1, W (t 2 W (t 1,..., W (t n W (t n 1 iv Casi todos los cambios muestrales de W (t, w son funciones continuas, es decir: Pw Ω : W (, w es continuo = 1 Un movimiento Browniano es algunas veces definido como un proceso estocástico W (t, w que satisface las condiciones (i,(ii,(iii en definición Tal proceso estocástico sienmpre tiene una realización continua, es decir existe Ω tal que P(Ω = 1 y para cualquier w Ω, W (t, w es una función continua de t.éste hecho puede ser fácilmente verificado aplicando el siguiente teorema de continuidad de Kolmogorov:

24 El Movimiento Browniano o Proceso de Wiener Teorema 1.6 Sea {X(t; t T } un proceso estocástico y asumir que existen constantes α, β, C > que satisfacen la desigualdad. E X(t X(s β C t s 1+α, para todo t, s T Entonces {X(t; t T } tiene una realización continua. 6 Así puesto que E W (t W (s 4 = 3 t s 2, el movimiento Browniano satisface las condiciones del teorema con β = 4, α = 1 y C = 3. Lema 1.4 Suponer que W (t, w es un movimiento Browniano estándar. Entonces EW (tw (s = mín{t, s} para t, s Demostración: Asumir t s. Entonces EW (tw (s = E(W (s + W (t W (sw (s = EW (s 2 + E(W (t W (sw (s = s + EW (t W (sew (s = s = mín{t, s}. Puesto que W (s es N(, s y W (t W (s es independiente de W (s. Si X(t, w es cualquier proceso estocástico con EX(t 2 < para todo t definiremos: r(t, s := EX(tX(s, t, s la función autocorrelación de X(t, w. Si r(t, s = C(t s para alguna función C : R R y si EX(t = EX(s, para todo t, s, X(t, w es llamado estacionario en el sentido amplio. Un ruido blanco {ξ(t; t T } es por definición, Gaussiano, estacionario en el sentido amplio, con C( = δ. Ver 3. 6 Para demostración ver3

25 1. Preliminares 15 Definición 1.27 Un ruido blanco es definido como un proceso gaussiano estacionario en el sentido amplio generalizado,{ξ(t; t T } con media Eξ(t = y función autocorrelación Eξ(tξ(s = δ (t s.donde δ es la función delta de Dirac en. Teorema 1.7 Existencia de un Movimiento Browniano Sea (Ω, F, P un espacio de probabilidad sobre el cual son definidas una sucesión de variables aleatorias independientes {A n } normalmente distribuidas con media cero y varianza uno. Entonces existe un movimiento Browniano W (t, w definido para w Ω y t. 7 Ahora mostraremos que para casi todo w, el camino muestral t W (t, w es uniformemente Hölder continuo para cada exponente γ > 1, pero no es Hölder continuo 2 con cualquier exponente γ > 1. En particular t W (t, w es no diferenciable y de 2 variación infinita para cada intervalo casi seguro. Definición 1.28 i Sea < γ 1. Una función f :, T R es llamada uniformemente Hölder continua con exponente γ > si existe una constante k tal que f(t f(s k t s γ para todo s, t, T ii Decimos que f es Hölder continua con exponente γ > en el punto s, si existe una constante k tal que f(t f(s k t s γ para todo t, T Teorema 1.8 Sea X(t, w un proceso estocástico con caminos muestrales continuos casi seguro, tal que: E X(t X(s β C t s 1+α para constantes β, α >, C y para todo t, s. Entonces para cada < γ < α, T > y casi todo w, existe una constante k = β 7 Para demostración ver3

26 El Movimiento Browniano o Proceso de Wiener k(w, γ, T tal que: X(t, w X(s, w k t s γ para todo s, t T 8 Considerar un movimiento Browniano estándar. Tenemos que para todos los enteros m = 1, 2,... E W (t W (s 2m = 1 2πr x 2m e x2 2r dx, para r = t s > = R 1 r m 2π y 2m e y2 2 dy ( y = x r R = Cr m = C t s m Así las hipótesis del teorema 1.8 son válidas para β = 2m, α = m 1. Así el proceso W (t, w es Hölder continuo casi seguro, para exponentes: < γ < α β = m 1 2m = m m N Entonces el camino muestral t W (t, w es uniformemente Hölder continuo sobre, T para cada exponente < γ < 1 2. Teorema 1.9 i Para cada 1 2 continuo con exponente γ. < γ 1 y casi todo w W (t, w no es Hölder ii En particular, para casi todo w, el camino muestral t W (t, w es no diferenciable y es de variación infinita sobre cada subintervalo. 9 Acontinuación probaremos dos teoremas los cuales son de gran utilidad en el siguiente capítulo. Teorema 1.1 Sea W (t, w un movimiento Browniano y F t = σ{w (s; s t} entonces W (t, w es un martingala. 8 Para demostración ver4 9 Para demostración ver4

27 1. Preliminares 17 Demostración: Para cualquier s t E W (t F s = E W (t W (s Fs + E W (s Fs Puesto que W (t W (s es independiente de F s tenemos que E W (t W (s F s = E W (t W (s =. Por otro lado E W (s Fs = W (s pues W (s es F s medible. Entonces E W (t F s = W (s s t Definición 1.29 Sea f(t una función definida para t T la variación cuadrática de f hasta el instante T es f, f (T = lím P W (ti W (t i 1 2 donde P = {t, t 1,..., t n } y = t < t 1 <... < t n = T. i=1 Observación: Muchas funciones tienen derivadas continuas, y entonces su variación cuadrática es cero. Por esta razón, nunca se considera variación cuadrática en el cálculo de Newton - Leibniz. Teorema 1.11 Sea P = { = t < t 1 <... < t n = T } una partición del intervalo, T. Entonces W, W (T = lím P ( W (ti W (t i 1 2 = T en L 2 (Ω i=1 Demostración: Notar que T = (t i t i 1 y así sea i=1 Φ n = ( W (ti W (t i 1 2 (ti t i 1 = i=1 i=1 X i

28 El Movimiento Browniano o Proceso de Wiener donde X i = ( W (t i W (t i 1 2 (ti t i 1. Entonces Φ 2 n = X i X j i,j=1 Para i j, tenemos E X i X j = puesto que W (t tiene incrementos independientes y E W (t W (s 2 = t s. Por otro lado E W (t W (s 4 = 3 t s 2 y así para i = j tenemos E Xi 2 = ( E W (ti W (t i 1 4 2(ti t i 1 ( W (t i W (t i (ti t i 1 2 = 3(t i t i 1 2 2(t i t i (t i t i 1 2 = 2(t i t i 1 2 Por lo tanto, obtenemos que: E Φ 2 n = 2(t i t i P (t i t i 1 i=1 i=1 = 2 P T si P esto demuestra que Φ n converge a en L 2 (Ω.

29 Capítulo 2 La Integral Estocástica de Ito Sea W (t, w un movimiento Browniano. En este capítulo estudiaremos la primera integral estocástica f(t, wdw (t, w definida por Kiyosi Ito en su paper de 1944: Stochastic Integral. El integrando f(t, w es un proceso estocástico adaptado a la filtración F t = σ{w (s; s t} y E( f(t, w 2 dt < Motivación La teoría de integración estocástica de Ito fue originalmente motivada como un método directo para construir procesos de difusión (una subclase de procesos de Markov como soluciones de ecuaciones diferenciales estocásticas. Pero esta puede también ser motivada a partir del punto de vista de martingalas. Sea W (t, w un movimiento Browniano entonces: Cómo podemos definir una integral estocástica estocástico f(t, w de tal forma que el proceso estocástico f(t, wdw (t, w para un proceso X(t, w = f(s, wdw (s, w, t T. sea un martingala? Para obtener algunas ideas necesarias para responder a esta pregunta, vamos a considerar un ejemplo simple, sea f(t, w = W (t, w, así la integral 19

30 Motivación en cuestión es W (t, wdw (t, w. Sea P = {t, t 1,..., t n } una partición de, T. Sean L n y R n las correspondientes sumas de Riemann - Stieljes con puntos de evaluación τ i = t i 1 y τ i = t i respectivamente, es decir: Luego tenemos: L n = R n = W (t i 1 (W (t i W (t i 1, (2.1 i=1 W (t i (W (t i W (t i 1. (2.2 i=1 R n L n = (W (t i W (t i 1 2. (2.3 i=1 Así el límite lím (R n L n, si existe, es la variación cuadrática del movimiento Browniano W (t, w, que por el teorema 1.11 es igual a T lím (R n L n = T P en L 2 (Ω Luego lím R n lím L n. Pero cuáles son estos límites?. Para encontrar la respuesta, notar P P que R n + L n = (W (t i 2 W (t i 1 2 = W (t n 2 W (t 2 = W (T 2 (2.4 i=1 Obviamente, se sigue de las ecuaciones (2.3 y (2.4 que R n = 1 2 L n = 1 2 ( W (T 2 + ( W (T 2 + (W (t i W (t i 1 2 i=1 (W (t i W (t i 1 2 i=1 Podemos usar el teorema y tomar el límite en L 2 (Omega de R n y L n para obtener lím R n = 1 P 2 (W (T 2 + T. (2.5 lím P L n = 1 2 (W (T 2 + T. (2.6

31 2. La Integral Estocástica de Ito 21 Cuál de las ecuaciones (2.5 y (2.6 debe ser elegida para ser la integral W (t, wdw (t, w? es decir, cuál de los puntos de evaluación debe usarse para la evaluación del integrando? Para responder a esta pregunta, definamos los procesos estocásticos: R(t = 1 2 (W (t2 + t, L(t = 1 2 (W (t2 t Notar que E(R(t, w = t. Luego R(t, w no es un martingala, puesto que E(X(t debe ser una constante para cualquier martingala (X(t t. Por otro lado, L(t, w es un martingala. Esto puede ser verificado como sigue. Sea F t = σ{w (s; s t} luego para cualquier s t E(L(t, w f s = 1 2 E(W (t, w2 f s 1 2 t (2.7 pero E(W (t, w 2 f s = t s + W (s, w 2, así reemplazando en la ecuación (2.7 obtenemos: E(L(t f s = 1 2 (W (s2 s = L(s, s t Esto muestra que (L(t t es un martingala. A partir de este simple ejemplo podemos concluir lo siguiente: Si queremos tener la propiedad de martingala para la aún a ser definida integral estocástica f(s, wdw (s, w, debemos elegir el punto de evaluación τ i = t i 1 de cada subintervalo de la partición P = {t i } n i=. Además, considerar otro ejemplo simple: X(t, w = W (1, wdw (s, w, t 1. Intuitivamente, esperamos que: X(t, w = W (1, ww (t, w, pero el proceso estocástico X(t, w no es un martingala ya que E(W (1W (t = mín{1, t} = t, el cual no es una constante. La razón para que tal integral no este definida (cuando

32 Filtraciones para un Movimiento Browniano queremos obtener martingalas es por que el integrando W (1, w no es adaptado a la filtración σ{w (s; s t}, t 1. Así tenemos un importante requerimiento para el integrando. Si queremos tener la propiedad martingala para la aún a ser definida integral estocástica f(s, wdw (s, w, necesitamos asumir que el integrando sea adaptado a la filtración F t = σ{w (s; s t}. En general permitiremos que {F t ; t T } sea una filtración más amplia que la generada por el movimiento Browniano, es decir F t σ{w (s; s t} para todo t Filtraciones para un Movimiento Browniano Como apuntamos en la sección previa, la aún a ser definida integral estocástica f(t, wdw (t, w debe tener la propiedad que cuando T es reemplazado por t el proceso estocástico resultante, X(t, w = f(s, wdw (s, w, t T es un martingala con respecto a la filtración F W t = σ{w (s; s t}. Recordar que W (t, w tiene incrementos independientes. Esta propiedad implica que W (t, w es un martingala con respecto a la filtración {Ft W }. En efecto la propiedad de incrementos independientes es relacionada a la independencia de incrementos con respecto a una filtración {F t ; t T } según la siguiente proposición. Proposición 2.1 Si W (t, w, t, es un proceso estocástico adaptado a la filtración F = {F t ; t } tal que W (t, W (s, es independiente de F s, para cualquier s t, entonces el proceso estocástico W (t, w tiene incrementos independientes. 1 1 Para demostración ver3

33 2. La Integral Estocástica de Ito 23 Ahora suponer que W (t, w es un proceso estocástico que satisface las condiciones (i, (ii y (iv de un movimiento Browniano en la definición 1.26 Además, suponer que existe una filtración {F t ; t } tal que W (t, w satisface las hipótesis de la proposición 2.1 es decir, W (t, w es {F t } adaptado y W (t, W (s, es independiente de F s para cualquier s t. Entonces por la proposición 2.1, el proceso estocástico W (t, w tiene incrementos independientes, es decir, satisface la condición (iii de un movimiento Browniano en la definición 1.26, por lo tanto W (t, w es un movimiento Browniano de acuerdo a la definición Luego decimos que W (t, w es un movimento Browniano con respecto a la filtración {F t ; t } si esta satisface condiciones (i, (ii y (iv en la definición 1.26 y la hipótesis de la proposición 2.1 con respecto a {F t ; t }. Suponer que W (t, w es un movimiento Browniano con respecto a la filtración {F t ; t }. Sea {G t ; t } otra filtración tal que F G para todo t. En general no es cierto que W (t, w es aún un movimiento Browniano con respecto a {G t ; t } como lo muestra el siguiente ejemplo: Ejemplo: Sea W (t, w un movimiento Browniano. Luego este es un movimiento Browniano con respecto a la filtración Ft W = σ{w (s; s t}. Considerar la filtración {G t ; t } dada por: G t = la σ álgebra generada por W (1, w y Ft W, t Entonces W (t, w no es un movimiento Browniano con respecto a la filtración {G t ; t }. Para ver este hecho, simplemente notar que para cualquier < t < 1. EW (1, w G t = W (1 W (t Luego W (t, w no en un martingala con respecto a {G t ; t }. Se sigue que W (t, w no es un movimiento Browniano con respecto a {G t ; t }.

34 Integral Estocástica Así a partir de ahora consideraremos una filtración con respecto a la cual W (t, w sea un movimiento Browniano. Queremos permitir que el integrando f(t, w en la aún a ser definida integral estocástica f(t, wdw (t, w pertenezca a una clase amplia de procesos estocásticos. En particular, el integrando f(t, w no es requerido que sea adaptado con respecto a la filtración {Ft W ; t } como veremas en las secciones posteriores Integral Estocástica Motivados por la discusión anterior, a partir de ahora fijaremos un movimiento Browniano estándar W (t, w sobre un espacio de probabilidad filtrado (Ω, F, F, P cuya filtración F = {F; t T } satisface las siguientes condiciones: a Para cada t, T, W (t es F t medible. b Para cualquier s t, la variable aleatoria W (t W (s es independiente de la σ álgebra F s Los espacios L 2 ad (, T Ω y E Por conveniencia, usaremos L 2 ad (, T Ω para denotar al espacio de todos los procesos estocásticos f(t, w, t T, w Ω, que satisfacen las siguientes condiciones: (1 f(t, w es medible y adaptado a la filtración F = {F t ; t T }. (2 E( f(t, w 2 dt <. En esta sección usaremos las ideas originales de Kiyosi Ito en su paper: Stochastic Integral de 1944, para definir la integral estocástica: I(f = f(t, wdw (t, w (2.8

35 2. La Integral Estocástica de Ito 25 para f L 2 ad (, T Ω. Dividiremos la discución en tres etapas. En la primera etapa definiremos la integral estocástica para procesos estocásticos escalonados en L 2 ad (, T Ω. En la segunda etapa probaremos un lema de aproximación crucial y en la tercera etapa definiremos la integral estocástica para procesos estocásticos generales en L 2 ad (, T Ω. Definición 2.1 Un proceso estocástico f(t, w, t T, w Ω es llamado un proceso escalonado si existe una partición P = { = t < t 1 <... < t n = T } del intervalo, T y una sucesión de variables aleatorias definidas en Ω, {ξ, ξ 1,..., ξ n 1 } tal que f(t, w = ξ i 1 (w1 ti 1,t i (t (2.9 donde ξ i 1 es F ti 1 medible y E(ξ 2 i 1 < para cada i = 1,..., n. i=1 Así de acuerdo a la definición anterior, denotaremos por E al espacio de todos los procesos estocásticos en L 2 ad (, T Ω que son escalonados Definición de la Integral Estocástica en E y sus propiedades Definición 2.2 Si f E, definimos su integral estocástica en el sentido de Ito, como: I(f = ξ i 1 (W (t i W (t i 1 (2.1 i=1 Obviamente I(af + bg = ai(f + bi(g, para cualquier a, b R y cualquier f, g E, así la integral de Ito para procesos en E es lineal, y es una variable aleatoria F T medible. Admás tenemos el siguiente lema. Lema 2.1 Sea I(f definida por la ecuación (2.1, entonces I(f es una variable aleatoria en L 2 (Ω con E(I(f = y E( I(f 2 = E( f(t 2 dt (2.11

36 Integral Estocástica Demostracion: Para cada 1 i n en ecuación (2.1 E{ξ i 1 (W (t i W (t i 1 } = E { Eξ i 1 (W (t i W (t i 1 F ti 1 } = E { ξ i 1 Ew(t i W (t i 1 F ti 1 } = E { ξ i 1 E(W (t i W (t i 1 } =. Entonces: E(I(f =. Además, tenemos I(f 2 = ξ i 1 ξ j 1 (W (t i W (t i 1 (W (t j W (t j 1 i,j=1 Notar que para i j, digamos i < j E{ξ i 1 ξ j 1 (W (t i W (t i 1 (W (t j W (t j 1 } = E { Eξ i 1 ξ j 1 (W (t i W (t i 1 (W (t j W (t j 1 F j 1 } = E { ξ i 1 ξ j 1 (W (t i W (t i 1 EW (t j W (t j 1 F tj 1 } = E { ξ i 1 ξ j 1 (W (t i W (t i 1 EW (t j W (t j 1 } (2.12 =. Por otro lado para i = j tenemos: E { ξi 1(W 2 (t i W (t i 1 2} = E{Eξi 1(W 2 (t i W (t i 1 2 F ti 1 } = E { ξi 1E(W 2 (t i W (t i 1 2 F ti 1 } = E { ξi 1E(W 2 (t i W (t i 1 2 } = E { ξi 1(t 2 i t i 1 } (2.13 = (t i t i 1 E(ξ 2 i 1 Entonces ecuación (2.1 sigue de las ecuaciones (2.12 y (2.13. E( I(f 2 = E(ξi 1(t 2 i t i 1 = i=1 E( f(t 2 dt.

37 2. La Integral Estocástica de Ito El espacio E es denso en L 2 ad (, T Ω En esta sección demostraremos que el espacio E en denso en L 2 ad (, T Ω en la topología de L 2 ad (, T Ω, la prueba se dividirá en tres pasos, primero supondremos que el proceso estocástico f L 2 ad (, T Ω es continuo y acotado con probabilidad uno, en este caso construiremos una sucesión de procesos escalonados (f n n 1 el cual converge a f en la norma de L 2 ad (, T Ω. Luego asumiremos que f(t, w es un proceso acotado con probabilidad uno, y lo aproximaremos mediante una sucesión de procesos acotados y continuos con probabilidad uno. Y finalmente probaremos el caso general. Lema 2.2 Sea f L 2 ad (, T Ω continuo y acotado con probabilidad uno, entonces existe una sucesión de procesos escalonados (f n n 1 en E tal que: Demostración: Sea P = {t i } n i= estocástico lím E( f n (t f(t 2 dt = (2.14 una partición de, T, para todo n 1 definamos el proceso f n (t, w = f(t i 1, w, t i 1 t t i Así tenemos f n (t, w = f(t i 1, w1 ti 1,t i (t, n 1. i=1 donde f(t i 1, es F ti 1 medible, pues el proceso f(t, w es adaptado a la filtración F = {F t }, y E(f(t i 1 2 < ya que el proceso f(t, w es acotado con probabilidad uno. Entonces tenemos una sucesión de procesos escalonados de acuerdo a la definición 2.1. Por otro lado: f n (t 2 dt = f(t i 1 2 (t i t i 1, i=1

38 Integral Estocástica pero el proceso f(t, w es acotado, es decir existe una constante C > tal que f(t, w C, para todo w Ω y t T, luego ( T E Por lo tanto f n E, n 1. f n (t 2 dt C 2 T. De la construcción de los f n, tenemos que lím f n(t = f(t, t, T además puesto que f es un proceso acotado con probabilidad uno, existe C > tal que: f n (t f(t 2 2( f n (t 2 + f(t 2 4C 2 (2.15 entonces por el teorema de convergencia acotada, tenemos que lím f n (t f(t 2 dt = lím f n(t f(t 2 dt = (2.16 Por otro lado de (2.15, tenemos que: f n (t f(t 2 dt 4C 2 T, n 1 (2.17 Así aplicando nuevamente el teorema de convergencia acotada, obtenemos: ( T lím E f n (t f(t 2 dt ( = E lím f n (t f(t 2 dt = por (2.16 Por lo tanto: lím E( f n (t f(t 2 dt =. (2.18

39 2. La Integral Estocástica de Ito 29 Lema 2.3 Sea f L 2 ad (, T Ω un proceso acotado con probabilidad uno entonces existe una sucesión (g n n 1 en f L 2 ad (, T Ω de procesos continuos y acotados con probabilidad uno, tal que: Demostración: lím E( g n (t f(t 2 dt =. (2.19 Sea ρ : R R una función continua y de soporte compacto tal que ρ(t, t R y ρ(tdt = 1. Extendemos el proceso f a todo R: si t < f(t, w = f(t, w si t T. si t > T Para todo n 1, sea la sucesión de suavizadores ρ n (t = nρ(nt Se define el suavizador de f como: g n (t = (ρ n f(t. Ahora mostraremos que (g n n 1 es una sucesión de procesos acotados y continuos en L 2 ad (, T Ω. g n (t = ρ(τf(t τdτ = nρ(nτf(t τdτ Haciendo el cambio de variable x = nτ, tenemos que: g n (t = ρ(xf(t x n dx C Por lo tanto g n (t es acotado para cada n 1. ρ(xdx = C

40 Integral Estocástica Puesto que f es medible y acotado, entonces f es integrable con probabilidad uno, es decir P w Ω : f(t, w dt < = 1 además ρ es uniformemente continua sobre, T es decir si n N fijo, ɛ > δ > tal que: si t 1, t 2, T y t 1 t 2 < δ entonces: ρ(nt 1 ρ(nt 2 < ɛ M = f(t dt. nm donde Así g n (t 1 g n (t 2 = = n ρ(n(t 1 sf(sds n ρ(n(t 2 sf(sds n ρ(n(t1 s ρ(n(t 2 s f(sds n ρ(n(t1 s ρ(n(t 2 s f(s ds < n ɛ nm = ɛ f(s ds Por lo tanto la sucesión(g n n 1 es uniformemente continua con probabilidad uno. Ahora veamos que: la sucesión (g n n 1 está en L 2 ad (, T Ω, en efecto: Puesto que: g n (t 2 C 2 entonces E g n (t 2 dt C 2 T <. Por la propiedad de los suavizadores tenemos que: g n = ρ n f converge a f en L 2, T así: lím g n (t f(t 2 dt = (2.2

41 2. La Integral Estocástica de Ito 31 además: g n (t f(t 2 2 ( g n (t 2 + f(t 2 4C 2 integrando sobre, T : g n (t f(t 2 dt 4C 2 T entonces por el teorema de la convergencia acotada: ( T lím E ( g n (t f(t 2 dt = = lím g n (t f(t 2 dt (2.21 Entonces: lím E g n (t f(t 2 dt =. (2.22 Lema 2.4 Si f L 2 ad (, T Ω y es acotado con probabilidad uno entonces existe (f n n 1 en E tal que: Demostración: lím E ( f n (t f(t dt 2 = (2.23 Por el Lema 2.3, para cada n 1, existe una sucesión (g n (t n 1 en L 2 ad (, T Ω de procesos continuos y acotados tal que: lím E ( g n (t f(t 2 dt = (2.24 y como cada g n es un proceso acotado y continuo en L 2 ad (, T Ω por el Lema 2.2 existe un f n E tal que: lím E ( f n (t g n (t 2 dt = (2.25

42 Integral Estocástica Ademaś, tenemos que: f n (t f(t 2 2 ( f n (t g n (t 2 + g n (t f(t 2 E ( f n (t f(t 2 2 ( E( f n (t g n (t 2 + E( g n (t f(t 2 E ( f n (t f(t 2 ( T dt 2 E ( f n (t g n (t 2 dt + E ( g n (t f(t 2 dt Usando (2.24 y (2.25, tenemos que: lím E ( f n (t f(t 2 dt =. (2.26 Finalmente estamos en condiciones de probar el caso general. Lema 2.5 Si f L 2 ad (, T Ω, entonces existe una sucesión de procesos (f n n 1 en E tal que: Demostración: lím E ( f n (t f(t 2 dt = (2.27 Sea f L 2 ad (, T Ω arbitrario; para todo n 1, definamos la función 1 si x n h n (x = si x > n y el proceso estocástico truncado: g n (t, w := f(t, wh n (f(t, w, n 1 f(t, w si f(t, w n g n (t, w = si f(t, w > n De su definición el proceso g n es medible y adaptado a la filtración F = {F t ; t T }, para todo n 1. Además g n (t, w = f(t, wh n (f(t, w = f(t, w h n (f(t, w n

43 2. La Integral Estocástica de Ito 33 Por lo tanto el proceso estocástico g n es acotado, para cada n 1, luego ( T E g n (t, w 2 dt n 2 T g n L 2 ad(, T Ω, n 1 Además g n (t, w f(t, w, y puesto que: ( T E entonces: f(t, w 2 dt < entonces f(t, w 2 dt < con probabilidad uno. g n (t, w f(t, w 2 2 ( g n (t, w 2 + f(t, w 2 4 f(t, w 2 (2.28 g n (t, w f(t, w 2 dt 4 f(t, w 2 dt (2.29 aplicando el teorema de la convergencia acotada tenemos de (2.28 queremos y de (2.29 lím g n (t, w f(t, w 2 dt = lím g n(t, w f(t, w 2 dt = (2.3 ( T lím E g n (t, w f(t, w 2 dt = E ( lím g n (t, w f(t, w 2 dt = (2.31 Por lo tanto: lím E ( g n (t f(t 2 dt = (2.32 Ahora como cada g n es un proceso acotado, n 1, podemos aplicar el Lema 2.2 y así escoger para cada n un F n E tal que Con lo cual de (2.32 (2.33 obtenemos lím E ( g n (t f n (t 2 dt = (2.33 f n (t, w f(t, w 2 2 ( f n (t, w g n (t, w 2 + g n (t, w f(t, w 2

44 Integral Estocástica E ( f n (t, w f(t, w 2 ( T dt 2 E ( f n (t, w g n (t, w 2 dt+ E ( g n (t, w f(t, w 2 dt y por lo tanto: lím E ( f n (t f(t 2 dt = Definición de la Integral Estocástica de Ito en el espacio L 2 ad (, T Ω y sus propieades Mostrada ya la densidad del espacio E en L 2 ad (, T Ω con la topología fuerte, definiremos ahora la integral de Ito para procesos f(t, w en L 2 ad (, T Ω. Para esto usaremos el Lema 2.5 para obtener la sucesión (f n n 1 E tal que lím E ( f n (t f(t 2 dt = (2.34 Para cada n 1, I(f n ya ha sido definida en la sección 2.3.2, y usando el hecho de que: E ( I(f n 2 = E ( f n (t, w 2 dt. tenemos: pero: E ( I(f n I(f m 2 = E ( f n (t, w f m (t, w 2 dt E ( f n (t, w f m (t, w 2 dt 2 ( T E ( f n (t, w f(t, w 2 dt+ E ( f(t, w f m (t, w 2 y por (2.34, obtenemos: lím E ( f n (t, w f m (t, w 2 dt = n,m

45 2. La Integral Estocástica de Ito 35 por lo tanto: lím E( I(f n I(f m 2 = n,m así (I(f n n 1 es una sucesión de Cauchy en L 2 (Ω pero L 2 (Ω es un espacio de Hilbert, entonces lím I(f n existe, así definimos Ahora surge una pregunta Esta I(f bien definida? Sea (g n n 1 otra sucesión de procesos en E tal que E ( I(f n I(g m 2 = E ( I(f n g m 2 = I(f := lím I(f n en L 2 (Ω (2.35 lím E ( f(t g m (t 2 dt = (2.36 E ( f n (t g m (t 2 dt ( E ( f n (t f(t 2 dt + E ( f(t g m (t 2 dt Y de (2.34 y (2.36 tenemos: lím E( I(f n I(g m 2 = n,m por lo tanto: lím I(f n = lím I(g m = I(f en L 2 (Ω (2.37 m y así la integral de Ito de procesos f(t, w en L 2 ad (, T Ω está bien definida. Definición 2.3 El límite I(f definido en (2.35 es llamada la integral de Ito del proceso f L 2 ad (, T Ω y es denotado por: I(f = f(t, wdw (t, w Claramente si a, b R y f, g L 2 ad (, T Ω se cumple que: I(af + bg = ai(f + bi(g asi la aplicación I : L 2 ad (, T Ω L2 (Ω es lineal

46 Integral Estocástica Teorema 2.1 Suponer que f L 2 ad (, T Ω entonces la integral de Ito, I(f, es una variable aleatoria en L 2 (Ω con: Demostración: E(I(f = E ( I(f 2 = E ( f(t, w 2 dt Por el Lema 2.5, existe una sucesión (f n n 1 en E tal que y de (2.35 tenemos: lím f n f L 2 ad (,T Ω = lím I(f n I(f L 2 (Ω = Usando la desigualdad: x y x y, obtenemos De (2.39 y del Lema 2.1, tenemos: lím f n L 2 ad (,T Ω = f L 2 ad (,T Ω (2.38 lím I(f n L 2 (Ω = I(f L 2 (Ω (2.39 E ( I(f 2 = lím E ( I(f n 2 = lím f n L 2 ad (,T Ω = f L 2 ad (,T Ω por (2,38 = Igualando por el Lema 2.1 tenemos: E ( f(t, w 2 dt E(I(f = lím E(I(f n =. Observación : El teorema anterior nos dice que la integral de Ito es un operador lineal acotado entre los espacios de Hilbert L 2 ad (, T Ω y L2 (Ω, además es una isometría, es decir: I : L 2 ad(, T Ω L 2 (Ω f I(f

47 2. La Integral Estocástica de Ito 37 y I(f 2 L 2 (Ω = E( I(f 2 = por lo tanto: E ( f(t, w 2 dt = f 2 L 2 ad (,T Ω I(f L 2 (Ω = f L 2 ad (,T Ω Corolario 2.1 Si f, g L 2 ad (, T Ω, la siguiente igualdad es válida: ( E f(t, wdw (t, w g(t, wdw (t, w = (f(t, wg(t, wdt o equivalentemente: Demostración: < I(f, I(g > L 2 (Ω=< f, g > L 2 ad (,T Ω (2.4 Si f, g L 2 ad (, t Ω entonces f + g L2 ad (, t Ω E ( (I(f + I(g 2 = E (( I(f + g T 2 = E ( f(t, w + g(t, w 2 dt = ( f(t, w 2 dt + 2 E ( f(t, wg(t, w dt + E ( g(t, w 2 dt pero E (( I(f + I(g 2 = ( E I(f 2 + 2I(fI(g + I(g 2 = E ( I(f 2 + 2E ( I(f I(g + E ( I(g 2 = E ( f(t, w 2 dt + 2E ( I(f I(g + E ( g(t, w 2 dt Por lo tanto: Ejemplo: 1 E ( I(f I(g = E ( f(t, wg(t, w dt. W (t, wdw (t, w = 1 2 (W (T 2 T

48 Integral Estocástica Notar que f(t, w = W (t, w pertenece al espacio L 2 ad (, t Ω pues W (t, w es medible y es adaptado a la filtración F = {F t ; t T } especificada en la sección 2.3. Además E ( W (t, w 2 dt = T 2 2. Sabemos que W (t, w es un proceso estocástico continuo y acotado así podemos aplicar el Lema 2.2, es decir para un partición P = {t i } n i= de, T, definimos el proceso estocástico: f n (t, w := W (t i 1, w ; t i 1 t < t i entonces pero: W (t, wdw (t, w = lím I(f n en L 2 (Ω I(f n = W (t i 1 ( W (t i W (t i 1 i=1 ( = 1 2 W (T 2 = L n ( W (ti W (t i 1 2 i=1 Por lo tanto W (t, wdw (t, w = lím L n = 1 ( W (T 2 T Procesos Estocásticos definidos por Integrales de Ito Recordar que al inicio de la sección 2.3, fijamos un movimiento Browniano W (t, w y una filtración F = {F t ; t T } que satisface las condiciones a y b. Sea f L 2 ad (, T Ω. Entonces para cualquier t, T E ( f(t, w 2 dt E ( f(s, w 2 ds <

49 2. La Integral Estocástica de Ito 39 Luego f L 2 ad (, T Ω. Esto implica que para cada t, T, la integral estocástica f(s, wdw (t, w esta definida. Considerar un proceso estocástico dado por: X(t, w = f(s, wdw (t, w ; t T, w Ω Notar que por el teorema 2.1 tenemos E( X(t, w 2 = E ( f(s, w 2 ds < y así E( X(t, w E ( X(t, w 2 1/2 <. Luego para cada t, la variable aleatoria X(t, es integrable y así podemos tomar la esperanza condicional de X(t, con respecto a la σ álgebra F s. En la sección 2.1, mencionamos que la integral de Ito f(t, wdw (t, w es definida de tal forma que el proceso estocástico X(t, w = f(s, wdw (s, w sea un martingala. El siguiente teorema muestra que esto es cierto para procesos en L 2 ad (, T Ω. Teorema 2.2 (Propiedad de Martingala Suponer que f L 2 ad (, T Ω. Entonces el proceso estocástico: X(t, w = f(s, wdw (s, w ; t T, w Ω es un martingala con respecto a la filtración F = {F t ; t T }. Demostración: Ya vimos que E( X(t, w < en la discusión anterior así que primero consideremos el caso en que f E, debemos probar que para s < t T, E(X(t, w F s = X(s, w, pero X(t, w = X(s, w + s f(τ, wdw (τ, w

50 Integral Estocástica entonces: E(X(t, w F s = E(X(s, w F s + E Así debemos probar que: = X(s, w + E ( t ( t s ( t s f(τ, wdw (τ, w F s f(τ, wdw (τ, w F s E f(τ, wdw (τ, w F s = En efecto: Si f E entonces: f(τ, w = ξ i 1 (w1 ti 1,t i (τ s i=1 donde s = t < t 1 <... < t n = t y ξ i 1 es F ti 1 medible i = 1, 2,..., n con E(ξi 1 2 <. Por la definición de la integral de Ito de procesos en E, tenemos s f(τ, wdw (τ, w = s i=1 ( W (ti W (t i 1 entonces: ( ( E f(τ, wdw (τ, w F s = ξi 1 (W (t i W (t i 1 F s Ahora como F s F ti 1, para todo i = 1, 2,..., n, tenemos: E ( ξ i 1 (W (t i W (t i 1 F s = E E ξi 1 (W (t i W (t i 1 F Ti 1 Fs = E (ξ i 1 E(W (t i W (t i 1 F ti 1 F s = E ( ξ i 1 E(W (t i W (t i 1 F s i=1 (2.41 (2.42 = Reemplazando (2.42 en (2.41 obtenemos lo que queríamos probar. En el caso general cuando f L 2 ad (, T Ω, tomar (f n n 1 en E tal que: lím f n f L 2 ad (,T Ω =

51 2. La Integral Estocástica de Ito 41 Para cada n 1, definir el proceso estocástico: X n (t, w = f n (τ, wdw (τ, w por el primer caso X n (t, w es un martingala, para cada n. Para s < t, escribir: X(t, w X(s, w = ( X(t, w X (n (t, w + ( X (n (t, w X (n (s, w + ( X (n (s, w X(s, w tomando esperanza condicional E ( X(t, w X(s, w F s = E ( X(t, w X (n (t, w F s + E ( X (n (t, w X (n (s, w F s + E ( X (n (s, w X(s, w F s y puesto que X (n (t, w es un martingala, el segundo término del lado derecho de la igualdad se elimina, quedando: E ( X(t, w X(s, w F s = E ( X(t, w X (n (t, w F s + E ( X (n (s, w X(s, w F s (2.43 Apliquemos la desigualdad condicional de Jensen con φ(x = x 2 para obtener: E ( X(t, w X (n (t, w F s 2 = E ( X(t, w X (n (t, w 2 F s (E ( X(t, w X (n (t, w 2 F s E ( E( X(t, w X (n (t, w F s 2 E = E ( X(t, w X (n (t, w 2 = E( t ( 2 f(τ, w f n (τ, w dw (τ, w = E ( f(τ, w f n (τ, w 2 dτ E ( f(τ, w f n (τ, w 2 dτ Por lo tanto tenemos: ( lím E E ( X(t, w X (n (t, w F s 2 = (2.44

Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias.

Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias. Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias. Dr. Rafael Morones E. Dept. de Matemáticas ITAM August 5, 2002 1 Contenido 1 Preliminares. 3 1.1 Sucesiones...............................

Más detalles

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona Kolmogorov y la teoría de la la probabilidad David Nualart Academia de Ciencias y Universidad de Barcelona 1 La axiomatización del cálculo de probabilidades A. N. Kolmogorov: Grundbegriffe des Wahrscheinlichkeitsrechnung

Más detalles

10. Series de potencias

10. Series de potencias FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 7-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

Movimiento Browniano o proceso de Wiener

Movimiento Browniano o proceso de Wiener 1 Movimiento Browniano o proceso de Wiener Se dice que Z [ ] es un proceso de Wiener o movimiento Browniano si Z es una función definida en algún intervalo I = [, T ] (eventualmente puede ser T = + ),

Más detalles

Instituto de Matemática Aplicada del Litoral

Instituto de Matemática Aplicada del Litoral PROBLEMAS DE BARRERA EN PROCESOS ESTOCÁSTICOS Ernesto Mordecki http://www.cmat.edu.uy/ mordecki mordecki@cmat.edu.uy Facultad de Ciencias Montevideo, Uruguay. Instituto de Matemática Aplicada del Litoral

Más detalles

Procesos de Control Semi-Markovianos con Costos Descontados

Procesos de Control Semi-Markovianos con Costos Descontados Capítulo 1 Procesos de Control Semi-Markovianos con Costos Descontados 1.1. Introducción En este capítulo se introduce el problema de control óptimo semi-markoviano (PCO) con respecto al índice en costo

Más detalles

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso 2010-11 Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad y esperanza condicionada: recordatorio

Más detalles

Teoría de la Probabilidad Tema 2: Teorema de Extensión

Teoría de la Probabilidad Tema 2: Teorema de Extensión Teoría de la Probabilidad Tema 2: Teorema de Extensión Alberto Rodríguez Casal 25 de septiembre de 2015 Definición Una clase (no vacía) A de subconjuntos de Ω se dice que es un álgebra si A es cerrada

Más detalles

El CONCEPTO DE LA ESPERANZA CONDICIONAL EN LAS MARTINGALAS

El CONCEPTO DE LA ESPERANZA CONDICIONAL EN LAS MARTINGALAS Scientia et Technica Año XIV No 39 septiembre de 2008 Universidad Tenològica de Pereira ISSN 0122-1701 394 El CONCEPTO DE LA ESPERANZA CONDICIONAL EN LAS MARTINGALAS The concept of the conditional expectation

Más detalles

: k }, es decir. 2 k. k=0

: k }, es decir. 2 k. k=0 FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San

Más detalles

Teorema de Hahn-Banach

Teorema de Hahn-Banach Capítulo 3 Teorema de Hahn-Banach 3.1. Introducción Una vez introducidos los espacios vectoriales más importantes donde se tiene una estructura métrica a saber, los espacios de Hilbert y los espacios de

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

Variables Aleatorias

Variables Aleatorias Variables Aleatorias Memo Garro Resumen En este artículo introduciremos un tipo específico de funciones definidas sobre la dupla (Ω F. Estas funciones son llamadas variables aleatorias y son de gran importancia

Más detalles

Introducción a los Procesos de Poisson *

Introducción a los Procesos de Poisson * Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22

Más detalles

Espacios compactos. Capítulo Cubiertas. En este capítulo estudiaremos el concepto de compacidad en un espacio métrico.

Espacios compactos. Capítulo Cubiertas. En este capítulo estudiaremos el concepto de compacidad en un espacio métrico. Capítulo 3 Espacios compactos 1. Cubiertas En este capítulo estudiaremos el concepto de compacidad en un espacio métrico. Definición 3.1. Sea (X, d) un espacio métrico y A X. Una cubierta de A es una familia

Más detalles

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

CONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p)

CONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p) PESQUIMAT, Revista de la F.C.M. de la Universidad Nacional Mayor de San Marcos Vol. 11- N"1 Pgs. 69-75 Lima - Perú Ag. 1999 CONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p) Wilfredo

Más detalles

1. Convergencia en medida

1. Convergencia en medida FACULTAD CS. FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE MA3801 Teoría de la Medida. Semestre 2009-02 Profesor: Jaime San Martín Auxiliares: Andrés Fielbaum y Cristóbal Guzmán Clase auxiliar 7 21 de Septiembre

Más detalles

Variables aleatorias continuas, TCL y Esperanza Condicional

Variables aleatorias continuas, TCL y Esperanza Condicional Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función

Más detalles

Espacios compactos. 1. Cubiertas

Espacios compactos. 1. Cubiertas Capítulo 3 Espacios compactos 1. Cubiertas En este capítulo estudiaremos el concepto de compacidad en un espacio métrico. La compacidad se puede estudiar desde dos puntos de vista: el topológico, a través

Más detalles

Teoría de la Integración

Teoría de la Integración Licenciatura en Matemáticas y Física Universidad de Antioquia 1 Introducción 2 3 Introducción Para toda persona con formación matemática superior, es conocida la teoría de la integración de Riemann. Sin

Más detalles

Dilatación unitaria de semigrupos locales de contracciones con parámetro en los racionales diádicos. MSc. Angel Padilla. Cumaná, Marzo 2012

Dilatación unitaria de semigrupos locales de contracciones con parámetro en los racionales diádicos. MSc. Angel Padilla. Cumaná, Marzo 2012 Dilatación unitaria de semigrupos locales de contracciones con parámetro en los racionales diádicos Autor: MSc. Angel Padilla Cumaná, Marzo 2012 2 A continuación se fija algo de la notación que se utilizará

Más detalles

Curso Avanzado de Probabilidad, 2014-I Integración Estocástica. Gerónimo Uribe Bravo Instituto de Matemáticas Universidad Nacional Autónoma de México

Curso Avanzado de Probabilidad, 2014-I Integración Estocástica. Gerónimo Uribe Bravo Instituto de Matemáticas Universidad Nacional Autónoma de México Curso Avanzado de Probabilidad, 214-I Integración Estocástica Gerónimo Uribe Bravo Instituto de Matemáticas Universidad Nacional Autónoma de México Contenido Capítulo 1. Preliminares 1 1. Funciones de

Más detalles

Integrales impropias múltiples

Integrales impropias múltiples Integrales impropias múltiples ISABEL MARRERO Departamento de Análisis Matemático Universidad de La Laguna imarrero@ull.es Índice 1. Introducción 1 2. Caracterización de la integrabilidad impropia 2 3.

Más detalles

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones: FACULTAD DE CIENCIAS EXACTAS Y NATURALES UNIVERSIDAD DE BUENOS AIRES COMPLEMENTOS DE ANÁLISIS MAESTRíA EN ESTADíSTICA MATEMÁTICA SEGUNDO CUATRIMESTRE 2007 PRÁCTICA 7 1. Usando sólo la definición de derivada,

Más detalles

La función, definida para toda, es periódica si existe un número positivo tal que

La función, definida para toda, es periódica si existe un número positivo tal que Métodos con series de Fourier Definición: Función periódica La función, definida para toda, es periódica si existe un número positivo tal que para toda. El número en un periodo de la función. Si existe

Más detalles

Variables aleatorias continuas y Teorema Central del Limite

Variables aleatorias continuas y Teorema Central del Limite Variables aleatorias continuas y Teorema Central del Limite FaMAF 17 de marzo, 2015 Variables aleatorias continuas Definición Una variable aleatoria X se dice (absolutamente continua) si existe f : R R

Más detalles

Capítulo 1. Teoría de la probabilidad Teoría de conjuntos

Capítulo 1. Teoría de la probabilidad Teoría de conjuntos Capítulo 1 Teoría de la probabilidad 1.1. Teoría de conjuntos Definición 1.1.1 El conjunto S de todos los posibles resultados de un experimento aleatorio es llamado el espacio muestral. Un espacio muestral

Más detalles

El Teorema de Contracción de Mapas

El Teorema de Contracción de Mapas El Teorema de Contracción de Mapas Carlos Gamez Escuela de Matemática Facultad de Ciencias Naturales y Matemática Universidad de El Salvador Presentación Beamer Esquema Introducción Contracción Punto Fijo,

Más detalles

Cálculo diferencial e integral I. Eleonora Catsigeras

Cálculo diferencial e integral I. Eleonora Catsigeras Cálculo diferencial e integral I Eleonora Catsigeras Universidad de la República Montevideo, Uruguay 01 de setiembre de 2011. CLASE 14 complementaria. Sobre sucesiones y conjuntos en la recta real. Sucesiones

Más detalles

Sucesiones y series de funciones

Sucesiones y series de funciones Sucesiones y series de funciones Renato Álvarez Nodarse Departamento de Análisis Matemático Facultad de Matemáticas. Universidad de Sevilla http://euler.us.es/ renato/ 8 de octubre de 2012 Sucesiones y

Más detalles

Momentos de Funciones de Vectores Aleatorios

Momentos de Funciones de Vectores Aleatorios Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)

Más detalles

1. Espacios topológicos compactos.

1. Espacios topológicos compactos. PRACTICO 6. COMPACIDAD. 1. Espacios topológicos compactos. Definición 1 Un cubrimiento de un conjunto X es una familia de subconjuntos de X cuya unión da X. Un cubrimiento de un espacio es abierto si cada

Más detalles

sup si A no es acotado.

sup si A no es acotado. Capítulo 6 Espacios completos 1. El teorema de Cantor En este capítulo estudiaremos más a fondo los espacios métricos completos. Lo primero que haremos es establecer la equivalencia entre completitud y

Más detalles

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

Problemas de VC para EDVC elaborados por C. Mora, Tema 4 Problemas de VC para EDVC elaborados por C. Mora, Tema 4 Ejercicio Determinar las funciones enteras f para las que Solución f( + w) = f()f(w), w C. En primer lugar, f(0) = f(0 + 0) = f(0)f(0) = f(0) 2,

Más detalles

Topología en R n. Continuidad de funciones de varias variables

Topología en R n. Continuidad de funciones de varias variables . Continuidad de funciones de varias variables María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I (1 o Grado en Ingeniería Electrónica Industrial y Automática) M. Muñoz (U.P.C.T.) Continuidad

Más detalles

Secuencias Aleatorias

Secuencias Aleatorias Caminantes aleatorios. Secuencias Aleatorias Contenidos. Secuencias aleatorias. Caminantes aleatorios. Movimiento Browniano. La hipótesis de eficiencia de los mercados implica que la cotización de un título

Más detalles

1. Funciones Medibles

1. Funciones Medibles 1. Medibles Medibles simples... Hasta ahora hemos estudiado la medida de Lebesgue definida sobre los conjuntos de R n y sus propiedades. Vamos a aplicar ahora esta teoría al estudio de las funciones escalares

Más detalles

Principio de acotación uniforme

Principio de acotación uniforme Capítulo 4 Principio de acotación uniforme 4.1. Introducción. Teorema de Baire En este último capítulo vamos a establecer una serie de resultados sobre aplicaciones lineales y continuas entre espacios

Más detalles

Unidad Temática 3: Probabilidad y Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento

Más detalles

El espacio euclideano

El espacio euclideano Capítulo 1 El espacio euclideano 1. Definiciones básicas El espacio Euclideano, denotado por R n, está definido por el conjunto (1.1) R n = {x = (x 1, x 2,..., x n ) : x i R}. Es decir, R n es efectivamente

Más detalles

ECUACIONES DIFERENCIALES ORDINARIAS. HOJA 8. Conjuntos invariantes

ECUACIONES DIFERENCIALES ORDINARIAS. HOJA 8. Conjuntos invariantes ECUACIONES DIFERENCIALES ORDINARIAS. HOJA 8. CONJUNTOS INVARIANTES Y CONJUNTOS LÍMITE. ESTABILIDAD POR EL MÉTODO DE LIAPUNOV. Conjuntos invariantes 1. Definición. Se dice que un conjunto D Ω es positivamente

Más detalles

( + )= ( ) ( ) tiene periodo si es cualquier periodo de ( ). + =cos( +2 )=cos + = ( +2 )=. cosnt+ sinnt) ( )~ Métodos con series de Fourier

( + )= ( ) ( ) tiene periodo si es cualquier periodo de ( ). + =cos( +2 )=cos + = ( +2 )=. cosnt+ sinnt) ( )~ Métodos con series de Fourier Métodos con series de Fourier Definición: Función periódica La función (), definida para toda, es periódica si existe un número positivo tal que (+)=() para toda. El número en un periodo de la función.

Más detalles

A. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones.

A. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones. Tema 1. Espacios de Probabilidad y Variables Aleatorias: Espacios de Probabilidad. 1 A. Probabilidad. Un experimento aleatorio tiene asociados los siguientes elementos: Espacio muestral. Conjunto Ω de

Más detalles

Integrales paramétricas

Integrales paramétricas 5 Integrales paramétricas Página 1 de 29 1. uchas de las funciones que se manejan en Análisis atemático no se conocen mediante expresiones elementales, sino que vienen dadas a través de series o integrales.

Más detalles

En primer lugar, vamos a precisar un concepto al que ya nos hemos referido anteriormente, el de σ-álgebra.

En primer lugar, vamos a precisar un concepto al que ya nos hemos referido anteriormente, el de σ-álgebra. Capítulo 20 Conjuntos de Borel Hemos demostrado ya que la familia M de los conjuntos medibles contiene a todos los abiertos de R n y, por tanto, a todos los conjuntos que podamos formar a partir de los

Más detalles

Teoremas de convergencia y derivación bajo el signo integral

Teoremas de convergencia y derivación bajo el signo integral Capítulo 8 Teoremas de convergencia y derivación bajo el signo integral En este capítulo estudiaremos sucintamente bajo qué circunstancias puede intercambiarse el orden de la integral con las operaciones

Más detalles

Elementos Básicos de Análisis Funcional en. Dr. Oldemar Rodríguez Rojas

Elementos Básicos de Análisis Funcional en. Dr. Oldemar Rodríguez Rojas Elementos Básicos de Análisis Funcional en Análisis Numérico Dr. Oldemar Rodríguez Rojas Agosto 2008 Contents 1 Elementos Básicos de Análisis Funcional 2 1.1 Espacios normados...........................

Más detalles

Apéndice sobre ecuaciones diferenciales lineales

Apéndice sobre ecuaciones diferenciales lineales Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 2 Determinante wronskiano. Wronskiano de f 1 (t), f 2 (t),..., f n (t). Derivada de un determinante de funciones.

Más detalles

2. El Teorema del Valor Medio

2. El Teorema del Valor Medio 2.24 45 2. El Teorema del Valor Medio Comenzaremos esta sección recordando dos versiones del teorema del valor medido para funciones de 1-variable y por tanto ya conocidas: 2.22 Sea f : [a, b] R R una

Más detalles

Problemas con soluciones

Problemas con soluciones Departamento de Matemática, Universidad Técnica Federico Santa María, MAT-223. Problemas con soluciones 1) Muestre que si A es una base de una toplogía en X, entonces la topología generada por A es iqual

Más detalles

1 Continuidad uniforme

1 Continuidad uniforme Centro de Matemática Facultad de Ciencias Universidad de la República Introducción a la Topología Curso 2016 NOTAS 6: ESPACIOS MÉTRICOS II: COMPLETITUD 1 Continuidad uniforme Denición. Sean (M, d 1 ) y

Más detalles

Conjuntos Abiertos y Cerrados

Conjuntos Abiertos y Cerrados Conjuntos Abiertos y Cerrados 1. (a) En la prueba de que la intersección de una colección finita de conjuntos abiertos es un conjunto abierto, dónde se uso la hipótesis de que la colección es finita? 2.

Más detalles

Espacios métricos completos

Espacios métricos completos 5 Espacios métricos completos Comenzamos introduciendo las sucesiones de Cauchy, que relacionamos con las sucesiones convergentes. En el caso de que coincidan, se trata de un espacio métrico completo.

Más detalles

Continuidad de funciones reales y vectoriales de variable vectorial

Continuidad de funciones reales y vectoriales de variable vectorial Capítulo 6 Continuidad de funciones reales y vectoriales de variable vectorial 6.1. Introducción Hasta el momento hemos estudiado funciones reales de variable real, es decir, funciones de la forma f :

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Entropía diferencial. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 19 Definición Definición (Entropía diferencial)

Más detalles

1. La topología inducida.

1. La topología inducida. PRACTICO 4. ESPACIOS METRICOS. 1. La topología inducida. Sea (M, d) un espacio métrico. La bola abierta de centro x y radio r es el conjunto B(x; r) = {y M : d(x, y) < r}. La bola cerrada de centro x y

Más detalles

CÁLCULO DIFERENCIAL EN VARIAS VARIABLES

CÁLCULO DIFERENCIAL EN VARIAS VARIABLES UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS ESCUELA DE MATEMÁTICA LABORATORIO DE FORMAS EN GRUPOS CÁLCULO DIFERENCIAL EN VARIAS VARIABLES Ramón Bruzual Marisela Domínguez Caracas, Venezuela Julio

Más detalles

Ecuaciones lineales de orden superior

Ecuaciones lineales de orden superior ANEXO GUIA 5 Ecuaciones lineales de orden superior Las ideas presentadas para ecuaciones lineales de segundo orden se pueden generalizar a ecuaciones lineales de orden n d n x n + a n 1(t) dn 1 x n 1 +

Más detalles

TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES

TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES Recordemos que el concepto de variable aleatoria surge de la necesidad de transformar el espacio muestral asociado a un experimento aleatorio en un espacio

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Apuntes sobre la integral de Lebesgue

Apuntes sobre la integral de Lebesgue Apuntes sobre la integral de Lebesgue Miguel Lacruz Martín Universidad de Sevilla 1. Medida de Lebesgue 1.1. Introducción La longitud l(i) de un intervalo I R se define habitualmente como la distancia

Más detalles

Ejercicios de Análisis Funcional

Ejercicios de Análisis Funcional Ejercicios de Análisis Funcional Rafael Payá Albert Departamento de Análisis Matemático Universidad de Granada ANÁLISIS FUNCIONAL Relación de Ejercicios N o 1 1. Dar un ejemplo de una distancia en un espacio

Más detalles

1. Sucesiones. Sucesiones. Compacidad. {( 1) n, n N} = { 1, 1, 1, 1, 1, 1,... } es una sucesión de elementos del conjunto { 1, 1}, y la familia

1. Sucesiones. Sucesiones. Compacidad. {( 1) n, n N} = { 1, 1, 1, 1, 1, 1,... } es una sucesión de elementos del conjunto { 1, 1}, y la familia 1.. De una manera informal, una sucesión es una familia de elementos de un conjunto, ordenada según el índice de los números naturales. Los elementos pueden estar repetidos o no. Por ejemplo la familia

Más detalles

7. CONVOLUCION Y DENSIDAD

7. CONVOLUCION Y DENSIDAD Hemos definido una relación de inclusión (7.1) 7. CONVOLUCION Y DENSIDAD Esta relación nos permite "pensar en" S n ) como un sub-espacio de S' n ); lo que indica que normalmente identificaremos uϕ con

Más detalles

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. Regla de la cadena Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de

Más detalles

José Humberto Serrano Devia Página 1

José Humberto Serrano Devia Página 1 Similitudes entre el espacio y las series de Fourier Funciones Ortogonales En esta sección se muestra la forma en que los conceptos vectoriales de producto interno, o producto escalar, y el de ortogonalidad

Más detalles

Variables Aleatorias y Distribución de Probabilidades

Variables Aleatorias y Distribución de Probabilidades Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables

Más detalles

Métodos Matemáticos: Análisis Funcional

Métodos Matemáticos: Análisis Funcional Licenciatura en Ciencias y Técnicas Estadísticas Universidad de Sevilla http://euler.us.es/ renato/clases.html Espacios eucĺıdeos Definición Se dice que un espacio vectorial E es un espacio eucĺıdeo si

Más detalles

Martingalas. Es decir, condicionando al pasado, la ganancia neta esperada luego del turno siguiente es cero. Esto es, el juego es justo.

Martingalas. Es decir, condicionando al pasado, la ganancia neta esperada luego del turno siguiente es cero. Esto es, el juego es justo. Martingalas Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que pensemos que M n es la fortuna del jugador luego de jugar

Más detalles

1. Continuidad. Universidad de Chile Subsucesiones. Ingeniería Matemática

1. Continuidad. Universidad de Chile Subsucesiones. Ingeniería Matemática 1. Continuidad 1.1. Subsucesiones Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08- Importante: Visita regularmente http://www.dim.uchile.cl/~calculo.

Más detalles

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando

Más detalles

Teoremas de Convergencia

Teoremas de Convergencia Capítulo 24 Teoremas de Convergencia El teorema de la convergencia monótona (Lema 21.3) establece ciertas condiciones sobre una sucesión de funciones medibles para que se puedan permutar los símbolos y

Más detalles

Tema 2: Variables Aleatorias Unidimensionales

Tema 2: Variables Aleatorias Unidimensionales Tema 2: Variables Aleatorias Unidimensionales Teorı a de la Comunicacio n Curso 27-28 Contenido 1 Concepto de Variable Aleatoria 2 Función Distribución 3 Clasificación de Variables Aleatorias 4 Función

Más detalles

Práctica 3 Esperanza Condicional

Práctica 3 Esperanza Condicional 1. Generalidades Práctica 3 Esperanza Condicional 1. Sea (X i ) i I una familia de variables aleatorias definidas sobre un mismo espacio medible (Ω, F) y sea Y otra variable aleatoria en este espacio.

Más detalles

Método de Newton. Cálculo numérico. Notas de clase. 25 de abril, 2011

Método de Newton. Cálculo numérico. Notas de clase. 25 de abril, 2011 Método de Newton Cálculo numérico. Notas de clase. 25 de abril, 2011 La resolución de sistemas de ecuaciones algebraicas no lineales de la forma F(x) = 0, F : R n R n, (1) en donde F es una función continua

Más detalles

Teoría de la Dimensión

Teoría de la Dimensión Capítulo II Teoría de la Dimensión En este capítulo introduciremos una de las propiedades más importantes que tienen los espacios vectoriales: la dimensión. Dos son los modos posibles de llegar a la noción

Más detalles

Observación: Aceptaremos que la función f no este definida para un número finito de términos como por ejemplo f(n) = n 5.

Observación: Aceptaremos que la función f no este definida para un número finito de términos como por ejemplo f(n) = n 5. Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 07- Importante: Visita regularmente http://www.dim.uchile.cl/calculo. Ahí encontrarás

Más detalles

F-ESPACIOS. 1.- Introducción

F-ESPACIOS. 1.- Introducción F-ESPACIOS 1.- Introducción Recordemos que un subconjunto A de un espacio topológico X se llama diseminado o raro (nowhere dense en ingés) si A=. Un subconjunto que se pueda escribir como unión numerable

Más detalles

ELEMENTOS DE ANÁLISIS FUNCIONAL

ELEMENTOS DE ANÁLISIS FUNCIONAL ELEMENTOS DE ANÁLISIS FUNCIONAL Guillermo Ames Universidad Tecnológica Nacional - Facultad Regional Córdoba 2011 TEMA 1: NOCIONES BÁSICAS DE ESPACIOS MÉTRICOS Espacios métricos: definición y ejemplos Definición

Más detalles

Tema 3. Probabilidad y variables aleatorias

Tema 3. Probabilidad y variables aleatorias 1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad

Más detalles

Soluciones entre ecuaciones diferenciales de orden dos. Solutions between two-order differential equations.

Soluciones entre ecuaciones diferenciales de orden dos. Solutions between two-order differential equations. Universidad del Atlántico Revista Del Programa De Matemáticas Páginas: 16 20 Facultad de Ciencias Básicas c Programa de Matemáticas Vol. IV, No 1, (2017) Soluciones entre ecuaciones diferenciales de orden

Más detalles

1. Medida Exterior. Medida de Lebesgue en R n

1. Medida Exterior. Medida de Lebesgue en R n 1. La integral de Lebesgue surge del desarrollo de la integral de Riemann, ante las dificultades encontradas en las propiedades de paso al ĺımite para calcular la integral de una función definida como

Más detalles

El teorema de Lebesgue

El teorema de Lebesgue Capítulo 3 El teorema de Lebesgue En este capítulo estudiaremos un teorema que nos dice exactamente qué funciones son integrables y cuán grande puede ser la frontera de un conjunto para que éste tenga

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con

Más detalles

5. Distribuciones de probabilidad multivariadas

5. Distribuciones de probabilidad multivariadas 5. Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable binomial

Más detalles

Tema 6: Modelos de probabilidad.

Tema 6: Modelos de probabilidad. Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos

Más detalles

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias Universidad de Chile Facultad De Ciencias Físicas y Matemáticas MA3403 - Probabilidades y Estadística Prof. Auxiliar: Alberto Vera Azócar. albvera@ing.uchile.cl Vectores Aleatorios 1. Vectores Aleatorios

Más detalles

Llamaremos número real a cualquier fracción decimal. Las fracciones decimales periódicas se llaman números racionales, así:

Llamaremos número real a cualquier fracción decimal. Las fracciones decimales periódicas se llaman números racionales, así: Capítulo 1 Números Reales 1.1. Introducción Llamaremos número real a cualquier fracción decimal. Ejemplos:, 0;, 3333...;, 5; 0,785; 3, 14159...;,718818...; 1,414136... Las fracciones decimales periódicas

Más detalles

Parte 2: Definición y ejemplos de topologías.

Parte 2: Definición y ejemplos de topologías. Parte 2: Definición y ejemplos de topologías. 22 de marzo de 2014 1. Definiciones y propiedades básicas. Definición 1 Sea X un conjunto. Una familia T de subconjuntos de X es una topología de X si se cumplen:

Más detalles

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones Semana 09 [1/28] 29 de abril de 2007 Semana 09 [2/28] Definición Sucesión Una sucesión real es una función: f : N R n f (n) Observaciones Para distinguir a una sucesión de las demás funciones, se ocupará

Más detalles

Departamento de Matemáticas

Departamento de Matemáticas MA5 Clase : Series de números reales Definición de Serie Elaborado por los profesores Edgar Cabello y Marcos González Definicion Dada una sucesión de escalares (a n ), definimos su sucesión de sumas parciales

Más detalles

Sucesiones monótonas Monotonía. Tema 6

Sucesiones monótonas Monotonía. Tema 6 Tema 6 Sucesiones monótonas Vamos a discutir ahora una importante propiedad de ciertas sucesiones de números reales: la monotonía. Como primer resultado básico, probaremos que toda sucesión monótona y

Más detalles

y valores extremos. En esta sección estudiaremos los conjuntos convexos. Recordemos que un conjunto K R n es convexo si, para todo x,y K y t [0,1],

y valores extremos. En esta sección estudiaremos los conjuntos convexos. Recordemos que un conjunto K R n es convexo si, para todo x,y K y t [0,1], Capítulo 4 Convexidad 1. Conjuntos convexos En este capítulo estudiaremos el concepto de convexidad, el cual es sumamente importante en el análisis. Estudiaremos conjuntos convexos y funcionesconvexas

Más detalles

1. Propiedades básicas de las medidas

1. Propiedades básicas de las medidas AMARUN www.amarun.net Comisión de Pedagogía - Diego Chamorro Teoría de la medida (Nivel 2). Lección n 2: σ-álgebras y medidas EPN, verano 2009 1. Propiedades básicas de las medidas Marco de trabajo: la

Más detalles

2. CONSTRUCCIÓN DE MEDIDAS.

2. CONSTRUCCIÓN DE MEDIDAS. 2. CONSTRUCCIÓN DE MEDIDAS. 1. MEDIDAS EXTERIORES. (2,1,1) Definición. Una medida exterior es una aplicación µ : P(X) [0, + ] que cumple: (a) µ ( ) = 0. (b) Monotonía: Si A B, entonces µ (A) µ (B). (c)

Más detalles

Boletín de Matemáticas Nueva Serie, Volumen XI No. 1 (2004), pp PUNTOS FIJOS COMUNES DE CONTRACCIONES GENERALIZADAS

Boletín de Matemáticas Nueva Serie, Volumen XI No. 1 (2004), pp PUNTOS FIJOS COMUNES DE CONTRACCIONES GENERALIZADAS Boletín de Matemáticas Nueva Serie, Volumen XI No. 1 (2004), pp. 132 137 PUNTOS FIJOS COMUNES DE CONTRACCIONES GENERALIZADAS JAIME RODRÍGUEZ MONTES (*) To Jairo Charris in memoriam Resumen. Se demuestra

Más detalles

Integrales paramétricas propias

Integrales paramétricas propias Integrales paramétricas propias ISABEL ARRERO Departamento de Análisis atemático Universidad de La Laguna imarrero@ull.es Índice 1. Introducción 1 2. Tipos de integrales paramétricas 1 2.1. Simples..............................................

Más detalles

INTRODUCCIÓN A LA TEORÍA DESCRIPTIVA DE CONJUNTOS

INTRODUCCIÓN A LA TEORÍA DESCRIPTIVA DE CONJUNTOS INTRODUCCIÓN A LA TEORÍA DESCRIPTIVA DE CONJUNTOS UDAYAN B.DARJI 1. Introducción En este curso estudiaremos objetos definibles como conjuntos borelianos, conjuntos analíticos, y clasificaciones de funciones

Más detalles