UNIVERSIDAD NACIONAL DE TRUJILLO LA INTEGRAL ESTOCÁSTICA DE ITO Y ALGUNAS APLICACIONES AL CAMPO DE LAS FINANZAS

Documentos relacionados
Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias.

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona

10. Series de potencias

Procesos estocásticos

Movimiento Browniano o proceso de Wiener

Instituto de Matemática Aplicada del Litoral

Procesos de Control Semi-Markovianos con Costos Descontados

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso

Teoría de la Probabilidad Tema 2: Teorema de Extensión

El CONCEPTO DE LA ESPERANZA CONDICIONAL EN LAS MARTINGALAS

: k }, es decir. 2 k. k=0

Teorema de Hahn-Banach

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

Variables Aleatorias

Introducción a los Procesos de Poisson *

Espacios compactos. Capítulo Cubiertas. En este capítulo estudiaremos el concepto de compacidad en un espacio métrico.

Unidad 1: Espacio de Probabilidad

CONVERGENCIA DE VARIABLES ALEATORIAS EN ESPACIOS DE HILBERT L 2 (n,a,p)

1. Convergencia en medida

Variables aleatorias continuas, TCL y Esperanza Condicional

Espacios compactos. 1. Cubiertas

Teoría de la Integración

Dilatación unitaria de semigrupos locales de contracciones con parámetro en los racionales diádicos. MSc. Angel Padilla. Cumaná, Marzo 2012

Curso Avanzado de Probabilidad, 2014-I Integración Estocástica. Gerónimo Uribe Bravo Instituto de Matemáticas Universidad Nacional Autónoma de México

Integrales impropias múltiples

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

La función, definida para toda, es periódica si existe un número positivo tal que

Variables aleatorias continuas y Teorema Central del Limite

Capítulo 1. Teoría de la probabilidad Teoría de conjuntos

El Teorema de Contracción de Mapas

Cálculo diferencial e integral I. Eleonora Catsigeras

Sucesiones y series de funciones

Momentos de Funciones de Vectores Aleatorios

1. Espacios topológicos compactos.

sup si A no es acotado.

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

Topología en R n. Continuidad de funciones de varias variables

Secuencias Aleatorias

1. Funciones Medibles

Principio de acotación uniforme

Unidad Temática 3: Probabilidad y Variables Aleatorias

El espacio euclideano

ECUACIONES DIFERENCIALES ORDINARIAS. HOJA 8. Conjuntos invariantes

( + )= ( ) ( ) tiene periodo si es cualquier periodo de ( ). + =cos( +2 )=cos + = ( +2 )=. cosnt+ sinnt) ( )~ Métodos con series de Fourier

A. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones.

Integrales paramétricas

En primer lugar, vamos a precisar un concepto al que ya nos hemos referido anteriormente, el de σ-álgebra.

Teoremas de convergencia y derivación bajo el signo integral

Elementos Básicos de Análisis Funcional en. Dr. Oldemar Rodríguez Rojas

Apéndice sobre ecuaciones diferenciales lineales

2. El Teorema del Valor Medio

Problemas con soluciones

1 Continuidad uniforme

Conjuntos Abiertos y Cerrados

Espacios métricos completos

Continuidad de funciones reales y vectoriales de variable vectorial

Introducción a la Teoría de la Información

1. La topología inducida.

CÁLCULO DIFERENCIAL EN VARIAS VARIABLES

Ecuaciones lineales de orden superior

TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES

Probabilidad y Estadística

Apuntes sobre la integral de Lebesgue

Ejercicios de Análisis Funcional

1. Sucesiones. Sucesiones. Compacidad. {( 1) n, n N} = { 1, 1, 1, 1, 1, 1,... } es una sucesión de elementos del conjunto { 1, 1}, y la familia

7. CONVOLUCION Y DENSIDAD

Derivada de la función compuesta. Regla de la cadena

José Humberto Serrano Devia Página 1

Variables Aleatorias y Distribución de Probabilidades

Métodos Matemáticos: Análisis Funcional

Martingalas. Es decir, condicionando al pasado, la ganancia neta esperada luego del turno siguiente es cero. Esto es, el juego es justo.

1. Continuidad. Universidad de Chile Subsucesiones. Ingeniería Matemática

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Teoremas de Convergencia

Tema 2: Variables Aleatorias Unidimensionales

Práctica 3 Esperanza Condicional

Método de Newton. Cálculo numérico. Notas de clase. 25 de abril, 2011

Teoría de la Dimensión

Observación: Aceptaremos que la función f no este definida para un número finito de términos como por ejemplo f(n) = n 5.

F-ESPACIOS. 1.- Introducción

ELEMENTOS DE ANÁLISIS FUNCIONAL

Tema 3. Probabilidad y variables aleatorias

Soluciones entre ecuaciones diferenciales de orden dos. Solutions between two-order differential equations.

1. Medida Exterior. Medida de Lebesgue en R n

El teorema de Lebesgue

Variables aleatorias

5. Distribuciones de probabilidad multivariadas

Tema 6: Modelos de probabilidad.

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias

Llamaremos número real a cualquier fracción decimal. Las fracciones decimales periódicas se llaman números racionales, así:

Parte 2: Definición y ejemplos de topologías.

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Departamento de Matemáticas

Sucesiones monótonas Monotonía. Tema 6

y valores extremos. En esta sección estudiaremos los conjuntos convexos. Recordemos que un conjunto K R n es convexo si, para todo x,y K y t [0,1],

1. Propiedades básicas de las medidas

2. CONSTRUCCIÓN DE MEDIDAS.

Boletín de Matemáticas Nueva Serie, Volumen XI No. 1 (2004), pp PUNTOS FIJOS COMUNES DE CONTRACCIONES GENERALIZADAS

Integrales paramétricas propias

INTRODUCCIÓN A LA TEORÍA DESCRIPTIVA DE CONJUNTOS

Transcripción:

UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS ESCUELA ACADÉMICO PROFESIONAL DE MATEMÁTICAS LA INTEGRAL ESTOCÁSTICA DE ITO Y ALGUNAS APLICACIONES AL CAMPO DE LAS FINANZAS Primera versión del informe final del trabajo de tesis Autor: Dennis Nicanor Quispe Sanchez Asesor: Dr. Obidio Rubio Mercedes Trujillo - Perú 211

ii

Presentación Señores miembros del jurado: En cumplimiento a lo dispuesto por el reglamento de la Universidad Nacional de Trujillo, para optar el título de Bachiller en Matemáticas, pongo a su disposición el presente trabajo titulado LA INTEGRAL ESTOCÁSTICA DE ITO Y ALGUNAS APLICACIONES AL CAMPO DE LAS FINANZAS, para que con su aprobación haga realidad mi deseada meta. Con la consideración de que este trabajo pueda estar incompleto, acepto honestamente todas sus apreciaciones y sugerencias que tengan a bien formular, lo cual me servirá para mejorarlo en el futuro. Trujillo, Febrero del 211 El Autor iii

iv

Introducción. En al cálculo de Newton-Leibniz, se aprende a derivar e integrar funciones determinísticas. Un teorema básico en diferenciación es la regla de la cadena, la cual nos da la derivada de una composición de dos funciones diferenciables.en cálculo avanzado, la integral de Riemann-Stieltjes es definida a través del mismo procedimiento de partición-evaluación-suma-límite como en la integral de Riemann. Al tratar con funciones aleatorias tales como funciones de un movimiento Browniano, la regla de la cadena para el cálculo de Newton-Leibniz falla. Un movimiento Browniano se mueve tan rápida e irregularmente que casi todos sus caminos muestrales son no diferenciables, así no podemos derivar funciones de un movimiento Browniano de la misma forma como en el cálculo de Newton-Leibniz. En 1944, Kiyosi Ito publicó el celebrado paper Stochastic Integral en la Academia Imperial de Tokyo, este fue el inicio del cálculo de Ito, la contraparte del cálculo de Newton-Leibniz para funciones aleatorias. En la sexta página de su paper, Ito introdujo la integral estocástica y una fórmula, conocida desde entonces como la fórmula de Ito. La fórmula de Ito es la regla de la cadena para el cálculo de Ito, pero esta no puede ser expresada como en el cálculo de Newton-Leibniz en términos de derivadas,puesto que un movimiento Browniano es no diferenciable.la fórmula de Ito puede ser interpretada solamente en forma integral,además existe un término adicional en la fórmula, llamado término corrección de Ito, resultante a partir del hecho de que la variación cuadrática de un movimiento Browniano es diferente de cero. Antes que Ito introduzca la integral estocástica en 1944, integrales informales que v

vi envolvían ruido blanco (La derivada no existente de un movimiento Browniano, ya habían sido usadas por científicos, la idea innovadora de Ito fue considerar el producto de ruido blanco y el diferencial de tiempo como un diferencial de movimiento Browniano y usarlo como un integrador. El método usado por Ito para definir una integral estocástica es una combinación de las técnicas en la integral de Riemann- Stieltjes(con respecto al integrador y la integral de Lebesgue(con respecto al integrando. El cálculo de Ito fue originalmente motivado por la construcción de procesos de difusión a partir de generadores infinitesinmales, las construcciones previas de tales procesos habían sido realizadas a través de tres pasos, vía la teoría de Hille Yosida, el teorema de representación de Riesz,y el teorema de extensión de Kolmogorov. Sin embargo, Ito construyó estos procesos de difusión directamente en un solo paso como soluciones de ecuaciones diferenciales estocásticas asociadas con los generadores infinitesimales, además, las propiedades de estos procesos pueden ser obtenidos a partir de las mismas ecuaciones y la fórmula de Ito. Durante las últimas cuatro décadas la teoría de integración estocástica de Ito ha sido exitosamente estudiada y aplicada a un amplio rango de campos científicos. Aunque la más notable aplicación es en la teoría de finanzas, en Economía,desarrollada por Fischer Black, Robert Merton y Myron Scholes en la década de los 7,(1973. En este trabajo estamos interesados en la aplicación del cálculo de Ito en el campo de las finanzas, en donde la mayor parte de fenómenos económicos son modelados por ecuaciones diferenciales estocásticas de la forma: ds(t = µ(s, tdt + σ(s, tdw (t, S R +, t, T...(, donde µ(x, t y σ(x, t son funciones medibles con respecto a x R, t, T y W (t es un movimiento Browniano. Para hallar la solución de (* se hace necesario saber como se resuelve o integra una ecuación diferencial estocástica, para ello necesitamos definir una nueva integral la cual tiene como integrando a un proceso estocástico

vii f(t, w y como integrador a un movimiento Browniano W (t, w : f(t, wdw (t, w Nuestro objetivo es definir la integral estocástica, para una amplia clase de procesos f(t, w. Entonces el problema que resulta es Qué condiciones son necesarias imponer para la construcción de la integral estocástica de Ito? El presente trabajo se ha dividido en cuatro capítulos: En el capítulo 1, presentamos las nociones básicas de teoría de probabilidad y procesos estocásticos, en especial el proceso de Wiener o movimiento Browniano,del cual damos su definición y mostramos sus principales propiedades,las cuales nos servirán en el capítulo siguiente. En capítulo 2, definimos la integral estocástica de Ito y mostramos sus principales propiedades. En el capítulo 3, extenderemos la integral estocástica a una clase más amplia de procesos estocásticos. En el capítulo 4, demostraremos el Lema de Ito y veremos algunas aplicaciones a la solución de ecuaciones diferenciales estocásticas y al campo de las finanzas, para finalmente dar las conclusiones del presente trabajo con su respectiva bibliografía. El Autor

viii

Índice general Presentación II Introducción IV 1. Preliminares 1 1.1. Variables Aleatorias y Leyes de Probabilidad.............. 1 1.2. Procesos Estocásticos........................... 9 1.3. Descripción de la Ley de Probabilidad de un Proceso Estocástico... 1 1.4. El Movimiento Browniano o Proceso de Wiener............ 12 2. La Integral Estocástica de Ito 19 2.1. Motivación................................. 19 2.2. Filtraciones para un Movimiento Browniano.............. 22 2.3. Integral Estocástica............................ 24 2.3.1. Los espacios L 2 ad (, T Ω y E................. 24 2.3.2. Definición de la Integral Estocástica en E y sus propiedades. 25 2.3.3. El espacio E es denso en L 2 ad (, T Ω............ 27 2.3.4. Definición de la Integral Estocástica de Ito en el espacio L 2 ad (, T Ω y sus propieades........................ 34 2.3.5. Procesos Estocásticos definidos por Integrales de Ito...... 38 3. Extensión de la Integral Estocástica de Ito 47 3.1. Una clase más Amplia de Integración.................. 47 ix

x ÍNDICE GENERAL 3.2. Un Lema de Aproximación........................ 49 3.3. Definición de la Integral Estocástica de Ito en el espacio L ad (Ω, L 2, T 52 3.4. La Fórmula de Ito............................ 56 3.4.1. Motivación............................ 56 3.4.2. Proceo de Ito........................... 57 4. Aplicaciones de la Integral Estocástica 67 4.1. Ecuaciones Diferenciales Estocásticas.................. 67 4.2. Existencia y unicidad........................... 68 4.3. Aplicaciones del Lema de Ito....................... 7 4.4. La E.D.P. de Black - Scholes (1972-1973................ 8 Conclusiones 82 Bibliografía 84

Capítulo 1 Preliminares En este capítulo, presentaremos los principales resultados en teoría de probabilidad y procesos estocásticos que serán usados en el siguiente capítulo, en especial nos enfocaremos en un proceso estocástico en especial: El Proceso de Wiener o también llamdo Movimiento Browniano. Enunciaremos y demostraremos algunas de sus propiedades, las cuales usaremos para definir la integral estocástica de Ito. 1.1. Variables Aleatorias y Leyes de Probabilidad Para dar la definición formal de variable aleatoria tenemos que dar la noción de espacio muestral de representación, sucesos y función probabilidad. Definición 1.1 El espacio muestral de representación Ω es el espacio de las representaciones de todos los resultados posibles del fenómeno. Definición 1.2 Un suceso es un conjunto de representaciones muestrales. Se dice que ocurre un suceso E si y sólo si el resultado observado del fenómeno aleatorio tiene una representación muestral en Ω. Observación: Se ha de tener en cuenta que por razones técnicas, normalmente no se permite que todos los subconjuntos de Ω sean sucesos. En lugar de ello y como familia F de sucesos, se trabajará con una familia F de subconjuntos de Ω que tengas las propiedades siguientes: 1. Ω F. 1

2 1.1. Variables Aleatorias y Leyes de Probabilidad 2. E F E c F. 3. Si E i F, i = 1, 2,..., entonces E i F. i=1 Esta familia toma el nombre de σ álgebra. Para el desarrollo de la teoría matemática de probabilidades a menudo basta tomar como familia de sucesos la familia más pequeña de subconjuntos de Ω que poseen propiedades 1-3 y además contengan todos los subconjuntos que esperamos nos interesan. Definición 1.3 Suponga que un espacio muestral Ω está asociado a un expermiento y F una familia de sucesos aleatorios. La función de probabilidad P es una aplicación: P : F R, tal que: 1. PE, E F. 2. P(Ω = 1. ( 3. Si E i F, i = 1, 2,..., E i E j =, i j entonces P E i = P(E i. i=1 i=1 En la teoría aplicada de las probabilidades, no se emplean explícitamente los espacios muestrales de representación. En vez de ello, se tratan la mayor parte de problemas en función de variables aleatorias. Se dice que E es un conjunto de Borel, si E puede obtenerse por un número de operaciones numerable, partiendo de un conjunto abierto, consistiendo cada operación en tomar uniones, intersecciones o complementos. La familia B = {B/B es Borel}, que es una σ-álgebra de Borel. Además B es la menor σ-álgebra que contiene a todos los abiertos. Definición 1.4 Se dice que X es una variable aleatoria si:

1. Preliminares 3 1. X : Ω R. Es una función de valor real definida en el espacio muestral de representación Ω en cuya familia F de sucesos se ha definido la función probabilidad P. 2. {ω/x(ω B} F, donde B B. Definición 1.5 La función de probabilidad de una variable aleatoria X es una aplicación: P X : B B B P X B = P{ω/X(ω B}. si Definición 1.6 Las Variables Aleatorias X e Y están distribuidas idénticamente P X B = P X B, B B Definición 1.7 La función distribución de la Variable X está definida por F X : R R + x F X (x = PX x. Observación: 1. F X (x = P X x = P X, x = P ω/x(ω, x = P X, x = P X 1, x. 2. F X es no decreciente,f X ( = y F X (+ = 1. Definición 1.8 Una variable aleatoria X se llama continua si existe una función llamada de densidad de probabilidad de X y representada por f X (, en función de la

4 1.1. Variables Aleatorias y Leyes de Probabilidad cual se pueda representar P X como una integral, para cualquier conjunto de Borel B: P X B = PX B = f X (xdx. B Observación: Ya que F X (x = x f X (tdt ; < t < x. Se deduce que : Para todo x en los que exista la derivada. f X (x = d dx F X(x. Definición 1.9 Decimos que la variable aleatoria X tiene distribución normal o Gaussiana de parámetros m y σ, si su función densidad es dada por f(x = 1 (x m2 e 2σ 2. 2πσ 2 Definición 1.1 El valor esperado de una variable aleatoria X representado por EX, se define (cuando existe mediante: E(x = xdf X (x = xf X (xdx. siempre que existan las integrales. Definición 1.11 La Varianza de X se define mediante: V ar X = E (X E X 2. Definición 1.12 La desviación típica de una variable aleatoria X se define mediante: σx = V arx.

1. Preliminares 5 Definición 1.13 Se dice que varias variables aleatorias X 1, X2,..., Xn están distribuidas conjuntamente si están definidas como funciones en el mismo espacio muestral de representación. Su función conjunta de distribución es: F X1,X 2,...,X n (x 1, x 2,..., x n = P X 1 x 1,..., X n x n. = P {ω : X 1 (ω x 1,..., X n (ω x n }. Definición 1.14 Se dice que las variables aleatorias distribuidas conjuntamente X 1, X 2,..., X n son independientes si y sólo si es cierto uno de los enunciados equivalentes que se indican acontinuación: 1. Criterio en función de las funciones de distribución B 1,..., B n conjuntos de Borel, P X 1 B 1,..., X n B n = P X 1 B 1... P X n B n. 2. Criterio en función de las funciones de distribución x 1,..., x n R. F X1,...,X n (x 1,..., x n = F X1 (x 1... F Xn (x n. 3. Criterio función de las esperanzas matemáticas: g 1 (,..., g n ( funciones medibles y acotadas E g 1 (x 1,..., g n (x n = E g 1 (x 1... E g n (x n. Definición 1.15 Una variable Aleatoria E X A es llamada la esperanza condicional de X relativa a la σ álgebra A si X L 1 (Ω y 1. E X A es A - medible 2. E X A dp = xdp, A A A A Teorema 1.1 Sean X e Y variables aleatorias en L 1 (Ω y A F, una σ álgebra, entonces se cumplen 1 : 1 Para demostración ver 5

6 1.1. Variables Aleatorias y Leyes de Probabilidad 1. Si X Y entonces E X A E Y A 2. E ax + by A = ae X A + by A, R 3. Si X es A -Medible y XY es integrable entonces E XY A = X 4. Si Y es A -Medible y XY es integrable entonces E XY A = Y E X A 5. Si A 1, A 2 son σ-álgebras tal que A 1 A 2 son σ-álgebras tal que A 1 A 2, entonces E E X A 2 A 1 = E X A 1 En teoría de probabilidades como en análisis necesitamos usar varias clases de convergencia de variables aleatorias. Tres de estas son particularmente importantes: 1. Convergencia en Probabilidad 2. Convergencia con Probabilidad uno 3. Convergencia en L P (Ω Definición 1.16 La Sucesión de variables aleatorias (x n n 1 converge en Probabilidad a la variable aleatoria X, si para cada ɛ > NOTACIÓN: X n lím P ω Ω/ X n(ω X(ω > ɛ = P X Definición 1.17 La sucesión en variables aleatorias (X n n 1 converge con probabilidad Uno a la variable aleatoria X, si: NOTACIÓN: X n P.1 X P ω Ω/ lím X n (ω = X(ω = 1

1. Preliminares 7 Definición 1.18 La sucesión en variables aleatorias (X n n 1 converge en media de orden p, < p < a la variable X si, NOTACIÓN:X n L p X lím E X n X P = Observación: Decimos que las variables aleatorias X 1, X 2,... son independientes, si n N, las variables aleatorias X 1,..., X n son independientes. Lema 1.1 Sea (Y n n 1 una sucesión de variables aleatorias, entonces las siguientes condiciones son equivalentes. 2 1. Y n P.1 2. ɛ > lím P {ω/ Y n ɛ} = k n=k P.1 P Teorema 1.2 Si X n X, entonces X n X Demostración: Considerar Y n = X n X así el problema se reduce a la discusión de la convergencia de Y n a cero. P.1 Puesto que Y n por el lema 1.1 tenemos: lím P {ω/ Y n (ω ɛ} = (1.1 k pero {ω : Y k ɛ} entonces: n=k {ω : Y n (ω ɛ} n=k P ω Ω : Y k (ω ɛ P {ω : Y n (ω ɛ} n=k lím k P ω ω : Y k (ω ɛ lím k P 2 Para demostración ver5 n=k : Y n (ω ɛ

8 1.1. Variables Aleatorias y Leyes de Probabilidad Por lo tanto, por (1.1 lím k P ω Ω : Y k (ω =. X n P X. (1.2 Lema 1.2 (Desigualdad de Chebyshev Si X es una variable aleatoria no negativa ɛ >, < p < entonces: 3 Teorema 1.3 Si X n Demostración: P X ɛ E Xp ɛ p. (1.3 L P P X entonces X n X. Sea Y n = X n X, entonces Y n es un variable aleatoria no negativa, por hipótesis tenemos que: lím E X n X p = (1.4 así por la desigualdad de Chebyshev (Lema 1.2 tenemos que: P Y n ɛ E Y p n ɛ p P X n X ɛ E X n X 2 ɛ 2. (1.5 Usando (1.4 en (1.5 obtenemos: lím P X n X ɛ =. (1.6 Por lo tanto: X n P X. (1.7 3 Para demostración ver5

1. Preliminares 9 Lema 1.3 (Borel-Cantelli Si Demostración: líma n = n=1 n=1 m=n P(A n < entonces P lím sup A n =. A m m=n A m, Así, P ( líma n P A n P A m < ɛ m=n m=n Si ɛ tenemos que P lím sup A n =. (1.8 Teorema 1.4 Si X n P X entonces existe una subsucesión X kn a X con probabilidad uno, es decir, X kn P.1 X 4 que converge 1.2. Procesos Estocásticos Se considera a la teoría de probabilidad como el estudio de los modelos matemáticos de fenómenos aleatorios. Se define un fenómeno aleatorio como un fenómeno empírico que obedece leyes probabilísticas, más que determinísticas. Un fenómeno aleatorio que surge en un proceso (por ejemplo, el movimiento Browniano que consta de una partícula de polen en el agua ó la producción variable de gasolina en ciclos de trabajo sucesivos de una planta de refinado de petróleo que se desarrolla en el tiempo de una manera controlada por medio de leyes probabilísticas, se denomina un proceso estocástico. Definición 1.19 Un proceso estocástico es una función X :, T Ω R tal que, para cada t fijo, X(t, es una variable aleatoria y para cada ω fijo, X(, ω es una función medible definida sobre, T. 4 Para demostración ver5

1 1.3. Descripción de la Ley de Probabilidad de un Proceso Estocástico Definición 1.2 El proceso estocástico X(t, ω se llama medible si la aplicación (t, ω X(t, w es medible con respecto a la σ álgebra producto B(R f. Definición 1.21 El proceso estocástico X(t, ω se llama acotado si existe una constante K tal que para todo w Ω y t, X(t, ω K. Definición 1.22 Sean X(t, ω, Y (t, ω procesos estocásticos definidos sobre (Ω, F, P. Se dice que Y es una realización de X si Pw Ω : X(t, ω = Y (t, ω = 1, t NOTACIÓN: Denotaremos a un proceso estocástico de una de las siguientes formas {X(t; t } ó X(t, ω 1.3. Descripción de la Ley de Probabilidad de un Proceso Estocástico Parece adecuado considerar que un proceso estocśtico X(t, t. Se puede representar para propósitos prácticos de manera conveniente mediante un cierto número finito de ordenadas. Por consiguiente, una manera de representar un proceso estocástico X(t, t consiste en especificar la ley de probabilidad conjunta de las n- variables aleatorias X(t 1,..., X(t n para todos los enteros n y n puntos t 1, t 2,..., t n en, τ Para especificar la ley de probabilidad conjunta de las n variables aleatorias X(t 1,..., X(t n, se debe especificar bien: 1. La función e distribución conjunta, dada por los números reales x 1, x 2,..., X n por: F Xt1,...,tn (x 1, x 2,..., x n = P X t1 x 1,..., X tn x n. Ejemplos:

1. Preliminares 11 1. La sucesión de sumas consecutivas S n = X 1 + X 2 +... + X n de variables aleatorias independientes X n constituye un proceso estocástico. (Parámetro discreto 2. Considérese el proceso estocástico de parámetro continuo X(t, ω definido por: X(t, ω = Acos(ωt + Bsen(ωt. donde la frecuencia ω es una constante positiva conocida y A y B son variables aleatorias independientes distribuidas normalmente con medias y varianza σ 2 Definición 1.23 Sea X(t, ω un proceso estocástico, entonces F t := σ{x(s; s t}. La σ álgebra generada por las variables aleatorias X(s para s t, es llamada la historia del proceso hasta el instante t. Definición 1.24 Una filtración sobre, T es una familia creciente F = {F t ; t T } de σ álgebras. Un proceso estocástico X(t; t T, se dice adaptado a F, si para cada t, la variable aleatoria X(t, es F t medible Definición 1.25 Sea {X(t; t T } un proceso estocástico adaptado a la filtración F = {F t ; t T } y E X(t para todo t, T. Entonces {X(t; t, T } es llamada un martingala con respecto a F si para cualquier s T en, T, EX(t F s = X(s casi seguro. En el caso de que la filtración no sea especifivada, entonces la filtración F = {F t ; t T } es entendida como la generada por las variables aleatorias X(s, s t, es decir: F t = σ{x(s; s t}

12 1.4. El Movimiento Browniano o Proceso de Wiener. El concepto de martingala es una generalización de la sucesión de sumas parciales a partir de una sucesión {X n } n 1 de variables aleatorias independientes idéntivamente distribuidas con medida cero. Sea S n = X 1 +... + X n entonces la sucesión {S n } n 1 es un martingala. Martingalas son importantes en teoría de la probabilidad principalmente porque ellas admiten las siguientes poderosas estimativas. Teorema 1.5 Sea {X(t; t T } un proceso estocástico con caminos muestrales continuos casi seguro, 5 i Si {X(t; t T } es un martingala, entonces P w Ω : máx t T X(t, w λ 1 λ E X(T, w, para todo λ > ii Si 1 < p < entonces E ( p p máx X(t p E X(T p t T p 1 1.4. El Movimiento Browniano o Proceso de Wiener El Movimiento Browniano fue observado físicamente por un botanista llamado Robert Brown (1928, quien notó que cuando el polen es dispersado en el agua las patículas supendidas realizan un camino aleatorio en tres dimensiones. Este fenómeno fue estudiado por Einstein (195, quien dio una teoría elegante en una serie de trabajos donde describe el movimiento de las partículas suspendidas bajo la acción de una fuerza fluctuante. Ver 2. Lois Bachelier usó el movimiento Browniano como un modelo de precios de acciones (19 en su teoría de la especulación. Pero fue Norbert Wiener (1923 el 5 Para demostración ver4

1. Preliminares 13 primer matemático que dió la primera construcción rigurosa del movimiento Browniano. En esta sección definiremos un movimiento Browniano y desarrollaremos sus propiedades básicas. Para nosotros, las propiedades más importantes del movimiento son que éste es un martingala y que éste acumula variación cuadrática a razón de uno por unidad de tiempo. Este hace el cálculo estocástico de Ito diferente del cálculo de Newton - Leibniz. Definición 1.26 Un proceso estocástico W (t, w es llamado un movimiento Browniano estándar si satisface las siguientes condiciones: i Pw Ω : W (, w = = 1 ii Para cualquier s < t, la variable aleatoria W (t W (s es normalmente distribuida con media cero y varianza t s, es decir, para cualquier a < b, Pw Ω : a W (t, w W (s, w b = 1 2π(t s b a e x2 2(t s dx iii W (t, w tiene incrementos independientes, es decir, para cualquier t 1 < t 2 <... < t n las variables aleatorias son independientes. W (t 1, W (t 2 W (t 1,..., W (t n W (t n 1 iv Casi todos los cambios muestrales de W (t, w son funciones continuas, es decir: Pw Ω : W (, w es continuo = 1 Un movimiento Browniano es algunas veces definido como un proceso estocástico W (t, w que satisface las condiciones (i,(ii,(iii en definición 1.26. Tal proceso estocástico sienmpre tiene una realización continua, es decir existe Ω tal que P(Ω = 1 y para cualquier w Ω, W (t, w es una función continua de t.éste hecho puede ser fácilmente verificado aplicando el siguiente teorema de continuidad de Kolmogorov:

14 1.4. El Movimiento Browniano o Proceso de Wiener Teorema 1.6 Sea {X(t; t T } un proceso estocástico y asumir que existen constantes α, β, C > que satisfacen la desigualdad. E X(t X(s β C t s 1+α, para todo t, s T Entonces {X(t; t T } tiene una realización continua. 6 Así puesto que E W (t W (s 4 = 3 t s 2, el movimiento Browniano satisface las condiciones del teorema con β = 4, α = 1 y C = 3. Lema 1.4 Suponer que W (t, w es un movimiento Browniano estándar. Entonces EW (tw (s = mín{t, s} para t, s Demostración: Asumir t s. Entonces EW (tw (s = E(W (s + W (t W (sw (s = EW (s 2 + E(W (t W (sw (s = s + EW (t W (sew (s = s = mín{t, s}. Puesto que W (s es N(, s y W (t W (s es independiente de W (s. Si X(t, w es cualquier proceso estocástico con EX(t 2 < para todo t definiremos: r(t, s := EX(tX(s, t, s la función autocorrelación de X(t, w. Si r(t, s = C(t s para alguna función C : R R y si EX(t = EX(s, para todo t, s, X(t, w es llamado estacionario en el sentido amplio. Un ruido blanco {ξ(t; t T } es por definición, Gaussiano, estacionario en el sentido amplio, con C( = δ. Ver 3. 6 Para demostración ver3

1. Preliminares 15 Definición 1.27 Un ruido blanco es definido como un proceso gaussiano estacionario en el sentido amplio generalizado,{ξ(t; t T } con media Eξ(t = y función autocorrelación Eξ(tξ(s = δ (t s.donde δ es la función delta de Dirac en. Teorema 1.7 Existencia de un Movimiento Browniano Sea (Ω, F, P un espacio de probabilidad sobre el cual son definidas una sucesión de variables aleatorias independientes {A n } normalmente distribuidas con media cero y varianza uno. Entonces existe un movimiento Browniano W (t, w definido para w Ω y t. 7 Ahora mostraremos que para casi todo w, el camino muestral t W (t, w es uniformemente Hölder continuo para cada exponente γ > 1, pero no es Hölder continuo 2 con cualquier exponente γ > 1. En particular t W (t, w es no diferenciable y de 2 variación infinita para cada intervalo casi seguro. Definición 1.28 i Sea < γ 1. Una función f :, T R es llamada uniformemente Hölder continua con exponente γ > si existe una constante k tal que f(t f(s k t s γ para todo s, t, T ii Decimos que f es Hölder continua con exponente γ > en el punto s, si existe una constante k tal que f(t f(s k t s γ para todo t, T Teorema 1.8 Sea X(t, w un proceso estocástico con caminos muestrales continuos casi seguro, tal que: E X(t X(s β C t s 1+α para constantes β, α >, C y para todo t, s. Entonces para cada < γ < α, T > y casi todo w, existe una constante k = β 7 Para demostración ver3

16 1.4. El Movimiento Browniano o Proceso de Wiener k(w, γ, T tal que: X(t, w X(s, w k t s γ para todo s, t T 8 Considerar un movimiento Browniano estándar. Tenemos que para todos los enteros m = 1, 2,... E W (t W (s 2m = 1 2πr x 2m e x2 2r dx, para r = t s > = R 1 r m 2π y 2m e y2 2 dy ( y = x r R = Cr m = C t s m Así las hipótesis del teorema 1.8 son válidas para β = 2m, α = m 1. Así el proceso W (t, w es Hölder continuo casi seguro, para exponentes: < γ < α β = m 1 2m = 1 2 1 2m m N Entonces el camino muestral t W (t, w es uniformemente Hölder continuo sobre, T para cada exponente < γ < 1 2. Teorema 1.9 i Para cada 1 2 continuo con exponente γ. < γ 1 y casi todo w W (t, w no es Hölder ii En particular, para casi todo w, el camino muestral t W (t, w es no diferenciable y es de variación infinita sobre cada subintervalo. 9 Acontinuación probaremos dos teoremas los cuales son de gran utilidad en el siguiente capítulo. Teorema 1.1 Sea W (t, w un movimiento Browniano y F t = σ{w (s; s t} entonces W (t, w es un martingala. 8 Para demostración ver4 9 Para demostración ver4

1. Preliminares 17 Demostración: Para cualquier s t E W (t F s = E W (t W (s Fs + E W (s Fs Puesto que W (t W (s es independiente de F s tenemos que E W (t W (s F s = E W (t W (s =. Por otro lado E W (s Fs = W (s pues W (s es F s medible. Entonces E W (t F s = W (s s t Definición 1.29 Sea f(t una función definida para t T la variación cuadrática de f hasta el instante T es f, f (T = lím P W (ti W (t i 1 2 donde P = {t, t 1,..., t n } y = t < t 1 <... < t n = T. i=1 Observación: Muchas funciones tienen derivadas continuas, y entonces su variación cuadrática es cero. Por esta razón, nunca se considera variación cuadrática en el cálculo de Newton - Leibniz. Teorema 1.11 Sea P = { = t < t 1 <... < t n = T } una partición del intervalo, T. Entonces W, W (T = lím P ( W (ti W (t i 1 2 = T en L 2 (Ω i=1 Demostración: Notar que T = (t i t i 1 y así sea i=1 Φ n = ( W (ti W (t i 1 2 (ti t i 1 = i=1 i=1 X i

18 1.4. El Movimiento Browniano o Proceso de Wiener donde X i = ( W (t i W (t i 1 2 (ti t i 1. Entonces Φ 2 n = X i X j i,j=1 Para i j, tenemos E X i X j = puesto que W (t tiene incrementos independientes y E W (t W (s 2 = t s. Por otro lado E W (t W (s 4 = 3 t s 2 y así para i = j tenemos E Xi 2 = ( E W (ti W (t i 1 4 2(ti t i 1 ( W (t i W (t i 1 2 + (ti t i 1 2 = 3(t i t i 1 2 2(t i t i 1 2 + (t i t i 1 2 = 2(t i t i 1 2 Por lo tanto, obtenemos que: E Φ 2 n = 2(t i t i 1 2 2 P (t i t i 1 i=1 i=1 = 2 P T si P esto demuestra que Φ n converge a en L 2 (Ω.

Capítulo 2 La Integral Estocástica de Ito Sea W (t, w un movimiento Browniano. En este capítulo estudiaremos la primera integral estocástica f(t, wdw (t, w definida por Kiyosi Ito en su paper de 1944: Stochastic Integral. El integrando f(t, w es un proceso estocástico adaptado a la filtración F t = σ{w (s; s t} y E( f(t, w 2 dt <. 2.1. Motivación La teoría de integración estocástica de Ito fue originalmente motivada como un método directo para construir procesos de difusión (una subclase de procesos de Markov como soluciones de ecuaciones diferenciales estocásticas. Pero esta puede también ser motivada a partir del punto de vista de martingalas. Sea W (t, w un movimiento Browniano entonces: Cómo podemos definir una integral estocástica estocástico f(t, w de tal forma que el proceso estocástico f(t, wdw (t, w para un proceso X(t, w = f(s, wdw (s, w, t T. sea un martingala? Para obtener algunas ideas necesarias para responder a esta pregunta, vamos a considerar un ejemplo simple, sea f(t, w = W (t, w, así la integral 19

2 2.1. Motivación en cuestión es W (t, wdw (t, w. Sea P = {t, t 1,..., t n } una partición de, T. Sean L n y R n las correspondientes sumas de Riemann - Stieljes con puntos de evaluación τ i = t i 1 y τ i = t i respectivamente, es decir: Luego tenemos: L n = R n = W (t i 1 (W (t i W (t i 1, (2.1 i=1 W (t i (W (t i W (t i 1. (2.2 i=1 R n L n = (W (t i W (t i 1 2. (2.3 i=1 Así el límite lím (R n L n, si existe, es la variación cuadrática del movimiento Browniano W (t, w, que por el teorema 1.11 es igual a T lím (R n L n = T P en L 2 (Ω Luego lím R n lím L n. Pero cuáles son estos límites?. Para encontrar la respuesta, notar P P que R n + L n = (W (t i 2 W (t i 1 2 = W (t n 2 W (t 2 = W (T 2 (2.4 i=1 Obviamente, se sigue de las ecuaciones (2.3 y (2.4 que R n = 1 2 L n = 1 2 ( W (T 2 + ( W (T 2 + (W (t i W (t i 1 2 i=1 (W (t i W (t i 1 2 i=1 Podemos usar el teorema 1.4.11 y tomar el límite en L 2 (Omega de R n y L n para obtener lím R n = 1 P 2 (W (T 2 + T. (2.5 lím P L n = 1 2 (W (T 2 + T. (2.6

2. La Integral Estocástica de Ito 21 Cuál de las ecuaciones (2.5 y (2.6 debe ser elegida para ser la integral W (t, wdw (t, w? es decir, cuál de los puntos de evaluación debe usarse para la evaluación del integrando? Para responder a esta pregunta, definamos los procesos estocásticos: R(t = 1 2 (W (t2 + t, L(t = 1 2 (W (t2 t Notar que E(R(t, w = t. Luego R(t, w no es un martingala, puesto que E(X(t debe ser una constante para cualquier martingala (X(t t. Por otro lado, L(t, w es un martingala. Esto puede ser verificado como sigue. Sea F t = σ{w (s; s t} luego para cualquier s t E(L(t, w f s = 1 2 E(W (t, w2 f s 1 2 t (2.7 pero E(W (t, w 2 f s = t s + W (s, w 2, así reemplazando en la ecuación (2.7 obtenemos: E(L(t f s = 1 2 (W (s2 s = L(s, s t Esto muestra que (L(t t es un martingala. A partir de este simple ejemplo podemos concluir lo siguiente: Si queremos tener la propiedad de martingala para la aún a ser definida integral estocástica f(s, wdw (s, w, debemos elegir el punto de evaluación τ i = t i 1 de cada subintervalo de la partición P = {t i } n i=. Además, considerar otro ejemplo simple: X(t, w = W (1, wdw (s, w, t 1. Intuitivamente, esperamos que: X(t, w = W (1, ww (t, w, pero el proceso estocástico X(t, w no es un martingala ya que E(W (1W (t = mín{1, t} = t, el cual no es una constante. La razón para que tal integral no este definida (cuando

22 2.2. Filtraciones para un Movimiento Browniano queremos obtener martingalas es por que el integrando W (1, w no es adaptado a la filtración σ{w (s; s t}, t 1. Así tenemos un importante requerimiento para el integrando. Si queremos tener la propiedad martingala para la aún a ser definida integral estocástica f(s, wdw (s, w, necesitamos asumir que el integrando sea adaptado a la filtración F t = σ{w (s; s t}. En general permitiremos que {F t ; t T } sea una filtración más amplia que la generada por el movimiento Browniano, es decir F t σ{w (s; s t} para todo t. 2.2. Filtraciones para un Movimiento Browniano Como apuntamos en la sección previa, la aún a ser definida integral estocástica f(t, wdw (t, w debe tener la propiedad que cuando T es reemplazado por t el proceso estocástico resultante, X(t, w = f(s, wdw (s, w, t T es un martingala con respecto a la filtración F W t = σ{w (s; s t}. Recordar que W (t, w tiene incrementos independientes. Esta propiedad implica que W (t, w es un martingala con respecto a la filtración {Ft W }. En efecto la propiedad de incrementos independientes es relacionada a la independencia de incrementos con respecto a una filtración {F t ; t T } según la siguiente proposición. Proposición 2.1 Si W (t, w, t, es un proceso estocástico adaptado a la filtración F = {F t ; t } tal que W (t, W (s, es independiente de F s, para cualquier s t, entonces el proceso estocástico W (t, w tiene incrementos independientes. 1 1 Para demostración ver3

2. La Integral Estocástica de Ito 23 Ahora suponer que W (t, w es un proceso estocástico que satisface las condiciones (i, (ii y (iv de un movimiento Browniano en la definición 1.26 Además, suponer que existe una filtración {F t ; t } tal que W (t, w satisface las hipótesis de la proposición 2.1 es decir, W (t, w es {F t } adaptado y W (t, W (s, es independiente de F s para cualquier s t. Entonces por la proposición 2.1, el proceso estocástico W (t, w tiene incrementos independientes, es decir, satisface la condición (iii de un movimiento Browniano en la definición 1.26, por lo tanto W (t, w es un movimiento Browniano de acuerdo a la definición 1.26. Luego decimos que W (t, w es un movimento Browniano con respecto a la filtración {F t ; t } si esta satisface condiciones (i, (ii y (iv en la definición 1.26 y la hipótesis de la proposición 2.1 con respecto a {F t ; t }. Suponer que W (t, w es un movimiento Browniano con respecto a la filtración {F t ; t }. Sea {G t ; t } otra filtración tal que F G para todo t. En general no es cierto que W (t, w es aún un movimiento Browniano con respecto a {G t ; t } como lo muestra el siguiente ejemplo: Ejemplo: Sea W (t, w un movimiento Browniano. Luego este es un movimiento Browniano con respecto a la filtración Ft W = σ{w (s; s t}. Considerar la filtración {G t ; t } dada por: G t = la σ álgebra generada por W (1, w y Ft W, t Entonces W (t, w no es un movimiento Browniano con respecto a la filtración {G t ; t }. Para ver este hecho, simplemente notar que para cualquier < t < 1. EW (1, w G t = W (1 W (t Luego W (t, w no en un martingala con respecto a {G t ; t }. Se sigue que W (t, w no es un movimiento Browniano con respecto a {G t ; t }.

24 2.3. Integral Estocástica Así a partir de ahora consideraremos una filtración con respecto a la cual W (t, w sea un movimiento Browniano. Queremos permitir que el integrando f(t, w en la aún a ser definida integral estocástica f(t, wdw (t, w pertenezca a una clase amplia de procesos estocásticos. En particular, el integrando f(t, w no es requerido que sea adaptado con respecto a la filtración {Ft W ; t } como veremas en las secciones posteriores. 2.3. Integral Estocástica Motivados por la discusión anterior, a partir de ahora fijaremos un movimiento Browniano estándar W (t, w sobre un espacio de probabilidad filtrado (Ω, F, F, P cuya filtración F = {F; t T } satisface las siguientes condiciones: a Para cada t, T, W (t es F t medible. b Para cualquier s t, la variable aleatoria W (t W (s es independiente de la σ álgebra F s. 2.3.1. Los espacios L 2 ad (, T Ω y E Por conveniencia, usaremos L 2 ad (, T Ω para denotar al espacio de todos los procesos estocásticos f(t, w, t T, w Ω, que satisfacen las siguientes condiciones: (1 f(t, w es medible y adaptado a la filtración F = {F t ; t T }. (2 E( f(t, w 2 dt <. En esta sección usaremos las ideas originales de Kiyosi Ito en su paper: Stochastic Integral de 1944, para definir la integral estocástica: I(f = f(t, wdw (t, w (2.8

2. La Integral Estocástica de Ito 25 para f L 2 ad (, T Ω. Dividiremos la discución en tres etapas. En la primera etapa definiremos la integral estocástica para procesos estocásticos escalonados en L 2 ad (, T Ω. En la segunda etapa probaremos un lema de aproximación crucial y en la tercera etapa definiremos la integral estocástica para procesos estocásticos generales en L 2 ad (, T Ω. Definición 2.1 Un proceso estocástico f(t, w, t T, w Ω es llamado un proceso escalonado si existe una partición P = { = t < t 1 <... < t n = T } del intervalo, T y una sucesión de variables aleatorias definidas en Ω, {ξ, ξ 1,..., ξ n 1 } tal que f(t, w = ξ i 1 (w1 ti 1,t i (t (2.9 donde ξ i 1 es F ti 1 medible y E(ξ 2 i 1 < para cada i = 1,..., n. i=1 Así de acuerdo a la definición anterior, denotaremos por E al espacio de todos los procesos estocásticos en L 2 ad (, T Ω que son escalonados. 2.3.2. Definición de la Integral Estocástica en E y sus propiedades Definición 2.2 Si f E, definimos su integral estocástica en el sentido de Ito, como: I(f = ξ i 1 (W (t i W (t i 1 (2.1 i=1 Obviamente I(af + bg = ai(f + bi(g, para cualquier a, b R y cualquier f, g E, así la integral de Ito para procesos en E es lineal, y es una variable aleatoria F T medible. Admás tenemos el siguiente lema. Lema 2.1 Sea I(f definida por la ecuación (2.1, entonces I(f es una variable aleatoria en L 2 (Ω con E(I(f = y E( I(f 2 = E( f(t 2 dt (2.11

26 2.3. Integral Estocástica Demostracion: Para cada 1 i n en ecuación (2.1 E{ξ i 1 (W (t i W (t i 1 } = E { Eξ i 1 (W (t i W (t i 1 F ti 1 } = E { ξ i 1 Ew(t i W (t i 1 F ti 1 } = E { ξ i 1 E(W (t i W (t i 1 } =. Entonces: E(I(f =. Además, tenemos I(f 2 = ξ i 1 ξ j 1 (W (t i W (t i 1 (W (t j W (t j 1 i,j=1 Notar que para i j, digamos i < j E{ξ i 1 ξ j 1 (W (t i W (t i 1 (W (t j W (t j 1 } = E { Eξ i 1 ξ j 1 (W (t i W (t i 1 (W (t j W (t j 1 F j 1 } = E { ξ i 1 ξ j 1 (W (t i W (t i 1 EW (t j W (t j 1 F tj 1 } = E { ξ i 1 ξ j 1 (W (t i W (t i 1 EW (t j W (t j 1 } (2.12 =. Por otro lado para i = j tenemos: E { ξi 1(W 2 (t i W (t i 1 2} = E{Eξi 1(W 2 (t i W (t i 1 2 F ti 1 } = E { ξi 1E(W 2 (t i W (t i 1 2 F ti 1 } = E { ξi 1E(W 2 (t i W (t i 1 2 } = E { ξi 1(t 2 i t i 1 } (2.13 = (t i t i 1 E(ξ 2 i 1 Entonces ecuación (2.1 sigue de las ecuaciones (2.12 y (2.13. E( I(f 2 = E(ξi 1(t 2 i t i 1 = i=1 E( f(t 2 dt.

2. La Integral Estocástica de Ito 27 2.3.3. El espacio E es denso en L 2 ad (, T Ω En esta sección demostraremos que el espacio E en denso en L 2 ad (, T Ω en la topología de L 2 ad (, T Ω, la prueba se dividirá en tres pasos, primero supondremos que el proceso estocástico f L 2 ad (, T Ω es continuo y acotado con probabilidad uno, en este caso construiremos una sucesión de procesos escalonados (f n n 1 el cual converge a f en la norma de L 2 ad (, T Ω. Luego asumiremos que f(t, w es un proceso acotado con probabilidad uno, y lo aproximaremos mediante una sucesión de procesos acotados y continuos con probabilidad uno. Y finalmente probaremos el caso general. Lema 2.2 Sea f L 2 ad (, T Ω continuo y acotado con probabilidad uno, entonces existe una sucesión de procesos escalonados (f n n 1 en E tal que: Demostración: Sea P = {t i } n i= estocástico lím E( f n (t f(t 2 dt = (2.14 una partición de, T, para todo n 1 definamos el proceso f n (t, w = f(t i 1, w, t i 1 t t i Así tenemos f n (t, w = f(t i 1, w1 ti 1,t i (t, n 1. i=1 donde f(t i 1, es F ti 1 medible, pues el proceso f(t, w es adaptado a la filtración F = {F t }, y E(f(t i 1 2 < ya que el proceso f(t, w es acotado con probabilidad uno. Entonces tenemos una sucesión de procesos escalonados de acuerdo a la definición 2.1. Por otro lado: f n (t 2 dt = f(t i 1 2 (t i t i 1, i=1

28 2.3. Integral Estocástica pero el proceso f(t, w es acotado, es decir existe una constante C > tal que f(t, w C, para todo w Ω y t T, luego ( T E Por lo tanto f n E, n 1. f n (t 2 dt C 2 T. De la construcción de los f n, tenemos que lím f n(t = f(t, t, T además puesto que f es un proceso acotado con probabilidad uno, existe C > tal que: f n (t f(t 2 2( f n (t 2 + f(t 2 4C 2 (2.15 entonces por el teorema de convergencia acotada, tenemos que lím f n (t f(t 2 dt = lím f n(t f(t 2 dt = (2.16 Por otro lado de (2.15, tenemos que: f n (t f(t 2 dt 4C 2 T, n 1 (2.17 Así aplicando nuevamente el teorema de convergencia acotada, obtenemos: ( T lím E f n (t f(t 2 dt ( = E lím f n (t f(t 2 dt = por (2.16 Por lo tanto: lím E( f n (t f(t 2 dt =. (2.18

2. La Integral Estocástica de Ito 29 Lema 2.3 Sea f L 2 ad (, T Ω un proceso acotado con probabilidad uno entonces existe una sucesión (g n n 1 en f L 2 ad (, T Ω de procesos continuos y acotados con probabilidad uno, tal que: Demostración: lím E( g n (t f(t 2 dt =. (2.19 Sea ρ : R R una función continua y de soporte compacto tal que ρ(t, t R y ρ(tdt = 1. Extendemos el proceso f a todo R: si t < f(t, w = f(t, w si t T. si t > T Para todo n 1, sea la sucesión de suavizadores ρ n (t = nρ(nt Se define el suavizador de f como: g n (t = (ρ n f(t. Ahora mostraremos que (g n n 1 es una sucesión de procesos acotados y continuos en L 2 ad (, T Ω. g n (t = ρ(τf(t τdτ = nρ(nτf(t τdτ Haciendo el cambio de variable x = nτ, tenemos que: g n (t = ρ(xf(t x n dx C Por lo tanto g n (t es acotado para cada n 1. ρ(xdx = C

3 2.3. Integral Estocástica Puesto que f es medible y acotado, entonces f es integrable con probabilidad uno, es decir P w Ω : f(t, w dt < = 1 además ρ es uniformemente continua sobre, T es decir si n N fijo, ɛ > δ > tal que: si t 1, t 2, T y t 1 t 2 < δ entonces: ρ(nt 1 ρ(nt 2 < ɛ M = f(t dt. nm donde Así g n (t 1 g n (t 2 = = n ρ(n(t 1 sf(sds n ρ(n(t 2 sf(sds n ρ(n(t1 s ρ(n(t 2 s f(sds n ρ(n(t1 s ρ(n(t 2 s f(s ds < n ɛ nm = ɛ f(s ds Por lo tanto la sucesión(g n n 1 es uniformemente continua con probabilidad uno. Ahora veamos que: la sucesión (g n n 1 está en L 2 ad (, T Ω, en efecto: Puesto que: g n (t 2 C 2 entonces E g n (t 2 dt C 2 T <. Por la propiedad de los suavizadores tenemos que: g n = ρ n f converge a f en L 2, T así: lím g n (t f(t 2 dt = (2.2

2. La Integral Estocástica de Ito 31 además: g n (t f(t 2 2 ( g n (t 2 + f(t 2 4C 2 integrando sobre, T : g n (t f(t 2 dt 4C 2 T entonces por el teorema de la convergencia acotada: ( T lím E ( g n (t f(t 2 dt = = lím g n (t f(t 2 dt (2.21 Entonces: lím E g n (t f(t 2 dt =. (2.22 Lema 2.4 Si f L 2 ad (, T Ω y es acotado con probabilidad uno entonces existe (f n n 1 en E tal que: Demostración: lím E ( f n (t f(t dt 2 = (2.23 Por el Lema 2.3, para cada n 1, existe una sucesión (g n (t n 1 en L 2 ad (, T Ω de procesos continuos y acotados tal que: lím E ( g n (t f(t 2 dt = (2.24 y como cada g n es un proceso acotado y continuo en L 2 ad (, T Ω por el Lema 2.2 existe un f n E tal que: lím E ( f n (t g n (t 2 dt = (2.25

32 2.3. Integral Estocástica Ademaś, tenemos que: f n (t f(t 2 2 ( f n (t g n (t 2 + g n (t f(t 2 E ( f n (t f(t 2 2 ( E( f n (t g n (t 2 + E( g n (t f(t 2 E ( f n (t f(t 2 ( T dt 2 E ( f n (t g n (t 2 dt + E ( g n (t f(t 2 dt Usando (2.24 y (2.25, tenemos que: lím E ( f n (t f(t 2 dt =. (2.26 Finalmente estamos en condiciones de probar el caso general. Lema 2.5 Si f L 2 ad (, T Ω, entonces existe una sucesión de procesos (f n n 1 en E tal que: Demostración: lím E ( f n (t f(t 2 dt = (2.27 Sea f L 2 ad (, T Ω arbitrario; para todo n 1, definamos la función 1 si x n h n (x = si x > n y el proceso estocástico truncado: g n (t, w := f(t, wh n (f(t, w, n 1 f(t, w si f(t, w n g n (t, w = si f(t, w > n De su definición el proceso g n es medible y adaptado a la filtración F = {F t ; t T }, para todo n 1. Además g n (t, w = f(t, wh n (f(t, w = f(t, w h n (f(t, w n

2. La Integral Estocástica de Ito 33 Por lo tanto el proceso estocástico g n es acotado, para cada n 1, luego ( T E g n (t, w 2 dt n 2 T g n L 2 ad(, T Ω, n 1 Además g n (t, w f(t, w, y puesto que: ( T E entonces: f(t, w 2 dt < entonces f(t, w 2 dt < con probabilidad uno. g n (t, w f(t, w 2 2 ( g n (t, w 2 + f(t, w 2 4 f(t, w 2 (2.28 g n (t, w f(t, w 2 dt 4 f(t, w 2 dt (2.29 aplicando el teorema de la convergencia acotada tenemos de (2.28 queremos y de (2.29 lím g n (t, w f(t, w 2 dt = lím g n(t, w f(t, w 2 dt = (2.3 ( T lím E g n (t, w f(t, w 2 dt = E ( lím g n (t, w f(t, w 2 dt = (2.31 Por lo tanto: lím E ( g n (t f(t 2 dt = (2.32 Ahora como cada g n es un proceso acotado, n 1, podemos aplicar el Lema 2.2 y así escoger para cada n un F n E tal que Con lo cual de (2.32 (2.33 obtenemos lím E ( g n (t f n (t 2 dt = (2.33 f n (t, w f(t, w 2 2 ( f n (t, w g n (t, w 2 + g n (t, w f(t, w 2

34 2.3. Integral Estocástica E ( f n (t, w f(t, w 2 ( T dt 2 E ( f n (t, w g n (t, w 2 dt+ E ( g n (t, w f(t, w 2 dt y por lo tanto: lím E ( f n (t f(t 2 dt =. 2.3.4. Definición de la Integral Estocástica de Ito en el espacio L 2 ad (, T Ω y sus propieades Mostrada ya la densidad del espacio E en L 2 ad (, T Ω con la topología fuerte, definiremos ahora la integral de Ito para procesos f(t, w en L 2 ad (, T Ω. Para esto usaremos el Lema 2.5 para obtener la sucesión (f n n 1 E tal que lím E ( f n (t f(t 2 dt = (2.34 Para cada n 1, I(f n ya ha sido definida en la sección 2.3.2, y usando el hecho de que: E ( I(f n 2 = E ( f n (t, w 2 dt. tenemos: pero: E ( I(f n I(f m 2 = E ( f n (t, w f m (t, w 2 dt E ( f n (t, w f m (t, w 2 dt 2 ( T E ( f n (t, w f(t, w 2 dt+ E ( f(t, w f m (t, w 2 y por (2.34, obtenemos: lím E ( f n (t, w f m (t, w 2 dt = n,m

2. La Integral Estocástica de Ito 35 por lo tanto: lím E( I(f n I(f m 2 = n,m así (I(f n n 1 es una sucesión de Cauchy en L 2 (Ω pero L 2 (Ω es un espacio de Hilbert, entonces lím I(f n existe, así definimos Ahora surge una pregunta Esta I(f bien definida? Sea (g n n 1 otra sucesión de procesos en E tal que E ( I(f n I(g m 2 = E ( I(f n g m 2 = I(f := lím I(f n en L 2 (Ω (2.35 lím E ( f(t g m (t 2 dt = (2.36 E ( f n (t g m (t 2 dt ( E ( f n (t f(t 2 dt + E ( f(t g m (t 2 dt Y de (2.34 y (2.36 tenemos: lím E( I(f n I(g m 2 = n,m por lo tanto: lím I(f n = lím I(g m = I(f en L 2 (Ω (2.37 m y así la integral de Ito de procesos f(t, w en L 2 ad (, T Ω está bien definida. Definición 2.3 El límite I(f definido en (2.35 es llamada la integral de Ito del proceso f L 2 ad (, T Ω y es denotado por: I(f = f(t, wdw (t, w Claramente si a, b R y f, g L 2 ad (, T Ω se cumple que: I(af + bg = ai(f + bi(g asi la aplicación I : L 2 ad (, T Ω L2 (Ω es lineal

36 2.3. Integral Estocástica Teorema 2.1 Suponer que f L 2 ad (, T Ω entonces la integral de Ito, I(f, es una variable aleatoria en L 2 (Ω con: Demostración: E(I(f = E ( I(f 2 = E ( f(t, w 2 dt Por el Lema 2.5, existe una sucesión (f n n 1 en E tal que y de (2.35 tenemos: lím f n f L 2 ad (,T Ω = lím I(f n I(f L 2 (Ω = Usando la desigualdad: x y x y, obtenemos De (2.39 y del Lema 2.1, tenemos: lím f n L 2 ad (,T Ω = f L 2 ad (,T Ω (2.38 lím I(f n L 2 (Ω = I(f L 2 (Ω (2.39 E ( I(f 2 = lím E ( I(f n 2 = lím f n L 2 ad (,T Ω = f L 2 ad (,T Ω por (2,38 = Igualando por el Lema 2.1 tenemos: E ( f(t, w 2 dt E(I(f = lím E(I(f n =. Observación : El teorema anterior nos dice que la integral de Ito es un operador lineal acotado entre los espacios de Hilbert L 2 ad (, T Ω y L2 (Ω, además es una isometría, es decir: I : L 2 ad(, T Ω L 2 (Ω f I(f

2. La Integral Estocástica de Ito 37 y I(f 2 L 2 (Ω = E( I(f 2 = por lo tanto: E ( f(t, w 2 dt = f 2 L 2 ad (,T Ω I(f L 2 (Ω = f L 2 ad (,T Ω Corolario 2.1 Si f, g L 2 ad (, T Ω, la siguiente igualdad es válida: ( E f(t, wdw (t, w g(t, wdw (t, w = (f(t, wg(t, wdt o equivalentemente: Demostración: < I(f, I(g > L 2 (Ω=< f, g > L 2 ad (,T Ω (2.4 Si f, g L 2 ad (, t Ω entonces f + g L2 ad (, t Ω E ( (I(f + I(g 2 = E (( I(f + g T 2 = E ( f(t, w + g(t, w 2 dt = ( f(t, w 2 dt + 2 E ( f(t, wg(t, w dt + E ( g(t, w 2 dt pero E (( I(f + I(g 2 = ( E I(f 2 + 2I(fI(g + I(g 2 = E ( I(f 2 + 2E ( I(f I(g + E ( I(g 2 = E ( f(t, w 2 dt + 2E ( I(f I(g + E ( g(t, w 2 dt Por lo tanto: Ejemplo: 1 E ( I(f I(g = E ( f(t, wg(t, w dt. W (t, wdw (t, w = 1 2 (W (T 2 T

38 2.3. Integral Estocástica Notar que f(t, w = W (t, w pertenece al espacio L 2 ad (, t Ω pues W (t, w es medible y es adaptado a la filtración F = {F t ; t T } especificada en la sección 2.3. Además E ( W (t, w 2 dt = T 2 2. Sabemos que W (t, w es un proceso estocástico continuo y acotado así podemos aplicar el Lema 2.2, es decir para un partición P = {t i } n i= de, T, definimos el proceso estocástico: f n (t, w := W (t i 1, w ; t i 1 t < t i entonces pero: W (t, wdw (t, w = lím I(f n en L 2 (Ω I(f n = W (t i 1 ( W (t i W (t i 1 i=1 ( = 1 2 W (T 2 = L n ( W (ti W (t i 1 2 i=1 Por lo tanto W (t, wdw (t, w = lím L n = 1 ( W (T 2 T 2 2.3.5. Procesos Estocásticos definidos por Integrales de Ito Recordar que al inicio de la sección 2.3, fijamos un movimiento Browniano W (t, w y una filtración F = {F t ; t T } que satisface las condiciones a y b. Sea f L 2 ad (, T Ω. Entonces para cualquier t, T E ( f(t, w 2 dt E ( f(s, w 2 ds <

2. La Integral Estocástica de Ito 39 Luego f L 2 ad (, T Ω. Esto implica que para cada t, T, la integral estocástica f(s, wdw (t, w esta definida. Considerar un proceso estocástico dado por: X(t, w = f(s, wdw (t, w ; t T, w Ω Notar que por el teorema 2.1 tenemos E( X(t, w 2 = E ( f(s, w 2 ds < y así E( X(t, w E ( X(t, w 2 1/2 <. Luego para cada t, la variable aleatoria X(t, es integrable y así podemos tomar la esperanza condicional de X(t, con respecto a la σ álgebra F s. En la sección 2.1, mencionamos que la integral de Ito f(t, wdw (t, w es definida de tal forma que el proceso estocástico X(t, w = f(s, wdw (s, w sea un martingala. El siguiente teorema muestra que esto es cierto para procesos en L 2 ad (, T Ω. Teorema 2.2 (Propiedad de Martingala Suponer que f L 2 ad (, T Ω. Entonces el proceso estocástico: X(t, w = f(s, wdw (s, w ; t T, w Ω es un martingala con respecto a la filtración F = {F t ; t T }. Demostración: Ya vimos que E( X(t, w < en la discusión anterior así que primero consideremos el caso en que f E, debemos probar que para s < t T, E(X(t, w F s = X(s, w, pero X(t, w = X(s, w + s f(τ, wdw (τ, w

4 2.3. Integral Estocástica entonces: E(X(t, w F s = E(X(s, w F s + E Así debemos probar que: = X(s, w + E ( t ( t s ( t s f(τ, wdw (τ, w F s f(τ, wdw (τ, w F s E f(τ, wdw (τ, w F s = En efecto: Si f E entonces: f(τ, w = ξ i 1 (w1 ti 1,t i (τ s i=1 donde s = t < t 1 <... < t n = t y ξ i 1 es F ti 1 medible i = 1, 2,..., n con E(ξi 1 2 <. Por la definición de la integral de Ito de procesos en E, tenemos s f(τ, wdw (τ, w = s i=1 ( W (ti W (t i 1 entonces: ( ( E f(τ, wdw (τ, w F s = ξi 1 (W (t i W (t i 1 F s Ahora como F s F ti 1, para todo i = 1, 2,..., n, tenemos: E ( ξ i 1 (W (t i W (t i 1 F s = E E ξi 1 (W (t i W (t i 1 F Ti 1 Fs = E (ξ i 1 E(W (t i W (t i 1 F ti 1 F s = E ( ξ i 1 E(W (t i W (t i 1 F s i=1 (2.41 (2.42 = Reemplazando (2.42 en (2.41 obtenemos lo que queríamos probar. En el caso general cuando f L 2 ad (, T Ω, tomar (f n n 1 en E tal que: lím f n f L 2 ad (,T Ω =

2. La Integral Estocástica de Ito 41 Para cada n 1, definir el proceso estocástico: X n (t, w = f n (τ, wdw (τ, w por el primer caso X n (t, w es un martingala, para cada n. Para s < t, escribir: X(t, w X(s, w = ( X(t, w X (n (t, w + ( X (n (t, w X (n (s, w + ( X (n (s, w X(s, w tomando esperanza condicional E ( X(t, w X(s, w F s = E ( X(t, w X (n (t, w F s + E ( X (n (t, w X (n (s, w F s + E ( X (n (s, w X(s, w F s y puesto que X (n (t, w es un martingala, el segundo término del lado derecho de la igualdad se elimina, quedando: E ( X(t, w X(s, w F s = E ( X(t, w X (n (t, w F s + E ( X (n (s, w X(s, w F s (2.43 Apliquemos la desigualdad condicional de Jensen con φ(x = x 2 para obtener: E ( X(t, w X (n (t, w F s 2 = E ( X(t, w X (n (t, w 2 F s (E ( X(t, w X (n (t, w 2 F s E ( E( X(t, w X (n (t, w F s 2 E = E ( X(t, w X (n (t, w 2 = E( t ( 2 f(τ, w f n (τ, w dw (τ, w = E ( f(τ, w f n (τ, w 2 dτ E ( f(τ, w f n (τ, w 2 dτ Por lo tanto tenemos: ( lím E E ( X(t, w X (n (t, w F s 2 = (2.44