Sobre algunas relaciones entre la probabilidad y las ecuaciones diferenciales

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Sobre algunas relaciones entre la probabilidad y las ecuaciones diferenciales"

Transcripción

1 Sobre algunas relaciones entre la probabilidad y las ecuaciones diferenciales Rafael Granero Belinchón rafael.granero@uam.es Trabajo del Máster en Matemáticas y Aplicaciones. Director: Don Jesús García Azorero

2 Índice general Introducción 5 1. Primeros conceptos El movimiento browniano Existencia y unicidad para las ecuaciones estocásticas La medida de Wiener Semigrupos y procesos de Markov Ecuaciones elípticas El laplaciano Reconocimiento de siluetas y la ecuación de Poisson Ecuaciones elípticas generales Dominios no acotados Ecuaciones parabólicas Ecuaciones parabólicas generales La ecuación de Fisher Feynman y la mecánica cuántica Dinámica de fluidos La ecuación de Burgers 1-dimensional La ecuación de Burgers d dimensional Las ecuaciones de Navier-Stokes incompresibles Existencia local para Navier-Stokes Juegos diferenciales y ecuaciones Los operadores Los juegos Tug of war Aproximaciones por SDE al Existencia del valor para el juego Tug of war con ruido Juego de Spencer Otros juegos

3 ÍNDICE GENERAL 3 6. Experimentos numéricos Conclusión 95 A. Algunos resultados auxiliares 97 A.1. Una construcción del movimiento browniano A.2. El teorema de Kolmogorov A.3. La fórmula de Itô A.4. Existencia y unicidad de EDP B. La integral de Itô 17 C. Código numérico utilizado 111 C.1. Trayectorias de un movimiento browniano C.2. Trayectorias de un puente browniano C.3. Método de Euler para una ecuación estocástica C.3.1. Caso unidimensional C.3.2. Caso 2D C.4. Método de Monte-Carlo para el laplaciano C.5. Reconocimiento de siluetas C.6. Método de Monte-Carlo para ecuaciones parabólicas C.7. Código para aproximar el laplaciano

4 Índice de figuras 1.1. Dos trayectorias de un movimiento browniano Un movimiento browniano en el plano Algunas trayectorias de la solución de la ecuación de Langevin v Una trayectoria solución de la ec. de Langevin en 2D Los cilindros Trayectorias de un puente browniano Experimento numérico, silueta y u Resultados, arriba la función Φ, abajo la función Ψ Onda viajera solución de la ecuación (3.3) Solución de Navier-Stokes en tiempo Solución del problema de Stokes Evolución de la solución de la ecuación (4.3) Soluciones de (4.4) para diferentes viscosidades Flujo Función armónica Juego con trayectorias no markovianas Esquema del juego Tug of war con ruido La aproximación a nuestra solución Valor inicial Solución numérica en tiempo

5 Introducción A simple vista puede parecer que las ecuaciones en derivadas parciales y la probabilidad son campos de estudio muy distintos. Pero, cuando se estudian un poco en profundidad aparecen múltiples conexiones entre ellos (fórmulas de representación, nuevos métodos numéricos...). Vamos a exponer algunas de estas relaciones, centrándonos sobre todo en la obtención de resultados que se podrían encuadrar más en el marco de las ecuaciones diferenciales. Pero, a la vez, presentaremos los conceptos probabilísticos necesarios, al menos de un modo descriptivo, remitiendo los detalles técnicos de las pruebas a los textos especializados recogidos en la bibliografía. Esta aproximación nos va a permitir resolver algunos problemas más fácilmente, o por lo menos de forma diferente. Además, desde el punto de vista del cálculo numérico es útil, pues nos permitirá utilizar un método Monte-Carlo para aproximar la solución de una EDP. Otras aplicaciones derivadas de este cálculo han sido la integración funcional, clave en cuántica, o un nuevo método, del que hablaremos después, para reconocimiento de siluetas en fotografías ([GGSBB]). Este trabajo consta de dos partes. En la primera obtendremos fórmulas de representación (FR) como integrales en un cierto espacio funcional para las soluciones de diversas ecuaciones en derivadas parciales. Entre otras cosas daremos una demostración sencilla de la existencia local en tiempo de soluciones clásicas para el sistema de Navier-Stokes. Para ello seguiremos de cerca el trabajo de G. Iyer y de P. Constantin contenido en la tesis doctoral del primero y en diversos artículos de ambos ([CI],[Iy],[Iy2], [C]). También daremos fórmulas de representación para ciertas ecuaciones de la mecánica cuántica y comentaremos brevemente la formulación de Feynman, menos conocida que las formulaciones de Heisenberg o de Schrödinger ([FH],[Fe],[Fe2],[GJ],[S],[Z]). Este método de considerar difusiones de Itô se puede interpretar como el método de las características, si bien han de considerarse aleatorias (ver capítulo 4). Después abordaremos problemas relacionados con el infinito laplaciano, con una aproximación basada en la teoría de juegos. Para ello seguiremos el trabajo de Y.Peres, S.Sheffield, D.Wilson y O.Schramm ([PSSW]). Finalmente, la segunda parte se dedicará a los apéndices con resultados técnicos que complementan a los capítulos anteriores. 5

6 6 INTRODUCCIÓN No queremos acabar esta introducción sin mencionar explícitamente a los grandes matemáticos y físicos responsables del desarrollo de esta teoría, como a A. Einstein por sus artículos acerca del movimiento browniano ([E]), R. Feynman ([Fe],[Fe2],[FH]) y P. Dirac por pensar en integrar en funciones y dar forma a la formulación de la mecánica cuántica del primero. El rigor en este tipo de cálculo lo aportaron N. Wiener y M. Kac ([K],[K2]). Este último autor escribió un texto cuyo título ha inspirado el de este trabajo. También hay que mencionar a K. Itô, que nos dejó un resultado básico para la integración de ecuaciones estocásticas, y a S. Ulam, responsable de los métodos Monte-Carlo. Nos gustaría que este trabajo sirviese como humilde homenaje. Es curioso comprobar que todas estas ideas surgieron en muy pocos kilómetros cuadrados: Wiener, Feynman y Ulam se conocían de Los Álamos, donde ayudaron a fabricar la bomba atómica. Kac fue compañero de Feynman cuando ambos eran profesores en la universidad de Cornell. También se quiere agradecer a varias personas su contribución, sobre todo a Don Jesús García Azorero (Universidad Autónoma de Madrid), por su atención y esfuerzo, imprescindibles para la realización de este trabajo. También a Don Rafael Orive Illera (Universidad Autónoma de Madrid), por su revisión del texto preliminar, a Don Massimiliano Gubinelli (Universidad Paris-Dauphine), por sus explicaciones y ayuda, a Don Bela Farago (Instituto Laue-Langevin) por su hospitalidad y tiempo, y a Don Julio D. Rossi (Universidad de Buenos Aires) y a Don Fernando Charro (Universidad Autónoma de Madrid) por sus explicaciones, muy valiosas para el capítulo 5. Menos formal pero igual de provechosa fue la ayuda que me brindaron Doña Eva Martínez García, Don David Paredes Barato y Don Jesús Rabadán Toledo.

7 Capítulo 1 Primeros conceptos En este capítulo presentamos los resultados y las definiciones que más tarde nos serán necesarias. Hablaremos del movimiento browniano, dando algunas propiedades de sus trayectorias y presentando las ecuaciones estocásticas. Puede verse un esquema de la construcción del proceso en uno de los apéndices, y para un análisis detallado de las propiedades de este objeto se puede consultar [Du]. También construiremos la medida de Wiener, que nos permitirá integrar en funciones. Concluiremos con varios resultados que establecen las propiedades del semigrupo asociado a un proceso de Markov El movimiento browniano El movimiento browniano es el movimiento aleatorio que se observa en algunas partículas microscópicas que se hallan en un medio fluido (por ejemplo polen en una gota de agua). Recibe su nombre en honor a Robert Brown quien lo describe en El movimiento aleatorio de estas partículas se debe a que su superficie es bombardeada incesantemente por las moléculas del fluido sometidas a una agitación térmica. Este bombardeo a escala atómica no es siempre completamente uniforme y sufre variaciones estadísticas importantes. Así la presión ejercida sobre los lados puede variar ligeramente con el tiempo provocando el movimiento observado. Tanto la difusión como la ósmosis son fenómenos basados en el movimiento browniano. El primero en describir matemáticamente el movimiento browniano fue Thorvald N. Thiele en 188, en un documento sobre el método de los mínimos cuadrados. Fue seguido independientemente por Louis Bachelier en 19 en su tesis doctoral La teoría de la especulación, en la que se presenta un análisis estocástico de acción y opción de mercados. Sin embargo, fue el estudio independiente de Albert Einstein en su artículo de 195 ( Sobre el movimiento requerido por la teoría cinética molecular del calor de pequeñas 7

8 8 CAPÍTULO 1. PRIMEROS CONCEPTOS partículas suspendidas en un líquido estacionario ) el que mostró la solución a los físicos, como una forma indirecta de confirmar la existencia de átomos y moléculas. En esa época la naturaleza atómica de la materia aún era una idea controvertida. Einstein y Marian Smoluchowski dedujeron que si la teoría cinética de los fluidos era correcta entonces las moléculas de agua tendrían movimientos aleatorios. Por lo tanto las partículas pequeñas podrían recibir un número aleatorio de impactos, de fuerza aleatoria y de direcciones aleatorias, en cortos períodos de tiempo. Este bombardeo aleatorio por las moléculas del fluido podría ser suficiente para que las partículas pequeñas se moviesen de la manera exacta que Brown había descrito. Consideremos ahora una malla en dos dimensiones (una asociada al espacio y otra al tiempo) {(ndx,mdt),m,n Z} con incrementos dx y dt. Consideremos una partícula que está en tiempo en la posición x =. Esta partícula tiene una probabilidad 1/2 de moverse hacia la derecha o hacia la izquierda, a la vez que automáticamente subirá en la malla al ser el eje vertical el eje temporal. Tal y como hemos dicho anteriormente nuestro modelo quiere reflejar la situación de una partícula que se mueve al azar por estar sometida a choques aleatorios. Sea p(n,m) la probabilidad de que esta partícula esté en la posición ndx en tiempo mdt. Usando probabilidades condicionadas, se tiene que y por lo tanto, p(n,m + 1) = 1 (p(n 1,m) + p(n + 1,m)) 2 p(n,m + 1) p(n,m) = 1 (p(n 1,m) 2p(n,m) + p(n + 1,m)) 2 Si ahora suponemos que podemos escribir dx 2 dt = D > (1.1) p(n,m + 1) p(n,m) dt = D 2 (p(n 1,m) 2p(n,m) + p(n + 1,m)) dx 2 La condición en el cociente que hemos establecido en (1.1) es necesaria para obtener una ecuación parabólica, si considerasemos otra distinta el límite resultante no tendría sentido. Formalmente, asumiendo que los límites que tomamos a continuación existen, haciendo dx,dt pero guardando (1.1) y escribiendo ndx = x, mdt = t, resulta que nuestra probabilidad discreta converge a una densidad, p(n,m) f(x,t)

9 1.1. EL MOVIMIENTO BROWNIANO 9 y obtenemos que la densidad verifica la ecuación del calor con parámetro D/2 t f(x,t) = D 2 f(x,t), f(x,) = δ (x) (1.2) La hipótesis (1.1) es clave y nos garantiza que la ecuación que obtenemos es la de difusión, como por otra parte debe ser dado el modelo que hemos considerado. Nuestra constante D será igual a la unidad en el movimiento browniano estándar. Estos cálculos son puramente formales, pues entre otras cosas, el paso al límite anterior no es riguroso. Sin embargo se puede formalizar de manera rigurosa por medio del teorema del límite central, el cual nos confirma que la probabilidad del proceso definido anteriormente viene dada por una distribución normal N(, Dt). Todos estos cálculos se encuentran, convenientemente justificados, en [Ev]. Einstein en [E] aborda este problema. Nuestros argumentos formales nos empiezan a enseñar que puede haber una conexión entre la probabilidad y las EDP. Vamos a dar ahora una definición y algunos resultados precisos del movimiento browniano. Definición 1 (Movimiento browniano). Dado un espacio de probabilidad (Ω, B,P), se dice que un proceso W(ω,t) 1, W : Ω [,T] R es un movimiento browniano si se cumple que 1. W(ω,) = y t W(ω,t) es continua c.t.p. 2. W(ω,t) W(ω,s) N(,t s) t s > 3. Los incrementos son independientes. Consideramos unos tiempos t 1,t 2...,t n y unos intervalos B 1,...B n, podemos calcular las probabilidades de que nuestro movimiento browniano esté en tiempo t i en el intervalo B i utilizando las propiedades anteriores. Sea p(t,x,y) = 1 ( ) x y 2 exp 2πt 2t P(a 1 < W(t 1 ) < b 1,...a n < W(t n ) < b n ) =... p(t 1,,x 1 )p(t 2 t 1,x 1,x 2 )...p(t n t n 1,x n 1,x n )dx n...dx 1 (1.3) B 1 B n Este cálculo será relevante a la hora de construir la medida de Wiener. 1 Usualmente, utilizaremos la siguiente notación para el movimiento browniano W(t). Sin embargo, para hacer hincapié en la idea del movimiento browniano como una variable aleatoria con valores en un espacio funcional, escribiremos W(ω) C([, T]) o ω(t).

10 1 CAPÍTULO 1. PRIMEROS CONCEPTOS Figura 1.1: Dos trayectorias de un movimiento browniano. Por un argumento estándar de aproximación, una vez establecida para funciones escalonadas, podemos generalizar esta fórmula para funciones E[f(W(t 1 ),...,W(t n ))] = f(x 1,...,x n )p(t 1,,x 1 )p(t 2 t 1,x 1,x 2 )...p(t n t n 1,x n 1,x n )dx n...dx 1 R n (1.4) Comentario 1 Más tarde veremos que (1.4) puede entenderse como una integral en funciones ya que, fijo T, podemos ver el movimiento browniano como una aplicación W(ω) : Ω C([,T]), y así f será una función que recibe como argumento otra función. Un cálculo similar y un paso al límite permitió a Wiener definir su medida y a Feynman dar una nueva formulación de la mecánica cuántica (ver secciones 1.3 y 3.3). De la definición podemos concluir fácilmente que E[W(t)] =, E[W 2 (t)] = t Podemos calcular la covarianza de forma parecida. Si s < t entonces E[W(t)W(s)] = E[(W(s)+W(t) W(s))W(s)] = s+e[(w(t) W(s))W(s)] = s Para sus aplicaciones en ecuaciones diferenciales, nos interesan las propiedades de sus trayectorias. Antes de poder demostrar nada, hemos de enunciar el teorema de regularidad de Kolmogorov cuya prueba puede verse en el apéndice A. Teorema 1 (Kolmogorov). Sea X un proceso estocástico con trayectorias continuas c.t.p. tal que E[ X(t) X(s) β ] C(t s) 1+α, t,s

11 1.1. EL MOVIMIENTO BROWNIANO Figura 1.2: Un movimiento browniano en el plano. entonces para todo < γ < α β y T > existe K(ω) tal que X(t) X(s) K t s γ Veamos que el movimiento browniano cumpla la hipótesis del teorema. Fijemos t > s, entonces se tiene E[ W(t) W(s) 2m ] = 1 2π(t s) (t s)m = 2π = C t s m R R x 2m exp( x 2 /2(t s))dx y 2m exp( y 2 /2)dy donde hicimos el cambio natural, que ya intuíamos útil en los cálculos formales anteriores (1.1), y = x (1.5) t s La hipótesis se cumple con β = 2m y α = m 1. Entonces se ha de tener que γ < α β = m para todo m y concluímos que γ < 1 2. Hemos demostrado que el movimiento browniano tiene trayectorias Hölder continuas en [,T] con exponente γ < 1/2. Este resultado es óptimo en el sentido de que ningún otro γ 1 2 nos servirá. La prueba es la siguiente. Si tuviéramos una estimación Hölder con γ = 1/2 entonces se cumpliría W(t) W(s) sup <s<t<t t s 1/2 C(ω) c.t.p. (1.6)

12 12 CAPÍTULO 1. PRIMEROS CONCEPTOS Una desigualdad como la anterior no es posible, pues, si consideramos una partición = t 1 < t 2... < t n = T, W(t) W(s) W(t i+1 ) W(t i ) sup <s<t<t (t s) 1/2 sup i (t i+1 t i ) 1/2 Hemos minorado la expresión original por unas variables aleatorias (hemos fijado los tiempos) independientes e idénticamente distibuidas con distribuciones conocidas (normales estándar), por lo que podemos calcular explícitamente la probabilidad de que el supremo de dichas variables sea mayor que un cierto parámetro L. Si tomásemos γ distinto de 1/2 entonces no quedarían variables idénticamente distribuídas. ( ) ( ) W(t i+1 ) W(t i ) W(t2 ) W(t 1 ) n P sup i (t i+1 t i ) 1/2 L = 1 P (t 2 t 1 ) 1/2 1, si n Como L era arbitrario podemos tomarlo tan grande como queramos y concluir que no existe tal constante, por lo que no es Hölder continua. Como no es Lipschitz en ningún intervalo de tiempo concluímos que no es derivable en casi ningún punto, es decir, una partícula en un medio que se mueva como un movimiento browniano no tendrá bien definida la velocidad en ningún punto. Esta propiedad presenta graves dificultades de interpretación desde el punto de físico, que resolveremos más adelante mediante otro modelo diferente. Otra demostración, obra de Erdös, Kakutani y Devoretzky, de este hecho puede encontrarse en [Ev]. Queremos remarcar que este proceso estocástico no es de variación total acotada, pues si lo fuese, dada una partición, se tendría n W(t i+1 ) W(t i ) 2 i= = máx( W(t i+1 W(t i ) ) i V (,T)máx i n W(t i+1 W(t i ) i= ( W(t) W(s) ) y esta última expresión tiende a cero por la continuidad del movimiento browniano conforme refinamos la partición. La contradicción está en que la variación cuadrática del movimiento browniano es mayor que cero, por lo tanto V (,T), la variación total no puede ser acotada. Hemos demostrado así el siguiente resultado: Teorema 2. El movimiento browniano tiene trayectorias Hölder continuas con exponente γ < 1 2. Este exponente es óptimo, en particular sus trayectorias no tienen variación acotada ni son derivables en casi ningún punto. Una propiedad muy importante de los procesos que vamos a estudiar es la propiedad de Markov, que viene a decir que el proceso no guarda memoria de la historia pasada. O de forma más precisa,

13 1.1. EL MOVIMIENTO BROWNIANO 13 Definición 2 (Proceso de Markov). Sea X(t). Es un proceso de Markov si cumple que, dada F s la fitración generada por el proceso (ver apéndice B), P[X(t) B F s ] = P[X(t) B X(s)] c.t.p., t > s Es decir, suponiendo que podemos definir el proceso X empezando en cualquier punto x, se ha de cumplir que X empiece de nuevo en todo tiempo, sin recordar por dónde ya pasó o dejó de pasar. Para ver la definición y propiedades de la esperanza condicionada puede consultarse [Ev]. Siendo el movimiento browniano el origen y prototipo de todos estos procesos, el primer paso es comprobar que la verifica. Teorema 3. El movimiento browniano, W, es un proceso de Markov. Demostración. Observamos que X(t) = W(t + s) W(s), t es un movimiento browniano (que partió del origen). Además es independiente de W(t), t s, por la propiedad 3 de la definición del movimiento browniano. 2 Entonces se tiene que W(t + s) es un movimiento browniano que empezó en W(s). Siendo el movimiento browniano un proceso tan relevante hay una extensa literatura donde se pueden consultar más exhaustivamente sus propiedades, por ejemplo pueden consultarse [MP],[Du]. Como no es el tema central de este texto, nos remitimos a las referencias antes citadas para su estudio detallado, y retomaremos el tema con el que empezamos, nuestro modelo para una partícula en un medio sometida a un bombardeo aleatorio. Nuestro primer modelo, el movimiento browniano, vimos que no tenía una velocidad definida en casi ningún punto y que era de variación no acotada en cualquier intervalo. Como eso plantea dificultades desde el punto de vista físico, vamos a presentar un modelo alternativo. En lugar de estudiar la posición de la partícula vamos a fijarnos en su velocidad. Sea v(t) la velocidad de la partícula. Las fuerzas a las que está sometida son el rozamiento, que será proporcional a la velocidad, y un término aleatorio que refleja los bombardeos. Anticipándonos, escribiremos el término aleatorio como dw dt y lo llamaremos ruido blanco. En un cierto sentido, si lo que estamos modelizando es la velocidad, esta función debería ser la derivada del movimiento browniano (ver [Ev]). Por la segunda ley de Newton, denotando por av(t)dt el término de rozamiento, tenemos dv(t) = av(t)dt + bdw, v() = v, (1.7) 2 Dos procesos X(t), Y (t) se dicen independientes si para todo par de conjuntos de tiempos t i, s i se tiene que el vector formado (X(t 1),.., X(t n)) es independiente del vector (Y (s 1),..., Y (s n)).

14 14 CAPÍTULO 1. PRIMEROS CONCEPTOS que recibe el nombre de ecuación de Langevin. La posición vendrá dada por dx(t) = v(t), x() = x. La posición verificará la ecuación de Ornstein-Uhlenbeck. Formalmente, podemos tratar la ecuación de Langevin como si fuese una EDO normal y escribir su solución v(t) = e at v + b t e a(t s) dw(s). (1.8) El problema es dar sentido al término t e a(t s) dw(s), que no es una integral de Riemann, sino una integral estocástica, que se interpreta en el sentido de la integral de Itô (ver [Ev], [Du], [MP] y apéndices) v(t) t Figura 1.3: Algunas trayectorias de la solución de la ecuación de Langevin v. Las ideas con las que debemos quedarnos es que el objeto definido en (1.7) (una ecuación diferencial estocástica) no tiene sentido tal y como está ahí, esa manera de presentarlo es sólo formal, sólo tiene sentido escrito en su forma integral (una vez que hemos definido la integral de Itô) que es v(t) = v + t av(s)ds + t bdw(s) (1.9) Las soluciones de esta integración son procesos estocásticos y por lo tanto, aleatorios. Podemos interpretar las ecuaciones estocásticas como una EDO en cada ω. La siguiente sección está dedicada al estudio de cuándo un problema como (1.7) está bien propuesto y qué propiedades verifica su solución. 3 Hay otra manera importante de interpretar este tipo de integrales, la integral de Stratonovich (ver apéndice B).

15 1.2. EXISTENCIA Y UNICIDAD PARA LAS ECUACIONES ESTOCÁSTICAS Figura 1.4: Una trayectoria solución de la ec. de Langevin en 2D Existencia y unicidad para las ecuaciones estocásticas Una vez hemos presentado algunos modelos de ecuaciones estocásticas, es el momento de dar la definición general. Sea X una variable aleatoria n dimensional y sea W un proceso de Wiener m dimensional e independiente de nuestra variable X. 4 Como σ álgebra consideramos la engendrada por la variable aleatoria inicial y el movimiento browniano, esto es 5 F(t) = Σ{ X, W(s) s t}. Sean dos funciones b : R d [,T] R d σ : R d [,T] M d m donde M d m es el espacio de las matrices de dimensión d m. Dado que las trayectorias del movimiento browniano no son suaves, no podemos esperar soluciones derivables para las ecuaciones estocásticas. Como hemos observado anteriormente, estas ecuaciones sólo tienen sentido en su formulación integral. Antes de ver la definición de solución de la ecuación estocástica necesitamos otras 4 Movimiento browniano y proceso de Wiener son términos que se emplean indistintamente a lo largo de todo el texto. 5 Notaremos como ΣX(s), s t a la σ álgebra generada por el proceso X(s). Pedimos atención al lector para que no se confunda con la difusión de la ecuación, la cual, tradicionalmente, también se denota por σ.

16 16 CAPÍTULO 1. PRIMEROS CONCEPTOS Definición 3 (Procesos progresivamente medible). Una función f(s, ω) es progresivamente medible si es medible en el conjunto [,T] Ω con respecto a la σ álgebra B F, la menor σ álgebra en [,T] Ω que contiene a los conjuntos A B con A en [,T] y B en Ω. También se conoce como independiente del futuro. Definición 4 (Espacios L p para los procesos). Para los procesos f(s,ω) se definen los siguientes espacios [ T ] L 1 ([,T]) = {f(s,ω), E f(s) ds < }. Para un p general se considera [ T L p ([,T]) = {f(s,ω), E ] f(s) p ds < }. Definición 5. Se dice que el proceso estocástico X(t) es solución de la ecuación diferencial estocástica si se cumplen d X = b( X,t)dt + σ( X,t)d W, X() = X (1.1) 1. X(t) es progresivamente medible. 2. b( X(t),t) L 1 [,T]. 3. σ( X(t),t) L 2 [,T]. 4. X(t) = X + t t b( X(s),s)ds + σ( X(s),s)d W c.t.p. t T (1.11) Que consideremos sólo las ecuaciones de primer orden no es una restricción, pues una ecuación de grado n se puede escribir como n ecuaciones de grado uno. Para probar la existencia y la unicidad utilizaremos el método de aproximaciones sucesivas, exactamente igual que con las EDO. Así el teorema es Teorema 4 (Existencia y unicidad). Supongamos que tanto b como σ son funciones Lipschitz en la variable espacial y para todos los tiempos en el intervalo [, T] i.e. b(x,t) b(x,t) L 1 x x, t T

17 1.2. EXISTENCIA Y UNICIDAD PARA LAS ECUACIONES ESTOCÁSTICAS17 σ(x,t) σ(x,t) L 2 x x, t T Sea X una variable aleatoria en L 2 [,T] independiente del movimiento browniano considerado. Entonces existe un único proceso en L 2 [,T] tal que es solución de la ecuación (1.1). 6 Antes de demostrarlo damos varios resultados necesarios que dejamos sin demostración (ver [O] y [Ev]). Lema 1 (Desigualdad de Gronwall). Sean φ un función no negativa definida en el intervalo t T, y sean C, A unas constantes. Si se cumple φ(t) C + t Aφ(s)ds t T entonces se tiene φ(t) C exp(at). Teorema 5 (Desigualdad para martingalas). Sea X una martingala entonces se tiene, si 1 < p <, ( ) ( ) p p E máx s t X(s) p E( X(t) p ). p 1 Lema 2 (Desigualdad de Chevichev). Sea X variable aleatoria, entonces para todo λ > y p [1, ) se tiene P( X λ) E( X p ) λ p Lema 3 (Borel-Cantelli). Denotamos por A n i.o. al límite superior de esta familia de conjuntos. Es decir, aquellos elementos que están un número infinito de veces. Entonces si P(A n ) < n=1 entonces P(A n i.o.) = Ahora sí que podemos pasar a la demostración del teorema de existencia y unicidad para las ecuaciones estocásticas. 6 En el sentido de que si hay dos entonces son iguales en casi todo punto.

18 18 CAPÍTULO 1. PRIMEROS CONCEPTOS Demostración. (Unicidad) Supongamos que hay dos soluciones X y X. Restándolas obtenemos X(t) X (t) = t b( X(t),t) b( X (t),t)dt + t σ( X(t),t) σ( X (t),t)d W Entonces se tiene que E( X(t) X (t) 2 ) + ( t 2E b( X(t),t) b( X (t),t)ds t σ( X(t),t) σ( X (t),t)dw 2) 2 Observamos que podemos utilizar Cauchy-Schwarz y la condición de ser Lipschitz para acotar cada término. ( t E b( X(t),t) b( X (t),t)ds 2 ) ( t TE b( X(t),t) b( X (t),t) L 2 T t E( X(t) X (t) 2 ) Para acotar el segundo sumando utilizamos las propiedades de la integral de Itô ([Ev],[Du]). ( t E σ( X(t),t) σ( X (t),t)dw 2 ) ( t = E σ( X(t),t) σ( X 2 ) (t),t) ds t L 2 E( X(t) X (t) 2 )ds Y, considerando las dos desigualdades E( X(t) X (t) 2 ) C t E( X(t) X (t) 2 )ds Ahora podemos utilizar la desigualdad de Gronwall con φ(t) = E( X(t) X (t) 2 ), C = y concluímos que X y X son iguales en casi todo punto para todo tiempo. (Existencia) Consideraremos las aproximaciones X n+1 (t) = X + t b(x n (s),s)ds + t σ( X n (s),s)d W Usaremos el siguiente resultado (cuya demostración, basada en un método de inducción, puede consultarse en [Ev]): 2 )

19 1.2. EXISTENCIA Y UNICIDAD PARA LAS ECUACIONES ESTOCÁSTICAS19 Sea la distancia Entonces se cumple d n (t) = E( X n+1 (t) X n (t) 2 ) d n (t) (Mt)n+1 (n + 1)! n = 1,..., t T para alguna constante M = M(L,T, X ). Se tiene, por los cálculos anteriores, que T máx X n+1 (t) X n (t) L 2 T2 X n (t) X n 1 (t) 2 dt t T t + máx σ( X n (s),s) σ( X n 1 (s),s)dw t T 2 Ahora usamos el teorema 5 y el resultado anterior y concluímos que se tiene E[ máx t T X n+1 (t) X n (t) ] T L 2 T2 X n (t) X n 1 (t) 2 dt T + 8L 2 X n (t) X n 1 (t) 2 dt C (MT)n n! Aplicando la desigualdad de Chevichev y el lema de Borel-Cantelli concluímos que ( P máx X n+1 (t) X n (t) > 1 ) t T 2 i.o. = Entonces para casi todo ω, X n converge uniformemente en [,T] a un proceso X. Pasando al límite en la definición de X n+1 y en las integrales concluímos que el proceso límite es solución de la ecuación (1.11). La prueba de que el proceso está en L 2 puede consultarse en [Ev] o en [O]. La prueba se basa en la definición recurrente del proceso X n+1 (t) y en la suma de la serie exponencial. Dado que una ecuación estocástica es una generalización de una ecuación ordinaria, podíamos esperar que la demostración fuese similar. Sin embargo, dado que el browniano no es derivable en casi ningún punto, en general no podremos esperar que una solución de una ecuación estocástica vaya a ser diferenciable. La máxima regularidad que podemos esperar es la misma que para el browniano, que es Hölder-α con α < 1/2 en tiempo. En las condiciones del teorema tendremos Hölder-β con β < 1 en espacio. 2

20 2 CAPÍTULO 1. PRIMEROS CONCEPTOS Para introducir la idea de flujo estocástico, que no es más que la versión aleatoria de la idea de flujo de las EDO, usaremos un nuevo parámetro s, el tiempo inicial, y escribiremos X t s(x) para la solución de d X(t) = b( X(t),t)dt + σ( X(t),t)d W, X(s) = x (1.12) Así se tiene la propiedad de flujo X t u ( X u s (x)) = X t s (x) en c.t.p. s u t T, x Rd (1.13) La demostración de este hecho puede verse en las notas del curso impartido por M.Gubinelli en su página web o en [Ku]. Para hablar de la regularidad respecto de los parámetros necesitamos una desigualdad para poder aplicar el teorema de Kolmogorov. En [BF] puede encontrarse E[ X t s (x) X t s (x ) p ] C[ x x p + s s p/2 + t t p/2 ] (1.14) Ahora, si consideramos x = x y queremos ver el exponente de Hölder en el tiempo tenemos que aplicar el teorema de Kolmogorov de manera idéntica a como lo hicimos en la sección anterior. Concluímos que, vista la solución como una función en s (o en t) el exponente de Hölder es γ < 1/2. Verlo para el espacio es similar. Consideremos ahora s = s, t = t. Entonces aplicamos el teorema de Kolmogorov y concluímos que el exponente es γ < 1. Hemos demostrado así el resultado siguiente Teorema 6 (Regularidad). Sea una ecuación estocástica con coeficientes bajo las hipótesis del teorema 4. Y sea X s t (x) su solución. Entonces se tiene 1. s X t s(x) es Hölder-γ si γ < 1/2. 2. t X s t (x) es Hölder-γ si γ < 1/2. 3. x X t s(x) es Hölder-γ si γ < 1. Claro está que si se tiene una mayor regularidad en las funciones b y σ entonces se tendrá mayor regularidad en el espacio. En concreto se tiene Teorema 7. Sean los coeficientes de la ecuación estocástica funciones C k,α en x, entonces la solución X t (x) es Ck,β en x con β < α. En el tiempo no ganaremos nada, porque el contraejemplo del movimiento browniano lo impide. Para las demostraciones rigurosas de estas afirmaciones puede consultarse [Ku]. Teorema 8. Sean los coeficientes de la ecuación estocástica satisfaciendo las hipótesis del teorema 4, entonces existe c constante tal que dos soluciones de la misma ecuación con distintos valores iniciales cumplen E[ X 1 (t) X 2 (t) 2 ] x 1 x 2 2 e ct.

21 1.3. LA MEDIDA DE WIENER 21 Demostración. La idea de la prueba es aplicar la fórmula de Itô (ver apéndice A) a la función norma, ρ 2 ( X 1 (t), X 2 (t)) = d (X1 i (t) Xi 2 (t))2 Una vez que hemos hecho esto, aplicamos la desigualdad de Gronwall. i=1 Hay que mencionar que hay dos tipos de ecuaciones estocásticas, cada uno de ellos basado en una integración estocástica diferente. Son las ecuaciones de Itô, que se basan en la integral de Itô y son las que trataremos aquí, y las de Stratonovich, que se basan en la integral del mismo nombre. Para más detalles se pueden consultar los apéndices. Las ecuaciones estocásticas podemos considerarlas como generalizaciones de la ecuación de Langevin para una partícula suspendida en un medio y sometida a bombardeos aleatorios que cambian su velocidad. Es entonces fácil establecer que reflejan una difusión 7. Pensando en las soluciones como difusiones es posible convencerse de que verificarán la propiedad de Markov, esto es, que son procesos de Markov. La prueba rigurosa se puede consultar en [O]. En cualquier caso esto no es sorprendente, pues la aleatoriedad aparecía por medio del movimiento browniano, y éste es un proceso de Markov. No ha de preocuparnos que los coeficientes puedan depender de t, pues podemos suponerlos independientes si añadimos t como otra coordenada de la incógnita X(t) R d+1. Veremos que el hecho de ser un proceso markoviano nos da un semigrupo de operadores. Pero antes necesitamos definir la medida de Wiener La medida de Wiener En esta sección presentaremos la medida de Wiener para poder continuar definiendo los semigrupos asociados a procesos de Markov en la sección siguiente. Necesitamos esta medida para integrar en las funciones y construir así soluciones de una EDP. La medida de Wiener es la inducida por el movimiento browniano, visto, no como una función W(ω,t), sino como W : Ω C([,T], R d ) Lo trataremos entonces como una variable aleatoria que toma valores en un espacio de funciones. En efecto, sea x un punto cualquiera, entonces podemos considerar los siguientes espacios de funciones C x ([,T], R d ) = {f C([,T], R d ), f() = x} (1.15) 7 De hecho a la función b se le llama drift, a σ, término de difusión y a las soluciones de ecuaciones como (1.1), difusiones de Itô.

22 22 CAPÍTULO 1. PRIMEROS CONCEPTOS C y x([,t], R d ) = {f C([,T], R d ), f() = x, f(t) = y} (1.16) Podemos definir una medida en el espacio, (1.15) considerando un movimiento browniano que no parta de sino de x. 8 O equivalentemente podemos considerar el proceso V (t) = x + W(t). En el segundo caso, (1.16), la medida construída se dice condicionada ya que hemos impuesto el extremo final. La manera rigurosa de construir ambas es similar. 9 Para simplificar, consideraremos el caso unidimensional (d = 1) y x =. 1 Consideraremos los conjuntos (que llamaremos cilindros) siguientes 11. Dados tiempos t 1,...t n y borelianos en R B 1,..., B n definimos el conjunto Π B 1,...,B n t 1,...,t n = {f C ([,T], R), f(t i ) B i } (1.17) Hemos de asignarles una probabilidad, y es ahora donde el cálculo previo (1.3) nos ayuda. Pues les asignamos la probabilidad usándolo. n 1 W(Π B 1,...,B n t 1,...,t n ) =... B 1 B n i= 1 ( 2πt i+1 t i ) e x1 2t 1 e x 2 x 1 xn x n 1 2(t 2 t 1) 2(tn t...e n 1) dx n...dx 1 (1.18) Observamos que si para cierto tiempo nuestro boreliano es todo el espacio entonces ese tiempo no cuenta, i.e. si en t i se tiene B i = R entonces W(Π B 1,...,B n t 1,...,t n ) = W(Π B 1,...B i 1,B i+1,...,b n t 1,...,t i 1,t i+1,...,t n ) Esto es una consecuencia de la ecuación de Chapman-Kolmogorov. Si p(t,x,y) = 1 2πt exp( (x y) 2 /2t) entonces la ecuación de Chapman-Kolmogorov se puede escribir p(s + t,x,y) = p(s, x, z)p(t, z, y)dz (1.19) R es decir, la probabilidad de ir en s + t de x a y es la misma que la de ir de x a z en s y de z a y en t siempre que contemos todos los z posibles. 8 Lo llamaremos espacio de caminos del inglés path space Cada una de las funciones será un camino ( path ) 9 Las separa una integración (ver capítulo 3) 1 Notaremos W = W. 11 Hay varias maneras de construir la medida de Wiener. Nosotros optaremos por considerar los cilindros y utilizar el teorema de extensión de Kolmogorov. Otra demostración se puede consultar en [GJ].

23 1.3. LA MEDIDA DE WIENER B 1 B 2.2 B 3.4 B t Figura 1.5: Los cilindros. Para poder utilizar el teorema de extensión de Kolmogorov hemos de ver que a conjuntos iguales se les asigna la misma medida. Es decir, hemos de ver que si entonces Π B 1,...,B n t 1,...,t n = Π A 1,...,A m s 1,...,s m W(Π B 1,...,B n t 1,...,t n ) = W(Π A 1,...,A m s 1,...,s m ) Esto se puede reducir al caso donde un conjunto de tiempos y boreles contiene al otro, pues si ambos conjuntos son iguales entonces podemos considerar la intersección de ambos y uno de ellos, i.e. tenemos el siguiente caso Π B 1,...,B n t 1,...,t n = Π B 1,...,B n,a 1,...,A m t 1,...,t n,s 1,...,s m Pero ahora podemos reducir la propiedad que queremos a la que habíamos demostrado ya usando las ecuaciones de Chapman-Kolmogorov. En efecto, si se cumple la igualdad entonces en los tiempos nuevos s j del miembro de la derecha los boreles respectivos, A j, han de ser todo el espacio. Si no fuese así, existe una función continua que pasa por los borelianos correctos

24 24 CAPÍTULO 1. PRIMEROS CONCEPTOS en todos los tiempos t i anteriores y posteriores y que en el tiempo s j pasase por A c j. Por lo que ambos conjuntos no serían iguales y obtenemos una contradicción. Una vez que los boreles son todo el espacio entonces usando las ecuaciones de Chapman-Kolmogorov podemos concluir que las medidas de ambos conjuntos son iguales. Usamos el teorema de extensión (o de existencia) de Kolmogorov, pues tenemos que se satisfacen las condiciones de consistencia. Además, así definida la medida es numerablemente aditiva en los cilindros. Que es finitamente aditiva es una simple observación. La numerabilidad viene de que podemos escribir 12 W( i=1 C i) = W( N i=1 C i) + W( i=n+1 C i) por ser válido para un número finito de conjuntos. Ahora concluímos observando que el segundo sumando converge a cero cuando avanzamos en N por ser la medida de un conjunto que tiende al vacío. Por lo tanto tenemos una medida en la σ álgebra generada por los cilindros antes mencionados. Sin embargo no está nada claro a simple vista cuál es dicha σ álgebra. Consideremos el conjunto A = {φ,f(s) < φ(s) < g(s)} para ciertas funciones continuas f,g. Sean s i los racionales en el intervalo [,T]. Entonces podemos escribir el conjunto como A = n=1 s i {f(s i ) + 1/n < φ(s i ) < g(s i ) 1/n} Por lo que tenemos que es una unión numerable de intersecciones de cilindros. Conjuntos como el anterior estarán en la σ álgebra, y por lo tanto estarán los boreles (de la convergencia uniforme), pues bastará fijar ψ y tomar f = ψ ε y g = ψ + ε. Es más, se puede demostrar que ambas σ álgebras en realidad coinciden. Introduciremos la notación, muy común, W(ω,t) = ω(t) Entonces la medida anterior nos define una esperanza E [f] = f(ω)dw (1.2) C ([,T],R) Observamos que el cero aparece como subíndice en el integrando porque consideramos un movimiento browniano con origen el cero. Si queremos 12 Se sabe (ver [Kl]) que si consideramos constantes de difusión imaginarias la medida resultante no es numerablemente aditiva.

25 1.3. LA MEDIDA DE WIENER 25 considerar movimientos partiendo de un punto x escribiremos E x [f] = f(ω)dw x (1.21) C x([,t],r) Esta probabilidad se concentrará en las funciones continuas que pasan por x en tiempo. Si fijamos unos tiempos, entonces podemos cambiar la integral en el espacio de funciones por una integral en R d. 13 Esto es consecuencia de cómo hemos definido la medida en los cilindros. E[f 1 ( W(t 1 )),...,f n ( W(t n ))] = R n j=1 n f j (x j )p(t j t j 1,x j,x j 1 )dx 1 dx 2,...dx n Esta fórmula nos es bien conocida en un caso con un sólo tiempo, pues no es más que la fórmula del semigrupo de la ecuación del calor. Así si e th f(x) = R H = 1 2 p(t,x,y)f(y)dy = E x [f( W(t))] = E [f(x + W(t))] (1.22) Esta es la primera fórmula de representación que hemos conseguido. Observamos que entonces podemos escribir la medida en función de estos operadores. E [f 1 ( W(t 1 )),...,f n ( W(t n ))] = [e t 1H f 1 e (t 2 t 1 )H f 2...e (tn t n 1)H f n ]() Hemos definido la medida de Wiener como la inducida por el movimiento browniano, pero podemos hacer lo mismo con otros procesos. Por ejemplo la medida definida en (1.16) no está inducida por el movimiento browniano, sino por el puente browniano X, definido como X(t) = W(t) + t T (y W(t)) Se puede definir también como la solución de la SDE dx(t) = t X(t) dt + dw T t con el mismo punto inicial que tenga el movimiento browniano que lo induce. Así podemos definir la medida (con medida del espacio total igual a p(t 2 T 1,x,y)) inducida por el puente browniano que en tiempo T 1 está en 13 La llamaremos integral de caminos del inglés path integral.

26 26 CAPÍTULO 1. PRIMEROS CONCEPTOS x y en T 2 está en y como unos ciertos operadores, exactamente igual que en el caso anterior, f 1 ( X(t 1 ),f 2 ( X(t 2 ),...f n ( X(t n )dw x,y [T 1,T 2 ] = C y x([t 1,T 2 ],R) = [e (T 1 t 1 )H f 1 e (t 2 t 1 )H f 2...e (tn t n 1)H f n e (T 2 t n)h (,y)](x) (1.23) Comentario 2 Cualquier difusión nos da una medida en el espacio de las funciones continuas con respecto a la σ álgebra de los cilindros 14. Puede consultarse [F] para más detalles. Lo que ocurrirá es que no será posible escribirla tan explícitamente salvo en unos pocos casos Figura 1.6: Trayectorias de un puente browniano Semigrupos y procesos de Markov Sea un dominio U R d. Entonces dado un proceso de Markov X definimos el operador T t f(x) = E x [f( X t (x))] = R d f(y)p(t,x,dy) (1.24) donde P(t, x, Γ) es la función de transición, que da la probabilidad de que en tiempo t nuestro proceso que parte de x llegue a Γ, es decir P( X (x) t Γ) = p(t,x,y)dy 14 En realidad cualquier proceso estocástico con trayectorias continuas nos define una medida en la σ álgebra de los cilindros. También podemos extender esta idea a las EDO que tengan unicidad, existencia y sus soluciones sean continuas. Sólo que en este caso la medida es totalmente singular, con probabilidad 1 caerá en la única solución de la EDO. Γ

27 1.4. SEMIGRUPOS Y PROCESOS DE MARKOV 27 y p(t,x,y) es la densidad de transición. Observamos que si f entonces T t f. Además si f L tenemos T t f L, es más T t f f Que efectivamente es un semigrupo se desprende de la propiedad de Markov 15 y de las propiedades de la esperanza condicionada (ver [Ev]), E[f( X t+s (x)) Σ( X(z), z s)] = E[f( X t s ( X s (x)))] = T tf( X s (x)) Ahora tomando esperanzas y aplicando las propiedades de la esperanza condicionada concluímos T s+t f(x) = T s T t f(x) Por lo tanto T t es un semigrupo de contracciones en L. Definimos su dominio como D(T t ) = {f L, T t f f, si t } Este conjunto es un espacio vectorial (por la linealidad de la esperanza y la desigualdad triangular). Además es cerrado. En efecto, basta observar que si f n D(T t ) f,t t f n T t f entonces T t f f T t f T t f n + T t f n f n + f n f. Y por lo tanto f D(T t ). Se tiene también que t T t f es continuo. En efecto, T t+h f T t f T t (T h f f) T h f f Hemos demostrado así el siguiente resultado Teorema 9 (Semigrupo). Dado un proceso de Markov, se tiene que 15 Hay muchas formulaciones de la propiedad de Markov, nosotros utilizamos antes una basada en a probabilidad, pero ahora utilizaremos una con esperanzas (ver [Du],[F]). Entonces se dice que X es de Markov si E[ X(t + h) Σ{ X(s), s t}] = E[ X(t + h) X(t)]

28 28 CAPÍTULO 1. PRIMEROS CONCEPTOS 1. T t es un semigrupo de contracciones en L, con dominio D(T t ) = {f L, T t f f, si t }. Además es un espacio vectorial cerrado. 2. s T s es continuo. Para fijar las ideas, veamos algunos ejemplos en una dimensión espacial. Ejemplo 1: Consideremos la EDO, escrita para conservar la notación como dx t (x) = bdt. Entonces, como no tiene ningún tipo de naturaleza estocástica, podemos obviar las esperanzas. En este caso el operador es T t f(x) = E x [f(x t (x))] = f(x + bt). Vemos que es justamente la solución de la ecuación de transporte u t = bu x, u(,x) = f(x) En este caso el generador es Ejemplo 2: A = b x. Consideremos ahora la ecuación estocástica dx = dw, X() = x con solución Vimos anteriormente que X t (x) = x + W(t) T t f(x) = E x [f(x + W(t))] resolvía la ecuación del calor con difusión 1/2, u t = 1 2 u xx, u(x,) = f(x) En este caso el generador es 2 A = 1 2 x 2.

29 1.4. SEMIGRUPOS Y PROCESOS DE MARKOV 29 Ejemplo 3: Podemos considerar la ecuación estocástica dx = bdt + dw, X() = x y entonces el semigrupo irá asociado a la ecuación En este caso el generador es u t = bu x u xx 2 A = b x x 2. En general, observamos que el generador del semigrupo, que se define como T h f(x) f(x) A = lím, h h es el operador elíptico que aparece en (A.4) 16 Au = 1 2 d 2 u a i,j (x) + x i x j i,j=1 d i=1 b i (x) u x i. Recordemos que a i,j = (σσ t ) i,j. Para demostrarlo sólo hemos de tomar esperanzas en la fórmula de Itô aplicada a f(x) C 2 con derivadas acotadas. Por lo tanto tenemos asociada la ecuación d dt T tf(x) = AT t f(x), T f(x) = f(x). Para más detalles puede consultarse [Du], [App]. Comentario 3 Se tiene que el operador A tiene sentido clásico para las funciones f C 2 b = C2 L, además C 2 b D(A) D(T t) L. Los dominios dependen de la dimensión considerada, así para d = 1 D(A) = C 2 b, pero para d > 1 es estrictamente mayor. Queremos remarcar que antes teníamos la continuidad en t, pero ahora, al menos para ciertas funciones f, tenemos la derivabilidad en t. Querremos la derivabilidad también en x, pero esa es debida al propio proceso de Markov. Definición 6. Un semigrupo es de Feller si se cumple que si f C(U) L (U) = C b (U) entonces T t f(x) C b (U). Se tiene el siguiente resultado Teorema 1. Sean los coefientes de una ecuación estocástica como en el teorema 4 y acotados, entonces el semigrupo asociado es de Feller. 16 Si lo restringimos a las funciones suficientemente regulares (ver [F] o [Dy]).

30 3 CAPÍTULO 1. PRIMEROS CONCEPTOS Demostración. Sean x, y valores iniciales de la ecuación estocástica con coeficientes Lipschitz acotados. Podemos separar esa esperanza en función de que los argumentos X t(x),xt (y) están próximos (y por la continuidad de f entonces la diferencia de dichos valores será menor que ε) y separados. Entonces T t (f(x) T t f(y)) E[ f( X t (x)) f( X t (y)) ] ε+2 f P( X t (x) X t (y) > δ) El segundo término es el resultante de la probabilidad de que los argumentos están alejados. En el caso de que nuestros argumentos estén separados podemos acotar f( X t (x)) f( X t (y)) 2 f. Ahora podemos aplicar el lema de Chevichev con p = 2 y el teorema 8 para acotar el último término con potencias de x y y constantes dependientes del tiempo. De aquí se infiere la continuidad. En concreto se tiene P( X t (x) X t (y) > δ) 1 δ 2E[ X t (x) X t (y) 2 ] ect δ 2 x y 2. Acabamos de ver que T t f(x) es continua en x, por lo tanto tenemos demostrada alguna regularidad para la solución de la ecuación d dt T tf(x) = AT t f(x), T f(x) = f(x) siempre que f C b y los coeficientes de la difusión estocástica sean acotados y Lipschitz. Si además suponemos que los coeficientes de la difusión son funciones C 2,α y f Cb 2 entonces T tf(x) C 2 (R d ) por el teorema 7. El resultado se puede mejorar. La fórmula de Bismut-Elworthy-Li (ver [Du] o [Ku]) nos permite escribir la derivada espacial de T t f(x) sin usar las derivadas de f. En concreto, Teorema 11 (Fórmula de Bismut-Elworthy-Li). Sea f C b, una difusión X t (x) con coeficientes C2,α b y v, w dos direcciones. Entonces la derivada de T t f(x) en la dirección v es v T t f(x) C v t f. Para las segundas derivadas la fórmula es similar, v, w T t f(x) C v w f. t

31 1.4. SEMIGRUPOS Y PROCESOS DE MARKOV 31 Por lo tanto sólo necesitaremos f C b y coeficientes de la SDE C 2,α b para que el generador tenga sentido clásico. 17 Queremos hacer notar que nuestra p en el caso de una difusión de Itô no es otra que la solución fundamental del problema parabólico, tal y como parecía claro del caso de la ecuación del calor. Comentario 4 Esto es gracias a que tenemos un proceso de Markov, pero estos no deben ser necesariamente difusiones de Itô, i.e. soluciones de ecuaciones estocásticas, pueden ser procesos de Lévy más generales que incluyan saltos... Esto llevaría a ecuaciones no-locales y operadores fraccionarios. 17 Notaremos el espacio de las funciones dos veces derivables con derivadas acotadas como C 2 b. Y como C b al espacio C(U) L (U).

32 Capítulo 2 Fórmulas de representación para ecuaciones elípticas Comenzaremos dando una definición necesaria para tratar con problemas en dominios acotados y con condiciones Dirichlet 1 Definición 7. Se define un tiempo de parada con respecto a una filtración, F(t), como una variable aleatoria τ : Ω [, ] que cumple que {ω,τ(ω) t} F(t), t. Se tienen los siguientes resultados: Proposición 1. Sea τ 1 y τ 2 tiempos de parada con respecto a la misma filtración. Entonces 1. {ω,τ 1 < t} y {ω,τ 1 = t} pertenecen a la filtración en todo tiempo. 2. mín(τ 1,τ 2 ) y máx(τ 1,τ 2 ) son tiempos de parada. La demostración de este resultado puede consultarse en [Ev]. El ejemplo que a nosotros nos interesará es el tiempo mínimo de tocar un conjunto. Proposición 2. Sea X(t) la solución de (1.11) satisfaciendo las hipótesis del teorema 4 y un conjunto E cerrado o abierto y no vacío en R d. Entonces es un tiempo de parada. τ = ínf{t X(t) E} 1 Las condiciones Neumann no se tratarán en este texto, pero la idea es definir una difusión que al llegar al borde se refleje de forma especular. (ver [R]) 32

33 2.1. EL LAPLACIANO 33 La relación entre la integración de Itô y estas variables aleatorias que son tiempos es clara. Funcionarán como límites de integración. Así en [Ev] puede verse la prueba de los resultados siguientes. Proposición 3. Si G L 2 [,T] y τ(ω) T es un tiempo de parada entonces la integral τ(ω) GdW = cumple las siguientes propiedades T G1 t τ(ω) dw ( τ(ω) ) E GdW = (( τ(ω) ) 2 ) ( τ(ω) ) E GdW = E G 2 dt Este resultado es una consecuencia inmediata del mismo resultado para la integral con límites no aleatorios (ver apéndice B). También se tiene una versión de la fórmula de Itô con tiempos de parada como límite de integración. Ver apéndices. La prueba, que es una consecuencia de los resultados vistos en el apéndice, se puede consultar en [Ev]. Los tiempos de parada que hemos considerado como el ínfimo de t tal que una cierta difusión golpea un conjunto se pueden ver como una variable aleatoria que tiene como espacio de probabilidad las funciones continuas. Esto es porque la difusión tomará valores continuos tal y como vimos en el capítulo anterior, y cada una de estas funciones (que son aleatorias en cuanto que no sabemos cuál saldrá) tendrá su propio valor τ x El laplaciano Hay dos maneras de aproximarse a estas fórmulas. Podemos partir de que conocemos que existe una solución de la EDP y llegar a que dicha solución es justamente una esperanza, o bien podemos ver que existe una función que es una esperanza y que dicha función es lo bastante regular como para ser solución clásica de una cierta EDP asociada. De momento optaremos por la primera manera, es decir, de una cierta solución que se sabe que existe de una EDP obtendremos una fórmula de representación probabilística. Hemos visto anteriormente que el generador A asociado al movimiento browniano es justamente H = 1 2.

34 34 CAPÍTULO 2. ECUACIONES ELÍPTICAS Así es natural considerar la familia de ecuaciones en un dominio regular U R d siguiente 1 u(x) = f(x) si x U, u(x) = g(x) si x U (2.1) 2 Consideremos primero el caso f = y g una función continua. Entonces queremos una fórmula para las funciones armónicas. Nuestro problema es 1 u(x) = si x U, u(x) = g(x) si x U (2.2) 2 Aplicamos la fórmula de Itó con límite de integración el tiempo de parada τ x (ω) = ínf(t x + W(t) U) al proceso estocástico (donde u es una solución de (2.1)) u( X t (x)) = u(x + W(t)). Entonces, como el generador es A = 1/2 u( X τx (x)) u(x) = τx Auds + τx u σd W. Si tomamos la esperanza observamos que el término de la integración estocástica desaparece (ver apéndice A) [ E x [u( X(τ x ))] E x [u( X())] τx ] = E x Auds. Pero observamos que E x [u( X(τ x ))] = E x [g( X(τ x )], E x [u( X())] = u(x), E x [ τx y por lo tanto el resultado que tenemos es ] Auds = Teorema 12 (Kakutani). Sea U R d un dominio y sea g una función continua definida en el borde de U, entonces la función u que es solución de (2.2) cumple u(x) = E x [g( X(τ x ))]. (2.3) Faltaría ver que no puede ocurrir que el browniano permanezca infinito tiempo dentro del conjunto U acotado. Para verlo se puede razonar de varias maneras. Supongamos que nuestro conjunto U acotado es tal que está contenido en el semiespacio {x 1 < a}

35 2.1. EL LAPLACIANO 35 para cierto a. Entonces se tiene que τ x < τ a 1,x donde el subíndice indica la primera componente y Entonces tenemos que τ a 1,x = ínf(t X 1 = x 1 + W 1 (t) = a). P(τ a 1,x t) = P(τ a 1,x t,x 1 + W 1 (t) < a) + P(τ a 1,x t,x 1 + W 1 (t) a) = 2P(τ a 1,x t,x 1 + W 1 (t) a) = 2P(x 1 + W 1 (t) a) por la definición del tiempo de parada y la simetría del movimiento browniano. Esta integral podemos calcularla explícitamente y tras tomar el límite cuando t tenemos que la probabilidad es 1 por ser dos veces la integral de la normal estándar en la semirrecta positiva. En efecto, tras hacer el cambio x = y/ t, se tiene 2P(x 1 + W 1 (t) a) = 2 e y2 /2 dy. π a t Desde este resultado es muy fácil obtener la propiedad del valor medio. Teorema 13 (Propiedad del valor medio). Si u es armónica entonces se tiene 1 u(x) = u(y)dy. B(x, r) B(x,r) Demostración. Usando el resultado anterior y observando que el movimiento browniano es isótropo, que la medida del conjunto ha de ser la unidad y que en este caso el valor en el borde es la misma u se concluye. Comentario 5 En realidad hemos demostrado que si tenemos una difusión X t(x) isótropa entonces v(x) = E x[g(x τx (x))] verifica la propiedad del valor medio. Otra consecuencia inmediata es que en el caso de g(x) = 1 Γ con Γ U, la función u(x) es la probabilidad de salir por Γ. Proposición 4. Sea u solución de (2.2) con g(x) = 1 Γ entonces se tiene u(x) = P( X τx (x) Γ).

36 36 CAPÍTULO 2. ECUACIONES ELÍPTICAS Antes mencionamos dos maneras de aproximarse a estos resultados. Hemos manejado hasta ahora la idea de que ya conocíamos que había solución. Veamos ahora, en el caso de las funciones armónicas, que si definimos v(x) = E x [g( X τx (x))], tenemos una solución clásica de la EDP considerada. Sabemos que la propiedad del valor medio la verifican las funciones armónicas. Entonces si vemos que v(x) verifica la propiedad del valor medio, que es continua y que v(x) satisface la condición de borde entonces podemos concluir que v(x) es la solución clásica de nuestro problema. Habíamos visto en el capítulo 1 que la función así definida era, al menos, continua en x. Ver que verifica las condiciones de borde es trivial, basta observar que el tiempo de parada será en ese caso τ x =. Usamos ahora el el último comentario acerca de la propiedad del valor medio para demostrar que nuestra v efectivamente la cumple. Así hemos demostrado el resultado Teorema 14. Sea u solución de (2.1) con f =, entonces se tiene u(x) = E x [g( X(τ x ))]. (2.4) Y recíprocamente, sea u como en la ecuación anterior para una cierta g en la frontera de un dominio, entonces u es una solución clásica de (2.1). Si ahora consideramos el caso g = y f una función Cb α resultado tenemos el Teorema 15. Si u es solución de (2.1) con g = y f Cb α (U) entonces [ τx ] u(x) = E x f( X (x))ds s. Demostración. Similar a las anteriores. Sólo hay que observar que el término de borde de la fórmula de Itô se anula. Que E[τ x ] < (ver la sección siguiente para la prueba) y que f L (U) C(U) nos aseguran que la integral es finita. Podemos combinar los resultados anteriores para conseguir una fórmula para el problema completo (2.1) Teorema 16. Sean f,g funciones continuas y f Cb α (U). Entonces una solución u de (2.1) verifica [ τx ] u(x) = E x f( X (x))ds s + E x [g( X(τ x ))].

37 2.1. EL LAPLACIANO 37 Demostración. Basta combinar los resultados anteriores. Podemos estar interesados en otros operadores elípticos parecidos, por ejemplo la ecuación de Schrödinger estacionaria (consideramos las unidades en las que las constantes son unitarias y funciones reales): 1 u(x) + c(x)u(x) = f si x U, u(x) =, si x U (2.5) 2 La función c(x) que hace las veces de potencial se asume positiva y Lipschitz. La función f es, como en los casos anteriores, Hölder y acotada. El tener que imponer un signo a c es para evitar caer en un problema de autovalores. Para esta ecuación se tiene el siguiente resultado: Teorema 17 (Feynman-Kac). La solución de (2.5), con f y c satisfaciendo las hipótesis anteriores viene dada por [ τx u(x) = E x f( X (x))e t R ] t c( X s(x))ds dt. (2.6) Demostración. Como E[τ x ] < (ver la sección siguiente para la prueba), y f y c son acotadas tenemos la acotación de las integrales anteriores. Sea u solución de la ecuación (2.5) y consideremos R t (x) = u( X t (x))e R t c( X t (x))ds. Queremos aplicar la fórmula de Itô al proceso anterior. Para ello antes veremos qué ocurre con los procesos y t Z t (x) = c( X s (x))ds Y t (x) = ezt (x). Las diferenciales de estos procesos son dz = c( X t (x))dt dy = c( X t (x))y t (x)dt. Aplicando la regla de derivación del producto (ver apéndice A) a R t(x) nos da la diferencial ( d u( X t R ) t (x))e c( X t(x))ds = (du( X t (x)))y t (x) + u( X t (x))dy.

38 38 CAPÍTULO 2. ECUACIONES ELÍPTICAS Aplicamos la fórmula de Itô (ver apéndice A) y obtenemos ( d u( X (x))e t R ) ( t c( X t 1 (x))ds = 2 u( X (x))dt t + d u( X t(x)) ) dw i + u( X x t (x))( c( X t (x))dt) Y t (x). i i=1 Ahora integramos en (,τ x ) y tomamos esperanzas con lo que nos queda = E x [ τx E x [u( X R ] τx τx (x))e c( X τx (x))ds E x [u(x)] = ] ] [ 1 2 u( X t (x)) c( X t (x))u( X t (x)) Y t (x)dt Usando las condiciones de borde y la ecuación nos queda [ τx u(x) = E x f( X t R ] t (x))e c( X s(x))ds dt. Esta ecuación se puede interpretar como una difusión con absorción. Consideremos una partícula browniana que puede mezclarse con el medio (desapareciendo). Sea c( X t (x))h la probabilidad de desparecer en el intervalo (t, t + h). Entonces la probabilidad de sobrevivir hasta tiempo t es aproximadamente (1 c( X t 1 (x))h)(1 c( X t 2 (x))h)...(1 c( X tn (x))h) donde t i forman una equipartición con incremento h del intervalo (,t). Conforme hacemos h esta probabilidad nos tiende a una exponencial e R t c( X s (x)ds). Por lo tanto u es la media de f en los caminos brownianos cuyas difusiones sobreviven hasta llegar a la frontera de U Reconocimiento de siluetas y la ecuación de Poisson Esta sección se basa en el artículo [GGSBB], sin embargo, allí centran todo el argumento en el análisis de paseos aleatorios. Al calcular el límite dicen que aparece una cierta constante. Veremos que esa constante es justamente 1 2. La idea es que al hacer el límite consideramos un browniano, cuyo generador es 1/2.

39 2.2. RECONOCIMIENTO DE SILUETAS Y LA ECUACIÓN DE POISSON39 Consideramos un silueta cuyo contorno es una curva cerrada simple. La manera clásica de extraer propiedades es asignar a cada punto en la silueta un valor que refleje su posición con respecto al contorno. La manera más popular es considerar la distancia. En este trabajo abordaremos otra distinta. Consideraremos partículas brownianas que parten del punto interior en cuestión y su tiempo medio de salida de la silueta. Llegamos así a la ecuación de Poisson. Como ya he mencionado, en el artículo considerado [GGSBB] se hace un razonamiento basado en caminos aleatorios en el plano y observando que se llega a una discretización del laplaciano. En lugar de usar esos argumentos discretos, nosotros consideraremos la difusión browniana X t (x) = x + W(t), para cada punto interior x. Consideramos asimismo la ecuación 1 u = 1 2 con datos de borde Dirichlet homogéneos. Con la notación de la sección anterior f = 1 y g =. Observamos que nos aparece un 2 que en artículo no está presente, pero mencionan los autores un factor de escala que hacen igual a 1 por conveniencia. Sea ahora τ x = ínf{t X τx (x) S}, donde S es la silueta. Teorema 18. Para la solución clásica de la ecuación anterior se tiene u(x) = E x [τ x ]. (2.7) Demostración. La demostración consiste en aplicar la fórmula de Itô, cosa que podemos hacer por ser u regular, al proceso u( X mín(τx,n) (x)), obteniendo la fórmula siguiente tras tomar esperanzas [ mín(τx,n) ] E x [u( X mín(τx,n) 1 (x))] E x [u(x)] = E x 2 u( X (x))ds s. Ahora usamos las condiciones de borde y la ecuación para obtener [ mín(τx,n) ] E x [u( X mín(τx,n) (x))] u(x) = E x 1ds = E x [mín(τ x,n)]. Antes vimos que P(τ x < ) = 1, aunque eso no nos asegura su integrabilidad. Para concluir que la esperanza que hemos escrito efectivamente existe hemos de utilizar que conocemos cómo es la solución u de la ecuación de Poisson considerada (que es acotada). Al ser u acotada entonces E x [mín(τ x,n)] es acotada y aplicando el teorema de la convergencia dominada concluímos que [ mín(τx,n) ] u(x) = E x 1ds = lím E x[mín(τ x,n)], n y lím n E x [mín(τ x,n)] = E x [τ x ] <.

40 4 CAPÍTULO 2. ECUACIONES ELÍPTICAS Figura 2.1: Experimento numérico, silueta y u. Sabemos que esta solución u será regular (tanto como permita la frontera) y que será positiva. Esta última cualidad es fácil deducirla de la expresión anterior como esperanza de algo positivo. Los conjuntos de nivel de u nos dan aproximaciones cada vez más suaves a la frontera. En el artículo [GGSBB] se mencionan otras propiedades de la ecuación de Poisson y de la ecuación de Laplace, como son la existencia y unicidad de soluciones para clases grandes de condiciones de borde. También mencionan la propiedad del valor medio, por la cual el valor de una función armónica (solución de la ecuación de Laplace) en un cierto punto x esté determinado como la media de los valores en B(x,r) para todo r. La prueba de esto es de nuevo sencilla (ver sección anterior) usando nuestra representación estocástica. Notamos que podemos usar la solución de nuestro problema u para dividir una silueta en partes mediante el método del umbral. Aunque también notamos que este método puede llevar a perder información de las partes no centrales de nuestra forma. Para solucionar este problema consideramos la función Φ(x) = u(x) + u(x) 2.

41 2.2. RECONOCIMIENTO DE SILUETAS Y LA ECUACIÓN DE POISSON41 Esta función tiene ciertas propiedades que la hacen interesante, pero para el tratamiento de imágenes lo más importante es que los valores altos de Φ indican concavidades (allí el gradiente de u es grande) y que podemos utilizar el método del umbral para dividir nuestra forma en partes sin perder información. Hemos mencionado que podía utilizarse Φ para detectar concavidades, sin embargo hay un método mejor. Definimos la función ( ) u Ψ(x) =. u Comentario 6 Este operador es el 1 laplaciano. En el capítulo 5 nos aparecerá de nuevo, y allí lo estudiaremos más en profundidad. Esta función tiene la propiedad de que los valores altos (en valor absoluto) se alcanzan en zonas curvadas. Por lo tanto sirve para encontrar las esquinas en nuestra forma. Los valores negativos de Ψ indican concavidades. Cuanto más negativo más picuda es la concavidad. Al revés tambén funciona, los valores altos indican convexidades. Para encontrar el esqueleto de nuestra forma definimos la función Ψ = uψ/ u. Ahora por el método del umbral podemos encontrar el conjunto pedido. Podemos usar la solución de la ecuación de Poisson también para definir una orientación, lo cual es útil en el reconocimiento de caracteres, donde la ausencia de una parte troncal imposibilita el uso de Φ para dividir nuestra forma. Observamos que los conjuntos de nivel de u en una figura alargada serán paralelos a la frontera. En esta dirección las derivadas segundas de u serán pequeñas, mientras que en la dirección ortogonal serán grandes. Así encontraremos la orientación si encontramos la dirección θ tal que u θθ sea pequeña. El objetivo de todo esto es poder discernir entre las distintas formas. Para conseguirlo pueden considerarse los árboles de decisión (ver [GGSBB]). Veamos un ejemplo de uso. Observamos (Figura 2.2) los altos valores de Φ en torno a la chimenea de la casa, que es la zona de las concavidades. También observamos que Ψ detecta tando las concavidades (entorno de la chimenea y valores negativos) y las convexidades (esquinas inferiores y valores positivos), así como el esqueleto, que es el pico de valor positivo y alto en el centro de la casa. Comentario 7 Todos los programas que utilizamos llevan un contador de tiempo, que al ejecutarlos en mi ordenador (1.73 GHz) con una tolerancia de 1 4 ha marcado 2 segundos. Claro está que la imágen es de tamaño ínfimo, de unos 5 por 15 pixeles y en la mayoria de ellos no se calcula nada. Intentamos realizar los experimentos con una imágen más grande y más cercana a las reales, pero el ordenador simplemente no podía.

42 42 CAPÍTULO 2. ECUACIONES ELÍPTICAS Figura 2.2: Resultados, arriba la función Φ, abajo la función Ψ Ecuaciones elípticas generales El laplaciano no es el único operador elíptico del cual podemos obtener representación estocástica. Así si tenemos à = ( 1 2 d 2 u a i,j (x) + x i x j i,j=1 d i=1 u = g si x U b i (x) u ) +c(x)u = f si x U, (2.8) x i donde los coeficientes a i,j,b i,c son C 2,α b (para α (,1]), c es positivo y la forma característica d i,j=1 a i,jλ i λ j es positiva podemos aplicar los métodos anteriores. 2 Este operador es, en física, un hamiltoniano. c hace las veces de potencial. De nuevo g es una función continua y acotada, f Cb α(u). Supondremos además que tenemos (a i,j )(x) = σ(x)σ t (x) con σ(x) una matriz cuyos elementos sean C 2,α b. Una tal matriz existirá siempre que la matriz a tenga rango constante, como es en nuestro caso. 3 2 Necesitaremos imponer unas condiciones tales que exista una solución clásica y ésta sea única (ver apéndice A). 3 Este resultado no es óptimo (ver [F]).

43 2.3. ECUACIONES ELÍPTICAS GENERALES 43 Es posible que existan varias matrices que cumplan esta condición, sin embargo eso no debe preocuparnos, pues si bien las difusiones a las que dan lugar son distintas, las medidas en el espacio (1.15) engendradas por ellas son equivalentes. Por lo tanto podemos tomar cualquier difusión que nuestra esperanza tiene un sentido único y bien definido. Para la demostración de este hecho ver [F]. Así dado una ecuación como (2.8) la difusión que consideramos es la solución de la ecuación 4 d X t (x) = b( X t (x))dt + σ( X t (x))d W. Sea τ x un tiempo de parada definido como en la sección anterior. Si se cumplen las hipótesis de regularidad anteriores para los coeficientes de (2.8) entonces se tienen los siguientes resultados (cuya demostración es análoga a la del caso del laplaciano): Teorema 19. Sea g una función continua y f Cb α (U). Sea c =. Entonces la solución u de (2.8) verifica u(x) = E x [ τx ] f( X (x))ds s + E x [g( X(τ x ))]. Remarcamos que la medida es la inducida por la difusión considerada. Teorema 2 (Feynman-Kac). La solución de (2.8), con f C α b (U) y c acotada, positiva y Lipschitz viene dada por u(x) = E x [ τx f( X (x))e t R ] [ t c( X s(x))ds dt + E x g( X(τ x ))e R τx c( X ]. s(x))ds (2.9) Otros operadores a los que se les pueden aplicar estos métodos son los iterados, por ejemplo el bilaplaciano con unas condiciones de borde adecuadas, u =, u = g 1, u = g 2. Basta repetir el proceso anterior. En efecto, basta escribir la ecuación como v =, v = g 2 u = v, u = g 1 y utilizar los resultados anteriores. 4 Recordemos la notación, X t (x) es el valor en tiempo t de la solución de la ecuación estocástica que parte en tiempo del punto x.

44 44 CAPÍTULO 2. ECUACIONES ELÍPTICAS 2.4. Dominios no acotados Es natural querer aplicar estos métodos a operadores elípticos en dominios no acotados. Por ejemplo puede interesarnos resolver el problema de Schrödinger, (2.5), en todo el espacio. Nuestro planteamiento basado en tiempos de parada no sirve entonces, pues no hay frontera que golpear. Sin embargo podemos ver el problema de Schrödinger en un disco de radio R centrado en el origen (U R ) e ir ampliando dicho radio. Así tenemos la idea de que límu R = R d y τ x. Así por ejemplo si consideramos el problema en todo el espacio (que tomamos R 3 por fijar ideas) u = f si x R 3 sabemos que el operador de Green (puede consultarse en [Ev2]) es G(x,y) = 1 1 4π x y y que u se puede hallar por convolución con dicho operador de Green. Si nuestra idea es correcta nuestra difusión, con densidad de transición gaussiana p(t,x,y), debe cumplir que al intergrarla en el tiempo resulte ser el operador de Green que conocemos. En efecto, resulta que p(t,x,y)dt = G(x,y). Para verlo hay que hacer el cambio de variables t = x y 2 2s en la integral. Queremos hacer notar para operadores elípticos más generales como los de (2.8) podemos tratar los problemas en todo el espacio de la misma manera, integrando en toda la semirecta del tiempo. Comprobamos así que vamos recuperando los resultados que ya conocíamos por unos métodos diferentes que en ocasiones, como ya hemos visto en el caso de (2.5) o como veremos en la ecuación de Navier-Stokes o en la ecuación de Fisher, dan una nueva intuición al problema. Estos métodos probabilistas se pueden usar, como ya hemos visto, para demostrar algunas propiedades de las soluciones de dichas ecuaciones. Por ejemplo, en [CR] demuestran una desigualdad de Harnack para (2.5). En la sección 1 de este capítulo demostramos la propiedad del valor medio para las funciones armónicas.

45 2.4. DOMINIOS NO ACOTADOS 45 Así tenemos una caracterización de las soluciones clásicas (que suponemos que existen) a los problemas elípticos (2.8) como integrales de ciertos funcionales en (1.15) y siendo U un dominio acotado o no acotado. Las ventajas de conocer esta aproximación a los problemas elípticos son la nueva intuición, y los nuevos métodos numéricos de aproximación de la solución.

46 Capítulo 3 Fórmulas de representación para ecuaciones parabólicas 3.1. Ecuaciones parabólicas generales Hemos visto en el capítulo 1 que un proceso de Markov nos definía un semigrupo. En el caso particular de una difusión de Itô el semigrupo está generado por un operador elíptico y por lo tanto nos resuelve una ecuación parabólica. 1 Comentario 8 Al considerar problemas en todo el espacio exigiremos f C 2 b (Rd ) L 1 (R d ). Por interpolación tendremos que f L p para los 1 p. Además denotaremos M = R d f(x)dx. También vimos que la función T t f(x) era C 1 en tiempo y que ser dos veces diferenciable en espacio dependía de los coeficientes de la difusión. 2 Exactamente igual a como hacíamos en la sección correspondiente a operadores elípticos generales, los tomaremos C 2,α y acotados, de manera que el flujo estocástico sea dos veces derivable en x (ver el teorema 7). En este capítulo trataremos problemas parabólicos en todo el espacio, sin embargo, considerando tiempos de parada (como los definidos en el capítulo anterior) se puede hacer para dominios acotados. Así ya vimos (capítulo 1) que para la ecuación del calor con valor inicial f C 2 b L1 (R d ) u t (t,x) = H u(t,x) = 1 2 u(t,x), u(,x) = f(x) tenemos que la solución es, en las diversas notaciones utilizadas en el texto, u(t,x) = T t f(x) = E x [f( X t (x))] = E [f(x + W t ())] = e H t f(x) 1 Si consideramos que opera en las funciones f C 2 b. 2 Ya mencionamos anteriormente que podíamos escribir dichas derivadas espaciales sin utilizar derivadas de f por la fórmula de Bismut-Elworthy-Li (teorema 11). 46

47 3.1. ECUACIONES PARABÓLICAS GENERALES 47 donde estas esperanzas son, con respecto a la medida de Wiener. Es decir, que estamos integrando en funciones. Observamos que, al menos en el caso de Wiener, el núcleo es justamente la integral con respecto a la medida inducida por el puente browniano en las funciones, 3 i.e. p(t s,x,y) = dwx. y C y x[s,t] Si queremos considerar la medida inducida por el movimiento browniano entonces se tiene p(t, x, y)dy = dw x. R C x[,t] Veremos que esto es algo general. Comentario 9 Utilizando el teorema 11 y el teorema 7 podemos concluir que si f C b y nuestra difusión X t (x) tiene coeficientes C (R d ), entonces T t f(x) C (R d ). Por ejemplo esto es lo que ocurre con la ecuación del calor. Comentario 1 Queremos hacer notar que si bien hay varias difusiones que nos dan el mismo generador esto no es un problema, pues las medidas que inducen todas ellas coinciden, por lo que la esperanza está unívocamente definida, (ver [F]). Consideremos ahora el operador elíptico 4 Ã = A c(x) = 1 2 d 2 a i,j (x) + x i x j i,j=1 d i=1 b i (x) x i c(x) con coeficientes C 2,α y acotados. Además c(x). 5 Supondremos que A es el generador de una difusión de Itô, es decir (a i,j (x)) = σ(x)σ t (x) para una cierta matriz σ C 2,α b, es decir, lo bastante regular para que el flujo estocástico definido por la ecuación estocástica d X(t) = b( X(t))dt + σ( X(t))d W, sea C 2 en x (ver teorema 7). Sea la correspondiente ecuación parabólica X() = x u(t, x) = Ãu(t,x), u(,x) = f(x). (3.1) t Entonces se tienen los siguientes resultados 3 Lo que también es cierto es que el núcleo es la densidad de transición de nuestro proceso de Markov. 4 El signo menos que acompaña a c es para tener un semigrupo de contracciones en L. Observamos que los coeficientes no dependen del tiempo. 5 Podemos poner c negativa, pero en ese caso podemos tener soluciones estacionarias distintas de la trivial. Dichas soluciones estarán asociadas a los autovalores del problema elíptico.

48 48 CAPÍTULO 3. ECUACIONES PARABÓLICAS Teorema 21. Sea la ecuación (3.1) satisfaciendo las hipótesis anteriores y con c =. Sea f C 2 b (Rd ) y sea u(t,x) su solución clásica. Entonces se tiene u(t,x) = T t f(x) = E x [f( X t (x))] = e At f(x) donde la medida es la que induce la difusión. Y recíprocamente, si definimos v(t,x) = T t f(x) entonces v verifica la ecuación (3.1) en sentido clásico. Demostración. Con t fijo, aplicamos la fórmula de Itô (podemos por la regularidad de u) a u(t s, X s (x)), u(t s, X s (x)) u(t,x) = s Observamos que ( s )u(t r, r +A X r (x))dr+ u(t r, X r (x)) σd W. r = t. Ahora hacemos s = t y tomamos esperanzas, concluyendo E x [f( X t (x))] u(t,x) = de donde u(t,x) = T t f(x). Sea ahora v(t,x) definida como en el enunciado. Vimos en el capítulo 1 que v(t,x) es C 1 en tiempo. Que es C 2 en espacio se deduce de la suavidad de los coeficientes de la difusión (ver [Ku] o teorema 7) y de la fórmula de Bismut-Elworthy-Li (teorema 11). Es obvio que satisface la condición inicial. Sólo queda probar que satisface la ecuación. Vimos que el generador de la difusión era justamente nuestro operador elíptico A, por lo tanto el semigrupo satisface la ecuación parabólica. Si consideramos ahora c(x), entonces tenemos la fórmula de Feynman- Kac (ahora en el caso parabólico). Sea el problema parabólico entonces u t = Ãu, u(,x) = f(x) (3.2) Teorema 22 (Feynman-Kac (caso parabólico)). Sea la ecuación (3.2) satisfaciendo las hipótesis anteriores y con c. Sea f C 2 b (Rd ) y sea u(t,x) su solución clásica. Entonces se tiene u(t,x) = T t f(x) = E x [f( X t (x))e R t c( X s (x)ds) ]. donde la medida es la que induce la difusión.

49 3.1. ECUACIONES PARABÓLICAS GENERALES 49 Demostración. Sea t fijo. Consideramos los procesos con diferenciales r Z(x) r = c( X (x))ds, s Y r (x) = e Zr (x) dz r (x) = c( X r (x))dr, dy r (x) = c( X r (x))y r (x)dr. Entonces la diferencial del producto u(t r, X r(x))y r (x) es d(u(t r, X r (x))y r (x)) = d(u(t r, X r (x)))y r r (x) + udy (x). Por la fórmula de Itô aplicada a u se tiene ( u(t r, X r(x)) + Au(t r, X t )dr r (x)) + u(t r, X r (x)) σd W. Si introducimos esto en la fórmula anterior obtenemos (( d(u(t r, X r (x))y r (x)) = u(t r, X r(x)) + Au(t r, X t )dr r (x)) + ) u(t r, X (x)) r σdw Y r (x) u(t r, X (x))c( r X (x))y r r (x). Ahora integramos hasta r = t y tomamos esperanzas. El resultado de esto es [ t ( T t f(x) u(t,x) = E u(t r, X r(x)) ) t +Ãu(t r, X r (x)) e R r ] c( X s(x)ds dr =. Comentario 11 Es importante observar que la ecuación que nos aparece en la fórmula de Itô considerando una SDE tal y cómo se expusieron en el capítulo primero es u r + Au Es decir, va en el sentido contrario del tiempo. Para solucionar este contratiempo lo que hacemos es considerar u(t r, x). Sin embargo esta no es la única manera. En [Ku] podemos ver cómo si se consideran SDE en el sentido retrógrado del tiempo con dato final x la ecuación que aparece es justamente u t Au

50 5 CAPÍTULO 3. ECUACIONES PARABÓLICAS Entonces la idea es que tenemos f( X t(x)) partículas en X t (x), que diremos es el punto inicial, las cuales se mueven de acuerdo a la SDE considerada. 6 Por lo tanto u(t,x) = T t f(x) es la cantidad esperada de partículas en el punto final x en el tiempo t. Podemos así interpretar estas difusiones de Itô como unas curvas características. Y entonces, dado x,t calculamos u(t,x) mirando f en el punto original X t (x) y tomando esperanzas. Exactamente igual al caso con características deterministas. Comentario 12 El origen del problema (3.2) con a i,j = δ i,j, b = es la mecánica cuántica, por lo tanto es más común verlo escrito como u(t, x) t = 1 u(t,x) V (x)u(t,x), u(,x) = f(x) 2 Observamos que T t f(x) f(x) e t c(x) f(x) T t así definido verifica las mismas propiedades que los semigrupos T t. Además, de la conservación de la masa E x [f(x(x))]dx t R d R d p(t,x,y)f(y)dydx = R d f(y)dy R d y de que sea un semigrupo de contracciones en L podemos concluir 1 1 p T t f(x) p f 1 f 1 p, p [1, ], t. Si tuviesemos un resultado de cómo decae en L la densidad de probabilidad entonces probaríamos el decaimiento en todos los L p. En [Fr] (teorema 4.5) tenemos la siguiente cota p(t,x,y) C t d/2. Una prueba (distinta de la de [Fr]) de demostrar dicha desigualdad es considerar unas coordenadas adaptadas a la advección. Así consideramos las características t Y (t) = b( Y (s))ds Definimos ahora v(t,x) = u(t,x Y (t)) 6 Tal y cómo hemos planteado la SDE es el punto final, pero la intuición de estos métodos viene al considerar que es el inicial.

51 3.2. LA ECUACIÓN DE FISHER 51 con lo que pero d a i,j (x)u xi,x j = i,j=1 d a i,j (x)v xi,x j i,j=1 v t = u t u x Y (t) = u t u x b(x). Observamos que v resuelve la ecuación del calor (con unos coeficientes a i,j (x)) y que se tiene u = v, por lo que tenemos probado el decaimiento (ver la construcción de la solución fundamental para esta difusión en [I]) y concluímos así 1 1 p T t f(x) p f 1 f 1 p c, p (1, ], t. (t d/2 ) 1 1 p Comentario 13 Dijimos anteriormente que se podían extender estas técnicas a dominios acotados y condiciones de borde Dirichlet. La manera de hacerlo es considerar un tiempo de parada τ x (ω) como el definido en el capítulo anterior y separar en t < τ x y t τ x, con lo que nos aparecerá un término de frontera. Como todo esto es bastante similar al capítulo anterior no lo incluímos La ecuación de Fisher Consideremos la ecuación de Fisher 7 en una dimensión espacial u(t, x) t = 1 2 u(t,x) 2 x 2 + u(t,x) 2 u(t,x), u(,x) = f(x) (3.3) Para obtener nuestra representación estocástica ahora hemos de considerar un proceso ligeramente distinto a los que normalmente consideramos. El proceso es un movimiento browniano con ramificaciones. Consideremos una partícula que sigue una trayectoria browniana y que en un tiempo exponencial, T 8, se divide en dos partículas idénticas de manera que cada una de estas se mueva siguiendo una trayectoria browniana con origen el punto donde se dividió la primera y se divida de nuevo con la misma probabilidad. Asumimos también que estas partículas son independientes unas de otras. Estas partículas las notamos x 1 (t),...x n (t) con P(n = k) = e t (1 e t ) k 1. Entonces tenemos que, bajo ciertas condiciones en f que ahora especificaremos, la solución es u(t,x) = E x [f(x + x 1 (t)),...,f(x + x n (t))]. 7 Esta ecuación también se llama de Kolmogorov-Petrovskii-Piskunov. 8 Esto es P(T > t) = e t.

52 52 CAPÍTULO 3. ECUACIONES PARABÓLICAS u x Figura 3.1: Onda viajera solución de la ecuación (3.3). La ecuación se utiliza en dinámica de poblaciones, considerando poblaciones que se mueven (difusión), crían (reacción) y compiten (absorción). 9 Esto es justo lo que el proceso estocástico refleja, difusión browniana y nacimiento. El resultado preciso requiere una hipótesis en f que me asegure la existencia de la esperanza. En concreto se tiene Teorema 23. Sea f C 2 b (Rd ),1 f. Entonces verifica la ecuación (3.3). u(t,x) = E x [f(x + x 1 (t)),...,f(x + x n (t))] Demostración. Para demostrarlo consideramos el caso T t o T > t. Así se tiene P(T > t) = e s ds = e t y entonces, si T > t, t u(t,x) = E x [f(x + W t ())] = e H t f(x). Supongamos el otro caso, T (s,s + ds), con s + ds < t. La probabilidad de que esto ocurra es e s ds. Ahora las dos partículas nuevas comienzan a moverse desde x + x 1 (T), dando dos ejemplos independientes del mismo proceso pero con unos tiempos t s. Como son independientes la esperanza del producto es el producto de las esperanzas y tenemos u 2 (t s,x+x 1 (t)). Haciendo la media en todas las posibles posiciones x + x 1 (t) = y obtenemos el término P(x + x 1 (s) dy)u 2 (t s,y) = e sh u 2 (t s,x). 9 En realidad la ecuación de la dinámica de poblaciones es con una reacción u u 2, pero teniendo esta basta hacer el cambio u 1 u.

53 3.3. FEYNMAN Y LA MECÁNICA CUÁNTICA 53 Entonces, si ponemos todo lo anterior junto, nos queda u(t,x) = P(T > t)e H t f(x)+ o lo que es lo mismo t u(t,x) = e t e H t f(x) + P(T dy) t Comprobamos que u(, x) = f(x). Hacemos el cambio s = t s logrando u(t,x) = e t e H t f(x) Ahora derivamos en t y nos queda u(t, x) t t P(x+x 1 (s) dy)u 2 (t s,y) e s e sh u 2 (t s,x)ds. e s t e (s t)h u 2 (s,x)ds. = e t e H t f(x) + e t ( H )e H t f(x) + u 2 (t,x) t ( ) e s t e (s t)h u 2 (s,x) ds t Concluímos observando que este último término es el que completa u y u xx. Hemos visto así que u(t,x) verifica la ecuación (3.3) con el dato inicial f. La regularidad no es problema, pues de la expresión anterior y las suavidad de f y de la difusión considerada se desprende. Vimos anteriormente cómo obtener fórmulas de representación de ecuaciones lineales, éste es el primer ejemplo para una ecuación no lineal. Un estudio más detallado se puede consultar en [McK]. Esta idea de una partícula que se difunde y se ramifica se puede utilizar para otras ecuaciones parabólicas semilineales, siempre que tengan una no-linealidad polinómica Una aplicación a una ecuación hiperbólica: Feynman y la mecánica cuántica En esta sección veremos la integral de caminos de Feynman y cómo se relaciona con los objetos definidos en los capítulos anteriores. Nos restringiremos a una dimensión espacial, pero la generalización es inmediata. Intentaremos ser fieles a la notación, que es distinta de la que hemos usado a lo largo de todo el texto, y a los manejos de Feynman, por lo que el espíritu de esta sección es avanzar sin preocuparnos mucho por el rigor 1. Creemos 1 Feynman dice en [FH] The physicist cannot understand the mathematician s care in solving an idealized physical problem. The physicist knows the real problem is much more complicated. It has already been simplified by intuition, which discards the unimportant and often approximates the remainder.

54 54 CAPÍTULO 3. ECUACIONES PARABÓLICAS que este tema tiene un interés histórico además del interés académico, por lo que el conservar la notación y los cálculos formales es lo más apropiado. Hemos visto como obtener soluciones de algunas ecuaciones en derivadas parciales por medio de una integración funcional. Vamos a aproximarnos a la mecánica cuántica con esta idea. Sin embargo, pese a ser una idea bonita 11 está mucho más extendida entre los físicos que entre los matemáticos. Desde un punto de vista matemático no es una técnica satisfactoria completamente por haber problemas con las medidas en las funciones consideradas. Así Feynman en su artículo [Fe] dice: The formulation given here suffers from a serious drawback. The mathematical concepts needed are new. (...) One needs, in adittion, an appropiate measure for the space of the argument functions x(t) of the functionals. Para la exposición de estas ideas seguiremos de cerca el artículo [Fe] (que no es más que una revisión de la tésis [Fe2]). Comenzaremos con una especie de ecuaciones de Chapman-Kolmogorov (ver capítulo 1). Sean A, B, C tres mediciones del estado de un sistema tal que lo determinen completamente. Sea P ab la probabilidad de que, dado A = a, se tenga B = b. De forma similar se define P bc. Entonces si asumimos independencia se tiene, si P abc es la probabilidad de que, dado A = a, se tenga B = b y C = c, P abc = P ab P bc y esperamos la relación P ac = b P abc. Esta es la diferencia fundamental entre la mecánica clásica y la cuántica. En la clásica la ecuación anterior es cierta, mientras que en cuántica no lo es. El motivo es que un sistema no tiene por qué tener un estado intermedio b definido, y hay que medir (y por lo tanto interferir con el sistema) para que sea verdad dicha ecuación. Lo que sí es cierto es que existen números complejos tales que y se cumple 12 P ab = φ ab 2, P bc = φ bc 2, P ac = φ ac 2 φ ac = b φ ab φ bc. 11 Al menos en la humilde opinión del autor. 12 Esta es una versión de las ecuaciones de Chapman-Kolmogorov vistas anteriormente.

55 3.3. FEYNMAN Y LA MECÁNICA CUÁNTICA 55 La interpretación de esta ecuación es que la probabilidad de que una partícula vaya de a a c se puede representar como el cuadrado de una suma de cantidades complejas, cada una asociada a un camino posible. 13 Vamos intuyendo así el resultado principal. Conocemos el principio de mínima acción, que dice que en un sistema clásico la trayectoria es la que minimiza la acción A = tb t a L(X (t),x(t),t)dt donde L es el lagrangiano del sistema. Por ejemplo en un sistema que conste de una partícula de masa m moviéndose bajo la influencia de un potencial V (x) el lagrangiano es 1 2 m(x (t)) 2 V (X(t)). Comentario 14 Lo cierto es que nuestra trayectoria no tiene por qué ser un mínimo, basta con que sea un punto crítico del funcional considerado. En este contexto se utilizan las ecuaciones diferenciales para resolver un problema variacional, en otros contexto es justamente al revés, se resuelve un problema variacional para resolver una EDP (por ejemplo el problema de Dirichlet para la ecuación de Poisson). Así, según dijimos anteriormente, si P(t a,x a,t b,x b ) es la probabilidad de que nuestra partícula 14 se mueva del punto x a en tiempo t a = al punto x b en tiempo t b = T se tiene P(b,a) = K(t a,x a,t b,x b ) 2 para cierta función K que cumple que es suma de las contribuciones de los caminos posibles K(t a,x a,t b,x b ) = φ(x(t)) caminos de (t a, x a) a (t b, x b ) Comentario 15 Es necesario observar que en ningún momento hemos dicho qué caminos son los considerados, pero el fijar ambos puntos extremos sugiere el espacio definido en (1.16). Los físicos no suelen dejar explícito qué espacio funcional consideran. La idea ahora es que todos los caminos contribuyen, pero lo hacen de manera distinta. En concreto se tiene i/ A (X(t)) φ(x(t)) = Ce 13 Sin considerar efectos relativistas ni espín. 14 Aquí consideramos la medida de Wiener condicionada, es decir, que tiene fijos ambos extremos, pero eso no ha de preocuparnos (ver capítulo 1), pues es esencialmente igual a la medida de Wiener que usamos en las secciones anteriores.

56 56 CAPÍTULO 3. ECUACIONES PARABÓLICAS donde C es una constante para normalizar. Físicamente significa que nuestra partícula, digamos un fotón, viaja por todos los caminos posibles entre dos puntos, pero cada uno contribuye en una fase distinta. Esto no es más que la dualidad onda-partícula de de Broglie. Antes de continuar vamos a pensar cómo recuperamos la mecánica clásica al hacer la constante de Planck 15 tender a cero. Surgen aquí de forma natural las consideraciones acerca de la escala en la que la mecánica cuántica es válida. A estos límites se les suele llamar límites semiclásicos, pues no son clásicos ( ) pero el sistema se comporta casi como si lo fuera. Si hacemos una perturbación pequeña en la escala clásica la contribución de la acción es pequeña en la escala clásica, pero no así en la escala de la constante de Planck, donde los cambios son grandes. Entonces nuestro ángulo 16 oscila mucho de forma que la contribución total es cero. Esto es porque si consideramos un camino, X 1, que no es un punto crítico de la acción existe otro camino, X 2, cercano al primero y tal que la contribución de X 2 es la de X 1 pero con el signo contrario. Por lo tanto sólo hemos de considerar caminos contenidos en la vecindad de X, donde X es tal que es punto crítico de la acción. Así en el límite clásico ( ) el único camino que cuenta es el punto crítico del funcional. Para definir la integral en los caminos consideramos una sucesión de tiempos 17, t i = t a + εi, i =,1,...N y las respectivas posiciones en dichos tiempos de la partícula considerada, X i = X(t i ). Entonces K(t a,x a,t b,x b ) C φ(x 1,...X N 1 )dx 1 dx 2...dX N 1. Necesitamos pasar al límite y una constante de normalización. Ambas cosas son problemáticas en general. Sin embargo, en el caso que consideramos más arriba de una partícula que se mueve bajo la influencia de un potencial V tal constante es (ver [FH]) ( ) 2πi ε N/2 C = A N =. m Por lo tanto se tiene (en este caso el límite existe (ver [FH])) 1 K(t a,x a,t b,x b ) = lím e i/ A (X 1,...X N 1 ) dx 1 ε A A...dX N 1 A (3.4) donde A (X 1,...X N 1 ) es la integral sobre el camino que pasa por los puntos X i en los tiempos t i y que es lineal entre ellos. 18 Una tal definición de 15 La constante de Planck va asociada a la cuantización. 16 Tenemos una exponencial compleja. 17 Este es el mismo proceso, el de considerar los cilindros, que usamos nosotros para definir la medida de Wiener en el capítulo En el paso al límite lo que obtenemos es un camino sin derivada en casi todo punto, exactamente igual a lo que pasaba con el browniano.

57 3.3. FEYNMAN Y LA MECÁNICA CUÁNTICA 57 los caminos es problemática aunque no consideremos el paso al límite (es todavía más problemática después), pues en los puntos de X (t) discontinua (los X i ) la derivada segunda es infinita, es decir, la aceleración es infinita. Feynman afirma que eso puede ser un problema, pero también dice que se puede solucionar con la sustitución de X (t) por las diferencias finitas 1 ε 2 (X i+1 2X i + X i 1 ). Feynman no está preocupado por estos problemas y afirma Nevertheless, the concept of the sum over all paths, (...), is independent of a special definition and valid in spite of the failure of such definitions. Así escribirá la integral de caminos, entendida como paso al límite cuando N en la expresión anterior, 19 K(t a,x a,t b,x b ) = e i/ A (X(t)) DX(t). (3.5) En [Fe] podemos ver cómo, con cálculos formales, Feynman nota que K así definida verifica la ecuación de Schrödinger i ϕ(t,x) t = 2 2 ϕ(t,x) 2m x 2 + V (x)ϕ(x,t) = Hϕ(t,x). Se sabe que podemos escribir la solución, si f es un valor inicial dado, como, ϕ(t + s,x) = K(,x,t + s,y)f(y)dy = K(,x,s,z)K(s,z,t + s,y)f(y)dzdy = K(,x,s,z)ϕ(s,z)dz. Esta fórmula nos permite iterar en el tiempo N veces, de manera que si t i = t a + iε obtenemos la fórmula (3.4). Además podemos escribir K(t a,x a,t b,x b ) = e (i(t b t a)/ )H (x a,x b ). Anteriormente escribimos p(t s,x,y) = C y x[s,t] dw y x (3.6) 19 Todas las integrales de caminos las interpretaremos como procesos de paso al límite en N.

58 58 CAPÍTULO 3. ECUACIONES PARABÓLICAS para el núcleo de la ecuación del calor, donde considerabamos que estaban fijos tanto el punto inicial x como el final y, lo que recuerda los cálculos anteriores ((3.5)). 2 Veamos la relación con la integral en el sentido de Wiener. Consideremos la ecuación en una dimensión espacial ρ(t, x) t = 1 2 ρ(t,x) 2 x 2 V (x)ρ(t,x). En el caso de V = (el caso antes mencionado de la ecuación del calor) se tiene, si f es un valor inicial dado 21 ρ(t + s,x) = W(,x,t + s,y)f(y)dy = W(,x,s,z)W(s,z,t + s,y)f(y)dzdy = W(,x,s,z)ρ(s,z)dz. Este cálculo nos induce a iterar en el tiempo N veces, de manera que t i = t a + iε. Obtenemos la fórmula ρ(t b,x b ) = C(ε) e ( 1/2ε) P N l= (X l+1 X l ) 2 ρ(t a,x a ) N dx l. Si comparamos ambas fórmulas esperamos que, al servir el cálculo para todo N, se tenga en el límite 22 N W(t a,x a,t b,x b ) = N 1 e 1/2 R t b ta X 2 (t)dt DX(t) (3.7) donde N 1 es un factor de normalización. Recordemos que lo habíamos escrito ya de forma parecida W(t a,x a,t b,x b ) = dw x b x a. C x b xa ([ta,t b],r) El caso de la partícula libre de masa unidad es K(t a,x a,t b,x b ) = N 2 e i/ R t b ta 1/2 X 2 (t)dt DX(t). (3.8) Observamos las similitudes aparentes entre ambos núcleos (3.7) y (3.8). Sin embargo hay diferencias fundamentales entre ambas integrales. La integral en (3.7) es la de Wiener, que ya vimos que es completamente rigurosa. 2 En este contexto se suele llamar propagator. 21 Hemos cambiado la notación del núcleo para conservar la de Feynman. 22 Recordamos que todas las integrales de caminos las interpretaremos como procesos de paso al límite en N. l=1

59 3.3. FEYNMAN Y LA MECÁNICA CUÁNTICA 59 Sin embargo la integral en (3.8) no es rigurosa. Uno de los problemas es la medida subyacente, que es sólo finitamente aditiva (la medida de Feynman o una medida de Wiener con difusión compleja son finitamente aditivas (ver [Kl] y las referencias en dicho artículo), otro es que hablamos de X (t), pero los caminos que consideramos son los del espacio (1.16), que están relacionados con el puente browniano, y por lo tanto no son derivables en casi ningún punto. Sin embargo, como X son caminos brownianos, interpretaremos (ver [E]) X (s)dt = dw, es decir, que en realidad tenemos integrales estocásticas de Itô. Si consideramos ahora un potencial no nulo la fórmula de Feynman-Kac (ver sección 1 de este mismo capítulo) nos da W(t a,x a,t b,x b ) = E x R tb b x a [e ta V (X(t))dt ] = C x b xa ([ta,t b],r R tb e ta V (X(t))dt dw x b x a (3.9) y en la notación de Feynman esto es (formalmente al menos) R tb W(t a,x a,t b,x b ) = N 3 e ta 1/2 X 2 (t) V (X(t))dt DX(t). (3.1) De nuevo las similitudes son grandes, pero sólo en el caso de Wiener las integrales son rigurosas. Así hemos visto que, al menos en este caso, la integral de caminos nos da un nucleo. En concreto, si entonces H = V (x) W(t a,x a,t b,x b ) = e (t b t a)h (x a,x b ). Veamos por qué en el caso de Wiener funciona bien. Con el paso al límite en N tenemos que la integral en el espacio de los caminos (el límite del producto de las medidas en el espacio) es infinito, en efecto N DX(t) = lím dx(t i ) =. ε Por lo tanto se ha de tener que la exponencial en (3.7) se anule para aspirar a que la integral esté bien definida. Eso ocurre si el camino que consideramos no es derivable, como sucede con el puente browniano (o el movimiento browniano), que es el proceso que nos induce la medida de Wiener considerada (ver sección 1 de este capítulo). Ha habido intentos de justificar estas integrales de Feynman. Por ejemplo Itô consideró un término de regularización y un paso al límite para anularlo, en concreto escribió lím N(ν) ν i e i/ R t b ta [ 1 2 mx 2 (t) V (X(t))]dt e 1 R tb 2ν ta [X 2 (t)+x 2(t)]dt DX(t).

60 6 CAPÍTULO 3. ECUACIONES PARABÓLICAS La idea es que ahora los caminos son mas suaves, siendo la segunda derivada la que es infinita. Para más maneras de avanzar en la rigorización ver [Kl]. Una vez que Feynman escribió su tésis considerando caminos en el espaciotiempo, era cuestión de tiempo que considerase caminos en el espacio de fases. Para ello vamos a recordar la relación entre el lagrangiano y el hamiltoniano: L(X (t),x(t)) = p(t)q (t) H(p(t),q(t)). Fijos t a y t b, consideremos los caminos q(t) en el espacio de fases que en dichos tiempos están en las posiciones fijas de antemano q a y q b. Consideremos también los caminos p(t) con t a t t b pero donde no se fijan posiciones. p, q serán caminos brownianos. Entonces, siguiendo las ideas anteriores esperamos 23 K(t a,q a,t b,q b ) = M e (i/ ) R t b ta p(s)q (s) H(p(s),q(s))ds Dp(t)Dq(t). (3.11) De nuevo veremos esta expresión como el límite al considerar un número N de tiempos e integrar en dichas posiciones 24. Observamos que al ser p,q trayectorias brownianas, no tendrán derivada. Sin embargo, como ya dijimos anteriormente, podemos interpretar los términos q (s)dt como integrales estocásticas dw. La gran ventaja de las integrales en el espacio de fases es que se permiten aplicar estas técnicas a partículas relativistas, de manera que dan una manera de construir los campos cuánticos. Por ejemplo, si consideramos una partícula relativista libre, con hamiltoniano expresado de manera que la velocidad de la luz sea unitaria H(p(t),q(t)) = p 2 (t) + m 2 se tiene que el núcleo viene dado por la integral R(t a,q a,t b,q b ) = M e (i/ ) R t b ta p(s)q (s) p 2 (s)+m 2dt DpDq. Comentario 16 Este es un operador no-local. Recordemos la expresión de donde p x = i x p 2 2 x = x 2. Antes de concluir con este capítulo hay que hacer varios comentarios. Antes hablamos de que podíamos entender ciertos términos ( q (s)dt) como 23 Como anteriormente, estos manejos son sólo formales. 24 Esto es equivalente a los cilindros del capítulo 1.

61 3.3. FEYNMAN Y LA MECÁNICA CUÁNTICA 61 integrales estocásticas, sin embargo no mencionamos en qué sentido, si Itô o Stratonovich. El sentido ahora es el de Stratonovich, pues al considerar relatividad es necesario tratar con cambios de coordenadas. Por eso que la ecuación de Schrödinger no refleja efectos relativistas, porque no es invariante a ciertos cambios de coordenandas. Necesitaremos que la ecuación tenga el mismo orden en todas las variables para que pueda reflejar efectos relativistas. Poder aplicar la regla de la cadena usual es una gran ventaja. También hay que señalar que aunque la esencia de esta sección eran los cálculos formales, estos se pueden justificar en el caso de las integrales en el espacio de fases. Para ello se ha de considerar la regularización (ver [Kl]) lím ν M ν e (i/ ) R t b ta p(s)q (s) p 2 (s)+m 2dt e 1 R 2ν p 2 (s)+q 2(s)dt DpDq Comentario 17 Si bien ϕ(t,x) 2 es la probabilidad de encontrar la partícula en el punto x en el tiempo t, ϕ(p,q) es una probabilidad de estar en un cierto estado, por lo que no tiene una interpretación tan sencilla e intuitiva.

62 Capítulo 4 Fórmulas de representación en dinámica de fluidos Consideraremos las ecuaciones de Navier-Stokes en el caso incompresible, homogéneo, isotermo e isótropo. { u [NS] t + ( u ) u + p ν u = u = (4.1) u es la velocidad del fluido en cada punto y tiempo mientras que p es la presión. Esta ecuación no es más que la segunda ley de Newton en el caso de que las fuerzas sean el rozamiento viscoso (el término de segundo orden) y la presión. Matemáticamente la presión es un multiplicador de Lagrange asociado a la condición de divergencia nula. El dominio espacial considerado será T d (o más generalmente permitiremos que la celda tenga longitud L), por lo que tendremos condiciones de borde periódicas. A esto hay que añadir un dato inicial f(x) C k+1,α, con k 1. En ausencia de viscosidad, es decir, si ν = obtenemos las ecuaciones de Euler { u [Euler] t + ( u ) u + p = u = (4.2) Obtendremos la representación probabilística para Navier-Stokes y una prueba de existencia local de solución clásica. Sin embargo, para presentar estas ideas en un contexto más simple, antes veremos el caso de la ecuación de Burgers viscosa. 62

63 4.1. LA ECUACIÓN DE BURGERS 1-DIMENSIONAL 63 Figura 4.1: Solución de Navier-Stokes en tiempo 1. Figura 4.2: Solución del problema de Stokes La ecuación de Burgers 1-dimensional Comenzaremos con el problema de Cauchy para la ecuación de Burgers no viscosa, pero la representación probabilista es para la viscosa. 1 Así, dado un valor inicial f Cb 2, consideraremos las ecuaciones v t + vv x = (4.3) v t + vv x = ν 2 v xx (4.4) La idea es usar la transformación de Hopf-Cole y la representación de la ecuación del calor. Es bien sabido que el término de segundo orden previene la formación de singularidades, que sí están presentes en la ecuación no viscosa, por lo que no debemos preocuparnos de ello. De nuestra representación se obtendrá la regularidad. Lema 4 (Hopf-Cole). Sea u(t,x) una solución clásica de la ecuación del 1 Ya mencionamos anteriormente (ejemplo 1) que si no hay difusión la medida en las funciones continuas es singular en el sentido de que está soportada en una única función.

64 64 CAPÍTULO 4. DINÁMICA DE FLUIDOS calor con coeficiente de difusión ν/2, entonces v = ν(log u) x (4.5) es una solución de la ecuación de Burgers viscosa (4.4). Demostración. Calculando las derivadas de (4.5) obtenemos v t = ν u xtu u t u x u 2, Figura 4.3: Evolución de la solución de la ecuación (4.3). v x = ν u xxu u 2 x u 2 ( uxx = ν u ( ) 2 ) ux = ν u xx u u + v2 ν, v xx = 2 u xxxu u x u xx u 2 + 2vv x ν, y se tiene, ya que u(t,x) es solución de la ecuación del calor ν 2 v xx = ν u xtu u x u t u 2 + vv x = v t + vv x, de manera que v(t,x) resuelve la ecuación de Burgers viscosa. Proposición 5. Sea v(t,x) una solución de la ecuación de Burgers viscosa (4.4) con dato inicial f Cb 2. Entonces se tiene la siguiente fórmula de representación ( [ v(t,x) = ν log (E x exp( 1 ν ν(w t (x)) ])) f(s)ds). (4.6) x

65 4.2. LA ECUACIÓN DE BURGERS D DIMENSIONAL Figura 4.4: Soluciones de (4.4) para diferentes viscosidades. Demostración. Se tiene que resuelve la ecuación del calor u(t,x) = exp( 1 ν x v(t, s)ds) con dato inicial u t = ν 2 u xx u (x) = exp( 1 ν x f(s)ds). Sabemos (ver el capítulo 3) que u(t,x) tiene la representación u(t,x) = E x [u ( ν(w t (x)))] = E x [ exp( 1 ν Utilizamos la fórmula (4.5) para concluir ( [ v(t,x) = ν log (E x exp( 1 ν ν(w t (x)) ν(w t (x)) ] f(s)ds). (4.7) ])) f(s)ds). x 4.2. La ecuación de Burgers d dimensional Consideremos ahora el caso de Burgers en varias dimensiones (ahora v es un vector)

66 66 CAPÍTULO 4. DINÁMICA DE FLUIDOS y su versión viscosa v t + ( v ) v = (4.8) v t + ( v ) v = ν v. (4.9) Con dato inicial f C 2 b. Supongamos primero que tenemos una solución que es el gradiente de un potencial, v(t,x) = H(t,x). Esta hipótesis, que físicamente implica un flujo irrotacional, nos permite utilizar la transformación de Hopf-Cole. Supondremos además que La transformación de Hopf-Cole es f(x) = H(,x). H(t,x) = v(t,x) = ν u(t,x) u(t, x) = ν log(u(t, x)) (4.1) Y se tiene que si u(t,x) es una solución de u t = ν 2 u con dato inicial ( ) H(,x) u (x) = exp ν entonces v(t,x) es un solución de v t = ν 2 v ( v ) v = ν 2 v 1 2 v 2 v(,x) = f(x) = H(,x) Comentario 18 La última igualdad muestra que las dos posibles generalizaciones del término inercial, ( v ) y 1 2 v 2 2, de la ecuación de Burgers en una dimensión espacial son iguales en el caso de las funciones gradientes. 2 Ahora utilizamos la representación para la ecuación del calor (ver capítulo 3) u(t,x) = E x [u ( ] [ ν(w(x)))] t = E x exp( 1 ν H ( ] ν(w(x))))] t. Concluímos utilizando la fórmula (4.1) ( [ v(t,x) = ν log E exp( 1 ν H ( ]) ν(b t + x)))]. (4.11) 2 En general no es cierto.

67 4.2. LA ECUACIÓN DE BURGERS D DIMENSIONAL 67 Abandonamos ahora la hipótesis de un flujo potencial. Por lo tanto el perfil inicial ya no es necesariamente un gradiente, f(x) H (x), pero impondremos una suavidad mayor. Consideraremos ahora los problemas en el dominio T d, que es acotado y nos impone condiciones de borde periódicas, por lo que no necesitamos tiempos de parada. La idea es comenzar con una ecuación no viscosa y considerar particulas que sigan trayectorias con ruido blanco, concretamente consideraremos el ruido 2νd W. Cuyo generador es ( 2ν) 2 = ν. 2 Entonces tomando esperanzas obtendremos nuestra solución de la ecuación viscosa. Comentario 19 Podemos así ver nuestras difusiones como curvas características aleatorias. Comenzamos con la ecuación de Burgers no viscosa (4.8). La ausencia de términos de presión y de términos disipativos permite a la velocidad ser transportada con el flujo. Entonces si X(t,a) es la aplicación que nos da el flujo del fluido, 3 Figura 4.5: Flujo. 3 Si fijamos t = s el flujo X(t, a) es un homeomorfismo entre los volúmenes ocupados en tiempo y s, y, si fijamos a, es la trayectoria de dicha partícula (ver Figura 4.5).

68 68 CAPÍTULO 4. DINÁMICA DE FLUIDOS v(t,x(t,a)) es constante en tiempo, y por lo tanto se tiene v(t,x(t,a)) = f(a). Es decir, retrocedemos por nuestro flujo y miramos la velocidad inicial. No es más que el método de las características. Por lo tanto el sistema X (t,a) = v(t, X(t,a)), v(t,x(t,a)) = f(a) con dato inicial X(,a) = a es equivalente a la ecuación de Burgers antes de la formación de singularidades (t pequeño). Teniendo en cuenta que las variables a son puntos del volumen inicial U, mientras que las variables x son puntos del volumen imagen en tiempo t que llamamos U t, denotaremos A(t,x) = X(t,a) 1 = a, de modo que v(t,x) = f( A(t,x)). Ambos volúmenes U y U t serán, en este caso, el toro T d, pero es necesario hacer la distinción entre las variables. Las funciones que me llevan unas a otras son X(t,a) = x y A(t,x) = a. Comentario 2 Notamos que X(t,a) 1 = A(t,x) = a indica la inversa espacial, que se puede hacer puesto que t det X = v det X det X = exp( La idea ahora es perturbar la EDO X = v incorporando un ruido estocástico que nos lleva a la la SDE d X = vdt + 2νd W. t vds) >. Sin pérdida de generalidad consideraremos ν = 1/2. El teorema principal es ahora Teorema 24 (Ecuación de Burgers). Sea f C k+1,α, k 1, campo de vectores con divergencia nula, y W t () un proceso de Wiener d-dimensional. Sea el par v(t,x), X(t,a) solución del sistema estocástico dx = vdt + dw A(t,x) = ( X(t,a)) 1 v = E x [ f( A(t,x))] (4.12) con dato inicial X(,a) = a y condiciones de borde periódicas para v(t,x) y X(t, a) I. Entonces v(t, x) satisface la ecuación (4.9) (con ν = 1/2), con f como dato inicial.

69 4.2. LA ECUACIÓN DE BURGERS D DIMENSIONAL 69 Demostración. Definimos y Y ω como la solución de v ω = v(t,x + W t ()) ( Y ω ) (t,a) = v ω (t, Y ω ), Y ω (,a) = a. La notación con ω es para señalar que hay un parámetro aleatorio. Sea B ω (t,x) su inversa espacial. Definimos w(t,x W t ()) = f( B ω (t,x W t ())) = f( A(t,x)). Donde la última igualdad es consecuencia de X(t, B ω (t,x W t ())) = Y ω (t, B ω (t,x W t ())) + W t () = x y así A(t,x) = B ω (t,x W t ()). Aplicamos la fórmula de Itô generalizada (teorema A.8) a obteniendo w ω (t,x W t ()) f(x) = w ω (t,x W t ()) = f( A(t,x)) t t t w ω (ds,x W s ()) w ω (s,x W s ())d W + 1 w ω (s,x W 2 ())ds s t + j w ω (ds,x W ()),x s j W (). t j Tomando esperanzas en la ecuación anterior el miembro de la izquierda queda El miembro de la derecha es v(t,x) f(x). [ t ] [ E x w ω (ds,x W 1 s ()) + E x 2 t w ω (s,x W s ())ds ]

70 7 CAPÍTULO 4. DINÁMICA DE FLUIDOS ya que el término de integración estocástica se anula al tomar esperanzas y el término de variación cuadrática también es cero por tenerse w(t,x) C 1 en tiempo (la derivada viene dada por la ecuación de transporte) y w(t,x) C k+1,α (tanto como f) en espacio, y por lo tanto tanto ella como sus derivadas hasta de orden k son de variación acotada. Se tiene que [ 1 t ] E x w ω (s,x W 2 ())ds s = 1 t v(s, x)ds. 2 Falta el término convectivo en la ecuación. Observamos que resuelve w ω (t,x) = f( B ω (t,x)) w ω t (t,x) + ( v ω (t,x) ) w ω (t,x) =. con el dato inicial f. El término que queda es [ t ] [ t E x w ω (ds,x W ()) s = E x = t ] w t ω (s,x W ()) s E x [ ( v ω (s,x W t ()) ) w ω (s,x W t ())] = t ( v(s,x) ) v(t,x)ds Ahora basta poner todos los cálculos anteriores juntos y derivar en tiempo. Hay que remarcar que se supone la existencia de solución del sistema estocástico, y entonces se demuestra la fórmula de representación. Recíprocamente, si v(t,x) es una solución de la ecuación de Burgers viscosa (4.9) el sistema estocástico tiene solución (consultar [CI],[Iy] y [Iy2]). La idea es que, si v es solución clásica, d X = vdt + d W tiene solución, y por lo tanto existe A. Que además se tiene v(t,x) = E x [ f( A(t,x))] se desprende de un resultado (de ecuaciones estocásticas parciales) contenido en [CI] y de la unicidad de soluciones clásicas para la ecuación de Burgers viscosa. Si demostrásemos la existencia de solución para el sistema estocástico, tendríamos una solución local en el tiempo para la ecuación (4.9). El que sea sólo local viene impuesto por utilizar el método del punto fijo (ver [Iy]).

71 4.3. LAS ECUACIONES DE NAVIER-STOKES INCOMPRESIBLES 71 Comentario 21 Las condiciones de borde impuestas son las naturales, porque X(,a + L e j ) = a + L e j = X(,a) + L e j. Y esta es la condición de periodicidad para X(t,a) I. Comentario 22 Se ha conservado la notación de [CI] para hacer notar las similitudes entre esta sección y la siguiente Las ecuaciones de Navier-Stokes incompresibles En esta sección encontraremos una representación de la solución clásica de Navier-Stokes (4.1) como un sistema estocástico y una integral en funciones. Entonces, si tenemos una solución clásica de (4.1) ésta verifica la fórmula de representación probabilística. Y recíprocamente, si tenemos una solución de nuestro sistema estocástico entonces dicha u(t, x) es solución clásica de Navier-Stokes. En esto se basa la demostración de la siguiente sección. Necesitaremos varios resultados previos. 4 Todos los campos v (L 2 ) d (C ) d se descomponen de forma ortogonal como un campo con divergencia nula y un campo gradiente. Así podemos definir el operador siguiente: Definición 8. Escribimos P para el proyector de Leray, i.e. el operador que, dado un campo, nos devuelve su parte de divergencia nula. P : (L 2 ) d (C ) d S donde S denota el subespacio de los campos con divergencia nula (se dicen solenoidales). Proposición 6 (Formulación Euleriana-Lagrangiana). Sea k y f(x) C k+1,α tal que f(x) =. Entonces u(t,x) satisface las ecuaciones de Euler incompresibles (4.2) con dato inicial f(x) si y sólo si el par de funciones u(t,x), X(t,a) satisfacen el sistema estocástico con dato inicial X(, a) = a. X (t,a) = u(t,x) (4.13) A(t,x) = X 1 (t,a) (4.14) u(t,x) = P[( A) t (t,x) f( A(t,x))] (4.15) La demostración de este resultado se puede consultar en [C]. 4 Escribiremos P para el proyector de Leray en los campos solenoidales. No hay que confudirse con P, la probabilidad.

72 72 CAPÍTULO 4. DINÁMICA DE FLUIDOS Lema 5. Sea u(t,x) un campo de velocidades. El conmutador [ t +( u ), ] es [ t + ( u ), ] = ( u(t,x)) t Demostración. [ t + ( u ), ] f(t,x) = ( t + ( u )) f ( t + ( u )) f(t,x) = ( u ) f(t,x) ( u ) f(t,x) ( u(t,x)) t f(t,x) Lema 6. Dado un campo de velocidades solenoidal u(t,x) y Lipschitz, y dados X(t,a) y A(t,x) definidos por X (t,a) = u(t,x) A(t,x) = X 1 (t,a) X(, a) = a Definimos v(t,x) como la solución de la ecuación de evolución ( t + ( u )) v(t,x) = z(t,x) para cierto campo z, y con dato inicial v. Entonces si w(t,x) se define como w(t,x) = P[( A) t (t,x) v(t,x)] se tiene que w(t,x) es la solución de ( t + ( u(t,x) )) w(t,x) + ( u(t,x)) t w(t,x) + q(t,x) = (( A) t ) z(t,x) w(t,x) = w(,x) = P v (x) La prueba puede consultarse en [CI]. En la prueba de la fórmula de representación utilizaremos el caso particular v(t,x) = f( A(t,x)) y z =. Teorema 25 (Ecuaciones de Navier-Stokes). Sea f C k+1,α,k 1, un campo de divergencia nula, y W t () un proceso de Wiener d-dimensional. Sea el par u(t,x), X(t,a) solución del sistema estocástico d X = udt + d W (4.16) A = X 1 (4.17) u = E x [P[( A) t f( A)]] (4.18) con dato inicial X(a,) = a y tal que u y X I verifican condiciones de borde periódicas. Entonces u satisface las ecuaciones de Navier-Stokes incompresibles con f como dato inicial.

73 4.3. LAS ECUACIONES DE NAVIER-STOKES INCOMPRESIBLES 73 Demostración. Sea u ω definida como u ω (t,x) = u(t,x + W t ()). Sea Y ω la solución de Y ω (t,a) = u ω (t, Y ω (t,a)), Y ω (,a) = a. Sea B ω (t,x) la inversa espacial de Y ω. Observamos que X(t, B ω (t,x W ())) t = Y ω (t, B ω (t,x W ())) t + W () t = x y así se tiene que A(t,x) = B ω (t,x W t ()). Si escribimos θ x h(y) = h(y x) para las traslaciones entonces Definimos w ω como A = θ W t () B. w ω (t,x) = P[( B ω ) t ( f( B ω (t,x)))]. Aplicando el lema 6 en el caso particular z = y v(,x) = f( A(t,x)) se tiene ( t + ( u ω (t,x) )) w ω (t,x) + ( u ω (t,x)) t w ω (t,x) + q ω (t,x) = w ω (t,x) = w(,x) = Pf(x). (4.19) De la definición de u se tiene u = E x [P[( A) t f( A(t,x))]] = E x [P[( θ W t () B) t f(θw t () B(t,x))]] = E x [P[θ W t ()(( B) t f( B(t,x)))]] = E x [θ W t ()(P[( B) t f( B(t,x))])] = E x [θ W t () wω ]. La hipótesis f C k+1,α junto con el teorema de existencia de soluciones para el sistema estocástico (4.18) (que se demuestra en la sección siguiente) nos garantizan suficiente regularidad como para poder aplicar la fórmula de Itô en su versión generalizada (teorema A.8). Obsérvese que w ω hace el papel de F en el teorema A.8. w ha de ser C 2 en el espacio y C 1 en tiempo. Por el lema 6 se tiene que es C 1 en tiempo, y por el resultado de existencia y regularidad para el sistema estocástico (4.18) se tiene al menos esa suavidad

74 74 CAPÍTULO 4. DINÁMICA DE FLUIDOS en el espacio. Además, x W t () es martingala y hace el papel de g(t) en el teorema. Aplicamos a w ω (t,x W t ()) la fórmula de Itô generalizada (teorema A.8), w ω (t,x W t ()) f(x) = t t t w ω (ds,x W s ()) w ω (s,x W s ())d W + 1 w ω (s,x W 2 s ())ds t + j w ω (ds,x W s ()),xj W. t ()j Por la suavidad de w ω tenemos que el término de variación cuadrática conjunta se anulará. Además al tomar E x el término de integración estocástica también desaparecerá. Por esto nos queda [ t ] u(t,x) f(x) = E x w ω (ds,x W ()) s + 1 t u(s, x)ds. 2 El término que involucra w ω es [ t ] [ t ] E x w ω (ds,x W s ()) = E x w t ω (s,x W s ())ds [ t = E x ( u(s,x) ) w ω (s,x W s ()) + ( u(s,x)) t w ω (s,x W s ()) + q ω (s,x W s ())ds ] donde = t [(u )u + pds] p = 1 2 u 2 + E x [θ W t () qω ]. Finalmente, la condición de incompresibilidad se deduce de la incompresibilidad de w ω y de u = E x θ W t () wω. Comentario 23 En la demostración anterior se utiliza varias veces el resultado de existencia y regularidad del sistema estocástico (4.18) (ver teorema 26 en la sección siguiente). En [Iy] se puede ver el resultado para una sustancia transportada por un fluido. En concreto

75 4.4. EXISTENCIA LOCAL PARA NAVIER-STOKES 75 Proposición 7. (Transporte) Sea u C 1 un campo de velocidades de un fluido y sea Θ(t,x) solución clásica de Θ t (t,x) + ( u(t,x) )Θ(t,x) ν Θ(t,x) =, Θ(,x) = f(x). entonces se tiene Θ(t,x) = E x [f( A(t,x))] donde A es como en el teorema 25. También hay un resultado para la representación de la vorticidad. Proposición 8 (Vorticidad). Sea V (t,x) la vorticidad de un fluido, entonces V (t,x) = E x [( X V )( A(t,x))]. Si d = 2, entonces V (t,x) = E x [ V ( A(t,x))]. Comentario 24 Estas fórmulas son el resultado de tomar la esperanza en las fórmulas correspondientes en el caso de las ecuaciones de Euler (4.2). Comentario 25 Podemos usar la proposición 8 para obtener una segunda versión del teorema 25 utilizando la ley de Biot-Savart. Comentario 26 Podemos dar un resultado igual para un caso con difusión distinta en cada dirección, i.e. un operador más general del tipo d i,j=1 a i,j(x) 2 x j x i Demostración de la existencia local de soluciones de Navier-Stokes En esta sección demostraremos un resultado de existencia y regularidad local en tiempo para el sistema estocástico, y por lo tanto, de existencia local de solución clásica para el sistema de Navier-Stokes (4.1). Teorema 26 (Existencia del sistema estocástico). Sea f C k+1,α, k 1, un campo de divergencia nula. Entonces existe un tiempo T = T(L, f C k+1,α,k,α) pero independiente de la viscosidad ν, y un par de funciones u,λ C([,T],C k+1,α ) tales que u, X = I +λ satisfacen el sistema (4.18). Además, existe Λ tal que u(t) C k+1,α Λ. Comentario 27 La norma en C k,α se define como u k,α = m k L m sup D m u + L k L α D m u(x,t) D m u(y,t) sup x Ω x,y Ω x y α. m =k

76 76 CAPÍTULO 4. DINÁMICA DE FLUIDOS Y para la norma en C([,T],C k,α ) tomamos el supremo u C([,T],C k,α ) = sup u k,α. t T Antes de pasar a la prueba necesitamos algunas definiciones y obtener algunas cotas. Para las demostraciones de estos resultados se puede consultar [Iy]. Definición 9. Definimos el operador de Weber W : C k,α C k+1,α C k,α como W( v, l) = P[(I + ( l) t ) v]. Proposición 9. Si k 1, l 1, l 2, v 1, v 2 C k,α son tales que entonces l i k 1,α C W( v 1, l 1 ) W( v 2, l 2 ) k,α c( v 2 k,α l 1 l 2 k 1,α + v 1 v 2 k,α ). Lema 7. Sea k 1 y v, l C k,α. Entonces W(v,l) C k,α y se tiene W(v,l k,α c(1 + l k 1,α ) v k,α. Lema 8. Sean u (C[,T],C k+1,α ) y X(t,a) solución del sistema (4.18). Sean λ = X I, l = A I y Λ = sup t ( u k+1,α ). Entonces existe c = c(k,α,λ) tal que se tienen las siguientes cotas λ k,α cλt L exp(cλt/l), l k,α cλt L exp(cλt/l) Lema 9. Sean u 1, u 2 C([,T],C k+1,α ) tales que sup t u i k+1,α Λ y sean X 1, X 2, A 1 y A 2 definidas como en (4.18). Entonces existe un tiempo T = T(k, α, Λ) y una constante c = c(k, α, Λ) tal que se tienen las siguiente cotas para todo t [,T] X 1 X 2 k,α cexp(cλt/l) A 1 A 2 k,α cexp(cλt/l) t t u 1 u 2 k,α u 1 u 2 k,α Demostración (del teorema). Sea T un tiempo fijo, que más adelante elegiremos convenientemente pequeño y un número Λ grande. Consideramos los espacios { } U = u C([,T],C k+1,α ), u =, u(,x) = f(x), u k+1,α Λ

77 4.4. EXISTENCIA LOCAL PARA NAVIER-STOKES 77 y L = { l C([,T],C k+1,α ), l k,α 1 } 2 t [,T] l(,x) =. Para u en U el sistema (4.18) tiene solución. Definimos así X u, λ u = X u I y l u = A u I. Consideramos el operador W : U U W( u) = E x W( f( Au ), l u ). Ahora hay que ver que W es Lipschitz en la norma u U = sup u k,α t y si elegimos T bastante pequeño W será una contracción y por lo tanto tendrá un punto fijo. Los resultados anteriores permiten concluir, si se elige Λ proporcional a f k+1,α ( 3 2) k+2, W( u 1 ) W( u 2 ) k,α cλ t L exp(cλt/l) u 1 u 2 k,α y por lo tanto si T = T(k,α,L,Λ) es elegido bastante pequeño nuestro operador W será una contracción. Aplicando el teorema del punto fijo de Banach concluímos que la sucesión definida como u n+1 = W( u n ) converge en la norma C k,α a una función u que es punto fijo de nuestro operador y por lo tanto solución de (4.18). Como la sucesión u n está acotada en la norma k+1 tiene una subsucesión débilmente convergente en dicha norma a una función v U y como es convergente fuertemente (en particular lo es débilmente) en la norma k a u ambos límites coinciden. La cota u(t) k+1,α Λ es porque u U. Por lo tanto como tenemos una solución de (4.18) aplicando el teorema 25 tenemos una solución clásica local en tiempo de las ecuaciones (4.1).

78 Capítulo 5 Juegos diferenciales y ecuaciones Hemos visto en los capítulos anteriores cómo las trayectorias de ciertos procesos de Markov estaban relacionadas (eran curvas características) con ecuaciones elípticas y parabólicas. Vimos también (capítulo 3) que para algunas ecuaciones semilineales podíamos encontrar una representación si considerabamos procesos de Markov más complicados. En este capítulo veremos la relación entre un tipo de juegos diferenciales (que llamaremos tug of war y serán en general procesos de Markov) y ciertas ecuaciones, en concreto el 1-laplaciano, el p laplaciano y el laplaciano. Veremos que las diversas posiciones del juego son las curvas características de estos operadores. En este capítulo seguiremos los artículos [PSSW],[Ob],[Ev3],[BEJ], [ACJ], [KS1] y [KS2] 5.1. Los operadores Definición 1. El operador -laplaciano es u = El operador p-laplaciano es El operador 1-laplaciano es d i,j=1 u xi u xj u 2 u x i,x j. p u = ( u u p 2 ). ( ) u 1 u =. u 78

79 5.1. LOS OPERADORES 79 Observamos que 1 es una difusión ortogonal al gradiente. En efecto, considerando el caso d = 2 se tiene que la forma de no-divergencia de este operador viene dada por la matriz A = 1 u 1 u2 x1 u 2 u x1 u x2 u 2 u x1 u x2 u 2 1 u2 x 2 u 2 Entonces en cada punto x consideramos la base formada por u y u. Si hacemos A u comprobamos que es, y por lo tanto no hay difusión en esa dirección. A su vez el laplaciano sólo difunde en la dirección del gradiente. La matriz ahora es A = u 2 x 1 u x1 u x2 u 2 u 2 u x1 u x2 u 2 x 2 u 2 u 2 Considerando la misma base anterior se tiene que A u =, y por lo tanto sólo hay difusión en la dirección del gradiente. Lós cálculos anteriores son sólo formales, pues si u = no tienen sentido (ni siquiera el operador está bien definido). Sin embargo son útiles porque nos dan una intuición. Comentario 28 Ambos operadores son utilizados en el tratamiento de imágenes, para conservar contornos ( 1 ) o para difuminarlos ( ). La interpretación geométrica de u satisfaciendo 1 u = es que las curvas de nivel de u tienen curvatura media. La interpretación variacional es que u es el mínimo de J(u) = u con unos datos de borde adecuados. Para el p laplaciano la interpretación variacional es que u es el mínimo de J(u) = u p con unos datos de borde dados. La interpretación variacional de u = en U con unos datos de borde Lipschitz es que u cumple que U U. Lip V (u) = Lip V (u) V U donde U,V son dominios y Lip V (u) indica la constante de Lipschitz en el dominio V de la función u. A estas funciones se les llama extensión Lipschitz absolutamente minimizante Durante todo este capítulo consideraremos U un dominio acotado, una función continua g definida en U y trataremos las ecuaciones Lu = en U, u = g en U. donde L es uno de los operadores diferenciales anteriores.

80 8 CAPÍTULO 5. JUEGOS DIFERENCIALES Y ECUACIONES Los juegos Figura 5.1: Función armónica. Todos los juegos que aparecen aquí son para dos jugadores y son de suma cero, por lo que un jugador paga al otro. Para fijar ideas asumiremos siempre que es el jugador 2 el que paga al jugador 1 la cantidad correspondiente (en caso de ser negativa en realidad la cobra). En todos los juegos los jugadores irán moviendo por el dominio una ficha, y al llegar a la frontera el juego acaba y se procede al pago. Cada juego estará determinado por una serie de posiciones x k, las posiciones de la ficha en cada turno. Ambos jugadores tendrán estrategias, sin embargo parece razonable pensar que las estrategias buenas serán markovianas. Los juegos que involucran al p-laplaciano y al 1 laplaciano los veremos brevemente y sin demostraciones para centrarnos en el resultado para el laplaciano. Asumiremos toda la regularidad que sea necesaria en el dominio U para los pasos al límite Tug of war Como este es el juego que más nos interesa veremos su descripción con mayor detalle. Sean como antes U R d, x U y g una función definida en la frontera y que es Lipschitz. Cada jugador elige un vector a i k B (ε) (donde k es el turno e i es el jugador). Entonces se lanza una moneda de manera que decide qué jugador tiene el turno. En el caso de que el lanzamiento lo

81 5.2. LOS JUEGOS 81 gane el jugador 1 la nueva posición será x k+1 = x k + a 1 k. Se define la historia h k = (x, a,x 1, a 1..., a k ) donde a k es el vector elegido por el jugador que ganase el turno k. Sea H k el espacio con todas las historias posibles hasta turno k y sea H el espacio de todas las posibles historias. Observamos que el espacio H k es un espacio producto. Así podemos ver la función pago como una función g : H R. Normalmente la elección del vector a i k depende sólo de la posición x k, es decir, será un proceso markoviano, sin embargo permitiremos que dependa de toda la historia anterior. Además habrá ocasiones donde no será markoviano. Por ejemplo consideremos una bola como nuestro dominio. En ella definimos nuestro pago intermedio f de la siguiente manera: de forma simétrica consideramos dos bolas contenidas en el dominio, en una de ellas f = 1 y en la otra f = 1. Fuera de ellas f =. Además no hay pago final. Entonces nuestra difusión dirigida dependerá del número de veces que hemos pasado por cada bola, pues ambos jugadores intentarán pasar el mayor número de veces por la que les favorece. Por lo que nuestra difusión depende de cada posición anterior. Con este ejemplo surge el problema de los juegos que no acaban casi seguramente. En dichos juegos el jugador 1 es penalizado fuertemente. f= 1 f=1 Figura 5.2: Juego con trayectorias no markovianas. Se define una estrategia Sk i (según corresponda al jugador i = 1,2) como una función Sk i : H k B (ε). Dicha función indica el próximo movimiento del jugador i. Definimos S i = {Sk i } k. Entonces el punto inicial x y las

82 82 CAPÍTULO 5. JUEGOS DIFERENCIALES Y ECUACIONES estrategias de ambos jugadores definen una probabilidad en el espacio de historias H. Así, si denotamos por x τ el punto de la frontera en el que el juego acaba y dadas las estrategias S 1,S 2 definimos las recompensas esperadas para ambos jugadores como V x,i(s 1,S 2 ) = E S 1,S 2 x [g(x τ )] si el juego termina casi seguramente. En otro caso se tiene V x,1(s 1,S 2 ) = y V x,i(s 1,S 2 ) =. 1 Definimos el valor del juego (discreto) para el jugador 1 como u ε 1 = sup S 1 ínf S 2 V x,1(s 1,S 2 ). El significado intuitivo es que ínf S2 V x,1(s 1,S 2 ) es lo mínimo que el jugador 1 ganará asumiendo que el jugador 2 juega de forma óptima. De manera que el supremo indica que maximiza lo que gana seguro. Para el jugador 2 la definición es u ε 2 = ínf S 2 sup S 1 V x,2(s 1,S 2 ). El significado ahora es que sup S1 V x,2(s 1,S 2 ) es lo que más le puede obligar el jugador 1 al jugador 2 a pagar. Y el ínfimo es que el jugador 2 minimiza lo que ha de pagar en el caso de que el jugador 1 juegue de forma perfecta. Es decir, el jugador 1 maximiza su peor caso mientras que el jugador 2 minimiza su peor caso. Siempre se tiene que u ε 1 (x) uε 2. Si ambas coinciden decimos que el juego (discreto) tiene un valor y lo denotamos por u ε. Ahora esperamos que al tomar el límite ε nuestro valor para el juego converga, en un cierto sentido, a u solución de u =, u U = g. (5.1) El juego tiene un principio de programación dinámica muy útil para el cálculo numérico (ver apéndice C o [Ob]). Este resultado es una especie de propiedad del valor medio para las funciones infinito armónicas. Lema 1. Sea el juego tug of war sin pago intermedio (f = ). Entonces la función u(x) = u ε 1 (x) satisface u(x) = 1 2 ( sup u(y) + ínf u(y)) (5.2) y B x(ε) y B x(ε) para todo x U. En el caso de no acabar el juego se tiene u(x) =. Lo mismo es cierto para v(x) = u ε 2 (x), con la salvedad de que en el caso de no acabar nunca el juego se tiene v(x) =. 1 De manera parecida a la que vimos en el capítulo 2 τ es el tiempo de salida del dominio.

83 5.2. LOS JUEGOS 83 Demostración. Basta considerar los posibles resultados de la moneda y usar la probabilidad condicionada. Comentario 29 Notamos las similitudes con el capítulo 2. Sin embargo los casos tratados allí eran difusiones puras, sin posibilidad de tener estrategias. Y las integrales eran en funciones, ahora es en historias. Comentario 3 Aunque pensamos que las estrategias buenas serán markovianas no nos restringiremos a ellas, sino que permitiremos estrategias más generales Aproximaciones por SDE al En [BEJ] podemos ver que la ecuación estocástica d X = η(t)dt + ζ(t)d W,X = x también está relacionada con el. Sean como anteriormente U R d, ε > y x U. El jugador 1 controla el valor de η, mientras que el jugador 2 controla el valor de ζ. La función que nos da la recompensa es g(x τx (x)) τx η(s) ζ(s) + ε2 4 η(s) 2 ds donde τ x es el tiempo de parada asociado a salir del dominio. Este juego estocástico tiene un valor discreto que converge a u solución del problema (5.1). En [PSSW] podemos ver otra SDE que lleva al infinito laplaciano. Sea u C 2 una función infinito armónica. Definimos las funciones y r( Y t (x)) = u( Y t (x)) 1 u( Y t (x)) s( Y t (x)) = u( Y t (x)) 2 D 2 u( Y t (x)) u( Y t (x)) P donde P es su proyección en u( Y t (x)) (por lo que es ortogonal al gradiente). Ahora definimos la SDE d X t (x) = r( X t (x))dw + s( X (x))dt, X = x. Si ahora aplicamos la fórmula de Itô a la función u( X t (x)) obtenemos u( X t (x)) u(x) = t Tomamos esperanzas y concluímos 1 2 u( X s (x))ds + E x [u( X t (x))] = u(x). t u t r( X s (x))dw.

84 84 CAPÍTULO 5. JUEGOS DIFERENCIALES Y ECUACIONES Existencia del valor para el juego En esta sección demostraremos la existencia de un valor para el juego tug of war discreto sin pagos intermedios. Teorema 27. Sea U R d un dominio y 1 >> ε > un número fijo. Consideramos el juego tug of war con f = y g acotada inferiormente (o superiormente) en U una función Lipschitz. Entonces u ε 1 = uε 2 y por lo tanto el juego tiene un valor. Demostración. Si g está acotada por arriba y no por abajo hemos de considerar g e intercambiar los papeles del juego entre ambos jugadores. Así podemos restringirnos al caso g acotada inferiormente. Tenemos que ver que u ε 2 uε 1. Además el jugador 1 puede hacer que el juego termine casi seguramente, pues siempre podemos extraer cadenas de caras (o cruces) de longitud arbitraria de lanzamientos al azar. Por lo tanto u ε 1 ínf x U g(x). Sean x,x 1,... las posiciones del juego en los distintos turnos y escribamos u ε = u ε 1. Consideramos ahora la oscilación Definimos el conjunto δ(x) = sup u ε (y) u ε (x). y B x(ε) X = {x U : δ(x) δ(x )} U y el índice j n = máx j n x j X que nos da el último turno en el conjunto X. Sea v n = x jn la última posición en X. X es el conjunto de los puntos donde la función oscila más que en el punto inicial. Del principio de programación dinámica se tiene que 2u ε (x n ) = sup y B xn (ε) u ε (y)+ ínf y B xn (ε) u ε (y) ínf u ε (x n ) u ε (y) = δ(x n ), y B xn (ε) y por lo tanto si los jugadores optan por las estrategias de maximizar (jugador 1) o minimizar (jugador 2) siempre la función u ε la función δ no será decreciente porque tiene asegurada, al menos, la misma oscilación que la posición previa. Entonces con las estrategias anteriores siempre jugaremos en X. Consideremos ahora la siguiente estrategia para el jugador 2: si v n x n, i.e. no estamos en X, entonces el jugador 2 se moverá al punto y que minimice la distancia entre x n y X. Cuando x n = v n el jugador 2 elegirá la nueva posición de manera que minimice u ε. Para el jugador 1 consideramos cualquier estrategia y veamos como evoluciona el juego. Hemos de decir que el jugador 2 no juega de forma muy inteligente, pues en X está la frontera, que es donde el juego acaba y él debe pagar. Al jugador 2 le es mucho más

85 5.2. LOS JUEGOS 85 favorable que el juego no acabe nunca, pues en ese caso su recompensa es u ε 2 =. También hay que señalar que esta estrategia es markoviana. Sea d la distancia medida en pasos de longitud ε, entonces definimos d n = d(x n,v n ) considerando que debe pasar por todas las posiciones anteriores del juego y Entonces m n = u ε (v n ) + δ(x )d n. u ε (x n ) = u ε (v n ) + (u ε (x jn+1) u ε (v n )) + (u ε (x jn+2) u ε (x jn+1) (u ε (x n ) u ε (x n 1 ) n u ε (v n ) + δ(x k ) k=j n+1 m n (porque no están en X.) (5.3) m n es una supermartingala. En efecto, supongamos que x n X y que el jugador 1 ha ganado el turno. Entonces hay dos posibilidades, que x n+1 esté o que no esté en X. Si x n+1 X entonces m n+1 = u ε (v n+1 ) u ε (x n ) + u ε (x n ) u ε (x n ) + δ(x n ) = m n + δ(x n ). Si x n+1 / X entonces m n+1 = u ε (v n+1 ) + δ(x )d n+1 u ε (x n ) + δ(x n ) m n + δ(x n ). Supongamos ahora x n X y que el jugador 2 ha ganado el turno. En este caso u ε (x n+1 ) = u ε (x n ) δ(x n ) = u ε (v n ) δ(x n ) y en el caso de que x n+1 X la igualdad anterior es m n+1 = m n δ(x n ) m n δ(x ). Si x n+1 / X entonces se llega a una contradicción, pues δ(x n ) δ(x ) > δ(x n+1 ) y esto no puede darse por el principio de programación dinámica, que asegura que la oscilación en x n+1 (si elegimos el nuevo punto minimizando o maximizando u ε ) es no decreciente.

86 86 CAPÍTULO 5. JUEGOS DIFERENCIALES Y ECUACIONES Supongamos ahora que x n / X y que juega el jugador 2. Por la estrategia que hemos definido se tiene, si v n+1 x n+1, la desigualdad siguiente m n+1 = u ε (v n+1 ) + δ(x )d n+1 u ε (v n+1 ) + δ(x )d(v n+1,x n ) δ(x )d(x n+1,x n ) m n δ(x ) Si v n+1 = x n+1 entonces m n+1 = u ε (x n+1 )±u ε (x n ) u ε (x n )+δ(x n ) m n +δ(x ) (por (5.3) y definición de X ). Consideremos el último caso: x n / X y juega el jugador 1. Supongamos que el jugador 1 entra en X. Entonces m n+1 = u ε (u n+1 )±u ε (x n ) u ε (x n )+δ(x n ) m n +δ(x ) (por (5.3) y definición de X ). Supongamos ahora que el jugador 1 no entra en X. Entonces m n+1 = u ε (v n+1 ) + δ(x )d(v n+1,x n+1 ) u ε (v n ) + δ(x )d(v n,x n ) + δ(x )d(x n,x n+1 ) m n + δ(x ). Por todo lo anterior tenemos que si juega el jugador 2 se tiene m n+1 m n δ(x ) y si juega el jugador 1 Entonces m n+1 m n + δ(x ). E[m n+1 m,m 1...m n ] m n (δ(x ) δ(x )) = m n. (5.4) Entonces el teorema de convergencia de martingalas tenemos que, si τ x es el tiempo que tarda el juego en acabar si empieza en x, existe el límite lím n m mín(n,τx ). De la existencia de este límite y de que m n+1 m n δ(x ) se concluye que el juego debe acabar casi seguramente. Entonces el pago esperado con esta estrategia para el jugador 2 es E x [u ε (x τx )] = E x [ lím n uε (x mín(τx,n))] E x [m mín(τx,n))] (por (5.3) y el lema de Fatou) m = u ε (x ) por ser supermartingala Al ser una estrategia particular es mejor que u ε 2 que u ε 2 uε 1. y por lo tanto se concluye

87 5.2. LOS JUEGOS 87 La oscilación podría ser cero, y nosotros siempre la tratamos como si fuese positiva. En este caso la estrategia del jugador 2 es avanzar en dirección a la frontera hasta llegar a algún punto, x, con oscilación no nula (pero tal que u ε (x ) = u ε (x ), momento en el que empieza a jugar según la estrategia definida más arriba. Necesitamos ahora un teorema de convergencia al valor del juego continuo. Teorema 28. Consideremos un dominio acotado U y sea g (pago en la frontera) acotada inferiormente, y f = (pago intermedio) o se satisfacen las tres condiciones siguientes: ínf f > f es uniformemente continua. Entonces el valor del juego continuo, u, existe y se cumple que u u ε cuando ε. Además u es continua. Y este valor del juego continuo es solución del problema (5.1). Teorema 29. Sea U R d un abierto acotado. Sea g definida en la frontera una función Lipschitz y acotada inferiormente. Entonces u, el valor del juego continuo (con f = ), es una extensión Lipschitz absolutamente minimizante de g. Si g es además acotada entonces u es la única solución de (5.1) Tug of war con ruido Definamos ahora el juego Tug of war con ruido. En este caso el operador es el p-laplaciano. Sean U R d,x U y g como antes (f ahora es ). Sea también la medida de probabilidad, µ, uniforme en la esfera de radio r = (d 1)q/p (donde p 1 + q 1 = 1) en el hiperplano ortogonal a e 1. Consideraremos µ v (S) = µ(ψ 1 (S)) donde Ψ( v) = e 1. 2 En cada turno k se lanza una moneda equilibrada que indica qué jugador mueve ese turno. El jugador que tenga el turno elige v k, de longitud menor o igual que ε. Así el nuevo punto es x k = x k 1 + v k + z k, donde z k es un vector aleatorio con respecto a µ vk. En el caso de estar a distancia de la frontera menor o igual a (1+r)ε el jugador que tenga el turno tiene la obligación de moverse hasta un punto de la frontera x k cumpliendo x k x k 1 (1 + r)ε, concluyendo así el juego. Así tenemos una difusión dirigida y un ruido en el hiperplano ortogonal. 2 Consultar [PS] para la demostración de que nuestra probabilidad no depende de la elección de Ψ.

88 88 CAPÍTULO 5. JUEGOS DIFERENCIALES Y ECUACIONES Definimos u ε 1 (x) y uε 2 (x) como los resultados mínimos que los jugadores esperan recibir si el juego comienza en x = x. Cuando ambas coinciden decimos que el juego tiene un valor. Supongamos que el juego (discreto) tiene un valor, entonces el límite puntual u(x) = lím ε u ε 1 (x) es la función que indica el resultado mínimo que cada jugador espera si el juego (continuo) comienza en x = x. La función u(x) verifica p u =, u U = g (5.5) Figura 5.3: Esquema del juego Tug of war con ruido. Comentario 31 Demostrar que el juego (discreto) tiene un valor, pasar al límite y ver que efectivamente son esos los operadores son resultados contenidos en diversos artículos de investigación. Para la demostración de dichos teoremas se puede consultar [KS1], [KS2] y [PS] Juego de Spencer Comenzaremos con el llamado juego de Spencer (ver [KS1] y [KS2]) asociado con el operador 1-laplaciano. Dado un dominio U, x U el punto desde el que comenzará nuestro juego, g una función continua definida en la

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases.

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases. BASES Y DIMENSIÓN Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un sistema generador de dicho espacio o subespacio, que sea a la vez linealmente independiente. β Propiedades

Más detalles

Subespacios vectoriales en R n

Subespacios vectoriales en R n Subespacios vectoriales en R n Víctor Domínguez Octubre 2011 1. Introducción Con estas notas resumimos los conceptos fundamentales del tema 3 que, en pocas palabras, se puede resumir en técnicas de manejo

Más detalles

Aplicaciones Lineales y Multilineales Continuas

Aplicaciones Lineales y Multilineales Continuas Capítulo 4 Aplicaciones Lineales y Multilineales Continuas La conexión entre las estructuras vectorial y topológica de los espacios normados, se pone claramente de manifiesto en el estudio de las aplicaciones

Más detalles

Aproximación local. Plano tangente. Derivadas parciales.

Aproximación local. Plano tangente. Derivadas parciales. Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación

Más detalles

Aplicaciones lineales continuas

Aplicaciones lineales continuas Lección 13 Aplicaciones lineales continuas Como preparación para el cálculo diferencial, estudiamos la continuidad de las aplicaciones lineales entre espacios normados. En primer lugar probamos que todas

Más detalles

Apuntes de Matemática Discreta 9. Funciones

Apuntes de Matemática Discreta 9. Funciones Apuntes de Matemática Discreta 9. Funciones Francisco José González Gutiérrez Cádiz, Octubre de 004 Universidad de Cádiz Departamento de Matemáticas ii Lección 9 Funciones Contenido 9.1 Definiciones y

Más detalles

Variedades Diferenciables. Extremos Condicionados

Variedades Diferenciables. Extremos Condicionados Capítulo 16 Variedades Diferenciables. Extremos Condicionados Vamos a completar lo visto en los capítulos anteriores sobre el teorema de las Funciones Implícitas y Funciones Inversas con un tema de iniciación

Más detalles

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos

Más detalles

Parte I. Iniciación a los Espacios Normados

Parte I. Iniciación a los Espacios Normados Parte I Iniciación a los Espacios Normados Capítulo 1 Espacios Normados Conceptos básicos Sea E un espacio vectorial sobre un cuerpo K = R ó C indistintamente. Una norma sobre E es una aplicación de E

Más detalles

1. Producto escalar, métrica y norma asociada

1. Producto escalar, métrica y norma asociada 1. asociada Consideramos el espacio vectorial R n sobre el cuerpo R; escribimos los vectores o puntos de R n, indistintamente, como x = (x 1,..., x n ) = n x i e i i=1 donde e i son los vectores de la

Más detalles

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR}

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR} Subespacios Capítulo 1 Definición 1.1 Subespacio Sea H un subconjunto no vacio de un espacio vectorial V K. Si H es un espacio vectorial sobre K bajo las operaciones de suma y multiplicación por escalar

Más detalles

Ejemplos y problemas resueltos de análisis complejo (2014-15)

Ejemplos y problemas resueltos de análisis complejo (2014-15) Variable Compleja I (3 o de Matemáticas y 4 o de Doble Titulación) Ejemplos y problemas resueltos de análisis complejo (04-5) Teoremas de Cauchy En estos apuntes, la palabra dominio significa, como es

Más detalles

Divisibilidad y números primos

Divisibilidad y números primos Divisibilidad y números primos Divisibilidad En muchos problemas es necesario saber si el reparto de varios elementos en diferentes grupos se puede hacer equitativamente, es decir, si el número de elementos

Más detalles

Profr. Efraín Soto Apolinar. La función lineal. y = a 0 + a 1 x. y = m x + b

Profr. Efraín Soto Apolinar. La función lineal. y = a 0 + a 1 x. y = m x + b La función lineal Una función polinomial de grado uno tiene la forma: y = a 0 + a 1 x El semestre pasado estudiamos la ecuación de la recta. y = m x + b En la notación de funciones polinomiales, el coeficiente

Más detalles

Tema 3. Espacios vectoriales

Tema 3. Espacios vectoriales Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición

Más detalles

El método de las características aleatorias: Notas de clase

El método de las características aleatorias: Notas de clase El método de las características aleatorias: Notas de clase Rafael Granero Belinchón 1 22 de marzo de 211 Resumen En estas clases estudiaremos la teoría de existencia y unicidad para las Ecuaciones Diferenciales

Más detalles

Matrices equivalentes. El método de Gauss

Matrices equivalentes. El método de Gauss Matrices equivalentes. El método de Gauss Dada una matriz A cualquiera decimos que B es equivalente a A si podemos transformar A en B mediante una combinación de las siguientes operaciones: Multiplicar

Más detalles

E 1 E 2 E 2 E 3 E 4 E 5 2E 4

E 1 E 2 E 2 E 3 E 4 E 5 2E 4 Problemas resueltos de Espacios Vectoriales: 1- Para cada uno de los conjuntos de vectores que se dan a continuación estudia si son linealmente independientes, sistema generador o base: a) (2, 1, 1, 1),

Más detalles

Espacios Vectoriales

Espacios Vectoriales Espacios Vectoriales Departamento de Matemáticas, CCIR/ITESM 4 de enero de 2 Índice 3.. Objetivos................................................ 3.2. Motivación...............................................

Más detalles

LÍMITES Y CONTINUIDAD DE FUNCIONES

LÍMITES Y CONTINUIDAD DE FUNCIONES Capítulo 9 LÍMITES Y CONTINUIDAD DE FUNCIONES 9.. Introducción El concepto de ite en Matemáticas tiene el sentido de lugar hacia el que se dirige una función en un determinado punto o en el infinito. Veamos

Más detalles

AXIOMAS DE CUERPO (CAMPO) DE LOS NÚMEROS REALES

AXIOMAS DE CUERPO (CAMPO) DE LOS NÚMEROS REALES AXIOMASDECUERPO(CAMPO) DELOSNÚMEROSREALES Ejemplo: 6 INECUACIONES 15 VA11) x y x y. VA12) x y x y. Las demostraciones de muchas de estas propiedades son evidentes de la definición. Otras se demostrarán

Más detalles

El concepto de integral con aplicaciones sencillas

El concepto de integral con aplicaciones sencillas El concepto de integral con aplicaciones sencillas Eliseo Martínez Marzo del 24 Abstract Este artículo trata de ejemplos sencillos del concepto de integral con aplicaciones a la Física, la Teoría de la

Más detalles

Anexo 1: Demostraciones

Anexo 1: Demostraciones 75 Matemáticas I : Álgebra Lineal Anexo 1: Demostraciones Espacios vectoriales Demostración de: Propiedades 89 de la página 41 Propiedades 89- Algunas propiedades que se deducen de las anteriores son:

Más detalles

1. Dominio, simetría, puntos de corte y periodicidad

1. Dominio, simetría, puntos de corte y periodicidad Estudio y representación de funciones 1. Dominio, simetría, puntos de corte y periodicidad 1.1. Dominio Al conjunto de valores de x para los cuales está definida la función se le denomina dominio. Se suele

Más detalles

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor Tema 5 Aproximación funcional local: Polinomio de Taylor Teoría Los polinomios son las funciones reales más fáciles de evaluar; por esta razón, cuando una función resulta difícil de evaluar con exactitud,

Más detalles

UNIDAD 1. LOS NÚMEROS ENTEROS.

UNIDAD 1. LOS NÚMEROS ENTEROS. UNIDAD 1. LOS NÚMEROS ENTEROS. Al final deberás haber aprendido... Interpretar y expresar números enteros. Representar números enteros en la recta numérica. Comparar y ordenar números enteros. Realizar

Más detalles

Subconjuntos destacados en la

Subconjuntos destacados en la 2 Subconjuntos destacados en la topología métrica En este capítulo, introducimos una serie de conceptos ligados a los puntos y a conjuntos que por el importante papel que juegan en la topología métrica,

Más detalles

Transformaciones canónicas

Transformaciones canónicas apítulo 29 Transformaciones canónicas 29.1 Introducción onsideremos una transformación arbitraria de las coordenadas en el espacio de las fases de dimensión 2(3N k) (con el tiempo como un parámetro) Q

Más detalles

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1 1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1.1. ESPACIOS VECTORIALES 1. Analizar cuáles de los siguientes subconjuntos de R 3 son subespacios vectoriales. a) A = {(2x, x, 7x)/x R} El conjunto A es una

Más detalles

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1 . ESPACIOS VECTORIALES Consideremos el siguiente subconjunto de R 4 : S = {(x, x 2, x 3, x 4 )/x x 4 = 0 x 2 x 4 = x 3 a. Comprobar que S es subespacio vectorial de R 4. Para demostrar que S es un subespacio

Más detalles

Tema 3. Problemas de valores iniciales. 3.1. Teoremas de existencia y unicidad

Tema 3. Problemas de valores iniciales. 3.1. Teoremas de existencia y unicidad Tema 3 Problemas de valores iniciales 3.1. Teoremas de existencia y unicidad Estudiaremos las soluciones aproximadas y su error para funciones escalares, sin que ésto no pueda extenderse para funciones

Más detalles

PROGRAMACIÓN LINEAL. 8.1. Introducción. 8.2. Inecuaciones lineales con 2 variables

PROGRAMACIÓN LINEAL. 8.1. Introducción. 8.2. Inecuaciones lineales con 2 variables Capítulo 8 PROGRAMACIÓN LINEAL 8.1. Introducción La programación lineal es una técnica matemática relativamente reciente (siglo XX), que consiste en una serie de métodos y procedimientos que permiten resolver

Más detalles

Transformación de gráfica de funciones

Transformación de gráfica de funciones Transformación de gráfica de funciones La graficación de las funciones es como un retrato de la función. Nos auda a tener una idea de cómo transforma la función los valores que le vamos dando. A partir

Más detalles

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Francisco José González Gutiérrez Cádiz, Octubre de 2004 Universidad de Cádiz Departamento de Matemáticas ii Lección 1 Conjuntos y Subconjuntos

Más detalles

Clasificación de métricas.

Clasificación de métricas. Clasificación de métricas. 1. El problema de clasificación. Como bien sabemos, el par formado por una métrica T 2 (esto es, un tensor 2-covariante simétrico) sobre un espacio vectorial E, (E, T 2 ), constituye

Más detalles

1. Ecuaciones no lineales

1. Ecuaciones no lineales 1. Ecuaciones no lineales 1.1 Ejercicios resueltos Ejercicio 1.1 Dada la ecuación xe x 1 = 0, se pide: a) Estudiar gráficamente sus raíces reales y acotarlas. b) Aplicar el método de la bisección y acotar

Más detalles

Ecuaciones de primer grado con dos incógnitas

Ecuaciones de primer grado con dos incógnitas Ecuaciones de primer grado con dos incógnitas Si decimos: "las edades de mis padres suman 120 años", podemos expresar esta frase algebraicamente de la siguiente forma: Entonces, Denominamos x a la edad

Más detalles

Diferenciabilidad. Definición 1 (Función diferenciable). Cálculo. Segundo parcial. Curso 2004-2005

Diferenciabilidad. Definición 1 (Función diferenciable). Cálculo. Segundo parcial. Curso 2004-2005 Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 2004-2005 Diferenciabilidad. 1. Definición de función diferenciable Después del estudio de los ites de funciones

Más detalles

1. El teorema de la función implícita para dos y tres variables.

1. El teorema de la función implícita para dos y tres variables. GRADO DE INGENIERÍA AEROESPACIAL. CURSO. Lección. Aplicaciones de la derivación parcial.. El teorema de la función implícita para dos tres variables. Una ecuación con dos incógnitas. Sea f :( x, ) U f(

Más detalles

1.4.- D E S I G U A L D A D E S

1.4.- D E S I G U A L D A D E S 1.4.- D E S I G U A L D A D E S OBJETIVO: Que el alumno conozca y maneje las reglas empleadas en la resolución de desigualdades y las use para determinar el conjunto solución de una desigualdad dada y

Más detalles

UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano.

UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. EL PLANO CARTESIANO. El plano cartesiano está formado

Más detalles

Caracterización de los campos conservativos

Caracterización de los campos conservativos Lección 5 Caracterización de los campos conservativos 5.1. Motivación y enunciado del teorema Recordemos el cálculo de la integral de línea de un gradiente, hecho en la lección anterior. Si f : Ω R es

Más detalles

Semana 08 [1/15] Axioma del Supremo. April 18, 2007. Axioma del Supremo

Semana 08 [1/15] Axioma del Supremo. April 18, 2007. Axioma del Supremo Semana 08 [1/15] April 18, 2007 Acotamiento de conjuntos Semana 08 [2/15] Cota Superior e Inferior Antes de presentarles el axioma del supremo, axioma de los números reales, debemos estudiar una serie

Más detalles

MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas

MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Universidad de Cádiz Departamento de Matemáticas MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Tema Representación gráfica de funciones reales de una variable real Elaborado

Más detalles

March 25, 2010 CAPÍTULO 2: LÍMITES Y CONTINUIDAD DE FUNCIONES EN EL ESPACIO EUCLÍDEO

March 25, 2010 CAPÍTULO 2: LÍMITES Y CONTINUIDAD DE FUNCIONES EN EL ESPACIO EUCLÍDEO March 25, 2010 CAPÍTULO 2: LÍMITE Y CONTINUIDAD DE FUNCIONE EN EL EPACIO EUCLÍDEO 1. Producto Escalar en R n Definición 1.1. Dado x = (x 1,..., x n ), y = (y 1,..., y n ) R n, su producto escalar está

Más detalles

Cap. 24 La Ley de Gauss

Cap. 24 La Ley de Gauss Cap. 24 La Ley de Gauss Una misma ley física enunciada desde diferentes puntos de vista Coulomb Gauss Son equivalentes Pero ambas tienen situaciones para las cuales son superiores que la otra Aquí hay

Más detalles

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada FUNCIONES CONTINUAS. La mayor parte de las funciones que manejamos, a nivel elemental, presentan en sus gráficas una propiedad característica que es la continuidad. La continuidad de una función definida

Más detalles

Integrales y ejemplos de aplicación

Integrales y ejemplos de aplicación Integrales y ejemplos de aplicación I. PROPÓSITO DE ESTOS APUNTES Estas notas tienen como finalidad darle al lector una breve introducción a la noción de integral. De ninguna manera se pretende seguir

Más detalles

Tema 3: Producto escalar

Tema 3: Producto escalar Tema 3: Producto escalar 1 Definición de producto escalar Un producto escalar en un R-espacio vectorial V es una operación en la que se operan vectores y el resultado es un número real, y que verifica

Más detalles

Ecuaciones Diferenciales Tema 2. Trasformada de Laplace

Ecuaciones Diferenciales Tema 2. Trasformada de Laplace Ecuaciones Diferenciales Tema 2. Trasformada de Laplace Ester Simó Mezquita Matemática Aplicada IV 1 1. Transformada de Laplace de una función admisible 2. Propiedades básicas de la transformada de Laplace

Más detalles

(3) Regla del cociente: Si g(z 0 ) 0, f/g es derivable en z 0 y. (z 0 ) = f (z 0 )g(z 0 ) f(z 0 )g (z 0 ) . g

(3) Regla del cociente: Si g(z 0 ) 0, f/g es derivable en z 0 y. (z 0 ) = f (z 0 )g(z 0 ) f(z 0 )g (z 0 ) . g Funciones holomorfas 2.1. Funciones variable compleja En este capítulo vamos a tratar con funciones f : Ω C C, donde Ω C es el dominio de definición. La forma habitual de expresar estas funciones es como

Más detalles

ESTIMACIÓN. puntual y por intervalo

ESTIMACIÓN. puntual y por intervalo ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio

Más detalles

4 APLICACIONES LINEALES. DIAGONALIZACIÓN

4 APLICACIONES LINEALES. DIAGONALIZACIÓN 4 APLICACIONES LINEALES DIAGONALIZACIÓN DE MATRICES En ocasiones, y con objeto de simplificar ciertos cálculos, es conveniente poder transformar una matriz en otra matriz lo más sencilla posible Esto nos

Más detalles

Usamos que f( p) = q y que, por tanto, g( q) = g(f( p)) = h( p) para simplificar esta expresión:

Usamos que f( p) = q y que, por tanto, g( q) = g(f( p)) = h( p) para simplificar esta expresión: Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 2004-2005 Propiedades de las funciones diferenciables. 1. Regla de la cadena Después de la generalización que hemos

Más detalles

1. Derivadas parciales

1. Derivadas parciales Análisis Matemático II. Curso 2009/2010. Diplomatura en Estadística/Ing. Téc. en Inf. de Gestión. Universidad de Jaén TEMA 3. ABLES DIFERENCIACIÓN DE FUNCIONES DE VARIAS VARI- 1. Derivadas parciales Para

Más detalles

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES Tema 07 LÍMITES Y CONTINUIDAD DE FUNCIONES Límite de una función en un punto Vamos a estudiar el comportamiento de las funciones f ( ) g ( ) ENT[ ] h ( ) i ( ) en el punto Para ello, damos a valores próimos

Más detalles

Integrales paramétricas e integrales dobles y triples.

Integrales paramétricas e integrales dobles y triples. Integrales paramétricas e integrales dobles y triples. Eleonora Catsigeras * 19 de julio de 2006 PRÓLOGO: Notas para el curso de Cálculo II de la Facultad de Ingeniería. Este texto es complementario al

Más detalles

Funciones de varias variables

Funciones de varias variables Funciones de varias variables Derivadas parciales. El concepto de función derivable no se puede extender de una forma sencilla para funciones de varias variables. Aquí se emplea el concepto de diferencial

Más detalles

CAPÍTULO III. FUNCIONES

CAPÍTULO III. FUNCIONES CAPÍTULO III LÍMITES DE FUNCIONES SECCIONES A Definición de límite y propiedades básicas B Infinitésimos Infinitésimos equivalentes C Límites infinitos Asíntotas D Ejercicios propuestos 85 A DEFINICIÓN

Más detalles

Un problema sobre repetidas apuestas al azar

Un problema sobre repetidas apuestas al azar Un problema sobre repetidas apuestas al azar Eleonora Catsigeras 1 10 de marzo de 2003. Resumen En estas notas se da el enunciado y una demostración de un conocido resultado sobre la probabilidad de éxito

Más detalles

FUNCIONES CUADRÁTICAS Y RACIONALES

FUNCIONES CUADRÁTICAS Y RACIONALES www.matesronda.net José A. Jiménez Nieto FUNCIONES CUADRÁTICAS Y RACIONALES 1. FUNCIONES CUADRÁTICAS. Representemos, en función de la longitud de la base (), el área (y) de todos los rectángulos de perímetro

Más detalles

Covarianza y coeficiente de correlación

Covarianza y coeficiente de correlación Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también

Más detalles

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO 1º) Considérese un número estrictamente positivo del sistema de números máquina F(s+1, m, M, 10). Supongamos que tal número es: z = 0.d 1 d...d s 10 e Responde

Más detalles

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases.

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases. Tema III Capítulo 2 Sistemas generadores Sistemas libres Bases Álgebra Lineal I Departamento de Métodos Matemáticos y de Representación UDC 2 Sistemas generadores Sistemas libres Bases 1 Combinación lineal

Más detalles

Las Funciones Analíticas. f (z 0 + h) f (z 0 ) lim. h=z z 0. = lim

Las Funciones Analíticas. f (z 0 + h) f (z 0 ) lim. h=z z 0. = lim Las Funciones Analíticas 1 Las Funciones Analíticas Definición 12.1 (Derivada de una función compleja). Sea D C un conjunto abierto. Sea z 0 un punto fijo en D y sea f una función compleja, f : D C C.

Más detalles

1. Números Reales 1.1 Clasificación y propiedades

1. Números Reales 1.1 Clasificación y propiedades 1. Números Reales 1.1 Clasificación y propiedades 1.1.1 Definición Número real, cualquier número racional o irracional. Los números reales pueden expresarse en forma decimal mediante un número entero,

Más detalles

INTRODUCCIÓN: LA FÍSICA Y SU LENGUAJE, LAS MATEMÁTICAS

INTRODUCCIÓN: LA FÍSICA Y SU LENGUAJE, LAS MATEMÁTICAS INTRODUCCIÓN: LA FÍSICA Y SU LENGUAJE, LAS MATEMÁTICAS La física es la más fundamental de las ciencias que tratan de estudiar la naturaleza. Esta ciencia estudia aspectos tan básicos como el movimiento,

Más detalles

a < b y se lee "a es menor que b" (desigualdad estricta) a > b y se lee "a es mayor que b" (desigualdad estricta)

a < b y se lee a es menor que b (desigualdad estricta) a > b y se lee a es mayor que b (desigualdad estricta) Desigualdades Dadas dos rectas que se cortan, llamadas ejes (rectangulares si son perpendiculares, y oblicuos en caso contrario), un punto puede situarse conociendo las distancias del mismo a los ejes,

Más detalles

Estructuras algebraicas

Estructuras algebraicas Tema 2 Estructuras algebraicas básicas 2.1. Operación interna Definición 29. Dados tres conjuntos A, B y C, se llama ley de composición en los conjuntos A y B y resultado en el conjunto C, y se denota

Más detalles

ANÁLISIS DE DATOS NO NUMERICOS

ANÁLISIS DE DATOS NO NUMERICOS ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas

Más detalles

Características de funciones que son inversas de otras

Características de funciones que son inversas de otras Características de funciones que son inversas de otras Si f es una función inyectiva, llamamos función inversa de f y se representa por f 1 al conjunto. f 1 = a, b b, a f} Es decir, f 1 (x, y) = { x =

Más detalles

PROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2.

PROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2. PROBLEMA. ESCUELA UNIVERSITARIA POLITÉCNICA DE SEVILLA Ingeniería Técnica en Diseño Industrial Fundamentos Matemáticos de la Ingeniería Soluciones correspondientes a los problemas del Primer Parcial 7/8.

Más detalles

8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión...

8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión... Tema 8 Análisis de dos variables: dependencia estadística y regresión Contenido 8.1. Introducción............................. 1 8.2. Dependencia/independencia estadística.............. 2 8.3. Representación

Más detalles

Lectura 3 Ampliación de Matemáticas. Grado en Ingeniería Civil

Lectura 3 Ampliación de Matemáticas. Grado en Ingeniería Civil 1 / 32 Lectura 3 Ampliación de Matemáticas. Grado en Ingeniería Civil Curso Académico 2011-2012 2 / 32 Motivación: muchas ecuaciones y propiedades fundamentales de la Física (y, en consecuencia, de aplicación

Más detalles

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define. VECTORES El estudio de los vectores es uno de tantos conocimientos de las matemáticas que provienen de la física. En esta ciencia se distingue entre magnitudes escalares y magnitudes vectoriales. Se llaman

Más detalles

Teoría de Colas o Fenómenos de Espera

Teoría de Colas o Fenómenos de Espera Teoría de Colas o Fenómenos de Espera Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Introducción 2 Introducción............................................................

Más detalles

CÁLCULO PARA LA INGENIERÍA 1

CÁLCULO PARA LA INGENIERÍA 1 CÁLCULO PARA LA INGENIERÍA 1 PROBLEMAS RESUELTOS Tema 3 Derivación de funciones de varias variables 3.1 Derivadas y diferenciales de funciones de varias variables! 1. Derivadas parciales de primer orden.!

Más detalles

Límite y continuidad de funciones de varias variables

Límite y continuidad de funciones de varias variables Límite y continuidad de funciones de varias variables 20 de marzo de 2009 1 Subconjuntos de R n y sus propiedades De nición 1. Dado x 2 R n y r > 0; la bola de centro x y radio r es B(x; r) = fy 2 R n

Más detalles

Teorema de Green. 6.1. Curvas de Jordan

Teorema de Green. 6.1. Curvas de Jordan Lección 6 Teorema de Green En la lección anterior, previa caracterización de los campos conservativos, hemos visto que un campo irrotacional puede no ser conservativo. Tenemos por tanto una condición fácil

Más detalles

4. FUNCIONES DE VARIAS VARIABLES

4. FUNCIONES DE VARIAS VARIABLES 4. FUNCIONES DE VARIAS VARIABLES INDICE 4 4.1. Definición de una función de dos variables...2 4.2. Gráfica de una función de dos variables..2 4.3. Curvas y superficies de nivel....3 4.4. Límites y continuidad....6

Más detalles

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada FUNCIONES CONOCIDAS. FUNCIONES LINEALES. Se llaman funciones lineales a aquellas que se representan mediante rectas. Su epresión en forma eplícita es y f ( ) a b. En sentido más estricto, se llaman funciones

Más detalles

TEMA 4: Variables binarias

TEMA 4: Variables binarias TEMA 4: Variables binarias Econometría I M. Angeles Carnero Departamento de Fundamentos del Análisis Económico Curso 2011-12 Econometría I (UA) Tema 4: Variables binarias Curso 2011-12 1 / 51 Variables

Más detalles

4.3 INTERPRETACIÓN ECONÓMICA DE LA DUALIDAD

4.3 INTERPRETACIÓN ECONÓMICA DE LA DUALIDAD 4.3 INTERPRETACIÓN ECONÓMICA DE LA DUALIDAD El problema de programación lineal se puede considerar como modelo de asignación de recursos, en el que el objetivo es maximizar los ingresos o las utilidades,

Más detalles

Campos conservativos. f(x) = f (x) = ( f x 1

Campos conservativos. f(x) = f (x) = ( f x 1 Capítulo 1 Campos conservativos En este capítulo continuaremos estudiando las integrales de linea, concentrándonos en la siguiente pregunta: bajo qué circunstancias la integral de linea de un campo vectorial

Más detalles

T.1 CONVERGENCIA Y TEOREMAS LÍMITE

T.1 CONVERGENCIA Y TEOREMAS LÍMITE T.1 CONVERGENCIA Y TEOREMAS LÍMITE 1. CONVERGENCIA DE SUCESIONES DE VARIABLES ALEATORIA CONVERGENCIA CASI-SEGURA CONVERGENCIA EN PROBABILIDAD CONVERGENCIA EN MEDIA CUADRÁTICA CONVERGENCIA EN LEY ( O DISTRIBUCIÓN)

Más detalles

FUNCIONES DE UNA VARIABLE Julián de la Horra Departamento de Matemáticas U.A.M.

FUNCIONES DE UNA VARIABLE Julián de la Horra Departamento de Matemáticas U.A.M. FUNCIONES DE UNA VARIABLE Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción Una de las primeras necesidades que surgen en las Ciencias Experimentales es la de poder expresar los valores

Más detalles

1 Espacios y subespacios vectoriales.

1 Espacios y subespacios vectoriales. UNIVERSIDAD POLITÉCNICA DE CARTAGENA Departamento de Matemática Aplicada y Estadística Espacios vectoriales y sistemas de ecuaciones 1 Espacios y subespacios vectoriales Definición 1 Sea V un conjunto

Más detalles

Anexo a la guía 4 Geometría: ejemplos y comentarios

Anexo a la guía 4 Geometría: ejemplos y comentarios Anexo a la guía 4 Geometría: ejemplos y comentarios Sergio Dain 26 de mayo de 2014 En las guías 1 y 2 discutimos vectores, covectores y tensores de manera puramente algebraica, sin hacer referencia a la

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Primeras definiciones Una aplicación lineal de un K-ev de salida E a un K-ev de llegada F es una aplicación f : E F tal que f(u + v) = f(u) + f(v) para todos u v E f(λ u) = λ f(u)

Más detalles

Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices Estructura del tema. Conceptos básicos y ejemplos Operaciones básicas con matrices Método de Gauss Rango de una matriz Concepto de matriz regular y propiedades Determinante asociado a una

Más detalles

Espacios vectoriales. Bases. Coordenadas

Espacios vectoriales. Bases. Coordenadas Capítulo 5 Espacios vectoriales. Bases. Coordenadas OPERACIONES ENR n Recordemos que el producto cartesiano de dos conjuntos A y B consiste en los pares ordenados (a,b) tales que a A y b B. Cuando consideramos

Más detalles

Números Reales. MathCon c 2007-2009

Números Reales. MathCon c 2007-2009 Números Reales z x y MathCon c 2007-2009 Contenido 1. Introducción 2 1.1. Propiedades básicas de los números naturales....................... 2 1.2. Propiedades básicas de los números enteros........................

Más detalles

1. Definición 2. Operaciones con funciones

1. Definición 2. Operaciones con funciones 1. Definición 2. Operaciones con funciones 3. Estudio de una función: Suma y diferencia Producto Cociente Composición de funciones Función reciproca (inversa) Dominio Recorrido Puntos de corte Signo de

Más detalles

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES INECUACIONES NOTA IMPORTANTE: El signo de desigualdad de una inecuación puede ser,, < o >. Para las cuestiones teóricas que se desarrollan en esta unidad únicamente se utilizará la desigualdad >, siendo

Más detalles

Segundo de Bachillerato Geometría en el espacio

Segundo de Bachillerato Geometría en el espacio Segundo de Bachillerato Geometría en el espacio Jesús García de Jalón de la Fuente IES Ramiro de Maeztu Madrid 204-205. Coordenadas de un vector En el conjunto de los vectores libres del espacio el concepto

Más detalles

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Datos del autor Nombres y apellido: Germán Andrés Paz Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Correo electrónico: germanpaz_ar@hotmail.com =========0========= Introducción

Más detalles

C 4 C 3 C 1. V n dσ = C i. i=1

C 4 C 3 C 1. V n dσ = C i. i=1 apítulo 2 Divergencia y flujo Sea V = V 1 i + V 2 j + V 3 k = (V 1, V 2, V 3 ) un campo vectorial en el espacio, por ejemplo el campo de velocidades de un fluido en un cierto instante de tiempo, en un

Más detalles

INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA

INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA Dentro del campo general de la teoría de la optimización, también conocida como programación matemática conviene distinguir diferentes modelos de optimización.

Más detalles