Probabilidades en Espacios Abstractos: una introducción.

Documentos relacionados
Ejercicios de Análisis Funcional

Espacios métricos completos

En primer lugar, vamos a precisar un concepto al que ya nos hemos referido anteriormente, el de σ-álgebra.

Convergencia Sucesiones convergentes

F-ESPACIOS. 1.- Introducción

Principio de acotación uniforme

Comisión de Pedagogía - Diego Chamorro Análisis Funcional (Nivel 2).

Espacios compactos. Capítulo Cubiertas. En este capítulo estudiaremos el concepto de compacidad en un espacio métrico.

1. Medida Exterior. Medida de Lebesgue en R n

ELEMENTOS DE ANÁLISIS FUNCIONAL

1. Espacios topológicos compactos.

Métodos matemáticos: Análisis funcional

Espacios compactos. 7.1 Espacios compactos

Parte 2: Definición y ejemplos de topologías.

Teoría de la Probabilidad Tema 2: Teorema de Extensión

1. Definiciones y propiedades básicas.

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona

1. La topología inducida.

2.3. Aplicaciones del teorema de Baire a espacios de Banach

Continuidad. 5.1 Continuidad en un punto

1. Sucesiones. Sucesiones. Compacidad. {( 1) n, n N} = { 1, 1, 1, 1, 1, 1,... } es una sucesión de elementos del conjunto { 1, 1}, y la familia

Espacios completos. 8.1 Sucesiones de Cauchy

1. ESPACIOS DE HILBERT Y OPERADORES

Espacios topológicos. 3.1 Espacio topológico

Teorema de Hahn-Banach

Parte 4: Teoremas de convergencia.

1 Continuidad uniforme

Espacios compactos. 1. Cubiertas

Nociones topológicas elementales de R n

INTRODUCCIÓN A LOS ESPACIOS DE FUNCIONES. Problemas

Transformaciones lineales

El espacio euclideano

Subconjuntos notables de un Espacio Topológico

Topología en R n. Continuidad de funciones de varias variables

El Teorema de Stone-Weierstrass

11.1. Funciones uniformemente continuas

ELEMENTOS DE ANÁLISIS FUNCIONAL

Índice. Funciones de varias variables reales I Espacios normados. Revisando con perspectiva. Se puede hacer de forma más general?

Integración de Funciones Reales

Departamento de Ingeniería Matemática - Universidad de Chile

1. Funciones Medibles

Elementos Básicos de Análisis Funcional en. Dr. Oldemar Rodríguez Rojas

Métodos Matemáticos: Análisis Funcional

TOPOLOGÍA. Resumen Curso 2011/2012

TEMA VI: ESPACIOS DE HILBERT

Problemas con soluciones

Construcción de Paul Lévy del Movimiento Browniano Estándar, según P. Morters y Y. Peres. August 31, 2016

Una norma en un espacio lineal (o vectorial) X es una función. : X R con las siguientes propiedades: (a) x 0, para todo x X (no negatividad);

Medida y Probabilidad

Reconocer y utilizar las propiedades sencillas de la topología métrica.

Espacios compactos. Se pretenden alcanzar las siguientes competencias específicas:

MMAF: Espacios normados y espacios de Banach

Transformación adjunta a una transformación lineal

8. Consecuencias de la Teoría de Cauchy.

Taller de Cálculo Avanzado - Segundo Cuatrimestre de Práctica 3

Cálculo diferencial e integral I. Eleonora Catsigeras

Nociones topológicas elementales de R n

Normas Equivalentes. Espacios Normados de Dimensión Finita

RESUMEN ELEMENTOS DE GEOMETRÍA DIFERENCIAL Y TOPOLOGÍA CURSO

1. Propiedades básicas de las medidas

Métodos Matemáticos: Análisis Funcional

Continuidad de funciones reales y vectoriales de variable vectorial

Las variedades lineales en un K-espacio vectorial V pueden definirse como sigue a partir de los subespacios de V.

1. Sucesiones y redes.

Momentos de Funciones de Vectores Aleatorios

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Tema 1 EL TEOREMA DE PEANO. 1 Compacidad en C(I; R N ): el Teorema de Ascoli-

1. Convergencia en medida

Análisis de Fourier. Resumen de los apuntes de D. Antonio Cañada Villar. Sergio Cruz Blázquez. Curso 2015/2016

Teoremas de la función inversa, función implícita y del rango constante

Guía Semana 1 1. RESUMEN. Universidad de Chile. Ingeniería Matemática

Ejercicios de Análisis Funcional. Curso

Algunos resultados de Topología I. Rafael López Departamento de Geometría y Topología Universidad de Granada

Cálculo Numérico III Curso 2010/11

2. El Teorema del Valor Medio

Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias.

ANÁLISIS FUNCIONAL Y ECUACIONES EN DERIVADAS PARCIALES HOJA 2: FORMULACIÓN DÉBIL DE PROBLEMAS ELÍPTICOS

Medidas. Problemas para examen. Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez.

Apéndice 2: Series de Fourier.

sup si A no es acotado.

Extensiones finitas.

El teorema de Lebesgue

Acotación y compacidad

TOPOLOGÍA SOLUCIONES A LAS RELACIONES DE PROBLEMAS

Espacios Métricos. 25 de octubre de 2011

sup si A no es acotado.

CÁLCULO DIFERENCIAL EN VARIAS VARIABLES

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso

Apuntes sobre la integral de Lebesgue

Parte II. Cálculo Diferencial para Funciones de Varias Variables Reales

: k }, es decir. 2 k. k=0

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

Espacios L p con 0 <p<1

El Teorema de Baire Rodrigo Vargas

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

x i x io V no V n+1 ; y no x = x io x V n+1. Por tanto x i x V n+1 + V n+1 V n,

1 Espacios de Banach:

Métodos Matemáticos de la Física III (Espacios de Hilbert)

Sucesiones monótonas Monotonía. Tema 6

Transcripción:

Trabajo Monográfico Probabilidades en Espacios Abstractos: una introducción. Matías Carrasco Orientador: Dr. Ricardo Fraiman 26 de Diciembre de 2005. Licenciatura en Matemática Facultad de Ciendicas Universidad de la República Uruguay

Resumen Se consideran elementos aleatorios (e.a.) en un espacio de Banach separable (X, ). Se define el valor esperado de un e.a. en X por medio de la integral de Pettis. Se prueba una ley fuerte de los grandes números (l.f.g.n.) para una sucesión de e.a. {x n } independientes con idéntica distribución en X bajo la hipótesis de E x 1 <. En el caso en que X es un espacio de Hilbert, se extienden otros resultado sobre la l.f.g.n. conocidos en el caso real, y se muestran contraejemplos de los mismo para espacios más generales. En la segunda parte del trabajo consideramos X un espacio de Hilbert separable. Mediante la función característica (f.c.) de una medida de probabilidad en X se define un e.a. gaussiano. Se prueba la existencia utilizando el teorema de Minlos-Sazonov cuya prueba también damos aquí. Se demuestra un criterio para la compacidad relativa (de hecho un criterio para la tensión) debido a Prohorov y se prueba un teorema central del límite para e.a. independientes e identicamente distribuídos con varianza finita. Palabras claves: probabilidades en espacios de Banach, ley de los grandes números, función característica, elementos aleatorios gaussianos, teorema central del límite. Abstract Random elements (r.e.) in a separable Banach space (X, ) are considered. We defined the expected value of a r.e. in X by means of the Pettis integral. We prove a strong law of large numbers (s.l.l.n.) for a sequence of independent with the same distribution r.e. {x n } in X, under the hypothesis of E x 1 <. In the case in that X is a Hilbert space, we extend other known results on s.l.l.n. of the real case, and we show some counter-examples of the same one for more general spaces. In the second part of the work we considered the case in that X is a separable Hilbert space. By means of the characteristic function (c.f.) of a probability measure in X we defined a gaussian r.e.. The existence is proven using the theorem of Minlos-Sazonov whose proof also we give here. We demonstrated a criterion for the relative compactness (in fact is a criterion for the tension property) due to Prohorov and a central limit theorem for independent, with the same distribution and finite variances r.e. is proven. Key words and phrases: probabilities on Banach spaces, law of large numbers, characteristic functional, gaussian random elements, central limit theorem.

Índice general 1. Elementos Aleatorios en Espacios Métricos. 7 1.1. Definición de elemento aleatorio.......................... 7 1.2. Propiedades básicas de los elementos aleatorios.................. 9 1.3. Elementos aleatorios en espacios normados.................... 13 1.4. Valor esperado de un elemento aleatorio...................... 20 2. Ley de los Grandes Números. 26 2.1. Generalización a espacios de Hilbert separables.................. 26 2.1.1. Definiciones y aspectos básicos....................... 26 2.1.2. Sucesiones de elementos aleatorios no correlacionados.......... 31 2.1.3. Sucesiones de elementos aleatorios independientes............ 35 2.2. Generalización a espacios de Banach separables.................. 37 3. Teorema Central del Límite. 42 3.1. Convergencia débil en espacios métricos...................... 42 3.2. Funciones características.............................. 48 3.3. Teorema de Minlos-Sazonov............................. 50 3.4. Distribución gaussiana y el teorema central del límite.............. 56 3

Introducción. El estudio de la teoría de probabilidades en espacios abstractos ocupa hoy en día un importante lugar en dicha disciplina. La necesidad de estudio en esta subrama de la teoría de probabilidades se manifiesta hace ya varios años, teniendo sus primeros impulsos en los trabajos de M. Frechet(1948) y posteriormente E. Mourier(1953). Por esos años, la consideración de los procesos estocásticos como elementos aleatorios en un espacio de funciones -es decir, una variable aleatoria a valores en un espacio funcional- realizada por Doob(1947), Mann(1951), Prohorov(1956) -y la escuela Rusa en general-, ha inspirado entre otras cosas el estudio de los teoremas límites para elementos aleatorios abstractos. Muchas de las leyes de los grandes números fueron generalizadas a elementos aleatorios que toman valores en un espacio abstracto. Por ejemplo, Mourier en los años 1953 y 1956 generalizó la ley fuerte para elementos aleatorios independientes e identicamente distribuídos a valores en un espacio de Banach separable. Posteriormente, Beck(1963) generalizó la ley fuerte para variables independientes no necesariamente con la misma distribución pero a expensas de exigirle al espacio una condición de convexidad, condición que resulta equivalente a la validez de la ley fuerte de Kolmogorov. 1 De este modo se ve claramente un vínculo muy profundo entre análisis y probabilidad; en este caso relacionados con aspectos geométricos de los espacios de Banach. Por ser este uno de los puntos de contacto de mayor actividad entre estas dos grandes disciplinas de la matemática, se encuentra una riqueza enorme de métodos nuevos no provenientes de ninguna de ellas en particular. El estudio de la convergencia débil de medidas y los teoremas límites en general también tuvieron sus generalizaciones. La importancia de estos estudios no es simplemente la importancia que tiene toda abstracción, que de hecho es mucha. No sólo se trata de expandir las fronteras de la misma, sino que las aplicaciones tanto de carácter teórico como práctico son relevantes. Las aplicaciones del estudio de la convergencia débil en espacios más abstractos y los teoremas límites en general 1 Para elementos aleatorios independientes no necesariamente con la misma distribución. 4

tanto dentro de la propia disciplina como su vinculación con otras, ha sido muy fructífero. Otro aspecto importante son las aplicaciones estadísticas. En contraste con un enfoque que consiste en un tratamiento de datos infinito-dimensionales mediante aproximaciones con bases adecuadas, considerar la propia naturaleza infinito dimensional de los datos puede ser muy provechoso. Así, la necesidad de tener espacios y teorías capaces de manipular dichos objetos es muy importante; inclusive para problemas muy sencillos en estadística como pueden ser el problema de posición ó el problema de regresión. Por ejemplo, surge la necesidad de definir de forma adecuada el concepto de mediana, el concepto de forma cuadrática, entre muchos otros problemas estadísticos en espacios de Banach. Son temas que no hemos tratado aquí pero que reflejan un panorama bastante amplio de cosas por hacer, es decir, en forma un tanto exagerada podríamos afirmar que hay mucha estadística -infinito dimensional- que requiere ser estudiada. El objetivo de esta monografia es el de exponer en forma detallada y autocontenida algunas partes importantes de la teoría. En el primer capítulo introducimos los conceptos básicos, las definiciones necesarias y los problemas que se plantean al extender los tipos de espacios con los que se trabaja. Se define el concepto de valor esperado por medio de la integral de Pettis para espacios normados y se prueba un teorema de existencia. En el capítulo dos se trabaja con la ley de los grandes números. La teoría en espacios de Hilbert separables se desarrolla sin problemas utilizando prácticamente los mismos métodos que en el caso de variables reales. Así, son válidos los teoremas de Rademacher-Mensov para el caso ortogonal, las desigualdades de Kolmogorov y ambas leyes fuertes de Kolmogorov para el caso independiente. Sin embargo, para espacios de Banach la teoría es más trabajosa, valiendo sí el teorema de Mourier que mecionamos arriba pero siendo falsas en un contexto general las leyes fuertes y débiles para el caso independiente cuando se imponen condiciones en las varianzas. Hecho fundamental es la invalidez de la propiedad de aditividad de la varianza para elementos independientes. La generalización de estos teoremas en este caso requiere la exigencia de condiciones de convexidad como ya dijimos. En el capitulo tres estudiamos la convergencia débil y el teorema central del límite. La primera en un contexto bastante general y el segundo exclusivamente para el caso de elementos aleatorios i.i.d. a valores en un espacio de Hilbert. Se estudia el teorema de Prohorov donde se afirma que la propiedad de tensión en una familia de probabilidades es suficiente para la compacidad relativa y que es también necesaria en el caso separable y completo. Estudiamos también un criterio para la tensión debido a Prohorov para medidas en espacios de Hilbert. El método utilizado es exclusivamente el de las funciones características o transformada de 5

Fourier, lo cual implica el estudio de los S-operadores. Se define así la distribución gaussiana en términos de su función característica mediante el teorema de Milnos-Sazonov, que es una extensión del teorema de Bochner para el caso infinito dimensional. Por último mencionamos que hemos estudiado una pequeña parte de la teoría. Muchos resultados existen; como por ejemplo teoremas límites para arreglos triangulares que cumplan la condición de Lindeberg pueden ser extendidos a espacios de Hilbert. También el estudio de las distribuciones infinitamente divisibles en estructuras algebraicas más generales. En este sentido este trabajo consiste en una caja de herramientas, tanto para proseguir en estudios de carácter teórico como estudios aplicados. 6

Capítulo 1 Elementos Aleatorios en Espacios Métricos. 1.1. Definición de elemento aleatorio. Sea (M, d) un espacio métrico, denotamos por B M la σ-álgebra de Borel en M -la menor σ-álgebra de M que contiene a los subconjuntos abiertos de M-. En este contexto decimos que una aplicación T : M N, donde N es otro espacio métrico, es Borel medible si T 1 (B) = {x M : T (x) B} B M para todo subconjunto boreliano B B N. En lo que sigue trabajaremos siempre con un espacio de probabilidad fijo (Ω, A, P). Definición 1.1. Una aplicación v : Ω M se dice un elemento aleatorio (e.a.) en M, si v 1 (B) = {ω Ω : v(ω) B} A para todo subconjunto B B M ; es decir, la aplicación v es (A, B M )-medible. Si M = R con la métrica usual, la noción de elemento aleatorio es la misma que la de variable aleatoria. Lo mismo ocurre en R n, pues los abiertos son uniones numerables de rectángulos abiertos I 1 I 2 I n, donde cada I i = (a i, b i ) es un intervalo abierto de R. Luego una función x = (x 1,, x n ) : Ω R n es un elemento aleatorio en R n si y sólo si cada x i : Ω R es una variable aleatoria. Obtenemos otro ejemplo si consideramos s el conjunto de las sucesiones en R con la métrica producto: si x = {x n } e y = {y n } entonces d(x, y) = n=1 1 x n y n 2 n 1 + x n y n 7

Las proyecciones π n : s R dadas por π n (x) = x n son continuas y por ende Borel medibles. Sean x s, r > 0 y consideremos B(x, r) = {y s : d(y, x) < r} la bola abierta de centro x y radio r. Para cada entero positivo m y cada ɛ > 0 definimos los conjuntos abiertos N x m,ɛ = { y : 1 } y i x i 2 i < ɛ para i = 1, 2,..., m 1 + y i x i Sea m 1 tal que n m+1 2 n < r/2. Entonces si y N x m,ɛ para ɛ = r/2m, tenemos que d(y, x) < r de donde el conjunto abierto N x m,ɛ B(x, r). Luego la familia de estos conjuntos forman una base para la topología de s, y más aún, todo abierto de s es unión numerable de conjuntos de esta familia; es decir, s es separable. Sea v : Ω s un elemento aleatorio en s. Escribimos para cada ω Ω, v(ω) = (v 1 (ω), v 2 (ω),...) donde cada v i : Ω R. Luego como v i = π i (v), tenemos que v i es una variable aleatoria para cada i 1. Reciprocamente, supongamos que cada v i es una variable aleatoria. Como ( ) v 1 (I 1 I m R ) = m v 1 i (I i ) tenemos que si cada I i es un abierto en R, ( ) pertenece a A, por lo que v es un elemento aleatorio en s. En resumen, v = (v 1, v 2, ) es un elemento aleatorio en s si y sólo si cada v i es una variable aleatoria en R. Luego podemos pensar a los elementos aleatorios en s como una sucesión de variables aleatorias en R. Es importante notar que en los tres ejemplos que vimos, pudimos caracterizar a los elementos aleatorios en términos de sus coordenadas utilizando fuertemente que dichos espacios eran espacios métricos separables. Ésta es una característica que como veremos más adelante se mantiene en los espacios separables en general. Muchas veces se utiliza la noción de elemento aleatorio de Radon, que exige además que la distribución de dicho elemento aleatorio sea una medida de probabilidad tensa en M 1. Una noción ligeramente más débil que la definición que nosotros dimos es la siguiente: si el 1 Estos conceptos los definiremos más adelante. 8

espacio M es un espacio de Banach y B denota su dual topológico, se dice que v es un elemento aleatorio -en el sentido débil- si para todo f B, f(v) es una variable aleatoria. Esta última definición es más tratable si el espacio B cumple la siguiente propiedad: existe un conjunto numerable D, contenido en la bola unidad B, tal que para todo x B x = sup f(x) D pues hace una variable aleatoria. No entraremos en estos temas, pero mencionamos que en el caso separable toda noción razonable de medibilidad de los elementos aleatorios coincide con la que nosotros dimos. 1.2. Propiedades básicas de los elementos aleatorios. En esta sección trataremos de extender las propiedades básicas de las variables aleatorias en R a elementos aleatorios en un espacio métrico general. Proposición 1.1. Sean M y M 1 espacios métricos y T : M M 1 una función Borel medible. Entonces si v es un e.a. en M, v 1 = T (v) es un e.a. en M 1. Demostración. Basta observar que la composición de una función (A, B M )-medible con una aplicación Borel medible, es también (A, B M )-medible. Proposición 1.2. Sea {E n } n 1 una sucesión de conjuntos en A tales que E n E m = si n m, y Ω = n 1 E n. Sea además {x n } una sucesión en M. Entonces la función v : Ω M tal que v(ω) = x n cuando ω E n, es un elemento aleatorio en M. Demostración. Sea B B M. Entonces si {x nk } k 1 es el conjunto de valores de v tales que x nk B, tenemos que v 1 (B) = k 1 E n k A. Proposición 1.3. Sea {v n } n 1 una sucesión de e.a. en M tal que v n (ω) v(ω) para cada ω Ω. Entonces la aplicación definida por ω v(ω) es un e.a. en M. Demostración. Necesitamos probar que v es Borel medible. Como podemos generar B M con los conjuntos cerrados, bastará probar que v 1 (C) A para todo C M cerrado. La clave consiste en escribir v 1 (C) de una forma conveniente. Sea v(ω) C. Como v n (ω) v(ω), dado k 1 d(v n (ω), v(ω)) < 1 k 9

a partir de un m -que depende de ω-. Entonces v n (ω) C k = {x M : d(x, C) < 1 k } para todo n m. 2 Es decir que ω n m v 1 n (C k ). Como esto debe ocurrir para todo k 1 concluimos que ω k 1 m 1 n m v 1 n (C k ). Reciprocamente si ω k 1 m 1 n m v 1 n (C k ), entonces dado k 1, existe m 1 tal que ω n m v 1 n (C k ). Luego para cada n m, existe x n C tal que d(x n, v n (ω)) < 1 k Como v n (ω) v(ω), si n n 0 tenemos que d(v n (ω), v(ω)) < 1 k, de donde d(v(ω), x n ) d(v(ω), v n (ω)) + d(v n (ω), x n ) < 2 k si n máx{m, n 0 }. Esto implica que d(v(ω), C) = 0, es decir v(ω) C = C pues C es cerrado. Es decir, ω v 1 (C). En resumen, v 1 (C) = k 1 m 1 n m v 1 n (C k ) que es un conjunto medible -de A-, pues cada C k es abierto en M y cada v n es un elemento aleatorio en M. Usaremos estas dos proposiciones para probar que en un espacio métrico separable M, todo elemento aleatorio es el límite uniforme de una sucesión de elementos aleatorios discretos que toman una cantidad numerable de valores. Para esto precisamos el siguiente lema. Lema 1.1. Sea M un espacio métrico separable. Entonces dado λ > 0 arbitrario, existe una función T : M M Borel medible, tal que T toma un conjunto numerable de valores y d(t (x), x) < λ para todo x M. Demostración. Sea {x n } un subconjunto denso numerable en M. Consideremos los conjuntos E 1 = B(x 1, λ) y 2 Aquí d(x, C) = inf{d(x, y) : y C}. n 1 E n = B(x n, λ) B(x i, λ) para n > 1 10

Entonces los conjuntos {E n } n 1 son disjuntos dos a dos y cubren M. Podemos definir entonces T (x) = x n si x E n. Es claro que T es Borel medible, pues si {x nk } k 1 son aquellos elementos del conjunto denso que están en B, para un B B M dado, entonces T 1 (B) = k 1 E nk B M ya que cada E n es un boreliano. Además dado x M, x E n para algún n, por lo que T (x) = x n y d(t (x), x) = d(x n, x) < λ. Proposición 1.4. Sea M un espacio métrico separable. Un mapa v : Ω M es un e.a. en M, si y sólo si existe una sucesión {v n } de e.a. discretos en M que converge uniformemente a v. Demostración. Supongamos que v : Ω M es un elemento aleatorio en M. Para cada n 1, como M es separable sabemos que existe T n : M M Borel medible, que toma una cantidad numerable de valores y tal que d(t n (x), x) < n 1 para todo x M. Entonces definimos v n : Ω M dado por v n = T n (v). Luego v n es un e.a. discreto en M tal que sup ω Ω d(v n (ω), v(ω)) < 1 n de donde v n converge uniformemente en Ω a v. Reciprocamente supongamos que existe tal sucesión {v n } de e.a. discretos que converge uniformemente a v. Como en particular v n (ω) v(ω) para todo ω Ω, sabemos por la proposición anterior que v es un elemento aleatorio en M. Dados dos elementos aleatorios u y v en M la función x = d(u, v) -en un contexto generalno tiene por qué en principio ser medible, es decir, no tiene por qué ser una variable aleatoria. Como veremos más adelante, muchos resultados y definiciones se expresan en términos de la métrica d, lo cual restringe en una primera instancia la clase de espacios que nos interesan. Una condición suficiente para que x sea una variable aleatoria es que el espacio M sea separable. Denotamos B M1 B M2 la σ-álgebra generada por los conjuntos de la forma A 1 A 2 tales que A i B Mi. Proposición 1.5. Sean u y v e.a. en un espacio métrico M. Si M es separable, entonces d(u, v) es una variable aleatoria. Demostración. Sabemos que la función d : M M R es continua, luego es Borel medible. También sabemos que u, v : Ω M son funciones (A, B M )-medibles, si y sólo si el mapa 11

ω (u(ω), v(ω)) es medible sobre la σ-álgebra producto B M B M en M M. Como M es separable sabemos que B M M = B M B M. Lo anterior implica que al ser u y v medibles, (u, v) sea un e.a. en M M. Luego la composición x = d(u, v) es un e.a. en R, es decir, una variable aleatoria. Consideremos un espacio métrico M discreto con cardinal superior al de R. Como todo subconjunto de M es abierto, B M B M = σ({a 1 A 2 : A i M i abierto}) = σ({a 1 A 2 : A i M i }) Además = {(x, y) : x = y} es un subconjunto cerrado de M M 3 y por ende B M M. En realidad B M M = P(M M) pues el producto de discretos es también discreto. Pero / B M B M. (Ver Halmos, Measure Theory, Problema 2 pág. 261). Consideremos Ω = M M y A = B M B M. Entonces las proyecciones u, v : Ω M dadas por u(x, y) = x y v(x, y) = y son medibles como funciones entre estos espacios. Veamos que x = d(u, v) no es una variable aleatoria. Lo que ocurre es que es un boreliano en M M, pero / A por lo que (u, v) no es un elemento aleatorio en M M. Así, como = d 1 ({0}) y {0} B R, x 1 ({0}) = / A con lo cual x no es una variable aleatoria. Debido a esto nos restringiremos a espacios métricos (M, d) separables para dar las siguientes definiciones. Igualmente siempre que sea posible dar los resultados en un contexto más general, lo haremos. Definición 1.2. Sea {v n } n 1 una sucesión de e.a. y v un e.a. en un espacio métrico separable M. Decimos que v n converge a v: con probabilidad 1 o casi seguramente (v n v c.s.) si P ({ω Ω : d(v n (ω), v(ω)) 0}) = 1 en probabilidad (v n P v) si para todo ɛ > 0, P ({ω Ω : d(v n (ω), v(ω)) ɛ}) 0 en la r-media (v n r v) con r > 0, si 3 Esto es pues = d 1 ({0}). Ed(v n, v) r 0 12

Es decir, decimos que v n converge a v casi seguramente, en probabilidad o en r-media, cuando la variable aleatoria x n = d(v n, v) converge a cero casi seguramente, en probabilidad o en r-media, respectivamente. Como nuestro primer objetivo es la ley de los grandes números, no damos aquí la definición de convergencia en distribución que veremos más adelante. Cuando hablemos de la ley fuerte de los grandes números, nos estaremos refiriendo a la convergencia de los promedios en el sentido casi seguro, y si usamos la palabra débil, será en el sentido de convergencia en probabilidad. Las relaciones entre los distintos tipos de convergencia son exactamente las mismas que en el caso real. Es decir, por ejemplo la convergencia c.s. implica la convergencia en probabilidad. Otra propiedad que extendemos es por ejemplo la desigualdad de Markov. Como d(u, v) es una variable aleatoria no negativa, si existe Ed(u, v) r para algún r > 0, tenemos que P (d(u, v) ɛ) 1 Ed(u, v)r ɛr para todo ɛ > 0. Luego si v n r v para algún r > 0, aplicando esta desigualdad vemos que v n P v. Sea {v n } una sucesión de e.a. y v un e.a. en un espacio métrico separable M. Si existe un r > 0 tal que n=1 Ed(v n, v) r < + entonces v n v c.s.. Las pruebas detalladas de estos resultados no las hacemos aquí pues son totalmente análogas a las mismas para el caso real. De todos modos se puede consultar Padgett-Taylor[3]. 1.3. Elementos aleatorios en espacios normados. En esta sección veremos algunas propiedades de los elementos aleatorios cuando el espacio métrico M es un espacio normado, es decir, un espacio vectorial E con una norma que denotaremos por. En estas condiciones tenemos definido el espacio dual E de E, formado por los funcionales lineales f : E R continuos, es decir aquellos para los cuales f = sup f(x) < + x =1 Éste también es un espacio normado -en realidad es de Banach- con esta misma norma. 13

Como la norma es una función continua tenemos que si v : Ω E es un elemento aleatorio en E, entonces v es una variable aleatoria 4. Del mismo modo cada funcional f E es una función continua, por lo tanto f(v) es una variable aleatoria para cada f E. En el caso separable el hecho de ser una variable aleatoria f(v) para cada f E nos garantiza que v sea un elemento aleatorio. La idea de la demostración de esto la utilizaremos bastante, por lo que nos será mejor disponer del siguiente lema. Lema 1.2. Sea (E, ) un espacio normado separable. Si {x n } es un subconjunto denso en S(0, 1) = {x E : x = 1}, sea g n E tal que g n = 1 y g n (x n ) = 1 para cada n 1. Entonces 5 B[0, 1] = {x E : g n (x) 1} n 1 Demostración. Si x B[0, 1], entonces para cada n 1 tenemos que g n (x) g n x = x 1, de donde x A = n 1 {x E : g n(x) 1}. Sea x / B[0, 1], es decir x > 1. Entonces por la densidad de {x n }, existe {x nk } tal que x x x n k < 1 k. Luego tenemos que ( ) x g n k x x n k x x x n k < 1 k ( ) Pero como g x nk x x n k = gn k (x) x 1, tenemos que gn k (x) x x k 0, es decir g nk (x) k x Luego existe k suficientemente grande tal que g nk (x) > 1. Entonces x / A. Proposición 1.6. Sea (E, ) un espacio normado separable. Consideremos la familia F de los conjuntos {x E : (f 1 (x),..., f n (x)) B} dende n 1, f i E y B B R n para i = 1,..., n. Entonces B E = σ(f). Demostración. Consideremos la familia ligeramente distinta F 0 formada por los conjuntos de la forma 4 Observar que no es necesario que E sea separable. 5 Denotamos a la bola cerrada de esta manera {x E : f 1 (x) B 1,..., f n (x) B n } 14

con n 1, f i E y B i B R. Como F 0 F, tenemos que σ(f 0 ) σ(f) y como los funcionales son continuos es claro que σ(f 0 ) B E. Luego bastará probar que B E σ(f 0 ). Pero al ser E separable todo abierto es unión numerable de bolas abiertas, las cuales son uniones numerables de bolas cerradas, por lo que es suficiente ver que estas últimas pertenecen a σ(f 0 ). Sea B[x 0, r] una bola cerrada de centro x 0 y radio r > 0 en E. Definimos T : E E dada por T (x) = 1 r (x x 0), entonces T es un homeomorfismo y por el lema anterior tenemos que B[x 0, r] = T 1 (B[0, 1]) = T 1 ( n 1{x E : g n (x) 1}) = {x : g n (T (x)) 1} = T 1 ({x E : g n (x) 1}) = n 1 n 1 : g n (x) r + g n (x 0 )} = n 1{x gn 1 ((, α n ]) σ(f 0 ) n 1 Más aún, hemos probado que B E = σ({f 1 ((, r]) : r R, f E }). Corolario 1.1. Sea (E, ) un espacio normado separable. Si v : Ω E es tal que f(v) es una variable aleatoria para cada f E, entonces v es un e.a. en E. Demostración. Como f(v) : Ω R es medible el conjunto {f(v) B} es medible para todo f E y todo B B R. Es decir, el conjunto {v f 1 (B)} A para todo f E y B B R. Entonces v es (A, σ(f 0 ))-medible y como por el lema σ(f 0 ) = B E, v es un e.a. en E. Corolario 1.2. Sean v 1,..., v n elementos aleatorios en un espacio normado separable E. Si λ 1,..., λ n son reales arbitrarios, entonces n λ iv i es un elemento aleatorio en E. Demostración. Sea f E arbitrario. Entonces f ( n λ iv i ) = n i λ if(v i ), y como una combinación lineal de variables aleatorias -en R- es también una variable aleatoria, concluimos por el corolario anterior que n λ iv i es un elemento aleatorio en E. Como ejemplo podemos caracterizar utilizando lo que tenemos hasta ahora, cuáles son los elementos aleatorios en ciertos espacios. Si denotamos l 1 el espacio vectorial de las sucesiones 15

reales absolutamente sumables con la norma x = n 1 x n, entonces v = (v 1, v 2, ) es un elemento aleatorio en l 1, si y sólo si {v i } es una sucesión de variables aleatorias absolutamente sumables. Si v es un elemento aleatorio en l 1, entonces π i v = v i es una variable aleatoria pues π i -la proyección canónica- es una función continua. Reciprocamente, supongamos que {v n } l 1 es una sucesión de variables aleatorias. Sea f (l 1 ), entonces existe {a n } l -las sucesiónes reales acotadas con la norma del supremo- tal que f(x) = n 1 a nx n para todo x l 1. Luego f(v)(ω) = n 1 a n v n (ω) = lím N + n=1 N a n v n (ω) por lo que es medible al ser límite de funciones medibles. Como f es arbitrario, tenemos que v es un elemento aleatorio en l 1. Estos mismos argumentos nos permiten afirmar que si l p = {x = {x n } : n 1 x n p < ( ) 1 + } con la norma x = n 1 x n p p para p > 1, entonces los elementos aleatorios en l p son las sucesiones {v n } de variables aleatorias en l p. Proposición 1.7. Sean E un espacio normado 6, v un elemento aleatorio en E y α una variable aleatoria. Entonces αv es un elemento aleatorio en E. Demostración. Supongamos primero que α es discreta, es decir toma una cantidad numerable de valores; a saber {x 1, x 2,...}. Sea B B E, entonces (αv) 1 (B) = (αv) 1 (B) n 1 E n = n 1(αv) 1 (B) E n donde E n = {ω Ω : α(ω) = x n }. Como (αv) 1 (B) = {ω : α(ω)v(ω) B} y en E n α(ω) = x n, tenemos que (αv) 1 (B) E n = {ω : x n v(ω) B} = {ω : v(ω) Tn 1 (B)} con T n : E E dada por T n (v) = x n v. Como T n es continua, al ser B un boreliano también lo es su preimagen por T n. Luego como v es un elemento aleatorio, (αv) 1 (B) E n A, de donde también (αv) 1 (B) A. En el caso general, sabemos que existe {α n } una sucesión de variables aleatorias discretas que convergen puntualmente a α. Nuevamente por la continuidad de la multiplicación por escalares, tenemos que 6 No necesariamente separable. α n (ω)v(ω) n α(ω)v(ω) 16

para cada ω Ω, y por lo tanto αv es un elemento aleatorio por ser límite de elementos aleatorios en E. Si v es un elemento aleatorio en un espacio métrico M, entonces éste define una medida de probabilidad en (M, B M ) dada por P v (B) = P ( v 1 (B) ) = P (v B) A esta medida de probabilidad P v la llamaremos distribución o ley de v. Las siguientes definiciones que vamos a dar las podemos formular sin problemas en un espacio métrico en general, a pesar de estar esta sección destinada a estudiar elementos aleatorios en espacios normados. Definición 1.3. Sean v 1 y v 2 dos elementos aleatorios en un espacio métrico M. Decimos que v 1 y v 2 son identicamente distribuidos si P (v 1 B) = P (v 2 B) para todo subconjunto boreliano B B M. Es decir, si las medidas de probabilidad inducidas por ambos en M coinciden. Diremos que una familia de elementos aleatorios en M es identicamente distribuida, si dos cualquiera de la familia son identicamente distribuidos. Definición 1.4. Dado un conjunto finito de elementos aleatorios {v 1,..., v n } en un espacio métrico M, decimos que son independientes si P (v 1 B 1,..., v n B n ) = P (v 1 B 1 ) P (v n B n ) para toda colección B 1,..., B n B M. Decimos que una colección arbitraria de elementos aleatorios en M es independiente si todo subconjunto finito de ésta, está formado por elementos aleatorios independientes. Proposición 1.8. Sean v 1 y v 2 elementos aleatorios independientes e identicamente distribuidos en un espacio métrico M, y sea φ una función Borel medible de M en otro espacio métrico M 1. Entonces φ(v 1 ) y φ(v 2 ) son elementos aleatorios independientes e identicamente distribuidos en M 1. Demostración. Sea B 1 B M1, entonces B = φ 1 (B 1 ) B M, de donde P (φ(v 1 ) B 1 ) = P ( v 1 φ 1 (B 1 ) ) = P (v 1 B) 17

= P (v 2 B) = P ( v 2 φ 1 (B 1 ) ) = P (φ(v 2 ) B 1 ) por lo que φ(v 1 ) y φ(v 2 ) son identicamente distribuidos. Sean B 1, B 2 B M1, entonces P (φ(v 1 ) B 1, φ(v 2 ) B 2 ) = P ( v 1 φ 1 (B 1 ), v 2 φ 1 (B 2 ) ) = P ( v 1 φ 1 (B 1 ) ) P ( v 2 φ 1 (v 2 ) ) = P (φ(v 1 ) B 1 ) P (φ(v 2 ) B 2 ) y tenemos así la independencia. Es claro que este resultado se extiende con la misma demostración para una sucesión de elementos aleatorios. Nuestro próximo objetivo es dar algunas condiciones bajo las cuales podamos garantizar que dos elementos aleatorios en un espacio normado sean identicamente distribuidos. Definición 1.5. Sea F una familia de subconjuntos en B M. Decimos que F es una clase determinante para B M si dadas dos medidas de probabilidad en B M, P y Q, tales que P (A) = Q(A) para todo A F; necesariamente debe ser P (B) = Q(B) para todo B B M. Proposición 1.9. Sean E un espacio normado separable y v 1, v 2 : Ω E dos elementos aleatorios en E. Entonces, v 1 y v 2 son identicamente distribuidos si y sólo si f(v 1 ) y f(v 2 ) son variables aleatorias con igual distribución para todo f E. Demostración. Si v 1 y v 2 son identicamente distribuidos, como f E es Borel medible por la proposición anterior f(v 1 ) y f(v 2 ) también lo son. Supongamos que f(v 1 ) tiene la misma distribución que f(v 2 ) para todo f E. Esto quiere decir que P (f(v 1 ) B) = P (f(v 2 ) B) para todo f E y B B R. Como antes sea F la familia de subconjuntos de B E formada por los conjuntos de la forma {x E : (f 1 (x),, f n (x)) B} con f i E y B B R n. Es claro que F es un álgebra de conjuntos, por lo que bastará probar que las medidas de probabilidad inducidas por v 1 y v 2 coinciden en F. Para esto, sea A F con A = {x : (f 1 (x),, f n (x)) B} donde f i E, B B R n y definimos T : E R n como T (x) = (f 1 (x),, f n (x)). De este modo, al componer T con v i obtenemos dos vectores aleatorios en R n, a saber T (v i ) = (f 1 (v i ),, f n (v i )). Por 18

Cramer-Wold sabemos que la distribución de estos está unívocamente determinada por la distribución de las combinaciones lineales de las coordenadas de dichos vectores. Es decir, dados t 1,..., t n R la distribución de n t if i (v j ) nos determina la distribución de T (v j ) al variar (t 1,, t n ) R n. Como n t if i (v j ) = (t 1 f 1 + + t n f n )(v j ) = g(v j ) con g = t 1 f 1 + t n f n E, concluimos por hipótesis que T (v 1 ) y T (v 2 ) tienen la misma distribución en R n, es decir Pero esto quiere decir que P (T (v 1 ) B) = P (T (v 2 ) B) P (v 1 A) = P ((f 1 (v 1 ),, f n (v 1 )) B) = P ((f 1 (v 2 ),, f n (v 2 )) B) = P (v 2 A) Luego P v1 = P v2 en σ(f). Como E es separable σ(f) = B E. Es decir, v 1 y v 2 tienen la misma distribución. Habíamos probado que B E = σ({f 1 ((, r]) : f E, r R}). Luego las intersecciones finitas de los estos conjuntos forman un π-sistema que genera la σ-álgebra de Borel en E. Recordamos que un π-sistema es una colección de subconjuntos cerrada por intersecciones finitas. De la prueba de la proposición anterior podemos ver que si dos probabilidades coinciden en {f 1 ((, r]) : f E, r R} -llamaremos semiespacios a estos conjuntos- entonces también coinciden en las intersecciones finitas. Luego la colección de semiespacios es una clase determinante para E cuando este es separable. Proposición 1.10. Sean E un espacio normado y v 1, v 2 : Ω E dos elementos aleatorios en E. Si v 1 y v 2 son independientes, entonces f(v 1 ) y g(v 2 ) son variables aleatorias independientes para todo f, g E. Más aún, si E es separable entonces el reciproco es cierto. Demostración. La primera parte de la proposición es inmediata y se deduce de la propocisión 1.8. Supongamos que E es separable y que f(v 1 ) y g(v 2 ) son variables aleatorias independientes para todo f, g E. Entonces E E es un espacio normado separable con B E E = B E B E, de donde (v 1, v 2 ) es un elemento aleatorio en E E. Además cada funcional F (E E) es de la forma F (x, y) = F (x, 0) + F (0, y) = f(x) + g(y) con f, g E. Luego para probar que v 1 y v 2 son independientes debemos probar que P v1,v 2 = P v1 P v2 -la medida producto en E E-. Como los semiespacios {(x, y) E E : F (x, y) r}, F (E E) 19

y r R son una clase determinante, bastará probar que ambas medidas de probabilidad coinciden en estos semiespacios. Sea A = {(x, y) : f(x) + g(y) r} un semiespacio. Entonces P v1 P v2 (A) = P v2 (A x )dp v1 (x) = P (f(x) + g(v 2 ) r) dp v1 (x) = R E P (t + g(v 2 ) r) dp f(v1 )(t) = P f(v1 ) P g(v2 )((, r]) = P (f(v 1 ) + g(v 2 ) r) = P v1,v 2 (A) Luego esta igualdad vale en todo B E E, es decir, v 1 y v 2 son independientes. E 1.4. Valor esperado de un elemento aleatorio. En esta sección definiremos y estudiaremos el concepto de valor esperado o esperanza de un elemento aleatorio en un espacio normado separable. Nos concentraremos por ahora en definir tal concepto, demostrar unas propiedades básicas y probar un resultado de existencia para elementos aleatorios en espacios de Banach. Definición 1.6. Sean E un espacio normado separable y v un elemento aleatorio en E. Llamaremos valor esperado de v a un elemento x E que cumpla f(x) = Ef(v) = f(v(ω))dp (ω) para todo funcional f E. En caso de existir tal elemento lo denotaremos x = Ev. Como E es una familia de funciones que separa puntos -es decir, si x 0 E entonces existe f E tal que f(x) 0- en caso de existir un elemento x que cumpla la definición anterior, debe ser único. Pues si x 1 es otro que la cumple, se tiene que f(x 1 ) = Ef(v) = f(x) f E de donde x x 1 = 0. De una forma similar definimos la varianza de un elemento aleatorio como el promedio de las distancias cuadráticas de v a Ev. Es decir, Definición 1.7. Sea v un elemento aleatorio en un espacio normado separable E y supongamos que existe su valor esperado Ev. Definimos la varianza de v como σ 2 (v) = v Ev 2 dp Llamaremos desvío estándar de v a σ(v), la raíz cuadrada de la varianza. 20 Ω Ω

Comencemos por ver algunas propiedades. Proposición 1.11. Sean E un espacio normado separable, v y w dos elementos aleatorios en E y a E un elemento fijo. Entonces 1. Si existen Ev y Ew, entonces Ev + w = Ev + Ew. 2. Si existe Ev y r R, entonces Erv = rev. 3. Si v = a con probabilidad 1, entonces Ev = a. 4. Si v = a con probabilidad 1 y α es una variable aleatoria tal que Eα existe, entonces Eαv = (Eα)a. 5. Si T : E F es un operador lineal acotado y Ev existe, entonces ET (v) también existe y vale ET (v) = T (Ev). 6. Si Ev existe entonces Ev E v, pudiendo esta última ser infinita. Demostración. 1. Sea x = Ev + Ew. Entonces f(x) = f(ev + Ew) = f(ev) + f(ew) = Ef(v) + Ef(w) = Ef(v) + f(w) = Ef(v + w) para todo f E. 2. Sea x = rev. Entonces f(x) = f(rev) = rf(ev) = ref(v) = Erf(v) = Ef(rv) para todo f E. 3. Tenemos que f(a) = Ef(v) para todo f E, pues f(v) = f(a) con probabilidad 1. 4. Tenemos que f((eα)a) = (Eα)f(a) = E(αf(a)) = E(αf(v)) = Ef(αv) para todo f E. 5. Sea y = T (Ev). Entonces si f F, f(y) = f(t (Ev)) = f T (Ev) = Ef T (v) = Ef(T (v)) pues f T E. 21

6. Sea f E tal que f = 1 y f(ev) = Ev. Entonces Ev = f(ev) = f(ev) = Ef(v) E f(v) E f v = E v El siguiente resultado nos garantiza la existencia del valor esperado de un elemento aleatorio v en E, si E v < + y E es completo. Es importante también pues en la prueba se calcula el valor esperado de elementos discretos en estas condiciones. Luego se obtiene la esperanza de v aproximando por elementos discretos de la misma forma que se hace en R. Proposición 1.12. Sea E un espacio de Banach. Si v es un elemento aleatorio en E tal que E v < +, entonces Ev existe. Demostración. Supongamos primero que v es discreto y que toma los valores {x 1, x 2,...}. Entonces bajo estas hipótesis tenemos que E v = x n P (E n ) < + n 1 donde E n = v 1 ({x n }). Luego x N = N n=1 x np (E n ) converge por la completitud de E al valor x = n 1 x np (E n ). Pero entoces si f E f(x) = f ( lím N N n=1 x n P (E n ) ) N = lím P (E n ) f(x n ) N y como N n=1 P (E n) f(x n ) f N n=1 P (E n) x n, tenemos que + n=1 P (E n) f(x n ) < +, de donde f(x) = n=1 n=1 P (E n ) f(x n ) = Ef(v) Luego Ev = + n=1 P (E n) x n. En el caso general, sea {v n } una sucesión de elementos aleatorios discretos tales que v n v < 1 n para cada n. Por lo anterior sabemos que existe para cada n, Ev n E. Probemos que {Ev n } es una sucesión de Cauchy. Sea p N, Ev n+p Ev n = Ev n+p v n E v n+p v n 1 n + 1 n + p 0 p N 22

Como E es completo existe x E tal que lím n Ev n = x. Luego f(x) Ef(v) = lím n f(ev n ) Ef(v) lím sup Ef(v n ) f(v) n lím sup E f(v n v) f lím E v n v = 0 n n de donde f(x) = Ef(v). Como esto vale para todo f E, concluímos que x = Ev. La hipótesis de completitud es en efecto necesaria. Por ejemplo consideremos el espacio E = R formado por todas las sucesiones reales con sólo una cantidad finita de términos no nulos, con la métrica del supremo. Entonces E no es completo. Sea v : Ω R tal que P (v = e n ) = 1 2 n donde e n = {δ in } i 1 R. Entonces v = 1 con probabilidad 1, y por lo tanto E v = 1 < +. Pero si pensamos a v como un e.a. en c 0 -las sucesiones convergentes a cero- que es la clausura de R, y por ende un espacio completo; entonces Ev = + n=1 1 2 n e n = {1/2, 1/4, 1/8,...} c 0 pero no es un elemento de R. Consideremos el espacio c de las sucesiones reales convergentes. Entonces c es un espacio de Banach separable con la norma x = sup x n para x = {x n } c n Supongamos que v = {v n } es un e.a. en c tal que ( ) E v = E sup v n < n Afirmamos que Ev = {Ev n }. Como existe lím n v n en todo Ω, por ( ) podemos aplicar convergencia dominada y concluir que también existe lím n Ev n = E lím n v n, de donde {Ev n } c. Además, si f c, entonces podemos identificar f con (f 0, {f n }) donde f 0 R y {f n } l 1. De este modo f({ev n }) = f 0 lím Ev n + f n Ev n = E n f 0 lím n n 1 v n + f n v n = Ef(v) n 1 Consideremos ahora el espacio de Banach C = C[0, 1] de las funciones continuas x : [0, 1] R con la norma Sea v un e.a. en C, tal que x = sup x(t) t [0,1] E v = E sup v(t) < t 23

Probaremos que Ev = {Ev t : t [0, 1]}. Primero observemos que la aplicación t Ev t -que llamaremos x- es continua. En efecto tenemos que v t+h v t 0 cuando h 0 y como E v < nuevamente si aplicamos convergencia dominada vemos que Ev t+h Ev t E v t+h v t 0 cuando h 0. Como C es el conjunto de las medidas signadas finitas en [0, 1], tenemos que dado µ C, µ(x) = 1 por lo que x = Ev. 0 Ev t dµ(t) = 1 0 Ω { 1 } v(t, ω)dp (ω)dµ(t) = E v t dµ(t) = Eµ(v) 0 A continuación veamos cómo podemos calcular el valor esperado cuando el espacio en el que estamos trabajando tiene una base de Schauder. Sea E un espacio de Banach con base de Schauder {e n }. Ponemos e k a las funcionales coordenadas relativas a la base {e n}, es decir, si x = i x i e i entonces e k (x) = x k. Como E es de Banach tenemos que -consecuencia del teorema de la aplicación abierta- e k E. Luego si v es un elemento aleatorio en E, e k (v) es una variable aleatoria para todo k. Más aún, si consideramos P n los operadores de sumas parciales P n (x) = x i e i estos también son continuos. Como {e n } es una base, para cada x E fijo tenemos que x P n (x) n 0 es decir, P n (x) x. Luego P n (v) converge puntualmente a v y podemos escribir v = lím n P n (v) = n e n(v)e n Supongamos que existe Ev. Entonces debemos tener de donde podemos escribir e k (Ev) = Ee k (v) Ev = n Ee n(v)e n 24

Luego si identificamos v con la sucesión (v 1, v 2, ) donde v n = e n(v) podemos identificar a Ev con Ev = (Ev 1, Ev 2, ) 25

Capítulo 2 Ley de los Grandes Números. En este capítulo estudiaremos la ley fuerte de los grandes números para e.a.. En la primera parte nos concentraremos en e.a. a valores en un espacio de Hilbert separable. Probaremos las extensiones de las desigualdades de Rademacher-Mensov para el caso ortogonal y de Kolmogorov para el caso independiente. Luego probaremos en ambos casos las leyes fuertes que se deducen de éstas. La teoría en este caso transcurre del mismo modo que en el caso real y se utilizan los mismos métodos de prueba. En la segunda parte veremos la ley fuerte de Mourier para el caso i.i.d. en espacios de Banach separables, analizaremos algunos ejemplos que invalidan las extensiones de la ley fuerte y débil para e.a. independientes con restricciones en sus varianzas. 2.1. Generalización a espacios de Hilbert separables. 2.1.1. Definiciones y aspectos básicos. A lo largo de esta sección denotamos por H un espacio de Hilbert real, que suponemos separable, y denotamos por, su producto interno. De este modo tenemos definida la norma como x = x, x. Si x e y son dos elementos aleatorios en H, entonces sabemos que x y es una variable aleatoria y más aún, tanto x + y como x y son elementos aleatorios en H. Deducimos entonces que x, y = 1 ( x + y 2 x y 2) 4 es una variable aleatoria. Esto lo podríamos obtener diciendo que al ser H separable, B H H = B H B H ; luego tenemos que (x, y) es un elemento aleatorio en H H y como, : H H R 26

es una función continua, x, y es una variable aleatoria. Por la desigualdad de Markov que mencionamos en el capítulo anterior, al ser d(x, y) = x y tenemos que dado ɛ > 0 si E x y r < + para algún r > 0. P ( x y ɛ) 1 E x y r ɛr Definición 2.1. Sean x e y dos elementos aleatorios en H con E x 2 < + y E y 2 < +. Decimos que x e y son no correlacionados si E x, y = Ex, Ey Una familia arbitraria de elementos aleatorios es no correlacionada si dos cualquiera de ellos lo son. Cuando E x, y = 0 decimos que x e y son ortogonales. Así, una familia arbitraria de elementos aleatorios en H es ortogonal si dos cualquiera de ellos los son. Si ademas E x 2 = 1 para todo elemento de la familia, decimos que es una familia ortonormal. Si x e y son tal que Ex = Ey = 0, entonces x e y son no correlacionados si y sólo si x e y son ortogonales. Como E x Ex, y Ey = E x, y E x, Ey E Ex, y + Ex, Ey y como, Ey y Ex, son elementos de H, de la definición de valor esperado obtenemos que E x, Ey = Ex, Ey y E Ex, y = Ex, Ey. Entonces deducimos que E x Ex, y Ey = E x, y Ex, Ey Luego podemos afirmar que x e y son no correlacionados si y sólo si x Ex e y Ey son ortogonales. Observemos que hemos exigido que los momentos segundos de x e y sean finitos. Esto no es formalmente necesario pero bajo estas condiciones tenemos que E x, y E x y (E x 2) 1/2 ( E y 2) 1/2 < + por la desigualdad de Cauchy-Schwarz. 27

Los cálculos que hicimos recién nos permiten definir la covarianza de dos elementos aleatorios x e y en H como cov (x, y) = E x Ex, y Ey = E x, y Ex, Ey y tenemos que dos elementos aleatorios son no correlacionados si y sólo si su covarianza es cero. Habíamos definido la varianza de un elemento aleatorio x como σ 2 (x) = x Ex 2 dp = E x Ex 2 = cov (x, x) Ω y obtenemos como en el caso real, σ 2 (x) = E x 2 Ex 2 Además la desigualdad de Chebychev toma la siguiente forma: Si x es un elemento aleatorio en H con varianza finita, entonces para todo ɛ > 0 P ( x Ex ɛ) 1 ɛ 2 σ2 (x) que se deduce de la desigualdad de Markov para r = 2. Sean x 1, x 2,..., x n elementos aleatorios en H. Entonces denotamos por s n = x 1 + +x n. Así, tenemos que σ 2 (s n ) = E s n Es n, s n Es n = E x i Ex i, x j Ex j j=1 = E x i Ex i, x j Ex j = σ 2 (x i ) + 2 cov (x i, x j ) j=1 1 i<j n Osea σ 2 (s n ) = σ 2 (x i ) + 2 cov (x i, x j ) 1 i<j n Así tenemos probado el siguiente lema: Lema 2.1. Si x 1,..., x n son elementos aleatorias en H no correlacionados, entonces σ 2 (s n ) = σ 2 (x i ) 28

La importancia de este lema la veremos más adelante y aunque es exactamente el mismo resultado que en el caso real, es justamente el resultado que permite extender la teoría del caso real a los espacios de Hilbert. Antes de comenzar con la ley de los grandes números veremos una extensión de los lemas de Toeplitz y Kronecker para espacios de Banach, que usaremos más adelante. Lema 2.2 (Lema de Toeplitz). Sea {u nk } n,k 1 una sucesión doble de números reales positivos tales que (1) lím n + u nk = 1 (2) lím u nk = 0 k = 1, 2,... n + Sea s 1, s 2,... una sucesión en un espacio de Banach B que converge a s. Entonces t n = Demostración. Tenemos que t n s = u nk s k s = k 0 u nk (s k s) + k=k 0 +1 u nk s k n s ( + ) u nk (s k s) + u nk 1 s u nk (s k s) + Fijemos k 0 tal que s k s < ɛ para todo k k 0. Entonces u nk (s k s) u nk s k s < ɛ k=k 0 +1 k=k 0 +1 u nk 1 s k=k 0 +1 Si n 1 es tal que para todo n n 1, u nk < ɛ para k = 1, 2,..., k 0, entonces tenemos que k 0 k0 u nk (s k s) k 0 u nk s k s < k 0 ɛ s k s y sea n 0 n 1 tal que + u nk 1 < ɛ para todo n n 0. Entonces u nk 1 s < ɛ s y como k=k 0 +1 u nk u nk k0 u nk 1 + u nk + 1 < 1 + ɛ + ɛk 0 29

tenemos que para todo n n 0 ( k0 ) t n s < ɛ s k s + 1 + ɛ(k 0 + 1) + s = ɛm(k 0 ) donde M(k 0 ) es una constante fijado el k 0. Luego t n n s. Lema 2.3 (Lema de Kronecker). Sean {x n } una sucesión en un espacio de Banach B y {λ n } una sucesión creciente a infinito de números reales positivos. Si + n=1 xn λ n B entonces, x 1 + + x n n 0 λ n converge en Demostración. Sea s n = n x k λ k y s = + x k λ k, es decir s n s 0. Entonces tenemos que s n s n 1 = xn λ n para n 2 y si ponemos s 0 = 0 y λ 0 = 0 podemos hacerlo para n 1, Así tenemos que = 1 λ n 1 λ n x n = λ n (s n s n 1 ) x k = 1 λ n λ k (s k s k 1 ) ( ) n 1 s 0 λ 1 + (λ k λ k+1 )s k + λ n s n n 1 = s n k=0 λ k+1 λ k s k λ n Entonces si ponemos u nk = λ k+1 λ k λ n > 0 para k = 0, 1,..., n 1 y u nk = 0 para k > n 1, tenemos que u nk = 1 n 1 λ k+1 λ k = 1 λ n k=0 k=0 u nk = λ k+1 λ k λ n n 0 pues λ n +. Luego por el lema de Toeplitz, tenemos que y entonces 1 t n = k λ n u nk s k = n 1 x k = s n k=0 n 1 k=0 λ k+1 λ k s k n s λ n λ k+1 λ k λ n s k n s s = 0 30

Corolario 2.1. Sea {x n }, una sucesión de elementos aleatorios en un espacio de Banach separable B. Si n=1 es convergente en B con probabilidad 1, entonces x n n x 1 + + x n n n 0 c.s. 2.1.2. Sucesiones de elementos aleatorios no correlacionados. Como vamos a trabajar con la esperanza del máximo -en norma- de las sumas parciales de e.a. ortogonales, nuestra próxima proposición es una útil desigualdad similar en su importancia a la desigualdad de Kolmogorov para elementos independientes, que nos servirá para probar la ley fuerte para e.a. no correlacionados. Proposición 2.1 (Desigualdad de Rademacher-Mensov). Sean x 1, x 2,..., x n elementos aleatorios ortonormales en H y c 1, c 2,..., c n números reales. Entonces 1 k E máx 1 k n c j x j j=1 2 (log 2 4n) Demostración. Consideremos el caso n = 2 ν para un entero ν. Pongamos s j = c 1 x 1 + +c j x j y z αβ = c α+1 x α+1 + + c β x β para α = u2 k, β = (u + 1)2 k con k = 0, 1,..., ν y u = 0, 1,..., 2 ν k 1. Entonces cada j=1 c 2 j (1) s j = i z αi β i para cierta cantidad de las z αβ de forma que podemos elegir β 1 α 1 > β 2 α 2 >. k = ν 0 2 ν k = ν 1 2 ν 1 k = ν 2. 2 ν 2. 3 2 ν 2 k = 0 0 1 2 ν 1 1 El logaritmo es en base 2. 31

Por ejemplo, s n es la suma de las z αβ señaladas en el dibujo. De este modo la cantidad de sumandos en (1) es menor o igual que ν y tenemos por Cauchy-Schwarz, ( ) 2 ( ) 2 s j 2 = z αi β i z αi β i ν z αi β i 2 ν z αβ 2 i i i α,β donde la última suma es tomada en todos los valores posibles de α y β. Como esto vale para todo j tenemos que k (2) máx 1 k n c j x j Además Eν α,β j=1 z αβ 2 = ν α,β 2 = máx s k 2 ν z αβ 2 1 k n α,β E z αβ 2 = ν α,β c 2 α+1 + + c 2 β donde la última igualdad se desprende de la ortonormalidad de los elementos. Como la última suma es tomada en todos los valores de α y β, separando en los valores de k desde 0 hasta ν y en cada una de ellas sumando de u2 k hasta (u + 1)2 k para los valores u = 0,..., 2 ν k 1; obtenemos c 2 α+1 + + c 2 β = α,β de donde Eν α,β ν k=0 2 ν k 1 u=0 z αβ 2 = ν(ν + 1) c 2 u2 k +1 + + c2 (1+u)2 k = c 2 j (ν + 1) 2 j=1 y tomando esperanzas en (2) obtenemos k E máx 1 k n c j x j j=1 2 log 2 2n ν 2 ν k=0 j=1 c 2 j = log 2 2n j=1 j=1 c 2 j c 2 j = (ν + 1) j=1 c 2 j 2 ν c 2 j j=1 En general, sea ν tal que 2 ν n < 2 ν+1. Entonces ponemos c n+1 = = c 2 ν+1 obtenemos que s k = s n para k n y = 0 y de donde máx 1 k 2 ν+1 s k 2 = máx 1 k n s k 2 E máx s k 2 = E máx s k 2 log 2 2 ν+2 1 k n 1 k 2 ν+1 2 ν+1 j=1 c 2 j log 2 4n j=1 c 2 j 32

Teorema 2.1 (Rademacher-Mensov). Sea {x n } una sucesión de elementos aleatorios en H ortonormales y {c n } una sucesión de números reales tales que entonces converge con probabilidad 1. c 2 k log2 k < + c k x k Demostración. Sea R n = + k=n c kx k. Entonces por la ortonormalidad de los x k tenemos que para todo m n, E m k=n c kx k 2 = m k=n c2 k c2 k < de donde tomando límite, Como tenemos que por lo que A = c 2 k log2 k lo cual implica que R 2 n n 0 c.s.. Sea Entonces tenemos que ED 2 n = E máx 2 n <k 2 n+1 D n = E R n 2 = k=n k=n c 2 k c 2 k k=n c 2 k log2 k A log 2 n E R 2 n 2 A n 2 k=n máx 2 n <k 2 n+1 R k R 2 n k 1 c j x j j=2 n 2 c 2 k log2 n 2 n+1 1 log 2 (4(2 n+1 2 n )) c 2 j j=2 n pero este último es equivalente a 2n+1 1 = (n + 2) 2 j=2 n c 2 j 2n+1 1 n 2 j=2 n c 2 j = log 2 2 n 2 n+1 1 j=2 n c 2 j 33 2 n+1 1 j=2 n c 2 j log 2 j

Luego, + n=1 ED2 n < + lo cual implica que D n 0 c.s.. Sea 2 n k < 2 n+1, entonces es decir, R k k 0 c.s. R k R k R 2 n + R 2 n D n + R 2 n 0 c.s. Teorema 2.2. Sea {x n } una sucesión de elementos aleatorios ortogonales en H tales que Ex i = 0 para todo i. Si entonces Demostración. Consideremos y n = E y i, y j = E x k 2 k 2 log 2 k < + x 1 + + x n n x n (E x n 2 ) 1/2 0 c.s. si E x n 2 0 e y n = 0 si no 2. Entonces 1 1 (E x i 2 ) 1/2 (E x j 2 ) E x i, x j = δ ij 1/2 es decir, y n es una sucesión ortonormal de elementos aleatorios en H. Consideremos entonces y tenemos por hipótesis que c 2 k log2 k = c k = (E x k 2 ) 1/2 k E x k 2 k 2 log 2 k < + Luego por el teorema de Rademacher-Mensov tenemos que c k y k = (E x k 2 ) 1/2 k x k (E x k 2 ) = x k 1/2 k converge con probabilidad 1 y el lema de Kronecker nos permite afirmar la tesis. Teorema 2.3. Sea {x n } una sucesión de elementos aleatorios no correlacionados en H tal que σ 2 (x k ) k 2 log 2 k < + entonces s n Es n 0 c.s. n Demostración. Basta observar que y n = x n Ex n es una sucesión ortogonal, tal que Ey n = 0 y E y n 2 = σ 2 (x n ). 2 En este caso se tiene x n = 0 c.s.. 34