84
Teorema Funcional del L´ ımite Central para Martingalas Tesis Pre-Grado en Matem´ aticas David Alejandro Henriquez Bernal Mayo 21, 2019 Asesor: Prof. Dr. Michael H¨ ogele, Co-Ascesor: Prof. Dr. Sylvie Roelly Departamento de Matem´ aticas, Universidad de los Andes

Teorema Funcional del L mite Central para Martingalas

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Teorema Funcional del L mite Central para Martingalas

Teorema Funcional del LımiteCentral para Martingalas

Tesis Pre-Grado en Matematicas

David Alejandro Henriquez Bernal

Mayo 21, 2019

Asesor: Prof. Dr. Michael Hogele, Co-Ascesor: Prof. Dr. Sylvie Roelly

Departamento de Matematicas, Universidad de los Andes

Page 2: Teorema Funcional del L mite Central para Martingalas
Page 3: Teorema Funcional del L mite Central para Martingalas

Resumen

Las primeras versiones del Teorema del Lımite Central se remontan alas ideas de De Moivre y Laplace, en donde la sucesion de sumas renor-malizadas de variables aleatorias de Bernoulli con varianza acotada ypromedio finito convergen en distribucion a una variable aleatoria condistribucion normal estandar. En el presente trabajo se busca compren-der una version generalizada del Teorema del Lımite Central donde lasucesion de sumas renormalizadas de variables aleatorias se sustituyenpor martingalas en tiempo continuo, un tipo de procesos estocasticos,con saltos acotados y variacion cuadratica lineal en el tiempo. De es-ta manera al considerar una sucesion de martingalas re-normalizadasel lımite es un proceso estocastico, un movimiento Browniano, en vezde vectores aleatorias Gaussianos. Siguiendo el articulo de Ward Whitt[24], para conseguir demostrar el Teorema del Lımite Central en estecontexto se usara la siguiente estructura. Primero, se introducen las he-rramientas necesarias para demostrar que toda subsucesion convergen-te converge en el espacio de funciones continuas y converge al mismolimite (a traves de un corolario del Teorema de Prokhorov (3.6)). Segun-do se caracteriza el lımite de la sucesion, o mas precisamente de algunasub-sucesion, es decir se muestra que el limite es un movimiento Brow-niano. Por otro lado para ilustrar el Teorema del Lımite Central paraMartingalas se expondran dos ejemplos de sucesiones de martingalaslocales que convergen a un movimiento Browniano, especıficamente, seestudiara una sucesion de procesos de Poisson compuestos compensa-dos y una sucesion de caminatas aleatorias.

i

Page 4: Teorema Funcional del L mite Central para Martingalas

Agradecimientos

Quiero agradecer a Michael Hogele por el acompanamiento y asesoramien-to brindado durante la elaboracion de este trabajo, a Sylvie Roelly por suorientacion y el apoyo recibido en Potsdam cuando este proyecto estaba co-menzando. De igual manera quiero agradecer a mi familia y amigos por elsoporte que me ofrecieron a lo largo de este proceso.

ii

Page 5: Teorema Funcional del L mite Central para Martingalas

Indice general

Indice general III

1 Introduccion 3

2 Objetos principales y el TFLC 112.1. Objetos principales: martingalas, la variacion cuadratica, el

movimiento Browniano . . . . . . . . . . . . . . . . . . . . . . 112.2. Enunciado del TFLC para martingalas con saltos acotados . . 232.3. Ejemplos: procesos de Poisson compuestos compensados y ca-

minatas aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3 Pre-compacidad de las medidas de la sucesion de martingalaslocales 333.1. Herramientas de demostracion: pre-compacidad en espacios

de medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.2. Martingalas estocasticamente acotadas . . . . . . . . . . . . . . 393.3. Demostracion de la C-pre-compacidad con saltos acotados . . 40

4 Caracterizacion del lımite 534.1. Herramientas de demostracion: Teorema de Levy . . . . . . . 534.2. Identificacion del lımite con saltos acotados . . . . . . . . . . . 58

A Apendice 61A.1. Calculo de los primeros momentos de un proceso compuesto

de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61A.2. Teoremas del lımite central clasico . . . . . . . . . . . . . . . . 62A.3. Tipos de convergencia de vectores aleatorios . . . . . . . . . . 63A.4. Anexo de las demostraciones de algunos teoremas . . . . . . 64

Bibliografıa 77

iii

Page 6: Teorema Funcional del L mite Central para Martingalas
Page 7: Teorema Funcional del L mite Central para Martingalas

Lista de Notaciones

La siguiente lista muestra la notacion usada a lo largo del documento

N Los numeros naturales 1,2,3,...

d ∈N Dimension del espacio de estados

R Los numeros reales

t ∈ [0, ∞) Tiempo determinista

C([0, ∞), Rd) Espacio de funciones continuas sobre [0, ∞) con valores en Rd

cadlag Espacio de funciones sobre [0, ∞) con valores en Rd tales que,∀t ∈ [0, ∞) ∀tn ↓ t, lımtn→t X(tn) = X(t), (continua por derecha) y∀t ∈ (0, ∞) ∀tn ↑ t, lımtn→t X(tn) = X(t−), (el limite por izquierda exis-te)

∆X(t) Salto en el tiempo t para una funcion cadlag X (∆X(t):=X(t)-X(t-))

i.i.d Variables aleatorias independientes e identicamente distribuidas

S,E Espacios polacos, espacios topologicos metrizables completos y sepa-rables

D([0, T], Rd) Espacio polaco constituido por funciones cadlag sobre [0, T]dotado con la topologıa de Skorokhod

(Ω,A, P) Espacio de probabilidad

(Ft)t≥0 Filtracion en A

B(E) Borelianos sobre E, σ-algebra generada por los abiertos del espaciotopologico (E, T )

τ, σ Tiempo de parada con respecto a la filtracion (Ft)t≥0

1

Page 8: Teorema Funcional del L mite Central para Martingalas

Indice general

M Martingala con respecto a la filtracion (Ft)t≥0

Dd σ-algebra de Borel de D([0, ∞), Rd), B(D([0, ∞), Rd) con respecto ala topologıa de Skorokhod

(B(t)t≥0) Movimiento Browniano

(N(t))t≥0 Proceso de Poisson

2

Page 9: Teorema Funcional del L mite Central para Martingalas

Capıtulo 1

Introduccion

La ley de los grandes numeros debil expresa que dada una sucesion de va-riables aleatorias independientes e identicamente distribuidas con primermomento finito, el promedio aritmetico de las primeras n variables alea-torias converge en probabilidad a el promedio cuando n tiende a infinito.Ahora, asumiendo la existencia de segundos momentos, las primeras versio-nes del teorema del limite central surgieron a partir de la ley de los grandesnumeros al considerar renormalizar la suma por una succion (an/n)n≥1 conel fin de que la probabilidad del error no converja en probabilidad a un va-lor distinto a cero. Resultando en que an :=

√nσ y que el limite tiene una

distribucion normal estandar independiente de los sumandos.

En la actualidad, hablar de teoremas del lımite central hace referencia a unamultitud de afirmaciones acerca de la convergencia a una distribucion nor-mal (infinito dimensionales) de una sucesion de distribuciones, asociadas afunciones que dependen de un numero creciente de vectores aleatorias (mul-tidimensionales) o en algunos casos elementos aleatorios mas generales (enespacio de funciones infinito dimensionales). [6]

El teorema del lımite central desde sus orıgenes ha sido de gran importan-cia en el area de la estadıstica. Esto se debe a que dada una poblacion y unmuestreo aleatorio tomado de la poblacion, la distribucion de los promediosde las muestras tiende a una distribucion normal a medida que el tamanode las muestras aumentan [7]. Por ejemplo al realizar un experimento la va-riabilidad de los promedios implica la variabilidad de los los errores que enel limite de muchas mediciones presenta una distribucion normal [23].De igual manera la importancia que los teoremas del lımite central han teni-do sobre las matematicas y mas precisamente sobre la teorıa de la probabili-dad, radica en los metodos matematicos, principalmente en analisis, que sedesarrollaron alrededor de ella y el estatus como linea de investigacion en sı

3

Page 10: Teorema Funcional del L mite Central para Martingalas

1. Introduccion

que le ayudo a brindar a la probabilidad dentro de las matematicas. De estamanera para alcanzar una mayor comprension del papel en las matematicasde los teoremas del limite central, es necesario hacer un recuento historicode las versiones que han surgido del mismo desde el siglo XVIII hasta me-diados del siglo XX. [6]

El primer trabajo alrededor del teorema del lımite central se remonta alartıculo publicado por Abraham de Moivre (1667–1754) en 1733. En estede Moivre desarrolla aproximaciones a distribuciones binomiales con el finde refinar el trabajo de Jakob Bernoulli alrededor de la ley de los grandesnumeros. Sin embargo, el trabajo de de Moivre nunca expreso la universali-dad que caracteriza a los teoremas del lımite central. En gran medida porqueel trabajo de de Moivre solo fue un caso particular del teorema del lımitecentral para el caso de variables aleatorias de Bernoulli con probabilidadp = 1

2 (por ejemplo, el lanzamiento de una moneda justa es modelado poruna variable aleatoria de Bernoulli). [6]

El segundo trabajo importante en relacion a el teorema del lımite central seencuentra con Pierre-Simon de Laplace (1749–1827) quien en 1812, despuesde 40 anos de trabajo, publica el articulo Theorie analytique des probabilites enel cual presenta una generalizacion del trabajo de de Moivre para p 6= 1.En este trabajo los problemas que busca resolver Laplace se dividen en doscategorıas, por un lado en ”sumas de variables aleatorias” y por otro ladoen ”hallar el inverso de probabilidades”. Dentro de la primera categorıa seencuentra el problema de estimar probabilidades a priori en relacion a laganancia y a la perdida en juegos de azar. Es en este contexto que Laplacedesarrolla un metodo para aproximar las probabilidades de sumas de varia-bles aleatorias independientes usando funciones generadoras. [6]

Despues, Simeon Denis Poisson (1781–1840) brinda un analisis mas rigurosoal teorema del lımite central de Laplace a traves de dos artıculos publicadosentre 1824 y 1829. Mas precisamente el aporte de Poisson al teorema dellımite central es una comprension mas profunda de lo que es una variablealeatoria (definicion importante en la version actual del teorema del lımitecentral) y algunos contraejemplos 1 que permitieron delimitar un poco lavalidez del teorema del lımite central. [6]

Alrededor del siglo XIX, empieza a crecer dentro de los matematicos dela epoca un consenso hacia una mayor abstraccion de las matematicas yhacia su desprendimiento del mundo fısico como razon de existir, lo queencamina a los matematicos a buscar un mayor rigor en las matematicas. Es

1El contraejemplo mas prominente que considero Poisson fue la funcion caracterıstica f (x) =1

π(1+x2)que no cumple el TLC ya que para esa distribucion ningun momento existe.

4

Page 11: Teorema Funcional del L mite Central para Martingalas

este desprendimiento de las matematicas del el mundo fısico lo que permi-tio que el teorema del lımite central encontrara aplicaciones inesperadas ytal vez contra intuitivas en la teorıa del error.Dentro de este contexto se encuentran los matematicos Peter Gustav LejeuneDirichlet (1805–1859) y Augustin Louis Cauchy (1789–1857) quienes entre losanos 1830 y 1850 trabajando en aplicaciones del teorema del lımite centrala la teorıa del error, buscar obtener demostraciones rigurosas del teoremadel limite central. Lo anterior ocasiona que el teorema empiece a adquirirrelevancia dentro de las matematicas a parte de su aplicacion en problemaspracticos. 2.De esta manera dentro de las principales aplicaciones de Dirichlet al teore-ma del lımite central se encuentran modificaciones del metodo Laplaciano3 de aproximar una suma de variables aleatorias independientes a una dis-tribucion normal. De igual manera dentro de las contribuciones de Cauchy,usando consideraciones similares a las de Dirichlect, expone una serie de cri-ticas al metodo de mınimos cuadrados de Laplace a traves de una disputacon Irenee Jules Bienayme (1796–1878) quien defendıa el metodo de Laplace.[6]

En la segundo mitad del siglo XIX y principios del siglo XX encontramos laescuela rusa de St. Petersburgo, de la mano de Pafnutii Lvovich Chebyshev(1821–1894), Andrei Andreevich Markov (1856–1922) y Aleksandr Mikhailo-vich Lyapunov (1857–1918). Las ideas de Chebyshev se encuentran en unaserie de artıculos publicados entre 1845 y 1887, en los cuales expresa cons-tantemente la necesidad de presentar cotas a los errores de las desviacionesentre las probabilidades exactas y las expresiones limites. Con respecto alteorema del lımite central, Chebyshev en 1887 presenta una demostracion atraves del metodo de los momentos 4. Sin embargo, su demostracion siguepresentando los mismos problemas de rigurosidad con respecto a las demos-traciones de Poisson y Laplace (cortar expansiones en series que en ocasio-nes divergen). Es importante resaltar en este punto que es hasta Chebyshevque el teorema del lımite central adquiere la forma de teorema lımite y se

2Un discusion acerca de la creeciente abstraccion en matematicas se puede ver en Schnei-der, Ivo 1981a. Die Situation der mathematischen Wissenschaften vor und zu Beginn derwissenschaftlichen Laufbahn von Gauss. In Carl Friedrich Gauss (1775–1855). Sammelbandvon Beitragen zum 200. Geburtstag von C. F. Gauss, I. Schneider (ed.), pp. 9–36. Munchen:Minerva.

3En terminos actuales, el metodo de Laplace en el fondo consistıa en hallar la funcion ca-racterıstica (la funcion caracterıstica de una variable aleatoria X es E[eitX ]) de una suma devariables aleatorias para despues encontrar a traves de la funcion inversa la probabilidad deque la suma de variables aleatorias tome un valor particular.

4El metodo de los momentos busca encontrar cotas superiores e inferiores a integrales de laforma

∫ ba f (x)dx donde f (x) son densidades de probabilidad, dado que a, b ∈ [A, B], a < b

y los momentos M0 :=∫ B

A f (x)dx, M1 :=∫ B

A x f (x)dx,...,Mm :=∫ B

A xm f (x)dx existen hastaalgun m ∈N.

5

Page 12: Teorema Funcional del L mite Central para Martingalas

1. Introduccion

expresan condiciones necesarias para su validez.Por otro lado Markov en un articulo publicado en 1898 presenta una de-mostracion mas completa del teorema del lımite central siguiendo las mis-ma ideas que Chebyshev. Sin embargo deja la sensacion, al igual que conChebyshev, que la importancia del teorema del lımite central radica en suutilidad como un espacio en donde se pueden presentar metodos relaciona-dos a momentos y fracciones continuas.Finalmente el ultimo exponente de la escuela de St. Petersburg que consi-deraremos es Lyapunov quien presento una demostracion del teorema dellımite central en un articulo publicado en el ano 1900. La importancia desu contribucion se encuentra en el hecho de que fue la primera persona enpresentar una demostracion rigurosa del teorema del lımite central siguien-do el metodo de Laplace de funciones caracterısticas, y no el metodo delos momentos de Chebyshev y Markov. Ademas, es importante senalar suintroduccion de un lema sobre la convergencia de funciones caracterısticasa un distribucion normal, ya que en este lema se basa su demostracion ysera usado por otros matematicos como Lindeberg y Levy. De igual mane-ra Lyapunov fue capaz de brindar una cota a los errores como demandabaChebyshev. [6]

Por otro lado en el ano 1905 Albert Einstein (1879-1955) presenta la explica-cion correcta de que es el movimiento Browniano que Brown reporto en susobservaciones. Por otro lado el primer modelo del movimiento Brownianocomo objeto matematico se le atribuye a Louis Jean-Baptiste Alphonse Ba-chelier (1870-1946), sin embargo su trabajo no hace referencia al movimien-to Browniano ni a Brown. La primera construccion rigurosa del movimientoBrowniano se le atribuye a Norbert Wiener (1894-1964) quien introduce lamedida de Wiener en el espacio C[, 1] basandose en el trabajo de Einstein[21].

En el ano 1920 Jarl Waldemar Lindeberg (1876–1932) publica su trabajo enrelacion al calculo probabilıstico, con una version del teorema del lımite cen-tral bajo hipotesis muy debiles (por ejemplo no asume que las variables alea-torias son independientes) y hasta se podrıa decir necesarias (condicion deLindeberg) 5. De esta manera las ventajas del teorema del lımite central deLindeberg consiste en dos aspectos, por un lado se puede aplicar a contextosmuy generales y por otro toma en consideracion la tasa de convergencia. Sinembargo, aunque la demostracion de Lindeberg brinda una demostracion ri-gurosa del teorema del lımite central asumiendo condiciones suficientes, nopresenta una demostracion sobre la necesidad de las hipotesis, aspectos queseran cubiertos mas adelante por Levy y Feller en 1935 y 1937 respectiva-

5La condicion de Lindeberg expresa que en el limite cuando n tiende a infinito la varianza delas variables aleatorias acotadas es igual a la varianza de las variables aleatorias sin acotar

6

Page 13: Teorema Funcional del L mite Central para Martingalas

mente. [6]Por un lado Willy Feller (1906–1971) aunque logra presentar condicionessuficientes para la version del teorema del limite central presentada por Lin-deberg usando el metodo de Laplace de las funciones caracterısticas, aun laversion que presenta no es lo suficientemente general ya que solo considerasumas normadas.Por otro lado Paul Levy (1886–1971) despues de varias publicaciones entre1925 y 1935, en 1930 adopta un nuevo metodo 6 desarrollado por el mismoy deja al lado el metodo de Laplace de las funciones caracterısticas. En elarticulo de 1935 Levy realiza tres contribuciones importantes al teorema dellımite central. En primer, lugar presenta condiciones suficientes y necesa-rias para la convergencia de sumas normalizadas con segundos momentosde variables aleatorias independientes e identicamente distribuidas a unadistribucion normal. En segundo lugar, presenta condiciones necesarias ysuficientes para el caso mas general de sumandos independientes. En tercerlugar intenta exponer las condiciones necesarias y suficientes para varia-bles dependientes, martingalas. De hecho, en el teorema del lımite centralla suma de n variables aleatorias centradas en cero y renormalizadas por elproducto de la raız de n y la varianza es una sucesion de martingalas conrespecto a la filtracion natural. Por otro lado, las demostraciones que pre-sento en relacion al caso de variables dependientes recaıan en un lema queLevy no demostro en 1935, pero que fue demostrado en 1936 por Cramer,razon por la cual Levy presenta otro articulo en 1937 en donde refina estasdemostraciones. [6]

En la decada de 1930, Andrei Nikolayevich Kolmogorov (1903-1987) presen-ta una axiomatizacion de la teorıa de la probabilidad en el articulo ”Grund-lagen der Wahrscheinlichkeitsrechnung”publicado en Alemania en 1933. Deigual manera en esta decada tambien surgen desarrollos alrededor de varia-bles aleatorias sobre espacios de funciones (primeras ideas de lo que hoy endıa se conoce como procesos estocasticos) y los avances de Levy en relaciona un teorema del lımite central para variables aleatorias dependientes.

En 1933 Kolmogorov tambien presenta una construccion del movimientoBrowniano dando una justificacion mas rigurosa de la construccion de Ba-chelier. De igual manera en 1948 Levy presenta una construccion del mo-vimiento Browniano usando argumentos de interpolacion [13] y en 1951Monroe David Donsker (1925–1991) presenta su construccion del movimien-to Browniano a traves del limite de caminatas aleatorias [21].

6El metodo de la concentracion y la dispersion de Levy busca comparar el tamano de unavariable aleatoria con la suma de todas las variables aleatorias. En este metodo la dispersionde una variable aleatoria hace referencia a la mınima longitud de un intervalo asociado a unaprobabilidad particular y la concentracion es la maxima probabilidad asociada a un intervalodeterminado.

7

Page 14: Teorema Funcional del L mite Central para Martingalas

1. Introduccion

La construccion del movimiento Browniano que presenta Donskers es enrealidad una version funcional del teorema del lımite central, siguiendo lasideas de Paul Erdos (1913-1996) y Mark Kac (1914-1984) sobre el principiode invarianza (el comportamiento lımite de una sucesion de funciones defi-nidas a partir de sumas de variables aleatorias se puede determinar al consi-derar el lımite cuando las sumas tienen distribuciones especiales) en dondeuna sucesion de distribuciones que depende de una sucesion de variablesaleatorias independientes (caminatas aleatorias simetricas) convergen a unmovimiento Browniano. [6]Por ultimo, continuando con las ideas de Levy y Donsker la version funcio-nal para martingalas que estudiaremos en el presente trabajo, en el fondoesta considerando un teorema del lımite central para cada tiempo. Por lotanto el trabajo consistira en encontrar cual debe ser las constantes de renor-malizacion (los an :=

√n

σ en el caso no funcional del teorema y la variacioncuadratica para el caso funcional, pero con las condiciones necesarias paraque el lımite del proceso de variacion cuadratica sea lineal en el tiempo)adecuadas para el caso funcional, de manera tal que bajo el lımite correctola sucesion de martingalas converja a un proceso que en cada tiempo pre-sente una distribucion normal, por lo cual el candidato mas natural es elmovimiento Browniano. Esta version funcional del teorema del lımite cen-tral puede ser atribuida al trabajo de Patrick Paul Billingsley (1925–2011), dela escuela norteamericana, Yuri Vasilyevich Prokhorov (1929-2013), AnatoliyVolodymyrovych Skorokhod (1930-2011), de la escuela sovietica, entre otros,quienes en los anos 50’s-60’s desarrollaron en gran medida las ideas que sedesarrollaran en el presente trabajo [3].Por un lado Prokhorov en 1956 trabajando en espacios de funciones separa-bles y completos presenta el esquema de demostracion que usaremos en estetrabajo. Una sucesion de procesos estocasticos convergen en distribucion aun proceso estocastico X si, la sucesion de distribuciones es pre-compacta,las sucesiones finito dimensionales convergen y el lımite de las distribucio-nes finito dimensionales caracterizan a X [8]. Por otro lado Skorokhod bus-co comprender un poco mejor el teorema en espacios de funciones que nonecesariamente son completos y separables, trabajando en el espacio de fun-ciones continuas por derecha y con lımite por izquierda encontro distintostipos de convergencia en estos espacios segun el tipo de topologıa [22]. Porotro lado Billingsley hace uso del resultado de Prokhorov sobre la equivalen-cia entre pre-compacidad en espacios de medidas y la compacidad relativay ademas usa la caracterizacion de Levy de un movimiento Browniano. De-mostrando que el teorema funcional del lımite central para martingalas, sereduce a demostrar que la sucesion de martingalas es pre-compacta y el lımi-te se puede caracterizar usando el teorema de Levy 7 [2].

7El teorema de Levy expresa que dado un proceso estocastico d-dimensional X(t), el procesoM(t) := X(t)− X(0) es un movimiento Browniano d-dimensional si M(t) es continuo y la

8

Page 15: Teorema Funcional del L mite Central para Martingalas

Finalmente Ward Whitt presenta un articulo en el que expone la demostra-cion del Teorema funcional del lımite central (FCLT), revisando conceptoscomo pre-compacidad en espacios de medidas, sucesiones estocasticamenteacotadas y la caracterizacion del limite de Levy [25]. En el presente trabajo eseste el articulo que seguiremos para la demostracion del Teorema funcionaldel lımite central con saltos acotados.

variacion cuadratica entre las componentes j, k ∈ 1, ..., d es igual a δj,kt.

9

Page 16: Teorema Funcional del L mite Central para Martingalas
Page 17: Teorema Funcional del L mite Central para Martingalas

Capıtulo 2

Objetos principales y el TFLC

2.1. Objetos principales: martingalas, la variacion cuadrati-ca, el movimiento Browniano

Los objetos principales que se estudiaran en este trabajo son una clase deprocesos estocasticos, las martingalas, sin embargo antes de poder introdu-cirlas es necesario definir que es un proceso estocastico. En primer lugar,dado un espacio de probabilidad (Ω,A, P) y un espacio medible (E,A′) esposible definir un proceso estocastico con espacio de estados E, como unafamilia de variables aleatorias (Xt)t≥0 donde Xt : Ω → E. No obstante, enocasiones resulta mas conveniente considerar un proceso estocastico comouna sucesion de funciones aleatorias (Xt(ω))ω∈Ω donde Xt(ω) : [0, ∞)→ E.A cada funcion Xt(ω) se le llama camino o realizacion del proceso.

Nota 2.1 En el presente trabajo los espacios de llegada E de los procesos estocasticosno solo seran espacios de medida, sino que ademas seran espacios metricos de maneraque sea posible definir un valor esperado. Sin embargo con el fin de que exista ciertacompatibilidad entre la σ-algebra y la topologıa (inducida por la metrica) es necesarioque el espacio de llegada sea separable y completo.

Definicion 2.2 (Espacio vectorial Polaco) Sea (E,B(E)) un espacio vectorial vec-torial topologico separable y completo, luego E se llama espacio Polaco.

Definicion 2.3 (Proceso estocastico) [10] Sea (Ω,A, P) un espacio de probabi-lidad, E un espacio vectorial Polaco, (E,B(E)) el espacio medible y I ⊂ R.Una familia de variables aleatorias (Xt)t∈I en (Ω,A, P) con valores en (E,B(E)),se llama un proceso estocastico, con espacio de estados E y conjunto de ındices (oconjunto de tiempos) I.

La existencia de un proceso estocastico dada una familia de distribucionesfinito dimensionales se encuentra determinada por el Teorema de extension

11

Page 18: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

de Kolmogorov, sin embargo antes de definir el teorema es necesario intro-ducir que quiere decir que una familia de medidas de probabilidad sobreproductos finitos sea consistente.

Definicion 2.4 [10] Sea (Ωi,Ai)i∈[0,∞) una coleccion de espacios medibles,Ωi :=×i

k=0 Ωk y Ai :=⊗i

k=0Ak. Ademas sea (Pi)i∈[0,∞) una coleccion de medi-das de probabilidad definidas sobre (Ωi,Ai) para cada i ∈ [0, ∞).Luego si para i, j ≥ k y A ∈ Ak

Pi(A×Ωk+1 × · · · ×Ωi) = Pj(A×Ωk+1 × · · · ×Ωj),

entonces la coleccion (Pi)i∈[0,∞) se llama consistente.

Ahora con el proposito de extender la definicion a un conjunto arbitrario deındices I ⊂ [0, ∞), es necesario definir la proyeccion canonica.

Definicion 2.5 [10] Sea I ⊂ [0, ∞) y (Ωi)i∈I una coleccion arbitraria de conjuntostales que Ω :=×i∈I Ωi denota el espacio producto.Luego Xi : Ω→ Ωi, ω → ω(i) se llama la proyeccion a la i-esima coordenada.De manera mas general para J ⊂ J′ ⊂ I la funcion

X J′J :×

j∈J′Ωj →×

j∈JΩj, ω′ → ω′|J ,

sea llama proyeccion canonica. En particular XJ := X IJ .

Definicion 2.6 Sea I ⊂ [0, ∞), (Ωi,Ai)i∈I una coleccion de espacios medibles y(PJ , J ⊂ I f inito) una familia de medidas de probabilidad sobre (Ωi,Ai) dondeΩi :=×i

k=0 Ωk y Ai :=⊗i

k=0Ak.Luego si

PL = PJ (X JL)−1 para todoL ⊂ J ⊂ I finito,

la coleccion (PJ , J ⊂ I f inito) se llama consistente.

Teorema 2.7 (Teorema de extension de Kolmogorov (1933)) [10]Sea I ⊂ [0, ∞) un conjunto arbitrario de ındices y (Ei,B(Ei))i∈I una coleccion deespacios medibles donde Ei es un espacio vectorial Polaco. Sea (PJ , J ⊂ I f inito)una familia consistente de medidas de probabilidad sobre (EJ ,B(E)J) dondeEJ :=×k∈J Ek y B(E)J :=

⊗k∈J B(Ek).

Entonces existe una unica medida de probabilidad P sobre (Ω,A) tales quePJ = P X−1

J para todo J ⊂ I.

Nota 2.8 Sea I ⊂ [0∞), luego el proceso estocastico (Xt)t∈I como una coleccionde variables aleatorias con valores en el espacio de funciones×

t∈IEt es muy grande

y poco util. Entonces por lo general se busca considerar solamente un espacio de

12

Page 19: Teorema Funcional del L mite Central para Martingalas

2.1. Objetos principales: martingalas, la variacion cuadratica, el movimientoBrowniano

funciones con mas propiedades especıficas como continuidad.Ahora si E := Rd entonces el espacio de funciones a considerar es el espacio defunciones continuas sobre Rd con valores en [0, ∞), C([0, ∞), Rd), o si esto no esposible, el espacio de funciones continuas a derecha y con lımite por izquierda (elcual con la norma J1, que es una norma que se obtiene a partir de una perturbacionen el tiempo y el espacio de la norma uniforme, forma un espacio metrico separabley completo conocido como el espacio de Skorokhod ).

Definicion 2.9 (Funciones cadlag, D([0, T], Rd))Sea T > 0 y D([0, T], Rd) un espacio de funciones con valores en Rd definidassobre el intervalo [0, T] tales que para toda funcion X en D([0, T], Rd) se cumplenlas siguientes condiciones

∀t ∈ [0, T] ∀tn ↓ t, lımtn→t X(tn) = X(t), (continua por derecha),

∀t ∈ (0, T] ∀tn ↑ t, lımtn→t X(tn) = X(t−), (el lımite por izquierda existe),

entonces a el espacio de funciones D([0, T], Rd) se le llama espacio de funcionescadlag con valores en [0, T]. En particular cuando T es arbitrariamente grandeobtenemos el espacio de funciones cadlag sobre [0, ∞), D([0, ∞), Rd).

Nota 2.10 La palabra cadlag proviene de su acronimo en frances ”continue a droite,lımite a gauche” (continua por derecha y lımite por izquierda).

Ahora describiremos algunas propiedades que cumple el espacio de funcio-nes continuas sobre el intervalo [0, T], C([0, T], Rd) y que continuan siendovalidas en el espacio de funciones cadlag D([0, T], Rd).

Teorema 2.11 [1] Sea T > 0 luego,

1. D([0, T], Rd) es un espacio vectorial con suma y multiplicacion por escalar puntoa punto.

2. Si f , g ∈ D([0, T], Rd) entonces f g ∈ D([0, T], Rd). Mas aun si f (t) 6= 0 paratodo t ∈ [0, T] entonces 1/ f ∈ D([0, T], Rd).

3. Sea h ∈ C(Rd, Rd) y f ∈ D([0, T], Rd) entonces h f ∈ D([0, T], Rd).

4. Toda funcion cadlag sobre [0, T] se encuentra acotada en intervalos compactos.

5. Toda funcion cadlag sobre [0, T] es uniformemente continua por derecha en interva-los compactos.

6. El lımite uniforme de una sucesion de funciones cadlag en [0, T] es cadlag.

13

Page 20: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

7. Toda funcion cadlag sobre [0, T] se puede aproximar uniformemente en intervaloscompactos por una sucesion de funciones escalonadas.

8. Toda funcion cadlag sobre [0, T] es Borel medible.

Demostracion1. D([0, T], Rd) es un sub-espacio del espacio vectorial de todaslas funciones de [0, T] a Rd, (Rd)[0,T].Sean f , g ∈ D([0, T], Rd) y (tn)n≥1 una sucesion tales que tn ↓ t entonces

lımtn→t

( f + g)(tn) = lımtn→t

f (tn) + lımtn→t

g(tn) = f (t) + g(t) = ( f + g)(t),

y si λ ∈ R entonces

lımtn→t

λ f (tn) = λ lımtn→t

f (tn) = λ f (t).

De igual manera si (t′n)n≥1 es una sucesion tales que t′n ↑ t (t 6= 0) yf , g ∈ D([0, T), Rd) entonces

lımt′n→t

( f + g)(t′n) = lımt′n→t

f (t′n) + lımt′n→t

g(t′n) = f (t−) + g(t−) = ( f + g)(t−),

y si λ ∈ R entonces

lımt′n→t

λ f (t′n) = λ lımt′n→t

f (t′n) = λ f (t−).

2. Sean (tn)n≥1 y (t′n)n≥1 dos sucesiones tales que tn ↓ t y t′n ↑ t′ (t′ 6= 0)respectivamente entonces

lımtn→t

f g(tn) = lımtn→t

f (tn) lımtn→t

g(tn) = f (t)g(t), y

lımt′n→t

f g(t′n) = lımt′n→t

f (tn) lımt′n→t

g(tn) = f (t′−)g(t′−),

Ahora si f (t) 6= 0 para todo t ∈ [0, T) entonces

lımtn→t

(1/ f )(tn) = 1/ lımtn→t

f (tn) = 1/ f (t), y

lımt′n→t

(1/ f )(t′n) = 1/ lımt′n→t

f (tn) = 1/ f (t′−).

3. Sean (tn)n≥1 y (t′n)n≥1 dos sucesiones tales que tn ↓ t y t′n ↑ t′ (t′ 6= 0)respectivamente entonces

lımtn→t

h f (tn) = h( lımtn→t

f (tn)) = h f (t), y

lımt′n→t

h f (t′n) = h( lımt′n→t

f (tn)) = h f (t′−).

14

Page 21: Teorema Funcional del L mite Central para Martingalas

2.1. Objetos principales: martingalas, la variacion cuadratica, el movimientoBrowniano

4. Sea K ⊂ [0, T] un subconjunto compacto y p ∈ Rd. Luego queremos ver queexiste r > 0 tales que f (K) ⊂ Br(p).Sea t ∈ K, como f es continua por derecha, existe δt+ > 0 tales que| f (s) − f (t)| < 1 para todo s ∈ (t, t + δt+). Luego si rt+ = 1 + | f (t) − p|entonces

| f (s)− p| ≤ | f (s)− f (t)|+ | f (t)− p| < rt+,

es decir f (s) ∈ Brt+(p) para todo s ∈ (t, t + δt+).De manera similar como lımite por la izquierda de f existe, existe δt− > 0tales que | f (s) − f (t)| < 1 para todo s ∈ (t − δt−, t). Luego si rt− = 1 +| f (t−)− p| entonces

| f (s)− p| ≤ | f (s)− f (t)|+ | f (t)− p| < rt−,

por lo tanto f (s) ∈ Brt−(p) para todo s ∈ (t− δt−, t). Ahora para todo s ∈Ut = (t− δt−, t + δt+), f (s) ∈ Brt(p) dondert = maxrt−, rt+.Finalmente como Ut|t ∈ [0, T] es un recubrimiento abierto de K, entoncesexiste n ∈ N y t1, ..., tn ∈ K tales que K ⊂ U1 ∪ · · · ∪Un y por lo tanto paratodo s ∈ K obtenemos que f (s) ∈ Br(p) en donde r = maxrt1 , ..., rtn, esdecir f (K) ⊂ Br(p).

5. Sea ε > 0 , K ⊂ [0, T] compacto y f una funcion cadlag. Luego queremos en-contrar δ > 0 tales que para todo y y para todo x, si x, y ∈ K y y ∈ (x, x + δ)entonces | f (x)− f (y)| < ε.De esta manera como f es continua por derecha en cada punto x ∈ K, en-tonces existen δx > 0 tales que f ((x, x + δx

2 )) ⊂ B ε2( f (x)).

Si ademas δ0 ∈ K, como [0, δ0) ∪ ((x, x + δx2 ))x∈K es un recubrimiento de K

entonces existe un recubrimiento finito [0, δ0) ∪ ((xi, xi +δxi2 ))i=1,...,n .

De esta manera si δ2 := mın δx1

2 , ..., δxn2 , y si y ∈ (x, x + δ

2 ) como

x ∈ (xi, xi +δxi2 ) para algun i entonces

|y− xi| ≤ |y− x|+ |x− xi| <δ

2+

δxi

2<

δxi

2+

δxi

2= δxi ,

es decir y ∈ (xi, xi +δxi2 ). Por lo tanto y ∈ (x, x + δ

2 ) implica que| f (xi)− f (y)| < ε

2 y por lo tanto

| f (x)− f (y)| ≤ | f (x)− f (xi)|+ | f (xi)− f (y)| ≤ ε

2+

ε

2= ε.

6. Sea fn una sucesion de funciones cadlag en [0, T]. Luego si f (x) es el lımiteuniforme de fn : [0, T]→ Rd, entonces f es cadlag si es continua por derechay el lımite por izquierda existe para todo x. Sea x ∈ [0, T] luego

15

Page 22: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

Continuidad por derecha.Sea ε > 0, luego por definicion del lımite existe n′ > n tales quesupx∈[0,T] | f (x)− fn′(x)| ≤ ε

3 .Ahora fn′(x) es continua por la derecha en x por lo tanto existe δ > 0tales que si y ∈ (x, x + δ) entonces | fn′(x)− fn′(y)| ≤ ε

3 .Pero entonces si y ∈ (x, x + δ),

| f (x)− f (y)| ≤ | f (x)− fn′(x)|+ | fn′(x)− fn′(y)|+ | fn′(y)− f (y)|

≤ ε

3+

ε

3+

ε

3= ε.

Lımite por izquierda existe.Sea ε > 0, luego por definicion del lımite existe n′ > n tales que| f (x−)− fn′(x−)| ≤ ε

3 .Ahora el lımite por izquierda en x de fn′ existe, por lo tanto existeδ > 0 tales que si y ∈ (x− δ, x) entonces | fn′(x−)− fn′(y)| ≤ ε

3 .Pero entonces si y ∈ (x− δ, x),

| f (x−)− f (y)| ≤ | f (x−)− fn′(x−)|+ | fn′(x−)− fn′(y)|+ | fn′(y)− f (y)|

≤ ε

3+

ε

3+

ε

3= ε.

7. Sea δ > 0 y 0 = x0 < ... < xN = T una sucesion de puntos tales que0 < xn+1 − xn < δ para n = 0, ..., N − 1. Entonces es posible definir unafuncion escalon dada por

g(x) =

f (xn), xn ≤ x < xn+1

f (xN−1), x = T.

Luego por 5. f es uniformemente continua por derecha, por lo tanto dadoε > 0 existe δ > 0 tales que

| f (x)− f (y)| < ε si y ∈ [x, x + δ).

Ahora para cada x ∈ [0, T) existe n tales que xn ≤ x ≤ xn+1 . Pero entonces

|xn − x| ≤ |xn+1 − xn| < δ,

y por lo tanto| f (x)− g(x)| = | f (x)− f (xn)| < ε.

Ahora si x = T,|xN−1 − x| ≤ |xN − xN−1| < δ,

y por lo tanto| f (x)− g(x)| = | f (x)− f (xN−1)| < ε

16

Page 23: Teorema Funcional del L mite Central para Martingalas

2.1. Objetos principales: martingalas, la variacion cuadratica, el movimientoBrowniano

8. Toda funcion cadlag sobre [0, T] es Borel medible ya que por 7. toda funcioncadlag se puede aproximar por funciones escalon y las funciones escalonson Borel medibles.

Nuestro interes en este trabajo se encuentra en el espacio de Skorkhod so-bre el intervalo [0, ∞). Sin embargo para esto es necesario primero dotarcon una topologıa que permita construir procesos estocasticos al espacioD([0, T], Rd) , para ası obtener el espacio de Skorokhod sobre el intervalo[0, T].

Definicion 2.12 (Espacio de Skorokhod, D([0, T], Rd)) Sea T > 0 yD([0, T], Rd) el espacio de funciones cadlag sobre el intervalo [0, T]. Ademas paracada T > 0 consideremos la metrica sobre D([0, T], Rd)

dT(x, y) := ınfλ∈Λsup

s<tlog

λ(t)− λ(s)t− s

∨ supt∈[0,T]

|x(t)− y(λ(t))|, (2.1)

donde Λ es el espacio de funciones de [0, T] a [0, T] continuas y estrictamente cre-cientes.Luego al espacio metrico (D([0, T], Rd), dT) se llama el espacio de Skorokhod sobreel intervalo [0, T], que denotaremos simplemente como D([0, T], Rd).

Ejemplo 2.13 Sea (tn)n≥1 una sucesion de numeros reales tales que tn → 1 y seanxn, y ∈ D([0, 2], R) tales que xn = 1[0,tn], y = 1[0,1].Luego si λn(t) ∈ Λ tales que,

λn :=

1tn

t si 0 ≤ t ≤ tn1

2−tnt + 2 1−tn

2−tnsi tn ≤ t ≤ 2.

Ahora como |xn − y(λn)| = 0 para todo n ∈N y lımn→∞ log(λn(t)−λn(s)t−s ) = 0,

dT(xn, y) := ınfλ∈Λsup

s<tlog(

λ(t)− λ(s)t− s

) ∨ supt∈[0,T]

|xn(t)− y(λn(t))| = 0.

Nota 2.14 El espacio D([0, T], Rd) es un espacio metrico separable y completo esdecir es un espacio Polaco.

Definicion 2.15 (Espacio de Skorokhod, D([0, ∞), Rd)) Sea D([0, ∞), Rd) elespacio de funciones cadlag sobre el intervalo [0, ∞). Ahora para cada entero m > 0consideremos la funcion

gm(t) =

1 si t ≤ m− 1,m− t si m− 1 < t < m,0 si t ≥ m.

17

Page 24: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

Luego para x, y ∈ D([0, ∞), Rd) es posible definir la siguiente metrica

d∞(x, y) :=1

2m

∑m=1

(1∧ dm(gmx, gmy)), (2.2)

de manera que (D([0, ∞), Rd), d∞) es un espacio metrico denominado el espa-cio de Skorokhod sobre el intervalo [0, ∞), que denotaremos simplemente comoD([0, ∞), Rd).

Si observamos la ecuacion (2.2) que define a d∞, el papel de las funciones gmes simplemente restringir las funciones x, y ∈ D([0, ∞), Rd) a D([0, T], Rd)de manera continua.

Nota 2.16 (H,A) es un espacio de Borel si existe un conjunto de Borel B ∈B(R) isomorfo a H como espacios medibles. Por lo tanto (D([0, ∞), Rd),Ad∞) esisomorfo a (B,B(B)) donde Ad∞ es la σ-algebra generada por la topologıa inducidapor la metrica d∞ [10]. La importancia de que el espacio de Skorokhod sea un espacioPolaco radica en que los espacios Polacos son espacios de Borel y ser un espacio deBorel es una condicion necesaria para que la medida sobre el espacio de caminosexista, es decir es una condicion necesaria para que el proceso estocastico exista.

Definicion 2.17 (Filtracion de σ-algebra) Sea (Ω,A, P) un espacio de proba-bilidad y (Ft)t∈[0,∞) una sucesion de sub-σ-algebras de A tales que para t < sFs ⊂ Ft, luego (Ft)t∈[0,∞) se llama filtracion en A.

Ejemplo 2.18 Dado S un espacio vectorial Polaco y un proceso estocastico (Xt)t∈[0,∞),sobre un espacio de probabilidad (Ω,A, P), con valores sobre el espacio medible(S,B(S)). La sucesion de σ-algebras (Ft)t∈[0,∞) en dondeFt := σ(

⋃s≤t X−1

s (B(S)))es una filtracion y se le llama la filtracion natural asociada al proceso (Xt)t∈[0,∞).

Ahora presentaremos algunos propiedades de regularidad que asumiremosque cumplen las filtraciones.

Definicion 2.19 (Continuidad por derecha) Sea (Ω,A, P) un espacio de proba-bilidad y (Ft)t∈[0,∞) una filtracion en A, luego se dice que es continua por derechasi

Ft =⋂

u;u>tFu ∀t ∈ [0, ∞)

Definicion 2.20 (Completo) Sea (Ω,A, P) un espacio de probabilidad y (Ft)t∈[0,∞)

una filtracion en A, luego la filtracion (Ft)t∈[0,∞) es completa, si F0 contiene a to-dos los conjuntos P-nulos de A.

Nota 2.21 Una filtracion continua por derecha y completa se llama filtracioncanonica.

Definicion 2.22 (Martingala d dimensional) Sea (Ω,A, P) un espacio de pro-babilidad, (Ft)t∈[0,∞) una filtracion y (Mt)t∈[0,∞) un proceso estocastico con valoresen (Rd,B(Rd)). Luego si

18

Page 25: Teorema Funcional del L mite Central para Martingalas

2.1. Objetos principales: martingalas, la variacion cuadratica, el movimientoBrowniano

1. E[|Mt|] :=∫|Mt(ω)|dP(dω) < ∞ para cada t ∈ [0, ∞) ,

2. Mt es Ft-medible para cada t ∈ [0, ∞) ,

3. E[Mt|Fs] = Ms P-c.s para t > s,,

entonces a (Mt)t∈[0,∞) es una (Ft)t≥0-martingala (la esperanza condicional se defi-ne como en el A. Klenke, Probability Theory [10]).

Nota 2.23 Los procesos que cumplen la condicion 3 de la definicion 2.22 se llamanprocesos adaptados.

Definicion 2.24 (Proceso adaptado) Sea (Ω,A, P) un espacio de probabilidad,S un espacio vectorial Polaco, (S,B(S)) el espacio medible, F := (Ft)t∈[0,∞) unafiltracion en B(S) y (Xt)t∈[0,∞) un proceso estocastico con valores en E, tales queXt es Ft-medible para cada t en [0, ∞), luego Xt se llama F -adaptado.

Nota 2.25 Todo proceso es adaptado con respecto a su filtracion natural.

En el presente trabajo estaremos interesados en una clase particular de va-riables aleatorias con valores positivos llamadas tiempos aleatorios, en parti-cular estudiaremos el tiempo de primera llegada de un proceso estocasticoaun conjunto abierto. En particular si τ es un tiempo de primera llegada aso-ciado a un proceso estocastico (Xt)t≥0, y (Ft)t≥0 es una filtracion asociada aeste proceso (por ejemplo la filtracion natural) entonces los eventos τ ≤ tson Ft-medibles.

Definicion 2.26 (Tiempo de parada) Sea τ una variable aleatoria definida sobreel espacio de probabilidad (Ω,A, P), con valores en [0, ∞) ∪ ∞ y con filtracionasociada (Ft)t∈[0,∞). Luego si para cualquier t ∈ [0, ∞)

τ ≤ t ∈ Ft,

τ se llama un tiempo de parada.

Definicion 2.27 (Tiempo de primera llegada a un abierto) Sea (Ω,F , P) unespacio de probabilidad y (Xt)t≥0 un proceso estocastico asociado a este espaciode probabilidad con valores en Rd y con filtracion natural (Ft)t≥0. Ademas seaA ⊂ Rd un abierto, luego

τA := ınft > 0 : X(t) ∈ A,

se llama tiempo de primera llegada a un abierto A.

19

Page 26: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

Lema 2.28 [16], [19] Sea (X(t))t≥0 un proceso estocastico con caminos continuospor derecha, (Ft)t≥0 la filtracion canonica asociada a (X(t))t≥0 y A ⊂ Rd unconjunto abierto. Luego el tiempo de primera llegada τA satisface,

τA < t ∈ Ft.

En particular si (Ft+)t≥0 :=⋂

u>t Fu entonces,

τA ≤ t ∈ Ft+,

es decir τA es un tiempo de parada con respecto a (Ft+)t≥0.

Demostracion En primer lugar para t > 0,

τA < t =⋃

Q+3r≤t

X(r) ∈ A ∈ Ft.

” ⊂ ”, si τA(ω) < t, entonces existe s < t tales que X(s, ω) ∈ A. Ahora comolos caminos son continuos por derecha, existe r ∈ Q tales que s < r < t yX(r, ω) ∈ A. Por lo tanto ω ∈ ⋃Q+3r≤tX(r) ∈ A.” ⊃ ”, sea ω ∈ X(r) ∈ A para algun r ∈ (0, t] ∩Q. Como A es abierto yt→ X(t, ω) es continua por derecha, tenemos que τA(ω) < r ≤ t.En segundo lugar,

τA ≤ t =⋂

n≥1

τA < t +1n ∈

⋂Ft+ 1

n= Ft+.

Los tiempos de parada resultan ser herramientas muy utiles para localizarun proceso, ya que como se vera a continuacion para el caso de las martin-galas, estos permiten que cada camino del proceso estocastico se mantengaconstante para tiempos posteriores a un tiempo de parada τ.

Definicion 2.29 (Martingala local d-dimensional) Sea (Ω,A, P) un espaciode probabilidad, (Ft)t∈[0,∞) una filtracion y (Mt)t∈[0,∞) un proceso estocastico convalores en (Rd,B(Rd)), tales que Mt es F -adaptado. Luego si existe una sucesionde tiempos de parada (τn)n∈[0,∞) tales que lımn→∞ τn = ∞ casi siempre de maneraque el proceso (Mτn∧t)t≥0 es una F -martingala uniformemente integrable, entonces(Mt)t≥0 se llama una F -martingala local.

Toda martingala es una martingala local, solo basta considerar la sucesion detiempos de parada (τn)n≥1 donde τn := ∞. Por otro lado no toda martingalalocal es una martingala, un ejemplo se encuentra en la teorıa del juego, masprecisamente en el juego de lanzar una moneda. La idea es pensar que seinicia el juego con un peso y se lanza la moneda, si el resultado es caraentonces el jugador gana y se queda con el peso, de lo contrario el jugadordebera duplicar la apuesta y la estrategia consiste en continuar duplicandola apuesta hasta que el jugador gane y pueda dejar de jugar con la ganancianeta de un dolar. De esta manera en el siguiente ejemplo se formaliza estaestrategia de juego.

20

Page 27: Teorema Funcional del L mite Central para Martingalas

2.1. Objetos principales: martingalas, la variacion cuadratica, el movimientoBrowniano

Ejemplo 2.30 En primer lugar definamos la sucesion de variables aleatorias (Zn)n≥1en donde Zn representa la ganancia neta justo antes del lanzamiento n-esimo. Aho-ra si ε1, ..., εn, ... son variables aleatorias que representan el resultado del n-esimolanzamiento de la moneda, es decir P(εn = ±1) = 1

2 en donde 1 representa cara y-1 representa sello, entonces Z1 = 0 y,

Zn =

1, si Zn−1 = 1,Zn−1 + εn(1− Zn−1), de lo contrario.

En segundo lugar para obtener una martingala local podemos acelerar la escalatemporal y definir el siguiente proceso estocastico,

Xt =

Zn, si 1− 1/n ≤ t ≤ 1− 1/(n + 1),1, si t ≥ 1.

Luego si (Ft)t≥0 es la filtracion natural de (Xt)t≥0 y τn = ınft| |Xt| ≥ nentonces (Xt∧τn)t≥0 es una martingala local en el intervalo [0, 1).Ahora si τn := ınft : |Xt| ≥ n entonces por el Teorema de Doob Xt∧τn es unamartingala acotada uniformemente para t < 1, continua en t = 1 y constante parat ≥ 1 por lo tanto es una martingala local. Sin embargo E[X1] = 1 6= E[X0] = 0y por lo tanto (Xt)t≥0 es una martingala local pero no una martingala.

Para poder proseguir con este trabajo es importante considerar cuatro tiposde convergencia en probabilidad, convergencia casi segura o casi siempre,convergencia en probabilidad, convergencia en Lp y convergencia en distri-bucion. Por lo tanto, para el lector que no se sienta comodo con estos temasse recomienda ver el apendice.

Ahora antes de introducir la variacion cuadratica opcional es necesario defi-nir la σ-algebra generada por los procesos estocasticos cadlag y adaptados,la cual es una σ-algebra sobre Ω pero tambien sobre el tiempo. La razon dedefinir una σ-algebra, A, sobre Ω×R+ se debe a que en ocasiones se quie-re ver un proceso estocastico como una funcion medible de (Ω×R+,A) a(Rd,B(Rd) y para eso es necesario imponer condiciones de mensurabilidadsobre el producto.

Definicion 2.31 (σ-algebra opcional) Sea (Ω,A, P) un espacio de probabilidady (Ft)t≥0 una filtracion en A. Luego la σ-algebra O sobre Ω×R+ que es generadapor todos los procesos cadlag y adaptados (considerados como funciones sobre Ω×R+) se llama σ-algebra opcional. [8]

Definicion 2.32 (Procesos opcional) Sea (Ω,A, P) un espacio de probabilidady F : (Ft)t≥0 una filtracion en A. Luego si (Xt)t≥0 es un proceso estocastico sobre(Ω,A, P) y ademas O-medible (donde O es la σ-algebra opcional con respecto a(Ω,A,F , P)) entonces el proceso estocastico (Xt)t≥0 se llama opcional.

21

Page 28: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

Ahora es necesario introducir un tipo de proceso estocastico que se obtienea partir de otro proceso estocastico, la variacion cuadratica opcional. La cualse define a partir del siguiente teorema.

Definicion 2.33 (variacion cuadratica opcional) Sea (Ω,A, P) un espacio deprobabilidad y (M(t))t∈[0,∞), una F -martingala local, nula en cero y con valores enel espacio Polaco (R,B(R)), luego

[M](t) := lımn→∞

bt2nc+1

∑i=1

(M(tn,i)−M(tn,i−1))2,

donde tn,i := t ∧ i2n y el modo de convergencia del lımite es en probabilidad.

Nota 2.34 A partir de la definicion 2.33 es posible definir la co-varianza entre dosF -martingalas locales, nulas en cero y con valores en el espacio Polaco (R,B(R)),M1, M2 como

[M1, M2](t) := lımn→∞

bt2nc+1

∑i=1

(M1(tn,i)−M1(tn,i−1))(M2(tn,i)−M2(tn,i−1)),

Por otro lado la variacion cuadratica opcional tambien se puede definir atraves del siguiente resultado de Meyer.

Teorema 2.35 (Descomposicion de Meyer para martingalas locales en R)Sea (Ω,A, P) un espacio de probabilidad, F := (Fn)n≥1 una filtracion en A y(R,B(R)) el espacio medible. Ademas sea (Mt)t∈[0,∞) una F -martingala local nu-la en cero con valores en R, luego

1. Si (τn)n≥1 es la sucesion tiempos de parada que localiza al proceso, es decir es unasucesion de tiempos de parada tales que (Mτn∧t)t∈[0,∞) es una martingala local paracada n, y

2. si ademas existe un proceso creciente, adaptado y con variacion finita sobre intervaloacotados, entonces (M2(t)− [M](t))t∈[0,∞) es una martingala local. [20].

Finalmente el ultimo elemento que debemos introducir antes de enunciar elteorema funcional del lımite central es un movimiento Browniano, ya que ellımite de la sucesion de martingalas sera un movimiento Browniano.

Definicion 2.36 (Movimiento Browniano estandar) [21] Sea (Ω,A, P) un es-pacio de probabilidad y B = (B(t))t≥0 un proceso estocastico con valores en Rd

tales que

1. B(0, ω) = 0, para casi todo ω

22

Page 29: Teorema Funcional del L mite Central para Martingalas

2.2. Enunciado del TFLC para martingalas con saltos acotados

2. B(tn)− B(tn−1), ..., B(t1)− B(t0) son independientes para todo n ≥ 0 y 0 = t0 ≤t1 ≤ · · · ≤ tn < ∞ (incrementos independientes).

3. B(t)− B(s) ∼ B(t + h)− B(s + h) para todo 0 ≤ s < t, h ≥ −s.

4. B(t) − B(s) ∼ N(0, Id(t − s)), donde N(0, Id(t − s)) es una distribucion nor-mal d-dimensional centrada en cero con matriz (de tamano d × d) de co-varianzaId(t− s).

5. t→ B(t, ω) es continua para todo ω.

Entonces B = (B(t))t≥0 se llama movimiento Browniano estandar. Por otro ladosi se cumplen las condiciones 1., 2., 3., 5. y B(t)− B(s) ∼ N(0, C(t− s)), dondeN(0, C(t− s)) es una distribucion normal d-dimensional centrada en cero con ma-triz de co-varianza C, entonces B = (B(t))t≥0 se llama movimiento Brownianocentrada en cero con matriz de co-varianza C.

2.2. Enunciado del TFLC para martingalas con saltosacotados

En esta seccion se expondra el Teorema Funcional del lımite Central paramartingalas bajo la hipotesis extra de que para cada camino los saltos seencuentran acotados. Para poder cuantificar la idea de que los saltos se en-cuentren acotados definiremos la funcion J(X, T) que mide la magnitud delmaximo salto hasta el tiempo T dado por una funcion X ∈ D([0, ∞), Rd),

J(X, T) := sup0≤t≤T

|X(t)− X(t−)|, (2.3)

donde X(t−) := lims↑tX(s) denota el lımite por izquierda de X en el puntot y | · | la norma euclidiana en Rd.

Por otro lado consideramos el espacio de probabilidad (Ω,A, P) yFn := ((Fn,t)t≥0)n≥1 una sucesion de filtraciones asociadas a este espacio.Luego (Mn(t))t≥0 := (Mn,1(t), ..., Mn,k(t))t≥0 es una sucesion de Fn-martingalaslocales (donde cada Fn corresponde a la filtracion asociada a Mn) sobre elespacio de caminos D([0, ∞), Rd). Ademas consideraremos que para t iguala cero Mn es el vector nulo en Rd, es decir Mn(0) = (0, ..., 0). Por ultimoC := (ci,j) denota una matriz de co-varianza (una matriz simetrica, definidapositivamente y con entradas reales).

23

Page 30: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

Ahora consideraremos las siguientes hipotesis:Hipotesis :

Las martingalas locales tienen saltos acotados uniformemente y la cotaes asintoticamente despreciable. Es decir, existe (bn)n≥1 una sucesionde numeros reales y n0 tales que para todo T > 0,

maxi∈1,...,d

J(Mn,i, T) ≤ bn ∀n ≥ n0, P− c.s, (2.4)

y bn → 0 cuando n→ ∞,

para cada par (i, j) con 1 ≤ i, j ≤ d y t > 0,

[Mn,i, Mn,j](t)d−→ ci,jt (2.5)

en R cuando n→ ∞.

Nota 2.37 En la segunda hipotesis del TFLC para martingalas la convergencia endistribucion implica la convergencia en probabilidad ya que el lımite al que convergela co-varianza es constante.

Teorema 2.38 (TFLC para martingalas con saltos acotados) Sea (Ω,A, P) unespacio de probabilidad y (Fn)n≥1 en donde Fn := (Fn,t)t≥0 una sucesion de fil-traciones de A. Sea (Mn)n≥1 una sucesion de Fn-martingalas locales en donde(Mn(t))t≥0 := (Mn,1(t), ..., Mn,d(t))t≥0.Si la sucesion de Fn-martingalas locales cumplen hipotesis (2.4) y (2.5), entoncesexiste un movimiento Browniano d-dimensional (Mt)t≥0 centrado en cero y con ma-triz de co-varianza Ct, donde C es una matriz simetrica, no negativa con entradas

reales, tales que Mnd−→ M en Dd([0, ∞), Rd) cuando n→ ∞.

2.3. Ejemplos: procesos de Poisson compuestos com-pensados y caminatas aleatorias

A lo largo de este trabajo se estudiaran tres ejemplos de sucesiones de pro-cesos estocasticos y se observara bajo cuales hipotesis se cumple el TeoremaFuncional del lımite Central para martingalas. De esta manera los ejemplosa estudiar son una sucesion de procesos re-escalados compuestos compensa-dos de Poisson y una sucesion de caminatas aleatorias con re-escalamientogaussiano.

Procesos de Poisson

Definicion 2.39 (Procesos de Poisson) [15],[4] Sea (Ω,A, P) un espacio de pro-babilidad y (τn)n≥1 una sucesion de variables aleatorias i.i.d definidas sobre (Ω,A, P)

24

Page 31: Teorema Funcional del L mite Central para Martingalas

2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatasaleatorias

tales que τ1 ∼ Exp(λ). Luego σn := τ1 + · · ·+ τn es el n-esimo tiempo de llegada ysi N(t) := maxn ∈ [0, ∞); σn ≤ t entonces N(t) tiene distribucion de Poissoncon parametro λt.

Ahora si la sucesion de tiempos aleatorios (τn)n≥1 es creciente, es decir τn <τn+1 para todo n > 1 entonces

Los incrementos son independientes, es decir para todo n ≥ 1 los in-crementos N(t1)− N(t0), ..., N(tn)− N(tn−1) son independientes y

los incrementos son estacionarios, es decir N(t + h) − N(s + h) ∼N(t)− N(s) ∼ Poiss(λ(t− s)) para todo h ≥ 0 y 0 ≤ s ≤ t,

y (N(t))t≥0 se llama proceso de Poisson. En particular se puede escribircomo

N(t)(ω) =∞

∑k=1

1[σk(ω),∞)(t), (2.6)

en donde el lımite de la suma es c.s.

Definicion 2.40 (Proceso de Poisson compensado) Sea (Ω,A, P) un espaciode probabilidad y (N(t))t>0 un proceso de Poisson sobre (Ω,A, P) con parametroλ > 0. Luego un proceso de Poisson compensado se obtiene al centrar el procesoy como E[N(t)] = λt, entonces (N(t) − λt)t>0, se llama un proceso de Poissoncompensado.

Lema 2.41 Sea (Ω,A, P) un espacio de probabilidad, (N(t))t>0 un proceso dePoisson sobre el espacio (Ω,A, P) y F = (Ft)t≥0 la filtracion natural asociada a(Nt − λt)t>0, donde Ft := (σ(

⋃s≤t N−1

s (B))) y B ∈ (Rd) es un boreliano en Rd.Entonces el proceso compensado de Poisson (Nt − λt)t>0 es una F -martingala.

Demostracion : En primer lugar para cada t el proceso N(t)− λt es integra-ble,

E[|N(t)− λt|] ≤ E[|N(t)|] + E[|λt|]≤ E[|N(t)|] + |λt| < ∞.

En segundo lugar para 0 < s < t,

E[N(t)− λt|Fs] = E[N(t)− N(s) + N(s)− λt|Fs]

= E[N(t)− N(s)|Fs] + E[N(s)|Fs]− λt= E[N(t)− N(s)] + N(s)− λt, porque N(t)− N(s) ⊥ N(s)

y N(s) es Fs −medible,= λt− λs + N(s)− λt= N(s)− λs, P− c.s.

25

Page 32: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

En ocasiones resulta de mas utilidad considerar procesos de Poisson para loscuales los saltos no son siempre de una unidad. Por tal motivo resulta utilconstruir un proceso de Poisson con salto variable a partir de un proceso dePoisson N(t). De esta manera la idea es considerar una sucesion de variablesaleatorias (Zk)k≥1 con valores en Rd tales que su suma desde 1 hasta untiempo N(t) es el nuevo proceso de Poisson con saltos variables, donde lossaltos de este nuevo proceso se encuentran determinados por esta sucesionde variables aleatorias,(Zk)k≥1 .

Definicion 2.42 (Proceso de Poisson compuesto ) Sea (Ω,A, P) un espacio deprobabilidad y (Zk)k≥1 una sucesion de variables aleatorias i.i.d sobre (Ω,A, P) convalores en Rd y con distribucion µ independiente del proceso de Poisson (N(t))t>0.Luego el proceso estocastico (Y(t))t≥0 := (∑N(t)

k=1 Zk)t≥0 se llama proceso compuestode Poisson.

Definicion 2.43 (Proceso de Poisson compuesto compensado )Sea (Ω,A, P) un espacio de probabilidad y (Y(t))t≥0 := (∑N(t)

k=1 Zk)t≥0 un pro-ceso de Poisson compensado (definicion 2.42) definido sobre (Ω,A, P), tales queE[Z1] < ∞. Luego el procesos estocastico (M(t))t≥0 := (Y(t)− E[Y(t)])t≥0 sellama un proceso de Poisson compuesto compensado.

Lema 2.44 Sea (Ω,A, P) un espacio de probabilidad y (Y(t))t≥0 := (∑N(t)k=1 zk)t≥0

un proceso de Poisson compensado (definicion 2.42) definido sobre (Ω,A, P). Luegosi (M(t))t≥0 es un proceso compuesto compensado de Poisson, donde(M(t)) := Y(t)−E[Y(t)] y (Ft)t≥0 es la filtracion natural asociada a (M(t))t>0.Entonces (M(t))t>0 es una Ft-martingala.

Demostracion : En primer lugar E[Y(t)] = λtE[Z1] (ver apendice).En segundo lugar M(t) es integrable para toda t,

E[|Y(t)− λtE[Z1]|] ≤ E[|Y(t)|] + E[|λtE[Z1]|]

≤ E[N(t)

∑k=1|Zk|] + |λt|E[|Z1|]

= E[N(t)]E[|Z1|] + |λt|E[|Z1|]= E[|Z1|](λt + |λt|) < ∞.

26

Page 33: Teorema Funcional del L mite Central para Martingalas

2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatasaleatorias

En tercer lugar

E[Y(t)− λtE[Z1]|Fs] = E[Y(t)−Y(s) + Y(s)− λtE[Z1]|Fs]

= E[Y(t)−Y(s)|Fs] + E[Y(s)|Fs]− λtE[Z1]

= E[Y(t)−Y(s)] + Y(s)− λtE[Z1|Fs],porque Y(t)−Y(s) ⊥ Y(s) yY(s) es Fs −medible,

= λtE[Z1]− λsE[Z1] + Y(s)− λtE[Z1]

= Y(s)− λsE[Z1].

Proposicion 2.45 Sea (Ω,A, P) un espacio de probabilidad, (Zk)k≥1 una sucesionde variables aleatorias i.i.d con distribucion µ, e independientes de N(t), dondeZk := (Zk,1, ..., Zk,d). Ademas supongamos que existe R < ∞ tales que µ(BR(0)) =1 donde BR(0) es la bola de radio R centrada en 0. Luego si (M(t))t≥0 es un procesode Poisson compuesto compensado definido sobre (Ω,A, P) es decir

A(t) := Y(t)−E[Y(t)] :=N(t)

∑k=1

Zk −E[Y(t)].

Entonces el proceso de Poisson re-escalado,

Mn(t) :=A(nt)√

n, (2.7)

converge en distribucion a un movimiento Browniano.

Demostracion En primer lugar los saltos se encuentran uniformemente aco-tados, ya que para T > 0

J(Mn(t), T) =1√n

sup0≤t≤T

|Y(t)−λtE[Z1] − (Y(t−)−λt−E[Z1])|

=1√n

max1≤k≤N(nT)

|Zk|

≤ R√n

n→∞−−−→ 0, con probabilidad 1.

En segundo lugar debemos hallar la variacion cuadratica de Mn. De esta ma-nera si t > 0, para cada n′ ∈ [0, ∞) existe una particion Πn′ := (tj)j∈1,...,n′(donde los tj depende de n′) del intervalo [0, t] tales que|Πn′ | := maxtj |tj − tj−1| entonces para i ≤ k, si Mn,i denota la i-esima com-

27

Page 34: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

ponente de Mn entonces

[Mn,i, Mn,i](t′) = [Ant,i√

n,

Ant,i√n]

= lım|Πn′ |→0

n′

∑j=1

(Antj,i√

n−

Antj−1,i√n

)2

= lım|Πn′ |→0

n′

∑j=1

1n(

N(ntj)

∑j=1

Zj,i −E[Yi(ntj)]−N(ntj−1)

∑j=1

Zj,i + E[Yi(ntj−1)])2

=1n

Nnt

∑j=1

Z2j,i.

Luego como

1n

N(nt) =1n

n

∑k=1

(N(kt)− N((k− 1)t)),

y ademas como para cada n y cada t, los incrementos N(kt)− N((k− 1)t)son independientes y N(kt)− N((k − 1)t) ∼ Poiss(λt) entonces usando laley fuerte de los grandes numeros,

1n

N(nt) n→∞−−−→ E[N(kt)− N((k− 1)t)] = λt P− c.s.

De esta manera existe K ⊂ Ω tales que P(Ω\K) = 1 y para todo ω ∈ K dadoε > 0 existe n′(εω) > 0 tales que |N(nt)

n − λt| < ε para n ≥ n′(εω), luego

N(nt)

∑j=1

Z2j

n=

N(nt)n n

∑j=1

Z2j

n

≤n(λt+ε)

∑j=1

Z2j

npara n ≥ n′(ω)

= (λt + ε)n(λt+ε)

∑j=1

Z2j

n(λt + ε).

Por lo tanto

lımn→∞

N(nt)

∑j=1

Z2j

n≤ lım

n→∞(λt + ε)

n(λt+ε)

∑j=1

Z2j

n(λt + ε).

Ahora usando el teorema fuerte de los grandes numeros obtenemos que

lımn→∞

(λt + ε)n(λt+ε)

∑j=1

Z2j

n(λt + ε)= (λt + ε)E[Z2

1 ] P− c.s,

28

Page 35: Teorema Funcional del L mite Central para Martingalas

2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatasaleatorias

por lo tanto

lımn→∞

N(nt)

∑j=1

Z2j ≤ (λt + ε)E[Z2

j ]

= (λt + ε)E[Z21 ], para n ≥ n′(εω) P− c.s.

De igual manera

N(nt)

∑j=1

Z2j

n≥ (λt− ε)

n(λt+ε)

∑j=1

Z2j

n(λt− ε),

y por lo tanto

lımn→∞

N(nt)

∑j=1

Z2j

n≥ (λt− ε)E[Z2

j ] = (λt− ε)E[Z21 ], P− c.s.

Pero entonces (λt− ε)E[Z21 ] ≤ lımn→∞ ∑N(nt)

j=1 Z2j ≤ (λt + ε)E[Z2

1 ] y como elε es arbitrariamente pequeno

lımn→∞

N(nt)

∑j=1

Z2j

n= λtE[Z2

1 ], P− c.s.

Finalmente como convergencia casi segura implica convergencia en distribu-

cion, [Mn, Mn](t)d−−−→

n→∞λE[Z2

1 ]t.

De igual manera para i 6= l y i, l ≤ k

[Mn,i, Mn,l ](t) = [Ant,i√

n,

Ant,l√n]

= lım|Πn′ |→0

n′

∑j,l=1

(Antn′

j ,i√

n−

Antn′j−1,i√

n)(

Antn′j ,l√

n−

Antn′j−1,l√

n)

=1n

Nnt

∑j,l=1

Zj,iZj,l .

De manera equivalente a el caso en el que i = l, como N(nt)n

n→∞−−−→ λt P-c.s(usando el teorema fuerte de los grandes numeros) obtenemos que

1n

N(nt)

∑j=1

Zj,iZj,ln→∞−−−→ λtE[Zj,iZj,l ] P− c.s,

29

Page 36: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

entonces como convergencia casi segura implica convergencia en distribu-cion,

[Mn,i, Mn,l ](t)d−−−→

n→∞λE[Z1,iZ1,l ]t = λt

∫Z1,iZ1,lµ⊗ µ,

Finalmente como el proceso de Poisson re-escalado se encuentra acotadouniformemente y como la variacion cuadratica opcional, [Mn,i, Mn,l ] conver-ge en distribucion al valor constante λE[z1,i, z1,l ], aplicando el TFLC paramartingalas Mn converge en distribucion a un movimiento con media ceroy covarianza

ci,j =

λE[Z2

1 ] si i = lλE[Z1,iZ1,l ] si i 6= l.

Caminatas aleatorias

Definicion 2.46 (Caminata aleatoria en Z) Sea (Xn)n≥1 una familia de varia-bles aleatorias i.i.d, sobre un espacio de probabilidad (Ω,A, P), tales que

P(Xn = 1) = p y P(Xn = −1) = 1− p, (2.8)

donde p ∈ [0, 1].Luego si Sn := ∑n

k=1 Xk entonces (Sn)n≥1 se llama caminata aleatoria sobre Z.

Nota 2.47 Ahora si p = 12 entonces la caminata aleatoria es simetrica y una mar-

tingala discreta.

Definicion 2.48 (Interpolacion lineal de una caminata aleatoria) [21]Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre un espacio de probabili-dad (Ω,A, P) y Sn = ∑n

k=1 Xk una caminata aleatoria simetrica sobre Z. Luego

Sn(t) :=1√n(Sbntc − (nt− bntc)Xbntc+1), t ∈ [0, 1],

se llama interpolacion lineal con escalamiento Gaussiano de la caminata aleatoriaSn.

Lema 2.49 Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre un espaciode probabilidad (Ω,A, P) y Sn = ∑t

k=1 Xn una caminata aleatoria simetrica sobreZ.Luego Sn(t) := 1√

n (Sbntc − (nt − bntc)Xbntc+1) es una martingala para cada n

con respecto a la filtracion natural (Ft)t>0 := σ(∪s<t(Sn)−1(B)) tales queB ∈ B(Rd).

30

Page 37: Teorema Funcional del L mite Central para Martingalas

2.3. Ejemplos: procesos de Poisson compuestos compensados y caminatasaleatorias

Demostracion En primer lugar es integrable ya que

E[|Sn(t)|] = E[| 1√n(Sbntc − (nt− bntc)Xbntc+1)|],

≤ 1√n[E[|Sbntc|] + |nt− bntc|E[Xbntc+1]]

≤ 1√n|[E[Sbntc]|+ |nt− bntc||E[Xbntc+1]|],

, por la desigualada de Jensen,

=1√n(bntc1 + |nt− bntc|1) < ∞.

En segundo lugar si s < t, tenemos que

Sbntc + (nt− bntc)Xbntc+1 − (Sbnsc + (n(t− s)− bnsc)Xbnsc+1)

∼ Sbn(t−s)c + (ns− bn(t− s)c)Xbn(t−s)c+1 (2.9)

Sbnsc + (ns− bnsc)Xbnsc+1 es Fs-medible (2.10)

Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1 es independiente de Fs.(2.11)

Por lo tanto

E[Sn(t)|Fs]

=1√n

E[Sbntc + (nt− bntc)Xbntc+1|Fs]

=1√n

E[Sbnsc + (ns− bnsc)Xbnsc+1 + (Sbntc + (nt− bntc)Xbntc+1

− (Sbnsc + (ns− bnsc)Xbnsc+1))|Fs]

=1√n

E[Sbnsc + (ns− bnsc)Xbnsc+1

+ Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1|Fs], por (2.9),

=1√n(Sbnsc + (ns− bnsc)Xbnsc+1)

+ E[Sbn(t−s)c + (n(t− s)− bn(t− s)c)Xbn(t−s)c+1], por (2.10) y (2.11),

=1√n(Sbnsc + (ns− bnsc)Xbnsc+1)

= Sn(s).

Proposicion 2.50 Sea (Xn)n≥1 una familia de variables aleatorias i.i.d, sobre unespacio de probabilidad (Ω,A, P) y Sn = ∑n

k=1 Xn una caminata aleatoria simetricasobre Z. Luego si Sn(t) := 1√

n (Sbntc − (nt − bntc)Xbntc+1) es la interpolacion

31

Page 38: Teorema Funcional del L mite Central para Martingalas

2. Objetos principales y el TFLC

lineal con re-escalamiento Gaussiano de Sn, entonces la sucesion Sn(t) cumple elTFLC para martingalas para procesos en D([0, 1]).

Demostracion Por un lado Sn(t) se encuentra acotada uniformemente y lacota tiende a cero ya que para T > 0,

J(Sn(t), T) = sup0≤t≤T

| 1√n

2Xbntc+1|

=2R√

n→ 0, cuando n→ ∞, con probabilidad 1.

En segundo lugar debemos hallar la variacion cuadratica de Sn. De estamanera si t > 0 y Πn := (tn′

j )j∈1,...,n′ es una coleccion de particiones de

[0, t] tales que |Πn′ | := maxtn′j|tn′

j − tn′j−1| entonces

[Sn, Sn](t) = [Sbntc + (nt− bntc)Xbntc+1√

n,

Sbntc + (nt− bntc)Xbntc+1√n

]

= lım|Πn′ |→0

n′

∑j=1

(1√n

S⌊ntn′

j

⌋ + (ntn′j −

⌊ntn′

j

⌋)X⌊

ntn′j

⌋+1

− 1√n

S⌊ntn′

j−1

⌋ + (ntn′j−1 −

⌊ntn′

j−1

⌋)X⌊

ntn′j−1

⌋+1)2 en probabilidad

=1n

bntc

∑j=1

22

=1nbntc4

= 4t.

Finalmente Sn(t) converge en distribucion a un movimiento Browniano conmedia cero y varianza 4t.

32

Page 39: Teorema Funcional del L mite Central para Martingalas

Capıtulo 3

Pre-compacidad de las medidas de lasucesion de martingalas locales

3.1. Herramientas de demostracion: pre-compacidad enespacios de medidas

El enunciado del TFLC para martingalas, como vimos en el capitulo anterior,implica una serie de condiciones que resultan suficientes para que una suce-sion de martingalas sobre un espacio de funciones converja en distribuciona un movimiento Browniano. Es ası como en este capitulo se expondra unacondicion para que una sucesion de variables aleatorias (o de manera masgeneral, una sucesion de medidas de probabilidad) converja.El problema que puede surgir al considerar una sucesion de medidas deprobabilidad es que la medida a la cual el proceso converge debilmente nosea una medida de probabilidad. Por ejemplo consideremos la sucesion dedistribuciones sobre Ω := [0, ∞) con valores en [0, ∞), (Xn)n≥1 donde

Xn(ω) :=

1, si ω ∈ [n− 1, n],0, de lo contrario.

(3.1)

Luego la funcion de distribucion es,

Fn(ω) := P(Xn ≤ ω) =

1 ω ≤ n,0 ω > n.

Ahora F(ω) = lımn→∞ Fn(ω) = 0, por lo tanto si existe una medida de pro-babilidad asociada a esta funcion de distribucion, toma el valor cero en todointervalo de la forma (−k, k) para k entero. Es decir la masa de probabilidadse mueve hacia el infinito.De esta manera para evitar situaciones como la planteada anteriormente sedefinira una nocion de localizacion de las distribuciones que llamaremospre-compacidad en el espacio de medidas.

33

Page 40: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

Definicion 3.1 (Pre-compacidad en el espacio de medidas) Sea S un espaciovectorial polaco y (S,B(S)) el espacio medible. Ademas sea P(S) el conjunto demedidas de probabilidad sobre el espacio (S,B(S)). Luego un conjunto de distribu-ciones Π ⊂ P(M) se llama pre-compacto (en el espacio de medidas) si para todoε > 0 existe un K ⊂ S compacto tales que,

P(K) > 1− ε ∀P ∈ Π. (3.2)

Por otro lado en este trabajo nos interesamos en una definicion de pre-compacidad para una sucesion de variables aleatorias, por lo tanto a par-tir de la definicion de pre-compacidad en el espacio de medidas es posiblerealizar la siguiente definicion.

Definicion 3.2 (Pre-compacidad de variables aleatorias) Sea S un espacio vec-torial polaco, (S,B(S)) el espacio medible y (Ω,A, P) un espacio de probabilidad.Ademas sea L0(Ω, R) el conjunto de variables aleatorias sobre (Ω,A, P) con valo-res reales.Luego Π ⊂ L0(Ω, R) se llama pre-compacto si el conjunto de las medidas de proba-bilidad asociadas a las variables aleatorias en Π son pre-compactas en el sentido dela definicion 3.1, es decir si para todo ε > 0 existe un K ⊂ S compacto tales que

P(X ∈ K) > 1− ε ∀X ∈ Π. (3.3)

Ahora sera de utilidad para mas adelante estudiar como cambia la pre-compacidad bajo funciones continuas y la pre-compacidad en el espacioproducto.

Lema 3.3 (Pre-compacidad bajo funciones continuas) Sea (Xn)n≥1 una suce-sion pre-compacta de variables aleatorias sobre el espacio de probabilidad(Ω,A, P),con valores sobre un espacio metrico S.Sea S′ un espacio metrico y f : S→ S′ una funcion continua, entonces ( f (Xn))n≥1es una sucesion pre-compacta de variables aleatorias con valores sobre el espaciometrico S’.

Demostracion Sea ε > 0, luego como (Xn)n≥1 es pre-compacto existe K ⊆ Scompacto tales que

P(Xn ∈ K) > 1− ε ∀n ≥ 1,

Ahora como f es continua, f (K) es compacto y como K ⊆ f−1 f (K) enton-ces

P( f (Xn) ∈ f (K)) = P(Xn ∈ ( f−1 f )(K)) ≥ P(Xn ∈ K) > 1− ε

para todo n ≥ 1.

34

Page 41: Teorema Funcional del L mite Central para Martingalas

3.1. Herramientas de demostracion: pre-compacidad en espacios de medidas

Lema 3.4 (Pre-compacidad en el espacio producto) Sea Si un espacio metricopara cada i entre 1 y d, y ((Xn,1, ..., Xn,d))n≥1 una sucesion de variables aleatorias de-finidas sobre el espacio producto S1×· · ·×Sd. Entonces la sucesion ((Xn,1, ..., Xn,d))n≥1es pre-compacta si y solo si la sucesion (Xn,i)n≥1 es pre-compacta para cada i.

Demostracion Primero supongamos que ((Xn,1, ..., Xn,d))n≥1 es pre-compacta,luego usando el Lema 3.3 y la continuidad de las proyecciones, las compo-nentes son pre-compactas.En segundo lugar supongamos que tenemos pre-compacidad para cada com-ponente y queremos ver que la sucesion de vectores aleatorios es tambienpre-compacta.Sea Ai ⊆ Si para cada i, luego

A1 × · · · × Ad = ∩di=1π−1

i (Ai) = ∩di=1π−1

i (πi(A1 × · · · × Ad)).

Ahora por definicion de pre-compacidad para cada Si, es posible elegir unsubconjunto compactos Ki de manera que P(Xn,i /∈ Ki) < ε/d para todon ≥ 1.Finalmente como producto finito de compactos es compacto, consideremosel conjunto K1 × ...× Kd, luego

P((Xn,1, ..., Xn,d) /∈ K1 × · · · × Kd) = P(∪di=1Xn,i /∈ Ki)

≤d

∑i=1

P(Xn,i /∈ Ki) < ε.

Luego de introducir el concepto de pre-compacidad en un espacio de medi-das solo falta definir que es compacidad relativa, para poder introducir elTeorema de Prokhorov (Teorema3.6) y su corolario (Corolario 3.9), el cualsera nuestra principal herramienta para determinar la convergencia de unasucesion de variables aleatorias.

Definicion 3.5 (Compacidad relativa) Sea S un espacio metrico y A ⊂ S, talesque toda sucesion en A tiene una sub-sucesion convergente en S, entonces A sellama relativamente compacto.

Teorema 3.6 (Prokhorov (1956)) Sea S un espacio Polaco y M un conjunto demedidas de probabilidad sobre S. Un subconjunto M’ de M es pre-compacto si y solosi es relativamente compacto.

Demostracion La demostracion se encuentra en Billinsgley, Convergence ofProbability Measures Segunda edicion, pagina 57 [2] (ver apendice).

Corolario 3.7 (Convergencia implica compacidad) Sea S un espacio Polaco,X una variable aleatoria sobre S y (Xn)n≥1 una sucesion de variables aleatorias

sobre S. Luego si Xnd−→ X entonces (Xn)n≥1 es pre-compacto.

35

Page 42: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

Demostracion Usando el Teorema de Prokhorov (3.6) es suficiente demos-trar que (Xn)n≥1 es relativamente compacto. De esta manera si (Xni)i≥1 esuna sub-sucesion de (Xn)n≥1, entonces por hipotesis (Xni)i≥1 converge endistribucion a X, por lo tanto toda sub-sucesion de (Xni)i≥1 converge endistribucion y en particular converge a X en distribucion.

Ejemplo 3.8 ( Medidas individuales de probabilidad) Sea M un espacio po-laco y P un conjunto con solo una medida de probabilidad sobre M, luego Pes pre-compacto. En particular todo conjunto finito de medidas es pre-compacto.

Corolario 3.9 (Convergencia en distribucion usando pre-compacidad) Sea Sun espacio polaco y (Xn)n≥1 una sucesion de variables aleatorias con valores en S.

Luego Xnd−→ X si y solo si:

1. La sucesion (Xn)n≥1 es pre-compacta.

2. El limite en distribucion de toda sub-sucesion convergente de (Xn)n≥1 es igual a X.

Demostracion :”=⇒”Por hipotesis (Xn)n≥1 converge a X en distribucion, por lo tanto la sucesion(Xn)n≥1 es relativamente compacta y por el Teorema de Prokhorov (Teorema3.6) es pre-compacta.”⇐=”A partir de la condicion 1. y usando el Teorema de Prokhorov (Teorema 3.6)obtenemos que la sucesion (Xn)n≥1 es relativamente compacta.

Ahora Xnd−→ X quiere decir que para toda funcion continua y acotada

f : S→ R se cumple que ∫f dPXn →

∫f dPX.

Pero entonces por la condicion 2 y la compacidad relativa, toda sub-sucesionde la sucesion de numeros reales (

∫f PXn)n≥1 converge a

∫f PX y por lo

tanto ∫f dPXn →

∫f dPX.

El Corolario 3.9 es el resultado que usaremos para la demostracion del TFLCpara martingalas, por lo tanto para demostrar que la sucesion de martinga-las converge en distribucion debemos dividir la demostracion en dos partes.Segun las condiciones 1 y 2 en el Corolario 3.10, en primer lugar se debedemostrar pre-compacidad de la sucesion y en segundo lugar se debe ca-racterizar el lımite de la sucesion (es decir para toda sucesion existe unasub-sucesion convergente y el limite al que convergen es el mismo, en elcaso de este trabajo el limite es un movimiento Browniano).

36

Page 43: Teorema Funcional del L mite Central para Martingalas

3.1. Herramientas de demostracion: pre-compacidad en espacios de medidas

A continuacion se introducen herramientas (la nocion de estocasticamenteacotado) que nos permiten introducir algunos teoremas que caracterizan lapre-compacidad en el espacio de medidas, con el fin de usar el corolario delTeorema de Prokhorov 3.7 en la demostracion del TFLC (Teorema 2.38).

Definicion 3.10 (Vectores aleatorios estocasticamente acotados) Una sucesionde vectores aleatorios (Xn)n≥1 con valores en Rd se llama estocasticamente acotadasi es pre-compacta.

Por lo tanto para el caso de variables aleatorias con valores en Rd pre-compacidad y estocasticamente acotado coinciden. Sin embargo esto no ocu-rre cuando las variables aleatorias toman valores en un espacio de funciones(por ejemplo D([0, ∞), Rd) o C([0, ∞), Rd) el espacio de funciones continuassobre [0, ∞)), en este caso la condicion de estar estocasticamente acotado esmas debil que la condicion de pre-compacidad.

Definicion 3.11 (Estocasticamente acotado para variables aleatorias deD([0, ∞), Rd)) Sea (Xn)n≥1 una sucesion de variables aleatorias con valores enD([0, ∞), Rd) y ‖ Xn ‖T := sup0≤t≤T |X(t)| donde | · | es cualquier norma en Rd.Luego (Xn)n≥1 es estocasticamente acotado en D([0, ∞), Rd) si la sucesion(‖ Xn ‖T)n≥1 es acotada estocasticamente en el sentido de la definicion 3.10 paracada T > 0.

Ahora nos interesa saber que pasa con la propiedad de estar acotado es-tocasticamente bajo suma y cuando se esta trabajando en el espacio produc-to.

Lema 3.12 (Acotado estocasticamente en D([0, ∞), Rd) por componentes)Una sucesion ((Xn,1, ..., Xn,d))n≥1 en D([0, ∞), Rd) se llama acotado estocasti-camente en D([0, ∞), Rd) si y solo si (Xn,i)n≥1 es acotada estocasticamente enD([0, ∞), R) para cada i, en donde 1 ≤ i ≤ d.

Demostracion En primer lugar usando la norma del supremo

‖ (Xn,1, ..., Xn,d) ‖T = sup0≤t≤T

max0≤i≤d|Xn,i|

= max0≤i≤d sup0≤t≤T

|Xn,i|

= max0≤i≤d‖ Xn,i ‖T.

”=⇒”Como ((Xn,1, ..., XXn,d))n≥1 esta acotado estocasticamente en D([0, ∞), Rd),entonces (‖ (Xn,1, ..., Xn,d) ‖T)n≥1 esta acotado estocasticamente como vectoraleatorio (definicion 3.10) para cada T ≥ 0.Por lo tanto dado ε > 0, existe K ⊂ R compacto tales que

1− ε < P(‖ (Xn,1, ..., Xn,d) ‖T∈ K) = P(max0<i≤d

‖ Xn,i ‖T ∈ K), ∀n ≥ 1,

37

Page 44: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

pero entonces P(‖ Xn,i ‖T∈ K) > 1− ε para todo 1 ≤ i ≤ d y n ≥ 1.”⇐=”Ahora como (Xn,i)n≥1 esta acotado estocasticamente para cada 1 ≤ i ≤ d,dado ε ≥ 0 existen Ki ⊆ R tales que P(‖ Xn,i ‖T /∈ Ki) < ε.Entonces si K := K1 ∪ ...∪ Kd como K es compacto y como i esta entre 1 y d,max0≤i≤d‖ Xn,i ‖T alcanza el maximo en algun i. Por lo tanto

ω ∈ Ω| ‖ Xn,i ‖T (ω) ∈ Ki ⊂ ω ∈ Ω| max0≤i≤d

‖ Xn,i ‖T (ω) ∈ K.

Pero entonces

P(max0≤i≤d

‖ Xn,i ‖T ∈ K) ≥ P(‖ Xn,i ‖T∈ K)

≥ 1− ε,

por lo tanto ((Xn,1, ..., Xn,d))n≥1 es acotado estocasticamente como variablealeatoria en D([0, ∞), Rd).

Lema 3.13 (Acotado estocasticamente en D([0, ∞), Rd) para sumas)Sea ((Xn,1, ..., Xn,d))n≥1 una sucesion de variables aleatorias sobre el espacioD([0, ∞), Rd) tales que (Xn,i)n≥1 esta estocasticamente acotada en D([0, ∞), R)para cada i, donde 0 < i ≤ d, entonces Xn,1 + ... + Xn,d esta estocasticamenteacotado en D([0, ∞), R).

Demostracion Supongamos que (Xn,i)n≥1 esta estocasticamente acotada enD([0, ∞), R) para cada i. Entonces para cada i y T > 0, dado ε > 0 existeKi ⊂ R compacto tales que P(‖ X1,n ‖T∈ Ki) > 1− ε+d−1

d .Ahora la desigualdad triangular ‖ X1 + · · ·+Xd ‖T≤‖ X1 ‖T + · · ·+ ‖ Xd ‖T,implica que

‖ X1,n ‖T (ω) ∈ K1, ..., ‖ Xk,n ‖T (ω) ∈ Kd⊂ ‖ (X1,n + ... + Xd,n) ‖T∈ K1 + ... + Kd,

entonces

d(1− ε + d− 1d

) = 1− ε < P(‖ X1,n ‖T∈ K1, ..., ‖ Xd,n ‖T∈ Kd)

< P(‖ (X1,n + ... + Xd,n) ‖T (ω) ∈ K1 + ... + Kd),

y por lo tanto Xn,1 + ... + Xn,d esta estocasticamente acotado.

Finalmente en este trabajo se estudiara la pre-compacidad sobre dos espa-cios de funciones. El primero hace referencia a la pre-compacidad de unconjunto de medidas definidas sobre el espacio de funciones D([0, ∞), Rd)y lo denotaremos como D-pre-compacidad. El segundo que hace referenciaa la pre-compacidad de un conjunto de medidas definidas sobre el espacio

38

Page 45: Teorema Funcional del L mite Central para Martingalas

3.2. Martingalas estocasticamente acotadas

de funciones continuas definidas sobre [0, ∞), C([0, ∞), Rd), y lo llamaremosC-pre-compacidad.Es importante notar como veremos mas adelante que si un conjunto de me-didas es C-pre-compacto entonces es D-pre-compacto pero no en el sentidoinverso. Esto se debe a que el conjunto de funciones continuas sobre [0, ∞)esta contenido en el conjunto de funciones cadlag D([0, ∞), Rd).

3.2. Martingalas estocasticamente acotadas

A continuacion se estudiaron dos lemas que para el caso de martingalas per-miten reducir la condicion de estar estocasticamente acotado en D([0, ∞), Rd)a una condicion en R.

Lema 3.14 (Desigualdad de Lenglart-Rebolledo) [17] Sea (Ω,A, P) un espa-cio de probabilidad y F una filtracion en A. Sea X un proceso F -adaptado, positivo,con trayectorias en D([0, ∞), R) y Y un proceso creciente, nulo en cero, conti-nua por derecha y F -adaptado. Ademas supongamos que existe c > 0 tales que|∆Y(t)| ≤ c para todo t ≥ 0 P-c.s.Si para todo tiempo de parada finito,τ, con respecto a la filtracion F , obtenemos que

E[X(τ)] ≤ E[Y(τ)], (3.4)

entonces para todo ε, η > 0 y para todo tiempo de parada ,τ, finito P-c.s respecto ala filtracion F ,

P(supt≤τ

X(t) ≥ ε) ≤ 1ε

E[Y(τ) ∧ (η + c)] + P(Y(τ) > η).

Demostracion : En primer lugar la hipotesis E[X(τ)] ≤ E[Y(τ)] para todotiempo de parada finito τ hace referencia a que el proceso X se encuentradominado por el proceso Y [11].Ahora si E[X(τ)] ≤ E[Y(τ)] para un tiempo de parada finito τ, sea ε > 0,n ≥ 1 y σ := ınfs ≤ τ ∧ n; X(s) ≥ ε en donde σ := τ ∧ n sis ≤ τ ∧ n; X(s) ≥ ε = ∅.Luego σ es un tiempo de parada, σ ≤ τ∧ n y de las siguientes desigualdades

E[Y(τ)] ≥ E[Y(σ)] ≥ E[X(σ)] ≥∫

sups≤τ∧n X(s)>εX(σ)dP ≥ εP( sup

s≤τ∧nX(s) > ε),

se obtiene (como en Lenglart [11]) que

P(sups≤τ

X(s) > ε) ≤ 1ε

E[Y(τ)]. (3.5)

En segundo lugar

P(supt≤τ

X(t) ≥ ε) = P(supt≤τ

X(t) ≥ ε, Y(τ) ≤ η) + P(supt≤τ

X(t) ≥ ε, Y(τ) > η)

≤ P(1Y(τ)≤η supt≤τ

X(t) ≥ ε) + P(Y(τ) > η).

39

Page 46: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

En tercer lugar sea S := ınft ≥ 0|Y(t) > η, entonces S ∧ τ es un tiempode parada finito P-c.s y ademas

1Y(τ)≤η supt≤τ

X(t) ≤ supt≤τ∧S

X(t), P− c.s.

En cuarto lugar siguiendo las mismas ideas que con la ecuacion (3.5)

P( supt≤τ∧S

X(t) > ε) ≤ 1ε

E[Y(τ ∧ S)].

Luego en quinto lugar como Y(τ ∧ S) ≤ Y(τ) ∧ (η + c) P-c.s, entonces

P( supt≤τ∧S

X(t) > ε) ≤ 1ε

E[Y(τ) ∧ (η + c)] + P(Y(τ) > η),

y por lo tanto

P(supt≤τ

X(t) > ε) ≤ 1ε

E[Y(τ) ∧ (η + c)] + P(Y(τ) > η).

3.3. Demostracion de la C-pre-compacidad con saltosacotados

En esta seccion se verifica la pre-compacidad en el espacio de medidas de lasucesion de martingalas, para el caso en el que se asumen saltos acotados.Sin embargo antes de empezar con la demostracion necesitamos introdu-cir algunos de Teoremas (Teoremas 3.20, 3.21 y 3.22 ) que permitan sabercuando una sucesion de distribuciones, procesos estocasticos o martingalasen D([0, ∞), Rd) son pre-compactas en D([0, ∞), Rd). Sin embargo antes depoder introducir estos Teoremas es necesario definir que es un modulo decontinuidad y su analogo para funciones en D([0, T], R) donde T ≥ 1.

Un modulo de continuidad es una funcion WTC : R[0,T] × [0, ∞) :→ [0, ∞)

que permite caracterizar cuando una funcion en R[0,T] es continua,

WTC(X, δ) := sup

|t−s|≤δs,t∈[0,T]

|X(t)− X(s)|. (3.6)

40

Page 47: Teorema Funcional del L mite Central para Martingalas

3.3. Demostracion de la C-pre-compacidad con saltos acotados

Ejemplo 3.15 Consideremos el polinomio de grado p, X(r) = ∑pi=0 airi, restringi-

do a [0, T] luego

WTC(X, δ) = sup

|t−s|≤δs,t∈[0,T]

|p

∑i=1

ai(ti − si)|

≤ sup|t−s|≤δs,t∈[0,T]

p

∑i=1|ai||ti − si|

≤p

∑i=1|ai||ti − (t + δ)i|

=p

∑i=1|ai||

i−1

∑j=0

(ij

)tjδi−j|

= δp

∑i=1|ai||

i−1

∑j=0

(ij

)tjδi−j−1|

De esta manera del ejemplo anterior se puede ver como lımδ→0 WTC(X, δ) = 0

lo cual concuerda con el hecho de que los polinomios son funciones conti-nuas, como se expresa en la siguiente nota.

Nota 3.16 Este modulo de continuidad caracteriza a las funciones continuas ya que,X ∈ R[0,T] es continua si

lımδ→0

WTC(X, δ) = 0.

De lo contrario existirıa un ε > 0 y t ∈ [0, T] tales que para todo s ∈ (t− δ, t + δ),|X(t)− X(s)| > ε pero esto contradice la continuidad de X en t.

De igual manera que para el modulo de continuidad, es posible definir unmodulo que caracteriza a las funciones de D([0, T], R),WT

D : R[0,T] × [0, ∞) → [0, ∞). De esta manera para δ > 0 y r, T ≥ 1 esposible definir

Θ(r, T, δ) := (t0, ..., tr) ∈ [0, ∞)r+1| ti < ti+1 ∀i ∈ 0, ..., r− 1,ti − ti−1 > δ ∀i ∈ 1, ..., r, tr = T y t0 = 0

entonces

WTD(X, δ) := ınf

θ∈Θ(r,T,δ)max

i∈1,...,rsup

s,t∈[ti−1,ti)

|X(t)− X(s)|, (3.7)

donde el ınfimo es sobre todos los r ≥ 1 que puede tomar Θ(r, T, δ).

Nota 3.17 Es posible observar que el anterior modulo es un modulo de continuidadpor la derecha, sin embargo caracteriza a D([0, T], R) ya que si X ∈ R[0,T] y existe

41

Page 48: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

t ∈ [0, T] tales que el limite por izquierda no existe entonces lımδ→0 WTD(X, δ) es

necesariamente distinto a cero.Por lo tanto si X ∈ D([0, T], R) entonces

lımδ→0

WTD(X, δ) = 0.

Ejemplo 3.18 Sea (am)m≥1 una sucesion de numeros reales yX(t) := ∑T−1

i=0 ai1[i,T] una funcion con valores reales definida sobre [0, T]. Luegodado θ = (t0, ..., tr) ∈ Θ(r, T, δ)

maxi∈1,...,r

sups,t∈[ti−1,ti)

|X(t)− X(s)| = maxi∈1,...,r

sups,t∈[ti−1,ti)

|abtc − absc|

= max|abti+1c−1 − abtic| | 0 ≤ i < r

Ahora si δ = 1 y θ = (0, 1, ..., T) entoncesmaxi∈1,...,r sups,t∈[ti−1,ti)

|X(t) − X(s)| = 0 y por lo tanto WTD(X, δ) = 0, en

particular lımδ→0 WTD(X, δ) = 0.

De igual manera es posible definir otro modulo que tambien caracteriza a lasfunciones en D y que resultara de utilidad en la demostracion del Teorema3.22,

W ′TD(X, δ) := supt1≤t≤t2t2−t1≤δ

mın|X(t)− X(t1)|, |X(t2)− X(t)| (3.8)

A continuacion presentaremos un lema que permite relacionar los modulospara funciones continuas y los modulos para funciones en D([0, T), Rd).

Lema 3.19 [14] Sea (Ω,A, P) un espacio de probabilidad, X ∈ D([0, T), Rd) unproceso estocastico definido sobre (Ω,A, P), T > 0 y [α, β] ⊂ [0, T]. Ademassupongamos que existe ε > 0 tales que supα≤t≤β |X(t)− X(t−)| ≤ ε.Entonces si restringimos X al intervalo [α, β]

WTC(X, δ) ≤ 2W ′TD(X, δ) + ε (3.9)

Demostracion Sean t′, t” ∈ [α, β] fijos tales que |t′ − t”| ≤ δ y 0 < ε′ < ε.Sea t ∈ [t′, t”] un punto con la propiedad,

|X(t′)− X(t)| < WTD(X, δ) + ε′ si t′ ≤ t ≤ t,

|X(t′)− X(t)| ≥WTD(X, δ) + ε′,

si no existe |X(t′) − X(t”)| < WTD(X, δ) + ε′ la ecuacion (3.9) sigue. Por lo

tanto supondremos que este t existe.Ahora de la definicion de WT

D(X, δ) se sigue que

mın|X(T)− X(t′)|, |X(T)− X(t”)| ≤WTD(X, δ).

42

Page 49: Teorema Funcional del L mite Central para Martingalas

3.3. Demostracion de la C-pre-compacidad con saltos acotados

Por otro lado, como

|X(t′)− X(T)| ≥WTD(X, δ) + ε′

se infiere que|X(T)− X(t”)| ≤WT

D(X, δ).

Entonces

|X(t”)− X(t′)| ≤ |X(t”)− X(T)|+ |X(T)− X(T−)|+ |X(T−)− X(t′)|≤ 2WT

D(X, δ) + ε′ + ε,

ahora como ε′ es arbitrario, puede considerarse tan pequeno como se dese,por lo tanto se obtiene la ecuacion (3.9).

Ahora con el fin de aplicar la definicion de pre-compacidad,Definicion 3.1, el siguiente Teorema permite determinar cuando un subcon-junto de D([0, T], R) tiene clausura compacta.

Teorema 3.20 [2] Sea A un subconjunto del espacio de Skorokhod D([0, T], R).Entonces A tiene clausura compacta si y solo si para todo T > 0 se cumplen lascuatro siguientes afirmaciones

1.supX∈A

supt∈[0,T]

|X(t)| < ∞, (3.10)

2.lımδ→0

supX∈A

W ′TD(X, δ) = 0, (3.11)

3.lımδ→0

supX∈A

WTC(X, [0, δ)) = 0, (3.12)

4.lımδ→0

supX∈A

WTC(X, [T − δ, T)) = 0. (3.13)

Demostracion La idea de la demostracion es en primer lugar mostrar quelas tres ecuaciones (3.11), (3.12) y (3.13) son consecuencia de

lımδ→0

supX∈A

WTD(X, δ) = 0.

En segundo lugar mostrar que lımδ→0 supX∈A WTD(X, δ) y la ecuacion 3.10

implican que A es totalmente acotado (ver definicion en [10]).Sin embargo la demostracion se encuentra en Billingsley, Convergence ofProbability Measures,1968, Teorema 14.4, pagina 119 [2] (ver apendice).

43

Page 50: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

Ahora dado que el Teorema 3.20 permite caracterizar a los conjuntos re-lativamente compactos en D([0, ∞), R), usando la definicion 3.1 de pre-compacidad y dotando a D([0, ∞), R) de la σ-algebra de Borel B(D), esposible probar que una sucesion de distribuciones en D([0, ∞), R) es pre-compacta.

Teorema 3.21 [17] Sea (D,B(D)) el espacio medible asociado a D([0, ∞), R) ysea (Pn)n]≥1 una sucesion de distribuciones sobre (D,B(D)).Ademas supongamos que para todo ε, η > 0 y ∀T ∈ N se cumplen las cuatrosiguientes afirmaciones

1. Existe a > 0 tales que

supn∈N

Pn(X ∈ D| supt∈[0,T]

|X(t)| > a) ≤ η, (3.14)

2. Existe 0 < δ0 < k y n0 ∈N tales que

supn≥n0

Pn(X ∈ D| sups,t<δ0

|X(t)− X(s)| ≥ ε) ≤ η, (3.15)

3. Existe δ1 > 0 y n1 ∈N tales que

supn≥n1

Pn(X ∈ D| supδ1<s<t<T

|X(t)− X(s)| ≥ ε) ≤ η, (3.16)

4. Existe δ2 > 0 y n2 ∈N tales que

supn≥n2

Pn

(X ∈ D| sup

t1<t2≤T|t1−t2|≤δ2

supt1<t≤t2

mın(|X(t)− X(t1)|,|X(t)− X(t2)|) > ε)

(3.17)

≤ η.

Entonces la sucesion (Pn)n]≥1 es D-pre-compacta.

Demostracion La idea de la demostracion es usar la definicion 3.1 de pre-compacidad junto con la caracterizacion de un conjunto compacto en D([0, ∞], R)dada por el Teorema 3.20. De esta manera cada una de las cuatro condicio-nes del Teorema surgen de considerar las cuatro condiciones del Teorema3.20.La demostracion se encuentra en Billingsley, Convergence of ProbabilityMeasures,1968, Teorema 15.3, pagina 125 [2] (ver apendice).

44

Page 51: Teorema Funcional del L mite Central para Martingalas

3.3. Demostracion de la C-pre-compacidad con saltos acotados

Finalmente el siguiente teorema es de nuevo un teorema que caracterizacuando una sucesion de distribuciones es D-pre-compacta. Este teorema sededuce a partir del Teorema 3.21 y es el teorema que emplearemos parala demostracion del Teorema 3.23 el cual permite determinar cuando unasucesion de martingalas es D-pre-compacta.

Teorema 3.22 (D-pre-compacidad en el espacio de medidas) [18] Sea(Ω,A, P) un espacio de probabilidad, (Xn)n≥1 una sucesion de procesos con trayec-torias en D([0, ∞], R) y Fn = (Fn)n≥1 una sucesion de filtraciones de A tales queXn = (Xn(t))t≥0 es Fn,t medible para todo t ≥ 0.Ademas supongamos que para cada T ∈N y para todo ε, η > 0 sigue que,

1. Existe a > 0 (que depende de T y η) tales que

supn∈N

P( supt∈[0,T]

|Xn(t)| > a) ≤ η. (3.18)

2. Existe δ > 0 (que depende de ε, η, δ = δ(ε, η)) y n0 ∈ N tales que para todasucesion de Fn-tiempos de parada acotados por T, se obtiene que

supn≥n0

P( supτn≤s≤τn+δ

s∈[0,T]

|Xn(s)− Xn(τn)| > ε) ≤ η. (3.19)

Entonces (Xn)n≥1 es D-pre-compacto.

Demostracion La idea de la demostracion es mostrar que las dos hipotesisdel Teorema 3.22 implican las cuatro hipotesis del Teorema 3.21.De esta manera como la primera hipotesis de ambos teoremas son la misma(ecuacion (3.14) y (3.19)) solo resta ver como deducir las otras tres hipotesis.La segunda hipotesis del Teorema 3.21 (ecuacion (3.15)) surge al considerarτn = 0 para toda n ≥ 1.La tercera hipotesis (ecuacion (3.16)) se obtiene al considerar δ0 = δ( ε

2 , η2 ), la

desigualdad |Xn(t)− Xn(s)| ≤ |Xn(t)− Xn(T − δ0)|+ |Xn(T − δ0)− Xn(s)|y τn = T − δ0 para toda n ≥ 1, ya que ası se obtiene que

supn≥n0

P( supT−δ0≤s≤t≤T

|Xn(t)− Xn(s)| > ε)

≤ 2 supn≥n0

P( supT−δ0≤s≤T

|Xn(s)− Xn(T − δ0)| >ε

2)

≤ η.

Por ultimo la cuarta hipotesis (ecuacion (3.27)) se obtiene al considerar lasucesion de succiones de tiempos de parada, definidos recursivamente,

τn0 := 0

τnm := ınft > τn

m−1| |Xn(t)− Xn(τnm−1)| >

ε

2, m ∈N

45

Page 52: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

y los conjuntos

A(T, n, u, ε) :=

supt1≤t2≤T|t1−t2|<u

supt∈[t1,t2]

mın|Xn(t)−Xn(t1)|, |Xn(t)−Xn(t2)| > ε

.

Luego la hipotesis cuatro (ecuacion (3.27)) se obtiene al mostrar que

lımu↓0

lım supn↑∞

P(A(T, n, u, ε)) = 0.

Sin embargo la demostracion de este Teorema se encuentra enRebolledo, R.: La methode des martingales appliquee a l’etude de la conver-gence en loi de processus. To appear in Memoires de la Societe Mathemati-que de France. Proposicion II.1.3, pagina 16 [17] (ver apendice).

Teorema 3.23 (Pre-compacidad utilizando la variacion cuadratica opcional)[25] Sea (Mn)n≥1 una sucesion de martingalas locales en D([0, ∞), Rd) tales queMn := (Mn,1, ..., Mn,d) y supongamos que

1. Para cada T > 0 existe n0 y una sucesion (bn)n≥1 de numeros reales tales quebn → 0 cuando n→ ∞ y

J(Mn, T) ≤ bn, P-c.s (3.20)

para n ≥ n0, donde J(X, T) = sup0≤t≤T |X(t)− X(t−)| es la funcion que mideel salto maximo definida en (2.3)

2. La sucesion de procesos de variacion cuadratica opcional [Mn,i] es C-pre-compactapara cada i.

Entonces la sucesion (Mn)n≥1 es C-pre-compacta.

Demostracion :(La demostracion se encuentra en [18]) Para demostrar quela sucesion (Mn)n≥1 es C-pre-compacta es suficiente mostrar que es D-pre-compacta y usar la relacion entre los modulos para funciones continuas yfunciones en D([0, ∞), Rd) con saltos acotados, obtenida a partir del Lema3.19 al considerar las martingalas (Mn)n≥1 no solo restringidas al intervalo[α, β] si no que el intervalo completo [0, T]. Ya que por el Lema 3.19

WTC(Mn, δ) ≤ 2W ′TD(Mn, δ) + bn, (3.21)

y como J(Mn, T) ≤ bn donde bn → 0 cuando n → ∞ (saltos acotados)entonces

WTC(Mn, δ) ≤ 2W ′TD(Mn, δ),

y por lo tanto

lımδ→0

W ′TD(Mn, δ) = 0, implica que lımδ→0

WTC(Mn, δ) = 0. (3.22)

46

Page 53: Teorema Funcional del L mite Central para Martingalas

3.3. Demostracion de la C-pre-compacidad con saltos acotados

De esta manera la idea es utilizar el Teorema 3.22 para demostrar la D-pre-compacidad de la sucesion (Mn)n≥1 de martingalas locales en D([0, ∞), Rd),con filtracion natural Fn para cada n.

Afirmacion 1: Mostramos la ecuacion (3.18) que es la primera condiciondel Teorema 3.22.

1. Por hipotesis para todo T > 0 existe una sucesion (bn)n≥1 tales queJ(Mn, T) ≤ bn P− c.s. En particular, si (Tm)m≥1 es una sucesion creciente denumeros reales tales que lımm↑∞ Tm = ∞ entonces para cada m ≥ 1 existe lasucesion (bn,m)n≥1 tales que J(Mn, Tm) ≤ bn,m P− c.s. Por lo tanto para todon ≥ 1

lımm→∞

J(Mn, Tm) ≤ lımm→∞

bn,m, P− c.s,

lımm→∞

sup0≤t≤Tm

|∆Mn(t)| ≤ lımm→∞

bn,m, P− c.s,

sup0≤t≤lımm→∞ Tm

|∆Mn(t)| ≤ lımm→∞

bn,m, P− c.s,

sup0≤t≤∞

|∆Mn(t)| ≤ lımm→∞

bn,m, P− c.s.

Ahora si J(Mn) := lımT→∞ J(Mn, T) := sup0≤t≤∞ |∆Mn(t)| ycn := lımm→∞ bn,m entonces J(Mn) ≤ cn para todo n ≥ 1.

2. Como ∆[Mn] = (∆Mn)2 entonces

J(Mn) ≤ cn, P− c.s,

implica queJ([Mn]) ≤ (cn)

2, P− c.s.

3. Para todo n y para todo tiempo de parada finito τ,E[M2

n(τ)] ≤ E[[Mn](τ)] (al igual que en la hipotesis (3.4) en el Lema 3.14).De esta manera utilizando el Lema 3.14 se obtiene que para todo tiempo deparada τ y para todo ε, η > 0,

P( supt∈[0,τ]

|Mn(t)| > ε) ≤ 1ε2 E[[Mn](τ) ∧ (η + c2)] + P([Mn](τ) > η). (3.23)

47

Page 54: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

4. Como [Mn] es C-pre-compacto y como [0, η] es compacto entonces existeε′ > 0 tales que P([Mn(τ) > η) < ε′. Ademas como1ε2 E[[Mn](τ)] ∧ (η + c2)] := β < ∞ entonces de la ecuacion (3.23) se obtieneque

P( supt∈[0,τ]

|Mn(t)| > ε) < β + ε′.

Esto muestra la primera condicion del Teorema 3.22.

Afirmacion 2: Ahora mostramos (3.19), la segunda condicion del Teorema3.22 (D-pre-compacidad en el espacio de medidas)

5. Dado un tiempo de parada finito τ, podemos definir la martingala local decuadrado integrable Ln := Mn(T+ t)−Mn(T) con filtracion Gn(t) = Fn(T + t).Luego al igual que en la ecuacion (3.23) se obtiene que

P( supτ≤s≤τ+δ

|Mn(s)−Mn(τ)| > ε) ≤ η + c2

ε2 +P( [Mn](τ+ δ)− [Mn](τ) > η ),

(3.24)para todo ε, δ, η > 0.

6. Sea (τn)n∈N una sucesion de Fn-tiempos de parada acotados por T, P− c.s,y t′, t” numeros reales tales que si |t′ − t”| < δ entonces

W2TC ([Mn], δ) = sup

|t−s|<δs,t∈[0,T]

|[Mn](t)− [Mn](s)| ≥ |[Mn](t′)− [Mn](t”)|.

Luego para todo ε, η, δ,

P([Mn](τn + δ)− [Mn](τn) > η) ≤ P(W2TC ([Mn], δ) > η),

y por lo tanto usando la ecuacion (3.24) obtenemos que

P( supτ≤s≤τ+δ

|Mn(s)−Mn(τn)| > ε) ≤ η + c2

ε2 + P(W2TC ([Mn], δ) > η)

= β < ∞, C-pre-compacidad de [Mn].

Por lo tanto las afirmaciones 1 y 2 del Teorema 3.22 se cumplen y la sucesion(Mn)n≥1 es D-pre compacta y por la ecuacion (3.22) C-pre compacta.

Ahora, como ultimo requisito para la demostracion de la C-pre-compacidadqueremos demostrar que la convergencia en distribucion de la variacioncuadratica, [Mn,i, Mn,j] a ci,jt para cada tiempo t es equivalente a la conver-gencia en distribucion de [Mn,i, Mn,j] a CId(D([0, ∞), R). Sin embargo antes

48

Page 55: Teorema Funcional del L mite Central para Martingalas

3.3. Demostracion de la C-pre-compacidad con saltos acotados

de poder introducir este lema es necesario introducir un teorema de Jacody Shirayaeb (Teorema VI.3.37 de Jacod y Shirayaeb [8]) que expresa como laconvergencia en distribucion en D([0, ∞), R) se puede reducir a la conver-gencia en distribucion de las proyecciones finito dimensionales restringidasa tiempos a un conjunto denso de [0, ∞).

Teorema 3.24 Sea (Ω,A, P) un espacio de probabilidad y (Xn)n≥1 una sucesionde procesos definidos sobre (Ω,A, P), tales que (Xn(t))t≥0, (X(t))t≥0 son procesosno negativos, no decrecientes, continuos por derecha y nulos en 0.Si (X(t))t≥0 es un proceso no negativo, no decreciente, continuo, nulo en 0 yD ⊂ [0, ∞) un subconjunto denso de [0, ∞) tales que

(Xn(t1), ..., Xn(tk))d−→ (X(t1), ..., X(tk)) ∀ti ∈ D, ∀k ≥ 1

Entonces Xnd−→ X como variables aleatorias sobre D([0, ∞), Rd).

Demostracion La demostracion se encuentra en Jacod y Shirayaeb, LimitTheorems for Stochastic Processes, Teorema VI.3.37, pagina 354 [8] (ver apendi-ce).

De igual manera es necesario introducir un lema de W. Whitt [24] sobre laconvergencia de una pareja de sucesiones de procesos estocasticos cuandouno de los limites es determinista.

Teorema 3.25 Sean S′, S′′ espacios metricos separables y (S′,B(S′)), (S′′,B(S′′))los espacios medibles. Sean (Xn)n≥1, (Yn)n≥1 sucesiones de procesos estocasticos en(S′,B(S′)) y (S′′,B(S′′)) respectivamente.Si X es un proceso estocastico en S′ y y es una funcion determinista de [0, ∞) a S′′

tales que Xnd−→ X y Yn

d−→ y, entonces

(Xn, Yn)d−→ (X, y) en S′ × S′′

Demostracion El Teorema se encuentra en Stochastic process limits, W. Whitt,Teorema 11.4.5, pagina 379, [24] (ver apendice).

Por ultimo es necesario introducir el Teorema del mapeo continuo, el cualexpresa que dado una funcion g : S → S′ tales que el conjunto de discon-tinuidades tiene probabilidad cero y una sucesion Xn que converge a X endistribucion entonces g(Xn) converge a g(X) en distribucion.

Teorema 3.26 Sean S′, S′′ espacios metrico separable, (S′,B(S′), P) un espacio deprobabilidad, (S′′,B(S′′)) el espacio medible y S un espacio metrico. Sea (Xn)n≥1una sucesion de procesos estocasticos en (S′,B(S′), P) con valores en (S′′,B(S′′))y g : S′′ → S una funcion tales que el conjunto de discontinuidades, Dg tieneprobabilidad cero, P(Dg) = 0.

Si Xnd−→ X, entonces g(Xn)

d−→ g(X).

49

Page 56: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

Demostracion El Teorema se encuentra en Billingsley, Convergence of pro-bability measures, 1968, Teorema 5.1, pagina 30 [2] (ver apendice).

Lema 3.27 Sea (Ω,A, P) un espacio de probabilidad, (Fn)n≥1 una sucesion defiltraciones en A y (Mn)n≥1 una sucesion de Fn-martingalas en D([0, ∞), Rd).Ademas sea C una matriz de co-varianza k × k, definida no negativa, simetrica ycon entradas reales. Luego

[Mn,i, Mn,j](t)d−→ ci,jt en R cuando n→ ∞

es equivalente a

[[Mn]]d−→ CId en D([0, ∞), Rd2

)

Demostracion En esta demostracion distinguimos dos casos, cuando i = jy cuando i 6= j.

Caso i = j.Afirmacion : Mostramos que la variacion cuadratica converge en distribu-cion en un subconjunto denso de [0, ∞) y por el Teorema 3.24 converge entodo [0, ∞) y por ende en D([0, ∞), Rd).

[Mn,i, Mn,i] es un procesos no-decrecientes para cada i, ci,jt es una funcioncontinua de [0, ∞) a R, y

[Mn,i, Mn,j](t)d−→ ci,jt en R cuando n→ ∞,

para cada t > 0.Entonces

([Mn,i, Mn,j](t1), ..., [Mn,i, Mn,j](tk))d−→ (ci,jt1, ..., ci,jtk),

para todo ti ∈ Q∩ [0, ∞) y k ≥ 1. Pero entonces por el Teorema 3.24

[Mn,i, Mn,j]d−→ ci,j Id en D([0, ∞), Rd).

De esta manera convergencia en distribucion de [Mn,i, Mn,i](t) para cadat ∈ R implica convergencia en distribucion en D([0, ∞), Rd2

).

Caso i 6= j.Afirmacion: En primer lugar re-escribimos la variacion cuadratica [Mn,i, Mn,j]en termino de sumandos para los cuales i = j. En segundo lugar encontra-mos el limite determinista de cada uno de los sumando. En tercer lugarusamos el Teorema 3.25 para mostrar que un vector con cada componenteuno de los sumandos converge en distribucion a un vector con entradas de-terministas para cada t ∈ [0, ∞). En cuarto lugar usamos el Teorema 3.24

50

Page 57: Teorema Funcional del L mite Central para Martingalas

3.3. Demostracion de la C-pre-compacidad con saltos acotados

para mostrar la convergencia en distribucion en D([0, ∞), R). Finalmente laconvergencia en distribucion en la suma se obtiene usando el Teorema 3.26.

1. Consideramos la siguiente representacion de [Mn,i, Mn,j] obtenida del capi-tulo 1.8 de Lipster y Shirayaeb [12]

2[Mn,i, Mn,j] = [Mn,i + Mn,j, Mn,j + Mn,i]− [Mn,i, Mn,i]− [Mn,j, Mn,j].

Por lo tanto usando el Teorema del mapeo continuo

[Mn,i + Mn,j, Mn,j + Mn,i]d−→ 2ci,jt + ci,it + cj,jt, en R.

2. Ahora usando el Teorema 3.25 obtenemos

([Mn,i + Mn,j, Mn,j + Mn,i],[Mn,i, Mn,i], [Mn,j, Mn,j])

d−→ (2ci,jt + ci,it + cj,jt, ci,it, cj,jt), en R.

3. Usando el Teorema 3.24 al igual que en el caso i = j

([Mn,i + Mn,j,Mn,j + Mn,i], [Mn,i, Mn,i], [Mn,j, Mn,j])

d−→ (2ci,j Id + ci,i Id + cj,j Id, ci,i Id, cj,j Id), en D([0, ∞), R).

4. Usando el Teorema 3.26 para la suma

[Mn,i, Mn,j] =12([Mn,i + Mn,j, Mn,j + Mn,i]− [Mn,i, Mn,i]− [Mn,j, Mn,j])

d−→ (ci,j Id), en D([0, ∞), R).

De esta manera convergencia en distribucion de [Mn,i, Mn,j](t) para cadat ∈ R implica convergencia en distribucion en D([0, ∞), Rd2

) para el casoi 6= j tambien.

51

Page 58: Teorema Funcional del L mite Central para Martingalas

3. Pre-compacidad de las medidas de la sucesion de martingalas locales

Corolario 3.28 C-compacidad en el TFLC para martingalas locales asu-miendo saltos acotados uniformemente Sea Mn ≡ ((Mn,1, ..., Mn,d),Fn,t)n≥1una sucesion de martingalas locales en D([0, ∞), Rd) que satisface las condicionesdel Teorema 2.38. Entonces la sucesion es C-compacta.

Demostracion :

1. Por las hipotesis del Teorema 2.38 los incrementos se encuentran acotadosuniformemente y

[Mn,i, Mn,j](t)d−→ ci,jt en R para cada i,j entre 0 y d.

2. Por el Corolario 3.27 [[Mn]]d−→ cId en D([0, ∞), Rd).

3. Como el limite es determinista y continuo, los caminos son continuos y porende usando el Corolario 3.7 la sucesion ([[Mn]])n≥1 es C-pre-compacta.

4. Por el Teorema 3.23 la sucesion (Mn,i)n≥1 es C-pre-compacta.

52

Page 59: Teorema Funcional del L mite Central para Martingalas

Capıtulo 4

Caracterizacion del lımite

4.1. Herramientas de demostracion: Teorema de Levy

En este capıtulo empezaremos con la demostracion de la segunda parte delTeorema 2.38 (Teorema Funcional del Limite Central para martingalas consaltos acotados) usando el Corolario 3.9, es decir, caracterizar el lımite de lasucesion de martingalas.En la caracterizacion del lımite se usara el Teorema de Levy, que caracterizaun movimiento Browniano. Sin embargo, para poder introducir este Teore-ma es necesario presentar algunos resultados sobre la preservacion en ellımite de la propiedad de las martingalas, la propiedad de ser una martinga-la local y la variacion cuadratica opcional, asumiendo algunas condicionesde regularidad. Ademas de algunas herramientas extras necesarias para lademostracion del Teorema de Levy.

Lema 4.1 [9] Sea X un vector aleatorio d-dimensional en (Ω,A, P). Ademas su-pongamos que G es una sub-σ-algebra de A, y que P-c.s para ω ∈ Ω existe unafuncion ϕ(ω, ·) : Rd → C tales que para cada u ∈ Rd,

ϕ(ω, u) = E[ei〈u,X〉|G](ω), ,

donde 〈·, ·〉 es un producto interno en Rd.Si para ω ∈ Ω, ϕ(ω, ·) es la funcion caracterıstica para alguna medida de probabi-lidad Pω en (Rd,B(Rd)), es decir

ϕ(ω, ·) =∫

Rdei〈u,X〉Pω(dx),

entonces para cada Γ ∈ B(Rd)

P[X ∈ Γ|G](ω) = Pω(Γ).

53

Page 60: Teorema Funcional del L mite Central para Martingalas

4. Caracterizacion del limite

Demostracion Sea Q una distribucion condicional y regular (Klenke [10])para la variable aleatoria X, dado G. Luego para cada u ∈ Rd fijo, es posibleusar funciones indicatriz para obtener,

ϕ(ω, u) := E[ei〈u,x〉|G](ω) =∫

Rdei〈u,x〉Q(ω, dx), P− c.s ω. (4.1)

Ahora el conjunto de ω para los cuales la ecuacion (4.1) no se cumple pue-de depender de u, sin embargo, como Rd es separable es posible escogerun subconjunto enumerale denso D en Rd y un evento Ω ∈ F tales queP(Ω) = 1 y la ecuacion (4.1) es validad para todo ω ∈ Ω y u ∈ D. Ademas,como la funcion exponencial es continua podemos concluir que la ecuacion(4.1) es validad para todo ω ∈ Ω y u ∈ Rd. Finalmente, como una medida deprobabilidad esta determinada de manera unica por su funcion caracterısti-ca, tenemos que Pω = Q(ω, ·) para P- c.s ω y el resultado se sigue de ladefinicion de una medida condicional y regular.

Teorema 4.2 Sea (Ω,A, P) un espacio de probabilidad y M(t) := (M1(t), ..., Md(t))un vector de martingalas locales continuas enMc,loc con filtracion F := (Fn)n≥0.Ademas, sea A(t) := (A1(t), ..., Ad(t)) un proceso en Rd adaptado a F , convariacion acotada y B(0) = 0. Luego si X(t) = X(0) + A(t) + M(t) donde0 ≤ t < ∞ y X(0) es un vector aleatorio F0-medible en Rd, y ademas si f (t, x) :[0, ∞)×Rd → R esta en C1,2.Entonces P-c.s para cada t ≥ 0,

f (t, X(t)) = f (0, X(0)) +∫ t

0

∂tf (s, X(s))ds +

d

∑i=1

∫ t

0

∂xif (s, X(s))dBi(s)

+d

∑i=1

∫ t

0

∂xif (s, X(s))dMi(s)

+12

d

∑i=1

d

∑j=1

∫ t

0

∂2

∂xi∂xjf (s, X(s))d[Mi, Mj](s). (4.2)

Demostracion La demostracion de este Teorema no se realizara ya que esextensa y su demostracion no brinda mayor claridad al tema tratado en estetrabajo. Se encuentra en el Teorema 3.6 de Karatzas and Shreve, BrownianMotion and Stochastic Calculus, pag. 153 [9]. Sin embargo, la idea de laprueba es escoger una particion del intervalo [0, t] de la forma0 < t0 < ... < tk < t, escribir f (t, Xt) de la forma

f (t, Xt) =k

∑i=1

f (tk, X(tk))− f (tk−1, X(tk−1)),

expandir f (tk, X(tk))− f (tk−1, X(tk−1)) usando Taylor hasta segundo orden,estimar esta ecuacion y tomar el lımite cuando el tamano de la particiontiende a cero, para obtener la ecuacion 4.2 P-c.s.

54

Page 61: Teorema Funcional del L mite Central para Martingalas

4.1. Herramientas de demostracion: Teorema de Levy

Teorema 4.3 (P. Levy (1948)) Sea (Ω,A, P) un espacio de probabilidad y (Ft)t≥0una filtracion en A. Ademas sea X(t) := (X1(t), ..., Xd(t)) un proceso continuo y(F )t adaptado en Rd, tales que para cada 1 ≤ k ≤ d el proceso

Mk(t) = Xk(t)− Xk(0), 0 ≤ t < ∞, (4.3)

es una Ft-martingala local y continua con variacion cuadratica dada por

[Mk, Mj](t) = ci,jt; 1 ≤ k, j ≤ d, t ≥ 0 (4.4)

Entonces (X(t),Ft)t≥0 es un movimiento Browniano d dimensional de tipo (0,C),donde C es una matriz de co-varianza.

Demostracion : Para demostrar que (X(t),Ft)t≥0 es un movimiento Brow-niano estandar debemos mostrar que para 0 ≤ s < t,

X(t)− X(s) es independiente de Fs y,

X(t) − X(s) es una distribucion normal d-dimensional con media cero ymatriz de co-varianza C(t− s).

Ahora para demostrar el Teorema de Levy, usando el Lema 4.1 es suficientemostrar que

E[ei〈u,X(t)−X(s)〉|Fs] = e−12 ‖u‖2(t−s), P− c.s.

1. Sea u = (u1, ..., ud) ∈ Rd fijo. Luego como

∂xjf (x) = iuj f (x),

∂xj∂xkf (x) = −ujuk f (x),

entonces usando el Teorema 4.2 obtenemos que

ei〈u,X(t)〉 = ei〈u,X(s)〉+ id

∑j=1

uj

∫ t

sei〈u,X(v)〉dMj(v)−

12

d

∑j=1

d

∑i=1

ujci,jui

∫ t

sei〈u,X(v)〉dv.

(4.5)

2. Como | f (x)| ≤ 1 para todo x ∈ Rd y como [Mj(t)] = t se infiere queMj ∈ Mc

2 y por lo tanto,

E[∫ t

sei〈u,X(v)〉dMj(v)|Fs] = 0, P− c.s.

55

Page 62: Teorema Funcional del L mite Central para Martingalas

4. Caracterizacion del limite

3. Al multiplicar la ecuacion (4.5) por e−i〈u,X(s)〉1A donde A ∈ Fs y tomar el

valor esperado se obtiene que,

E[ei〈u,X(t)−X(s)〉1A] = P(A)− 1

2(uTCu)

∫ t

sE[e−i〈u,X(v)−X(s)〉

1A]dv. (4.6)

4. Al resolver la ecuacion (4.6) para la funcion deterministat→ E[ei〈u,X(t)−X(s)〉

1A] se obtiene que

E[ei〈u,X(t)−X(s)〉1A] = P(A)e−

12 (u

TCu)(t−s), para cada A ∈ Fs,

luego

E[ei〈u,X(t)−X(s)〉|A] =E[ei〈u,X(t)−X(s)〉

1A]

P(A)= e−

12 (u

TCu)(t−s),

para cada A ∈ Fs,

y entonces

E[ei〈u,X(t)−X(s)〉|Fs] = e−12 (u

TCu)(t−s).

Teorema 4.4 (Conservacion de la propiedad de las martingalas)Sea (Ω,A, P) un espacio de probabilidad y supongamos que se cumplen las siguien-tes tres hipotesis

1. (Xn)n≥1 es una sucesion de procesos en D([0, ∞), Rd) definida sobre (Ω,A, P),

2. (Mn)n≥1 es una sucesion de martingalas en D([0, ∞), R) con respecto a la filtra-cion generada por (Xn, Mn)n≥1 y definida sobre (Ω,A, P), ademas

3. (Xn, Mn)n≥1d−→ (X, M) en D([0, ∞), Rd+1) cuando n→ ∞.

Si ademas (Mn(t))n≥1 es integrable uniformemente para cada t > 0 (en donde n esvariable y t fijo), entonces (M(t))t≥0 es una martingala con respecto a la filtraciongenerada por (X, M).

Demostracion : Sean Fn,t : t ≥ 0 y Ft : t ≥ 0 las filtraciones generadaspor (Xn, Mn) y (X, M) en A.Ademas consideremos el espacio medible (D([0, ∞), Rd+1),B(D([0, ∞), Rd+1)))con filtracion Dd+1 := (Dd+1

t )t en B(D([0, ∞), Rd+1)).Es importante notar que la σ-algebra de Borel generada por la metrica deSkorokhod coincide con la σ-algebra generada por las proyecciones finitodimensionales, πt1,...,tk(X), (donde πt1,...,td(X) : D([0, ∞), Rd)→ Rkd tales queπt1,...,tk(X) := (X(t1), ..., X(tk) para todo k ≥ 1) ya que las proyecciones

56

Page 63: Teorema Funcional del L mite Central para Martingalas

4.1. Herramientas de demostracion: Teorema de Levy

son B(D([0, ∞), Rd+1))-medibles (ver Billinsgley, Convergence of probabi-lity measures pag. 121 [2]).

Luego la idea es poder relacionar estas dos filtraciones, para esto conside-remos a (X, M) y (Xn, Mn) como variables aleatorias definidas en (Ω,A, P)con valores en (D([0, ∞), Rd+1),B(D([0, ∞), Rd+1))), con filtracionDd+1 := Dd+1

t : t ≥ 0.

Por otro lado sea f : Dd+1 → R una funcion Dd+1t -medible, acotada y conti-

nua, entonces f(X) depende de X ∈ Dk+1 solamente en el intervalo [0, t].Ahora consideremos la funcion (X, M) : Ω → D([0, ∞), Rd). Luego, sit1, t2 ∈ [0, ∞) son puntos casi siempre continuos de (X, M) tales que t1 < t2entonces f ((X, M)) es Ft1-medible y f ((Xn, Mn)) es Fn,t1-medible para cadan ≥ 1.

Por otro lado, como

( f ((Xn, Mn)), Mn(t2), Mn(t1))d−→ ( f ((X, M)), M(t2), M(t1)),

en R3 cuando n→ ∞,

entonces por el Teorema 3.26 para la diferencia y el producto se obtiene que

f ((Xn, Mn))(Mn(t2)−Mn(t1))d−→ f ((X, M))(M(t2)−M(t1)),

en R cuando n→ ∞.

Luego como f esta acotada, por integrabilidad uniforme de Mn(ti)

E[ f ((Xn, Mn))(Mn(t2)−Mn(t1))]→ E[ f ((X, M))(M(t2)−M(t1))], (4.7)cuando n→ ∞. (4.8)

Ademas como f (Xm, Nm) es Fn,t1-medible para cada n

E[ f ((Xn, Mn))(Mn(t2)−Mn(t1))] (4.9)= E[E[ f ((Xn, Mn))(Mn(t2)−Mn(t1))|Fn,t1 ]],= E[ f ((Xn, Mn))E[(Mn(t2)−Mn(t1))|Fn,t1 ]],= 0 ∀n ≥ 1,

en donde se uso la propiedad de las martingalas en el ultimo paso. Luegopor las ecuaciones (4.7) y (4.9)

E[ f ((X, M))(M(t2)−M(t1))] = 0. (4.10)

57

Page 64: Teorema Funcional del L mite Central para Martingalas

4. Caracterizacion del limite

Ahora por el Teorema de la clase monotona (ver Ethier, Kurtz pg 497 corola-rio 4.4 [5]) el argumento previamente usado sigue siendo valido para cual-quier funcion Dd+1

t -medible con valores reales. En particular si A ∈ Dd+1t ,

entoncesE[1(X,M)∈A(Mn(t2)−Mn(t1))] = 0, (4.11)

pero entonces, para cualquier B ∈ Ft1

E[1B(Mn(t2)−Mn(t1))|Ft1 ] = 0, (4.12)

la cual es la propiedad de las martingalas para los tiempos t1 y t2. Final-mente esta propiedad se obtiene para tiempos generales si se consideran loslimites por la derecha, usando el hecho que las funciones en D([0, ∞), Rd+1)son continuas por derecha.

Teorema 4.5 (Conservacion de la propiedad de las martingalas locales )Supongamos que las condiciones 1,2,3 del Teorema 4.4 se cumplen y que ademas(Mn)n≥1 es una sucesion de martingalas locales con saltos acotados, es decir paracada T > 0 existe n0 y una constante K tales que

J(Mn, T) ≤ K para toda n ≥ n0, P− c.s. (4.13)

Entonces M es una martingala local con respecto a la filtracion generada por X.

Demostracion La demostracion se encuentra en el Corolario IX.1.19 de laproposicion IX.1.17 en la pagina 527 de Limit Theorems for Stochastic Pro-cesses de Jacod & Shiryaev.

Teorema 4.6 (Conservacion de la variacion cuadratica opcional) Sea (Mn)n≥1

una sucesion de martingalas locales tales que Mnd−→ M en D. Si ademas, para cada

T > 0 existe una constante positiva n0 y una constante K tales que

E[J(Mn, T)] ≤ K para todo n ≥ n0, (4.14)

entonces(Mn, [Mn])

d−→ (M, [M]) en D2, (4.15)

Demostracion La demostracion se encuentra en el Corolario VI.6.29 del Teo-rema VI.6.26 en la pagina 385 de Limit Theorems for Stochastic Processes deJacod & Shiryaev.

4.2. Identificacion del lımite con saltos acotados

Teorema 4.7 (Caracterizacion del lımite)Sea (Mn)n≥1 := ((Mn,1, ..., Mn,d),Fn,t)n≥1 una sucesion de martingalas locales,

58

Page 65: Teorema Funcional del L mite Central para Martingalas

4.2. Identificacion del lımite con saltos acotados

d-dimensional y con saltos acotados, es decir para todo T > 0 existe n0 y K talesque

J(Mn,i, T) ≤ K para todo n ≥ n0, P− c.s. (4.16)

Ademas sea M := (M1, ..., Md) un proceso d-dimensional continuo tales que

M(0) = (0, ..., 0), Mnd−→ M en Dd, y para todo t > 0 y i, j ∈ 1, .., d

[Mn,i, Mn,j](t)d−→ Ci,jt cuando n→ ∞.

Entonces M es un movimiento Browniano d-dimensional de tipo (0,C), es decir C esuna matriz de co-varianza y

E[M(t)] = (0, ..., 0) y E[M(t)M(t)∗] = Ct,

Demostracion : Primero consideramos el proceso

Mn,θ :=d

∑i=1

θi Mn,i, (4.17)

en donde θ := (θ1, ..., θd) es un vector arbitrario no nulo, para despues de-mostrar usando el Teorema 4.5 que el limite en distribucion, Mθ , es unamartingala local. Segundo usamos el Teorema 4.6 para mostrar que la varia-cion cuadratica en el limite se preserva. Tercero usamos el Teorema de Levy(Teorema 4.3) para mostrar que Mθ es un movimiento Browniano del tipo(0,C). En cuarto lugar como θ es arbitrario es posible escogerlo de tal maneraque el Teorema se cumpla.

1.

[Mn,θ ](t) =d

∑i=1

θi[Mn,i](t),

=d

∑i=1

k

∑j=1

θiθj[Mn,i, Mn,j](t)d−→ Cθt, en R cuando n→ ∞,

en donde Cθ = ∑di=1 ∑d

j=1 θiθjCi,jt. Ahora como por hipotesis tenemos queMn,i tiene saltos acotados, entonces

J(Mn, T) = sup0≤t≤T

‖ Mn(t) ‖Rd (4.18)

≤ max0≤t≤T

‖ Mn,i(t) ‖R

≤ K.

Ahora si tomamos Mn como el elemento aleatorio Xn en Dd definido enel Teorema 4.4 y Mn,θ como el elemento aleatorio Mn en D definido en elTeorema 4.4, entonces se cumplen las condiciones 1,2,3 definidas en el Teo-rema 4.5. Luego por la ecuacion 4.15 tenemos que los saltos estan acotadosy entonces por el Teorema 4.5 Mθ = ∑d

i=i θi Mi es una martingala local.

59

Page 66: Teorema Funcional del L mite Central para Martingalas

4. Caracterizacion del limite

2. Las hipotesis del Teorema 4.6 se siguen cumpliendo por los argumentosprevios, por lo tanto tenemos que [Mθ ] = Cθt.

3. Por el Teorema de Levy ( Teorema 4.3) Mθ es un movimiento Brownianod-dimensional del tipo (0,C) con los momentos expuestos en el teorema.

4. Al considerar θ con unos solo en una o dos coordenadas 1 ≤ i, j ≤ d entoncesse puede reconstruir la matriz de co-varianza de (M(t))t≥0.

60

Page 67: Teorema Funcional del L mite Central para Martingalas

Apendice A

Apendice

A.1. Calculo de los primeros momentos de un procesocompuesto de Poisson

Sea (Ω,A, P) un espacio de probabilidad y (Zk)k≥1 una sucesion de varia-bles aleatorias i.i.d sobre (Ω,A, P) con valores en Rd y con distribucion µindependiente del proceso de Poisson (N(t))t>0.Luego (Y(t))t≥0 := (∑N(t)

k=1 Zk)t≥0 es un proceso de Poisson compuesto.

A continuacion calculamos los dos primeros momentos de un proceso com-puesto de Poisson. Primero hallamos la funcion caracterıstica.

ϕ~Yt(~α) = E[ei<~α,~Yt(~α)>]

= E[ei<~α,∑Ntk=1 ~zk>]

= E[ei ∑Ntk=1<~α,~zk>]

=∞

∑n=0

E[ei ∑Ntk=1<

~α,~zk>|Nt = n]P(Nt = n)

=∞

∑n=0

E[ei ∑nk=1<~α,~zk > |Nt = n]P(Nt = n)

=∞

∑n=0

E[Πnk=1ei<~α,~z1>]ne−λt (λt)n

n!

= e−λt∞

∑n=0

ϕn~Y1

(λt)n

n!

= e−λteϕ ~Y1λt

= eλt(ϕ ~Y1(~α)−1)

= eλt∫

Rd (ei<~α,~z1>)d(~z1)

61

Page 68: Teorema Funcional del L mite Central para Martingalas

A. Apendice

Donde en la linea 7, se uso la independencia de (~zk)k≥1 con (Nt)t≥1 y elhecho que la succecion (~zk)k≥1 son iid.

Ahora el calculo del primer momento

E[~Yt] =1i5 ·ϕ~Yt

(~α)|~α=0

=1i(iλt

∫Rd

ei<~α,~z1>d(~z1)eλt∫

Rd (ei<~α,~z1>)−1d(~z1))

=1i(iλtE[z1,1], ..., iλtE[z1,k])

= λtE[~z1]

De igual manera el calculo del segundo momento

E[|~Yt|2] =1i2∇

2ϕ~Yt(~α|~α=0)

=1i2 (i

2λtE[z21,1] + (λt)2i2E[z1,1]

2, ..., i2λtE[z21,k] + (λt)2i2E[z1,k]

2)

=1i2 [i

2λtE[|z1|2] + i2(λt)2E[~z1]2]

= λtE[|~z1|2] + (λt)2E[~z1]2

A.2. Teoremas del lımite central clasico

Teorema A.1 (De Moivre-Laplace): Sea (Xi)i≥1 una sucesion de variables alea-torias i.i.d definidas sobre el espacio de probabilidad Ω,A, P, tales queXi ∼ pδ1 + (1 − p)δ−1. Luego para cualquiera dos constantes a y b tales que−∞ < a < b < ∞, se obtiene que

lımn→∞

P(a <Sn − np√

npq≤ b) =

1√2π

∫ b

ae−

x22 dx. (A.1)

Teorema A.2 Teorema del Limite Central de Lindeberg y Levy: Sea (Xi)i≥1una sucesion de variables aleatorias i.i.d, tales que E[Xn] = m < ∞ yVar[Xn] = σ2 < ∞. Sea Sn := ∑n

i=0 Xn entonces

Sn −E[Sn]

n√

nd−→ N (0, 1) cuando n→ ∞. (A.2)

Teorema A.3 Teorema de Donsker: Sea (Xi)i≥1 una sucesion de variables alea-torias i.i.d con distribucion de de Bernoulli definidas sobre el espacio de probabili-dad (Ω,A, P), Sn(t) := X1 + ... + Xn una camina aleatoria en una dimension y(B(t))t∈[0,1] un movimiento Browniano 1-dimensional. Luego si

62

Page 69: Teorema Funcional del L mite Central para Martingalas

A.3. Tipos de convergencia de vectores aleatorios

(Sn(t))t∈[0,1] := 1√n (Sbntc − (nt − bntc)Xbntc−1) ( interpolacion lineal con esca-

lamiento Gaussiano ) y Φ : C([0, 1], R) → R un operador continuo y acotado.Entonces

lımn→∞

EΦ(Sn(.)) = EΦ(B(.)) (A.3)

A.3. Tipos de convergencia de vectores aleatorios

Definicion A.4 (Convergencia casi siempre, c.s) Sea (Ω,A, P) un espacio deprobabilidad, (E, d) un espacio metrico y (E,B(E)) un espacio medible (donde B(E)es la σ-algebra generada por la topologıa inducida por la metrica d) y sea (Xn)n≥1(sucesion de procesos estocasticos) y X procesos estocasticos con valores en E. LuegoXn converge a X casi seguro o c.s, Xn

c.s−→ X, si

P(Xn → X) = 1,

donde→ expresa la convergencia puntual para cada camino.

Definicion A.5 (Convergencia en probabilidad) Sea (Ω,A, P) un espacio deprobabilidad, (E, d) un espacio metrico y (E,B(E)) un espacio medible (donde B(E)es la σ-algebra generada por la topologıa inducida por la metrica d) y sea (Xn)n≥1(sucesion de procesos estocasticos) y X procesos estocasticos con valores en Rn. Lue-go Xn converge a X en probabilidad, Xn

P−→ X, si para todo ε > 0

P(ρ(Xn, X) > ε)→ 0 cuando n→ ∞.

Definicion A.6 (convergencia en Lp) Sea (Ω,A, P) un espacio de probabilidad,(E, d) un espacio metrico y (E,B(E)) un espacio medible (donde B(E) es la σ-alge-bra generada por la topologıa inducida por la metrica d). Ademas sea (Xn)n≥1 (su-cesion de procesos estocasticos) y X procesos estocasticos con valores en Rn. Luego

Xn converge a X en Lp, XnLp−→ X, si

(∫|Xn(ω)− X(ω)|pdPXn(dω))

1p → 0 cuando n→ ∞.

Definicion A.7 (Convergencia en distribucion) Sea (Ω,A, P) un espacio deprobabilidad, (E, d) un espacio metrico y (E,B(E)) un espacio medible (donde B(E)es la σ-algebra generada por la topologıa inducida por la metrica d) y sea (Xn)n≥1(sucesion de procesos estocasticos) y X procesos estocasticos con valores en E. Luego

Xn converge a X en distribucion, Xnd−→ X, si∫

f dPXn(dω)n→∞−−−→

∫f dPX(dω),

donde f es una funcion A-medible y acotada.

63

Page 70: Teorema Funcional del L mite Central para Martingalas

A. Apendice

A.4. Anexo de las demostraciones de algunos teoremas

Teorema A.8 (Prokhorov (1956)) [2] Sea S un espacio polaco y M un conjuntode medidas de probabilidad sobre S. Un subconjunto M’ de M es pre-compacto si ysolo si es relativamente compacto.

Demostracion Demostracion tomada de Billinsgley, Convergence of Proba-bility Measures Segunda edicion, pagina 57 [2]

64

Page 71: Teorema Funcional del L mite Central para Martingalas

A.4. Anexo de las demostraciones de algunos teoremas

Teorema A.9 [2] Sea A un subconjunto del espacio de Skorokhod D([0, T], R).Entonces A tiene clausura compacta si y solo si para todo T ≥ 1 se cumplen lascuatro siguientes afirmaciones

1.supX∈A

supt|X(t)| < ∞, (A.4)

2.lımδ→0

supX∈A

W ′TD(X, δ) = 0, (A.5)

3.lımδ→0

supX∈A

WTD(X, [0, δ)) = 0, (A.6)

4.lımδ→0

supX∈A

WTD(X, [T − δ, T)) = 0. (A.7)

65

Page 72: Teorema Funcional del L mite Central para Martingalas

A. Apendice

Demostracion Demostracion tomada de Billingsley, Convergence of Proba-bility Measures,1968, Teorema 14.4, pagina 119 [2]

66

Page 73: Teorema Funcional del L mite Central para Martingalas

A.4. Anexo de las demostraciones de algunos teoremas

67

Page 74: Teorema Funcional del L mite Central para Martingalas

A. Apendice

Teorema A.10 [17] Sea (D,B(D)) el espacio medible asociado a D([0, ∞), R) ysea (Pn)n]≥1 una sucesion de distribuciones sobre (D,B(D)).Ademas supongamos que para todo ε, η > 0 y T ∈ N se cumplen las cuatrosiguientes afirmaciones

1. Existe a > 0 tales que

supn∈N

Pn(X ∈ D| supt∈[0,T]

|X(t)| > a) ≤ η, (A.8)

2. Existe 0 < δ0 < k y n0 ∈N tales que

supn≥n0

Pn(X ∈ D| sups,t<δ0

|X(t)− X(s)| ≥ ε) ≤ η, (A.9)

3. Existe δ1 > 0 y n1 ∈N tales que

supn≥n1

Pn(X ∈ D| supδ1<s<t<k

|X(t)− X(s)| ≥ ε) ≤ η, (A.10)

4. Existe δ2 > 0 y n2 ∈N tales que

supn≥n2

Pn

(X ∈ D| sup

t1<t2≤k|t1−t2|≤δ2

supt1<t≤t2

mın(|X(t)− X(t1)|,|X(t)− X(t2)|) > ε)

(A.11)

≤ η.

Entonces la sucesion (Pn)n]≥1 es D-pre-compacta.

68

Page 75: Teorema Funcional del L mite Central para Martingalas

A.4. Anexo de las demostraciones de algunos teoremas

Demostracion Demostracion tomada de Billingsley, Convergence of Proba-bility Measures,1968, Teorema 15.3, pagina 125 ([2]).

Teorema A.11 (D-pre-compacidad en el espacio de medidas) [18] Sea(Ω,A, P) un espacio de probabilidad, (Xn)n≥1 una sucesion de procesos con tra-yectorias en D y Fn = (Fn)n≥1 una sucesion de filtraciones de A tales queXn = (Xn(t))t≥0 es Fn,t medible para todo t ≥ 0.Ademas supongamos que para cada T ∈N y para todo ε, η > 0 sigue que,

1. Existe a > 0 (que depende de T y η) tales que

supn∈N

P( supt∈[0,T]

|Xn(t)| > a) ≤ η. (A.12)

2. Existe δ > 0 (que depende de ε, η, δ = δ(ε, η)) y n0 ∈ N tales que para todasucesion de Fn-tiempos de parada acotados por T, se obtiene que

supn≥n0

P( supτn≤s≤τn+δ

s∈[0,T]

|Xn(s)− Xn(τn)| > ε) ≤ η. (A.13)

Entonces (Xn)n≥1 es D-pre-compacto.

69

Page 76: Teorema Funcional del L mite Central para Martingalas

A. Apendice

Demostracion La demostracion de este Teorema fue tomada de Rebolledo,R.: La methode des martingales appliquee a l’etude de la convergence en loide processus. To appear in Memoires de la Societe Mathematique de France.Proposicion II.1.3, pagina 16 [17].

70

Page 77: Teorema Funcional del L mite Central para Martingalas

A.4. Anexo de las demostraciones de algunos teoremas

71

Page 78: Teorema Funcional del L mite Central para Martingalas

A. Apendice

72

Page 79: Teorema Funcional del L mite Central para Martingalas

A.4. Anexo de las demostraciones de algunos teoremas

73

Page 80: Teorema Funcional del L mite Central para Martingalas

A. Apendice

Teorema A.12 Sea (Ω,A, P) un espacio de probabilidad y (Xn)n≥1 una sucesionde procesos definidos sobre (Ω,A, P), tales que (Xn(t))t≥0, (X(t))t≥0 son procesosno negativos, no decrecientes, continuos por derecha y nulos en 0.Si (X(t))t≥0 es un proceso no negativo, no decreciente, continuo, nulo en 0 yD ⊂ [0, ∞) un subconjunto denso de [0, ∞) tales que

(Xn(t1), ..., Xn(tk))d−→ (X(t1), ..., X(tk)) ∀ti ∈ D, ∀k ≥ 1

Entonces Xnd−→ X como variables aleatorias sobre D([0, ∞), Rd).

Demostracion Demostracion tomada de Jacod y Shirayaeb, Limit Theoremsfor Stochastic Processes, Teorema VI.3.37, pagina 354 [8].

74

Page 81: Teorema Funcional del L mite Central para Martingalas

A.4. Anexo de las demostraciones de algunos teoremas

Teorema A.13 Sean S′, S′′ espacios metricos separables y (S′,B(S′)), (S′′,B(S′′))los espacios medibles. Sean (Xn)n≥1, (Yn)n≥1 sucesiones de procesos estocasticos en(S′,B(S′)) y (S′′,B(S′′)) respectivamente.Si X es un proceso estocastico en S′ y y es una funcion determinista de [0, ∞) a S′′

tales que Xnd−→ X y Yn

d−→ y, entonces

(Xn, Yn)d−→ (X, y) en S′ × S′′

Demostracion La demostracion fue tomado de Stochastic process limits, W.Whitt, Teorema 11.4.5, pagina 379, [24].

75

Page 82: Teorema Funcional del L mite Central para Martingalas

A. Apendice

Teorema A.14 Sean S′, S′′ espacios metrico separable, (S′,B(S′), P) un espacio deprobabilidad, (S′′,B(S′′)) el espacio medible y S un espacio metrico. Sea (Xn)n≥1una sucesion de procesos estocasticos en (S′,B(S′), P) con valores en (S′′,B(S′′))y g : S′′ → S una funcion tales que el conjunto de discontinuidades, Dg tieneprobabilidad cero, P(Dg) = 0.

Si Xnd−→ X, entonces g(Xn)

d−→ g(X).

Demostracion La demostracion fue tomado de Billingsley, Convergence ofprobability measures, 1968, Teorema 5.1, pagina 30 [2].

76

Page 83: Teorema Funcional del L mite Central para Martingalas

Bibliografıa

[1] D. Applebaum. Levy Processes and Stochastic Calculus. Cambridge Stu-dies in Advanced Mathematics. Cambridge University Press, 2009.

[2] P. Billingsley. Convergence of Probability Measures. Wiley Series in Proba-bility and Statistics. Wiley, 1968.

[3] B. M. Brown. Martingale central limit theorems. The Annals of Mathema-tical Statistics, 42(1):59–66, 1971.

[4] R. Durrett. Essentials of Stochastic Processes. Springer Texts in Statistics.Springer International Publishing, 2016.

[5] S.N. Ethier and T.G. Kurtz. Markov Processes: Characterization and Con-vergence. Wiley Series in Probability and Statistics. Wiley, 2009.

[6] Hans Fischer. Introduction. A History of the Central Limit Theorem, page1–16, 2010.

[7] R.V. Hogg, J.W. McKean, and A.T. Craig. Introduction to MathematicalStatistics. Always learning. Pearson, 2013.

[8] J. Jacod and A. Shiryaev. Limit Theorems for Stochastic Processes. Grund-lehren der mathematischen Wissenschaften. Springer Berlin Heidelberg,2002.

[9] I. Karatzas and S. Shreve. Brownian Motion and Stochastic Calculus. Gra-duate Texts in Mathematics. Springer New York, 2014.

[10] A. Klenke. Probability Theory: A Comprehensive Course. Universitext.Springer London, 2007.

[11] Erik Lenglart. Relation de domination entre deux processus. Annalesde l’I.H.P. Probabilites et statistiques, 13(2):171–179, 1977.

77

Page 84: Teorema Funcional del L mite Central para Martingalas

Bibliografia

[12] R. Liptser and A.N. Shiryayev. Theory of Martingales. Mathematics andits Applications. Springer Netherlands, 2012.

[13] P. Morters and Y. Peres. Brownian Motion. Cambridge Series in Statisti-cal and Probabilistic Mathematics. Cambridge University Press, 2010.

[14] K.R. Parthasarathy. Probability Measures on Metric Spaces. AMS ChelseaPublishing Series. AMS Chelsea Pub., 2005.

[15] N. Privault. Stochastic Finance: An Introduction with Market Examples.Chapman and Hall/CRC Financial Mathematics Series. CRC Press,2013.

[16] P.E. Protter. Stochastic Integration and Differential Equations. StochasticModelling and Applied Probability. Springer Berlin Heidelberg, 2005.

[17] Rolando Rebolledo. La methode des martingales appliquee a l’etudede la convergence en loi de processus. Memoires de la S. M. F., 62, 1979.

[18] Rolando Rebolledo. Central limit theorems for local martingales. Zeits-chrift fur Wahrscheinlichkeitstheorie und Verwandte Gebiete, 51(3):269–286,1980.

[19] D. Revuz and M. Yor. Continuous Martingales and Brownian Motion.Grundlehren der mathematischen Wissenschaften. Springer Berlin Hei-delberg, 2004.

[20] L.C.G. Rogers and D. Williams. Diffusions, Markov Processes and Mar-tingales: Volume 2, Ito Calculus. Cambridge Mathematical Library. Cam-bridge University Press, 2000.

[21] R.L. Schilling, L. Partzsch, and B. Bottcher. Brownian Motion: An Intro-duction to Stochastic Processes. De Gruyter Textbook. De Gruyter, 2014.

[22] A. V. Skorokhod. Limit theorems for stochastic processes. Theory ofProbability and Its Applications, 1(3):261–290, 1956.

[23] J.R. Taylor. Introduction To Error Analysis: The Study of Uncertainties inPhysical Measurements. A series of books in physics. University ScienceBooks, 1997.

[24] W. Whitt. Stochastic-Process Limits: An Introduction to Stochastic-ProcessLimits and Their Application to Queues. Springer Series in OperationsResearch and Financial Engineering. Springer New York, 2002.

[25] Ward Whitt. Proofs of the martingale fclt. Probab. Surveys, 4:268–302,2007.

78