100
Aplica¸ c˜oesdoc´ alculo estoc´ astico ` a an´ alise complexa Rog´ erio de Assis Medeiros DISSERTAC ¸ ˜ AO APRESENTADA AO INSTITUTO DE MATEM ´ ATICA E ESTAT ´ ISTICA DA UNIVERSIDADE DE S ˜ AO PAULO PARA OBTENC ¸ ˜ AO DO T ´ ITULO DE MESTRE EM CI ˆ ENCIAS Programa: Matem´ atica Aplicada Orientador: Prof. Dr. Edson de Faria Durante o desenvolvimento deste trabalho o autor recebeu aux´ ılio financeiro do CNPq ao Paulo, mar¸co de 2012 1

Aplicaç˜oes do cálculo estocástico `a análise complexa

  • Upload
    trinhtu

  • View
    223

  • Download
    3

Embed Size (px)

Citation preview

Page 1: Aplicaç˜oes do cálculo estocástico `a análise complexa

Aplicacoes do calculo estocasticoa analise complexa

Rogerio de Assis Medeiros

DISSERTACAO APRESENTADAAO

INSTITUTO DE MATEMATICA E ESTATISTICADA

UNIVERSIDADE DE SAO PAULOPARA

OBTENCAO DO TITULODE

MESTRE EM CIENCIAS

Programa: Matematica AplicadaOrientador: Prof. Dr. Edson de Faria

Durante o desenvolvimento deste trabalho o autor recebeuauxılio financeiro do CNPq

Sao Paulo, marco de 2012

1

Page 2: Aplicaç˜oes do cálculo estocástico `a análise complexa

Aplicacoes do calculo estocastico a analise complexa

Este dissertacao contem as correcoes e alteracoessugeridas pela Comissao Julgadora durante a defesa

realizada por Rogerio de Assis Medeiros em 5/3/2012.O original encontra-se disponıvel no Instituto de

Matematica e Estatıstica da Universidade de Sao Paulo.

Comissao Julgadora:

• Prof. Dr. Edson de Faria (orientador) - IME-USP

• Prof. Dr. Adılson Simonis - IME-USP

• Prof. Dr. Nestor Felipe Caticha Alfonso - IF-USP

2

Page 3: Aplicaç˜oes do cálculo estocástico `a análise complexa

Agradecimentos

Gostaria de agradecer a minha famılia, ao meu orientador Prof. Dr. Edsonde Faria (IME-USP), aos professores e funcionarios do IME, FEA e IMPA,aos professores que ministraram disciplinas no mestrado: Pedro Paulo SerpaSchirmer (IME-USP), Jorge Manuel Sotomayor Tello (IME-USP), Carlos Al-berto de Braganca Pereira (IME-USP), Marcos Eugenio (FEA-USP), FrankMichael Forger (IME-USP), Leonardo Pellegrini (IME-USP), Elvia MurebSallum (IME-USP), Jose de Oliveira Siqueira (FEA-USP) e Adılson Simo-nis (IME-USP), aos professores da minha banca de qualificacao Antonio LuizPereira (IME-USP) e Clodoaldo Grota Ragazzo (IME-USP), aos colegas e/ouprofessores Arlane Pereira (IME-USP), Eduardo Tengan (USP-Sao Carlos),Evandro Makyiama de Melo (IME-USP) e Fabio Niski (Courant Institute)que muito contribuıram com conversas, sugestoes, crıticas e comentarios etambem aos professores membros da minha banca examinadora.

3

Page 4: Aplicaç˜oes do cálculo estocástico `a análise complexa

Dedicatoria:

Dedico este trabalho aos meus pais, Sebastiao Joaquim de Medeiros e Naidede Assis Medeiros, que muito lutaram para que fosse possıvel que eu con-seguisse chegar aonde estou agora e poder prosseguir em minha trajetoria.

4

Page 5: Aplicaç˜oes do cálculo estocástico `a análise complexa

Resumo

Aplicacoes do calculo estocastico a analise complexa

Nesta dissertacao desenvolvemos o Calculo Estocastico para provar teore-mas classicos de Analise Complexa, em particular, o pequeno teorema dePicard.

Palavras-chave: Integral Estocastica, Formula de Ito, Movimento Brow-niano, Analise Complexa, Teorema de Levy

5

Page 6: Aplicaç˜oes do cálculo estocástico `a análise complexa

Abstract

Applications of stochastic calculus to complex analysis

In this dissertation we develop the Stochastic Calculus for to prove classicaltheorems in Complex Analysis, in particular, the little Picard’s theorem.

Keywords: Stochastic Integral , Ito’s Formula , Brownian Motion, ComplexAnalysis, Levy’s Theorem

6

Page 7: Aplicaç˜oes do cálculo estocástico `a análise complexa

Sumario

1 Introducao 10

2 Analise Complexa 122.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.2 Teoremas Importantes . . . . . . . . . . . . . . . . . . . . . . 142.3 Funcoes Harmonicas . . . . . . . . . . . . . . . . . . . . . . . 15

3 Nocoes Basicas de Probabilidade 173.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.1.1 Independencia . . . . . . . . . . . . . . . . . . . . . . . 213.1.2 Variaveis Aleatorias Gaussianas . . . . . . . . . . . . . 233.1.3 Esperanca Condicional . . . . . . . . . . . . . . . . . . 25

4 Nocoes Basicas de Processos Estocasticos 274.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274.2 Tempos de Parada . . . . . . . . . . . . . . . . . . . . . . . . 284.3 Propriedade de Markov . . . . . . . . . . . . . . . . . . . . . . 30

4.3.1 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . . 304.4 Martingais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4.4.1 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . . 304.4.2 Parada Opcional . . . . . . . . . . . . . . . . . . . . . 314.4.3 Desigualdades de Doob . . . . . . . . . . . . . . . . . . 344.4.4 Teoremas de Convergencia para Martingais . . . . . . . 354.4.5 Decomposicoes de Supermartingais . . . . . . . . . . . 394.4.6 Variacao Quadratica . . . . . . . . . . . . . . . . . . . 45

4.5 Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . 474.5.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . 474.5.2 O Movimento Browniano e um Processo Markoviano . 514.5.3 Leis 0-1 . . . . . . . . . . . . . . . . . . . . . . . . . . 564.5.4 Propriedade Forte de Markov para o Movimento Brow-

niano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574.5.5 O Movimento Browniano e um Martingal . . . . . . . . 58

5 Calculo Estocastico 615.1 Integrais Estocasticas . . . . . . . . . . . . . . . . . . . . . . . 61

5.1.1 Construcao . . . . . . . . . . . . . . . . . . . . . . . . 615.1.2 Extensoes . . . . . . . . . . . . . . . . . . . . . . . . . 675.1.3 Formula de Ito . . . . . . . . . . . . . . . . . . . . . . 685.1.4 Aplicacoes . . . . . . . . . . . . . . . . . . . . . . . . . 73

7

Page 8: Aplicaç˜oes do cálculo estocástico `a análise complexa

5.1.5 Representacoes Martingais . . . . . . . . . . . . . . . . 785.1.6 Mudanca de Medida e o Teorema de Suporte . . . . . . 82

6 Calculo Estocastico Complexo 866.1 Calculo Estocastico Complexo . . . . . . . . . . . . . . . . . . 866.2 Invariancia Conforme . . . . . . . . . . . . . . . . . . . . . . . 896.3 Aplicacoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

6.3.1 Alguns Teoremas Interessantes . . . . . . . . . . . . . . 926.3.2 ”Pequeno”Teorema de Picard . . . . . . . . . . . . . . 94

7 Conclusao 97

Referencias 98

Indice Remissivo 100

8

Page 9: Aplicaç˜oes do cálculo estocástico `a análise complexa

Lista de Figuras

1 Planos complexos domınio e imagem de P (z) . . . . . . . . . . 932 Plano complexo com conjuntos Ai . . . . . . . . . . . . . . . . 95

9

Page 10: Aplicaç˜oes do cálculo estocástico `a análise complexa

1 Introducao

The triumphant vindication of bold theories - are these not thepride and justification of our life’s work?

Sherlock Holmes, The Valley of Fear

Sir Arthur Conan Doyle (1859-1930)

I have a difficult task ahead of me and I have dedicated my wholelife to it.

K, The Castle

Franz Kafka (1883-1924)

A Teoria de Probabilidades e um rico e vasto campo da Matematica, sua fun-damentacao se da por meio da Analise, principalmente por meio da Teoriada Medida.

Neste trabalho procuramos explorar um pouco desta interacao entre Analise eProbabilidades no sentido oposto, fazendo uso de uma ferramenta probabilıs-tica sofisticada, o Calculo Estocastico, para provar alguns teoremas classicosem Analise Complexa.

No segundo capıtulo enunciamos alguns conceitos e teoremas importantes deAnalise Complexa que serao usados no capıtulo 5.

No terceiro capıtulo comecamos a partir de conceitos e resultados fundamen-tais em Probabilidade, apresentamos aquele que sera o protagonista destadissertacao, o movimento browniano e entao exploramos algumas de suaspropriedades (em especial, o fato de que o movimento browniano e um mar-tingal e satisfaz a propriedade de Markov).

No quarto capıtulo desenvolvemos o Calculo Estocastico (no caso real) pro-priamente dito, com enfase no movimento browniano. Aqui apresentamosum resultado fundamental: o Lema de Ito.

No quinto capıtulo, o movimento browniano bidimensional e visto como movi-mento browniano complexo, e assim temos o Calculo Estocastico Complexo,que nos permite provar o Teorema de Levy, que e o resultado principal para

10

Page 11: Aplicaç˜oes do cálculo estocástico `a análise complexa

a conexao entre o Calculo Estocastico e a Analise Complexa.

E neste capıtulo portanto que conectamos as ideias contidas no capıtulo 2com a teoria desenvolvida nos capıtulos 3 e 4. Assim estamos em condicoesde provar resultados classicos como o ”pequeno”teorema de Picard.

No ultimo e sexto capıtulo mencionamos alguns desenvolvimentos que asideias aqui apresentadas tomam em direcoes mais avancadas.

Entre minhas contribuicoes pessoais estao a organizacao e disposicao do texto(a parte relativa ao Calculo Estocastico Complexo e pouco encontrada naliteratura e inexistente em lıngua portuguesa), alem disso, a clarificacao dediversos conceitos e a construcao de algumas demonstracoes e de minha au-toria.

11

Page 12: Aplicaç˜oes do cálculo estocástico `a análise complexa

2 Analise Complexa

(Regarding√−1): ... we can repudiate completely and which we

can abandon without regret because one does not know what thispretended sign signifies nor what sense one ought to attribute toit.

Augustin-Louis Cauchy (1789-1857)

Neste capıtulo vamos apresentar as definicoes e resultados basicos de AnaliseComplexa necessarios para o desenvolvimento deste trabalho. O materialaqui apresentado e classico e mesmo os resultados mais avancados fazemparte de um primeiro ou segundo cursos de pos-graduacao em variaveis com-plexas, sendo assim seremos breves em nossa apresentacao. Neste capıtuloseguiremos de perto [lins][10] e [rudin][16], que sao otimas referencias paraeste assunto.

2.1 Preliminares

Seja C o conjunto dos numeros complexos e U um subconjunto aberto. Sejaf : U −→ C uma funcao contınua. Dizemos que f e holomorfa em z0 ∈ U ,se existe o limite

f ′(z0) = limh−→0

f(z0 + h)− f(z0)

h.

O numero complexo f ′(z0) e chamado de derivada de f em z0. Se f forholomorfa em todos os pontos de um subconjunto X de U , diremos que f eholomorfa emX. No caso em queX coincide com C diremos que f e inteira.

(2.1) Teorema: Sejam U um subconjunto aberto dos numeros complexos ef : U −→ C uma funcao, onde f(z) = f(x+iy) = f(x, y) = u(x, y)+iv(x, y).Sao equivalentes as seguintes propriedades:

(i) f e holomorfa em U ;

12

Page 13: Aplicaç˜oes do cálculo estocástico `a análise complexa

(ii) Todo ponto z0 ∈ U e centro de uma bola na qual f admite um desenvolvi-mento em serie de potencias de z− z0, isto e, para cada z0 ∈ U , existe r > 0tal que se |z − z0| < r, a serie

∑∞n=0 an(z − z0)

n e convergente com somaf(z). Ou seja, localmente f e a soma de uma serie de potencias (assim, nateoria de variaveis complexas, dizer que uma funcao e holomorfa e o mesmoque dizer que ela e analıtica);

(iii) A funcao f(z) = u(x, y) + iv(x, y) e diferenciavel, como funcao de x ey, para todo ponto (x, y) = z ∈ U e estao satisfeitas as condicoes de Cauchy-Riemann:

∂u

∂x=∂v

∂ye

∂u

∂y= −∂v

∂x.

(2.2) Definicoes: Seja f uma funcao analıtica num aberto U ⊂ C. Dize-mos que z0 ∈ C − U e uma singularidade isolada de f se existe r > 0tal que para todo z 6= z0 com |z − z0| < r, f esta definida e e analıtica emz. Em sımbolos, fazendo Br(z0) = z ∈ C : |z − z0| < r temos que z0 esingularidade isolada se Br(z0)− z0 ⊂ U .

Sejam f : U → C uma funcao analıtica e z0 ∈ C − U uma singularidadeisolada de f . Considere o conjunto Br(z0) − z0 ⊂ U , cuja existencia egarantida por definicao, tome o desenvolvimento em serie de Laurent nesteconjunto:

f(z) =+∞∑

n=−∞

an(z − z0)n

Temos tres possibilidades:

(i) an = 0 para todo n < 0. Neste caso diremos que z0 e uma singularidaderemovıvel de f . Isto significa que f se estende a uma funcao analıtica em z0,

13

Page 14: Aplicaç˜oes do cálculo estocástico `a análise complexa

colocando-se f(z0) = a0. A serie de Laurent de f neste caso, sera chamadade serie de Taylor de f em z0;

(ii) Existe k > 0 tal que a−k 6= 0 e an = 0 para todo n < −k. Neste casodiremos que z0 e um polo de ordem n de f , ou simplesmente um polo def ;

(iii) No caso em que o desenvolvimento de Laurent possui uma infinidade determos nao nulos com potencias negativas de z − z0 diremos que z0 e umasingularidade essencial de f .

2.2 Teoremas Importantes

A seguir alguns teoremas importantes de Analise Complexa, alguns dos quaisserao provados no capıtulo 5, por meio do Calculo Estocastico.

(2.3) Princıpio do Maximo Modulo: Se D e um domınio limitado e fe analıtica em D e contınua em D, entao supD |f | = sup∂D |f |.

(2.4) Teorema da Aplicacao Aberta: Seja f : U −→ C uma funcaoanalıtica nao constante, onde U ⊂ C e aberto e conexo. Entao f e aberta,isto e, para todo aberto W ⊂ U , f(W ) e aberto.

(2.5) Teorema Fundamental da Algebra: Seja P (z) um polinomio naoconstante em z. Entao existe pelo menos um z0 tal que P (z0) = 0, ou seja,todo polinomio complexo nao constante possui pelo menos uma raiz.

14

Page 15: Aplicaç˜oes do cálculo estocástico `a análise complexa

(2.6) Teorema de Liouville: Toda funcao f inteira nao constante e naolimitada.

O proximo teorema e uma generalizacao do teorema de Liouville, mas antesde enuncia-lo, vamos olhar um pouco para a funcao ez. A funcao ez e umafuncao inteira que omite o valor zero em sua imagem. Note que a serie paraez converge absolutamente em todo ponto z ∈ C e portanto ez e inteira.

A convergencia absoluta desta serie permite-nos concluir queezew = ez+w e e−z = 1/ez assim, se ez tivesse um zero na sua imagem teriaum polo tambem, contradicao.

(2.7) ”Pequeno”Teorema de Picard: Se f e uma funcao inteira e seexistirem dois numeros complexos que nao estao na imagem de f , entao f econstante, ou seja, a imagem de f omite no maximo um ponto se f e umafuncao inteira nao constante.

Note que este resultado e o melhor possıvel por causa do exemplo dado porf(z) = ez.

2.3 Funcoes Harmonicas

(2.11) Definicoes: Se f : C −→ C e diferenciavel entao definimos os ope-radores:

∂f =∂

∂zf =

1

2

(∂f

∂x+ i

∂f

∂y

)

∂f =∂

∂zf =

1

2

(∂f

∂x− i∂f

∂y

)

Seja f : U −→ C uma funcao de classe C2, onde U ⊂ C e um aberto. Dize-mos que f e harmonica se

∂2f

∂x2+∂2f

∂y2≡ 0⇐⇒ ∆f ≡ 0,

15

Page 16: Aplicaç˜oes do cálculo estocástico `a análise complexa

em U , onde ∆ = ∂2

∂x2+ ∂2

∂y2(operador laplaciano).

Assim, por exemplo, se f : U −→ C e holomorfa de classe C2 entao f eharmonica. Com efeito, se f(z) = u(x, y) + iv(x, y), u = <(f), v = =(f),das identidades de Cauchy-Riemann, obtemos

∂2u

∂x2=

∂2v

∂x∂y=

∂y

∂v

∂x= −∂

2u

∂y2e

∂2v

∂x2= − ∂2u

∂x∂y= − ∂

∂y

∂u

∂x= −∂

2v

∂y2

Logo

∂2f

∂x2+∂2f

∂y2=∂2u

∂x2+∂2u

∂y2+ i

(∂2v

∂x2+∂2v

∂y2

)= 0.

Observe que do raciocınio acima, conclui-se tambem que as partes real e ima-ginaria de f sao funcoes harmonicas.

Alem disso, dizemos que f : U −→ C, U aberto e uma funcao sub-harmonica se

(i)−∞ ≤ u(z) <∞,∀z ∈ U ;

(ii) z ∈ U : |f(z)| < α e aberto em U para todo α real;

(iii)Se D(a, r) ⊂ U , onde D(a, r) e o disco de centro em a e raio r, entao

u(a) ≤ 1

∫ π

−πu(a+ reiθ)dθ 6= −∞.

16

Page 17: Aplicaç˜oes do cálculo estocástico `a análise complexa

3 Nocoes Basicas de Probabilidade

The theory of probability as mathematical discipline can andshould be developed from axioms in exactly the same way asGeometry and Algebra.

Andrey Nikolaevich Kolmogorov (1903-1987)

Neste capıtulo vamos desenvolver algumas das ferramentas probabilısticasnecessarias para as aplicacoes a Analise Complexa. Neste capıtulo e nosdois seguintes seguiremos de perto [bass][2] e [durrett1][6], que sao otimasreferencias para este assunto.

3.1 Preliminares

Vamos inicialmente apresentar alguns conceitos e resultados importantespara o desenvolvimento posterior.

Dados um espaco Ω e uma σ-algebra F sobre ele, uma medida de proba-bilidade e medida positiva finita, com medida total 1, a terna (Ω,F ,P) echamada de espaco de probabilidade. Os elementos de F sao chamadosde eventos. Funcoes mensuraveis de Ω sobre R sao chamadas de variaveisaleatorias e sao usualmente denotadas por X ao inves de f . A integralde X em relacao a P e chamada de esperanca ou valor esperado de X e∫X(ω)P(dω) e normalmente escrito como EX, enquanto

∫AX(ω)P(dω) sera

denotado por E[X;A]. Se um evento ocorre com probabilidade um, dizemosque evento ocorre ”quase sempre”e indicamos como q.s. .

Se An e uma sequencia de eventos, definimos (Ani.v.) = ∩∞j=1 ∪∞n=j An, ondei.v. significa infinitas vezes.

A seguir alguns resultados bastante uteis:

17

Page 18: Aplicaç˜oes do cálculo estocástico `a análise complexa

(3.1) Teorema da Convergencia Monotona: Se (Xn)n e uma sequenciamonotona crescente de variaveis aleatorias Xn : Ω −→ R+ que converge paraX entao ∫

XdP = limn−→∞

∫XndP.

(3.2)Lema de Fatou: Se (Xn)n e uma sequencia de variaveis aleatoriasnao negativas ∫

lim infn−→∞

XndP ≤ lim infn−→∞

∫XndP.

(3.3) Teorema da Convergencia Dominada: Seja (Xn)n e uma se-quencia de variaveis aleatorias que converge q.s. para uma variavel aleatoriaX. Se existe Y integravel tal que |Xn| ≤ Y para todo n entao X e integravel e

limn−→∞

∫XndP =

∫XdP.

(3.4) Lema de Borel-Cantelli(primeira parte): Se∑∞

n=1 P(An) <∞,entao P(Ani.v.) = 0.

Demonstracao: Note que P(Ani.v.) = limj−→∞ P(∪∞n=jAn).

Se∑∞

n=1 P(An) < ∞, entao P(∪∞n=jAn) ≤∑∞

n=1 P(An) −→ 0 quando j −→∞.

18

Page 19: Aplicaç˜oes do cálculo estocástico `a análise complexa

(3.5) Desigualdade de Markov: Se X ≥ 0 q.s., entao

P(X ≥ a) ≤ EX/a.

Demonstracao: Segue de P(X ≥ a) = E[1X≥a] ≤ E[X/a;X ≥ a] ≤EX/a.

(3.6) Desigualdade de Jensen: Se g e uma funcao convexa e X e g(X)sao integraveis, entao

E[g(X)] ≥ g(EX).

Demonstracao: Se g e convexa, entao g passa por cima de suas retas tan-gentes. Assim, para cada x0, existe c tal que g(X) ≤ g(x0) + c(X − x0).

Fazendo x0 = E[X] e tomando esperancas em ambos os lados obtemos adesigualdade.

A lei ou distribuicao de X e a medida de probabilidade PX sobre R, dada por

PX(A) = P(X ∈ A).

Dada qualquer medida de probabilidade µ sobre R, podemos construir umavariavel aleatoria X tal que PX = µ. Seja Ω = [0, 1] e seja P a medida deLebesgue sobre [0, 1]. Para ω ∈ [0, 1], seja X(ω) = inf(t : µ((−∞, t]) ≥ ω).

Entao PX((−∞, a]) = P(X ≤ a) = µ(−∞, a] para cada a, assim PX = µ.

19

Page 20: Aplicaç˜oes do cálculo estocástico `a análise complexa

(3.7) Proposicao: Se f ≥ 0 ou f e limitada,

E[f(X)] =

∫f(X)PX(dx).

Demonstracao: Se f = 1(−∞,a], entao

E[f(X)] = P(X ≤ a) = PX((−∞, a]) =

∫f(x)PX(dx).

Por linearidade obtemos o resultado para funcoes simples f . Tomando limi-tes entao temos o resultado para f limitada ou f nao negativa.

Um vetor aleatorio e funcao mensuravel de Ω em Rd, e a definicao de umadistribuicao e a proposicao anterior se estendem naturalmente neste caso.

(3.8) Proposicao: Se X ≥ 0,

E[Xp] =

∫ ∞0

pλp−1P(X > λ)dλ.

Demonstracao: Pelo teorema de Fubini, o lado direito e igual a

E[∫ ∞

0

pλp−11(X>λ)dλ

]= E

[∫ X

0

pλp−1dλ

],

o qual e igual ao lado esquerdo.

20

Page 21: Aplicaç˜oes do cálculo estocástico `a análise complexa

3.1.1 Independencia

Dois eventos A e B sao independentes se

P(A ∩B) = P(A)P(B).

Esta definicao generaliza-se para n eventos: A1, ..., An sao independentes seP(∩ji=1Aki) =

∏ji=1 P(Aki), 2 ≤ j ≤ n, 1 ≤ k1 < k2 < ... < kj ≤ n. Uma σ-

algebra F e independente de uma σ-algebra G se cada A ∈ F e independentede cada B ∈ G. A σ-algebra gerada por X, denotada por σ(X), e a colecao(X ∈ A);A boreliano. Duas variaveis aleatorias sao independentes se asσ-algebras geradas por X, Y sao independentes.

(3.9) Proposicao: Se X, Y , e XY sao integraveis e X e Y sao indepen-dentes, entao E[AB] = E[A]E[B].

Demonstracao: Se X e da forma∑I

i=1 ai1Ai, Y e da forma

∑Jj=1 bj1Bi

e Xe Y sao independentes, entao por linearidade e a definicao de independencia,E[AB] = E[A]E[B]. Se X e Y sao nao negativas podemos aproxima-laspor variaveis aleatorias desta forma e aplicar o teorema de convergenciamonotona o que garante o resultado. O caso geral segue por linearidade.

A funcao caracterıstica de uma variavel aleatoria X e a transformada deFourier de sua lei:

∫eiuxPX(dx) = EeiuX (pela proposicao (3.7)). Se X e Y

sao independentes, entao eiuX e eivY sao tambem, pela proposicao anterior,Eei(uX+vY ) = EeiuXEeivY . Assim quando X e Y sao independentes, a funcaocaracterıstica de uma combinacao linear de X e Y e o produto das funcoescaracterısticas dos fatores.

(3.10) Proposicao: Se Eei(uX+vY ) = EeiuXEeivY para todos u e v, entaoX e Y sao variaveis aleatorias independentes.

21

Page 22: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Sejam X ′ uma variavel aleatoria com a mesma lei que X,Y ′ uma variavel aleatoria com a mesma lei que Y , com X ′ e Y ′ indepen-dentes. Entao

Eei(uX′+vY ′) = EeiuX′EeivY ′ .

Como X e X ′ tem a mesma lei, elas tem a mesma funcao caracterıstica, eanalogamente para Y e Y ′. Portanto (X ′, Y ′) tem a mesma funcao carac-terıstica conjunta que (X, Y ). Pela unicidade da transformada de Fourier,(X ′, Y ′) tem a mesma lei conjunta que (X, Y ), o que implica que X e Y saoindependentes.

(3.11) Lema de Borel-Cantelli(segunda parte): Se An e uma sequen-cia de eventos independentes e

∑∞n=1 P(An) = ∞, entao P(An) = 1 para

infinitos n.

Demonstracao: Note que

P(∪Nn=jAn) = 1− P(∩Nn=jAcn) = 1−N∏n=j

(1− P(An))

≥ 1− exp

(−

N∑n=j

P(An)

)−→ 1

quando N −→∞. Assim

P(Ani.v.) = limj−→∞

(∪∞n=jAn) = 1.

22

Page 23: Aplicaç˜oes do cálculo estocástico `a análise complexa

3.1.2 Variaveis Aleatorias Gaussianas

Uma variavel aleatoria normal ou gaussiana de media zero e variancia um euma onde

P(X ∈ A) =

∫A

1√2πe−x

2/2dx,

A boreliano.

Nos tambem denotamos X como tendo uma lei de distribuicao N (0, 1) (”nor-mal 0,1”, de fato, X tem esperanca 0 e variancia 1).

Uma sequencia de variaveis aleatorias X1, ..., Xn e conjuntamente normal seexiste uma sequencia variaveis aleatorias independentes N (0, 1), Z1, ..., Zn econstantes bij e ai tais que Xi =

∑mj=1 bijZj + ai, i = 1, ..., n. Em notacao

matricial, X = BZ + A.

Por simplicidade, vamos tomar A = 0, o que equivale a analisar uma novavariavel X − A.

A covariancia entre duas variaveis aleatorias X e Y e definida como

Cov(X, Y ) = E[(X − EX)(Y − EY )].

Como estamos assumindo que nossas variaveis aleatorias normais tem mediazero, podemos omitir o centro nas esperancas. Dada uma sequencia devariaveis aleatorias com media zero, a matriz de covariancias e dada porCov(X) = E[XX t], onde X t denota a transposto do vetor X. No caso emanalise temos

Cov(X) = E[(BZ)(BZ)t] = E[BZZtBt] = BBt.

Vamos calcular a funcao caracterıstica conjunta EeiutX do vetor X, onde ue um vetor n-dimensional. Inicialmente observe que, se v e um vetor m-dimensional,

EeivtZ = Em∏j=1

eivjZj =m∏j=1

EeivjZj =m∏j=1

e−v2j = e−v

tv/2

23

Page 24: Aplicaç˜oes do cálculo estocástico `a análise complexa

pela independencia dos Zs. Assim

EeiutX = EeiutBZ = e−utBBtu/2.

Tomando u = (0, ..., 0, a, 0, ...0) como o produto de uma constante pelo vetorunitario na direcao da j-esima coordenada, obtemos que cada Xs e tambemnormal.

Se Xn sao variaveis aleatorias normais convergindo em probabilidade (ie, emmedida) para uma variavel aleatoriaX, entaoX e tambem normal. Isto seguede EeiuXn −→ EeiuX por convergencia dominada, para vetores aleatorios eanalogo.

(3.12) Proposicao: Se Z e uma normal N (0, 1) e a > 1,

P(Z ≥ a) ≤ e−a2/2.

Demonstracao: O resultado segue de

P(Z ≥ a) ≤∫ ∞a

e−x2/2dx ≤

∫ ∞a

(x/a)e−x2/2dx.

(3.13) Proposicao: (caracterizacao de distribuicao multivariada)Um vetor aleatorio v = (v1, ..., vn) tem distribuicao multivariada gaussianase e somente se toda combinacao linear α1.v1 + ... + αn.vn e uma gaussianaunivariada.

Para uma demonstracao deste fato, veja [durrett][7].

24

Page 25: Aplicaç˜oes do cálculo estocástico `a análise complexa

3.1.3 Esperanca Condicional

(3.14) Definicao: Se F ⊆ G sao duas σ-algebras e X e uma variavelaleatoria mensuravel G-integravel, a esperanca condicional de X dado F , es-crita como E[X|F ] e qualquer variavel aleatoria Y , F -mensuravel, tal queE[Y ;A] = E[X;A] para todo A ∈ F .

Se Y1, Y2 sao duas variaveis aleatorias F -mensuraveis com E[Y1;A] = E[Y2;A]para todo A ∈ F , entao Y1 = Y2 q.s., ou seja a esperanca condicional e unicaa menos de q.s. (quase sempre) equivalencia.

No caso em que X e F -mensuravel, temos E[X|F ] = X. Se X e independentede F , E[X|F ] = EX. Ambos os casos seguem imediatamente da definicao.

Resultados como o teorema da convergencia monotona ou da convergenciadominada tem versoes com esperanca condicionada, assim como as desigual-dades de Jensen e Markov, por exemplo, temos:

(3.15) Desigualdade de Jensen para esperancas condicionadas: Seg e convexa e X e g(X) sao integraveis,

E[g(X)|F ] ≥ g(E[X|F ]) q.s..

(3.16) Proposicao: Se X e XY sao integraveis e Y e mensuravel comrespeito a F , entao

E[XY |F ] = Y (E[X|F ]) (1).

Demonstracao: Se A ∈ F , entao para todo B ∈ F ,

E[1AE[X|F ];B] = E[E[X|F ];A ∩B] = E[X;A ∩B] = E[1AX;B].

Como 1AE[X|F ] e F -mensuravel, isto mostra que o resultado e valido quando

25

Page 26: Aplicaç˜oes do cálculo estocástico `a análise complexa

Y = 1A e A ∈ F . Usando linearidade e tomando limites vemos que o resul-tado e valido quando Y e F -mensuravel e X e XY sao integraveis.

(3.17) Proposicao: Se E ⊆ F ⊆ G, entao

E[E[X|F ]|E ] = E[X|E ] = E[E[X|E ]|F ].

Demonstracao: O lado direito da igualdade vale porque E[X|E ] e E-men-suravel, logo F -mensuravel. Para mostrar a igualdade a esquerda, seja A ∈ E .Como A esta tambem em F ,

E[E[E[X|F ]|E ];A] = E[E[X|F ];A] = E[X;A] = E[E[X|E ];A].

Como ambos os lados sao E-mensuraveis, segue a igualdade.

A existencia de E[X|F ] e garantida pela proposicao seguinte, cuja prova de-pende do uso da derivada de Radon-Nikodym (veja bass[2], pagina 7).

(3.18) Proposicao: Se X e integravel, entao E[X|F ] existe.

A equacao (1) na proposicao (3.16), mostra que se Y e F -mensuravel, entao

E[Y (X − E[X|F ])] = E[XY ]− E[Y E[X|F ]] = 0.

Assim, um modo de visualizar a esperanca condicional e que se X ∈ L2(P),entao E[X|F ] e a projecao de X sobre o subespaco de L2(P) gerado pelasfuncoes F -mensuraveis, ou seja, o operador esperanca condicional sobreL2(P) e o operador projecao sobre este subespaco. O operador esperancacondicional sobre L1(P) e a (unica) extensao deste operador projecao.

26

Page 27: Aplicaç˜oes do cálculo estocástico `a análise complexa

4 Nocoes Basicas de Processos Estocasticos

Le calcul des probabilites n’est au fond que le bon sens reduit aucalcul.

Pierre Simon Laplace (1749-1827)

4.1 Preliminares

Neste capıtulo continuamos a tratar das ferramentas necessarias para o nossotrabalho, agora estudando processos estocasticos, em particular o movimentobrowniano, deixando de lado tratamentos mais gerais.

Seja (Ω,F ,P) um espaco de probabilidades e seja B a σ-algebra de Borelsobre [0,∞). Uma filtracao (Ft)t ⊂ F em (Ω,F ,P) e uma famılia crescentede σ-algebras.

Um processo estocastico (em tempo contınuo), denotado por X(t, ω) ouXt(ω) ou ainda por Xt e uma funcao de [0,∞)×Ω em Rd que e mensuravelcom respeito a σ-algebra produto de B e F .

Um processo Xt, 0 ≤ t < ∞, e chamado processo gaussiano se o vetor(Xt1 , Xt2 , ..., Xtn), 0 ≤ t1 < t2 < ... < tn tem uma distribuicao gaussianamultivariada para toda sequencia finita.

Um processo parado e um processo estocastico que mantem seu estadoconstante apos um dado tempo (este tempo pode ser aleatorio), ja umprocesso morto e um processo estocastico que assume um estado ”in-definido”apos um dado tempo, (estaremos interessados no caso em o processodeixa algum conjunto A, assim dizemos que o estado assumido passa a estarnum ”cemiterio”) o chamado instante de morte ou ”killing time”(este tempotambem pode ser aleatorio).

27

Page 28: Aplicaç˜oes do cálculo estocástico `a análise complexa

4.2 Tempos de Parada

Seja Xt um processo estocastico e uma filtracao Ft. Suponha que cada Ft econtınua a direita, ie, Ft = Ft+ para cada t, onde Ft+ = ∩ε>0Ft+ε.

Suponha tambem que cada Xt e adaptado a Ft: para cada t, Xt e Ft-mensuravel.

(4.1) Definicao: Uma variavel aleatoria T de Ω em [0,∞) e chamada umtempo de parada (”stopping time”) se para cada t, (T < t) = ω :T (ω) < t ∈ Ft para todo t ∈ [0,∞).

A intuicao por tras da ideia de tempo de parada e que o processo ”sabe”seT ocorreu no instante t olhando atraves de Ft. Suponha que dois ciclistas sedirigem na direcao sul, atraves de uma ciclovia e devem parar na primeiralanchonete apos o quilometro trinta. Este e um exemplo de tempo de parada,no entanto, se os ciclistas tivessem que parar na penultima lanchonete antesdo quilometro trinta (que nao teria sido alcancado ainda), este nao seria umexemplo de tempo de parada.

Vamos agora ver algumas maneiras de obter novos tempos de parada a partirde outros:

(4.2) Proposicao: Temos que:

(i) T e um tempo de parada se e somente se (T ≤ t) ∈ Ft para todo t;

(ii) Tempos fixos t sao tempos de parada;

(iii) Se S e T sao tempos de parada, entao S ∧ T e S ∨ T sao tempos deparada, onde a ∧ b = mina, b e a ∨ b = maxa, b;

(iv) Se Tn e sequencia nao decrescente de tempos de parada, entao T =supn Tn e um tempo de parada;

(v) Se Tn e sequencia nao crescente de tempos de parada, entao T = infn Tne um tempo de parada;

(vi) Se S e um tempo de parada, entao S + t e um tempo de parada.

28

Page 29: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Todos os resultados seguem diretamente da definicao. Ve-jamos o primeiro:

(i) se T e um tempo de parada, entao

(T ≤ t) = ∩n>N(T < t+ 1/n) ∈ ∩n>NFt+1/n

para cada N . Assim (T ≤ t) ∈ Ft+ = Ft. Por outro lado, se (T ≤ t) ∈ Ft,para todo t, entao (T < t) = ∪∞n=1(T ≤ t− 1/n) ∈ Ft, pois Ft e crescente.

Entre os tipos de tempos de parada em que estamos interessados estao ostempos em que Xt atinge um conjunto A ou deixa um conjunto A (o segundocaso e equivalente ao primeiro, considerando atingir Ac).

No caso em que estamos interessados em que Xt atinge ou alcanca um con-junto A, denotamos TA = inft > 0 : Xt ∈ A.

No caso em que estamos interessados em que Xt deixa ou sai de um conjuntoA, denotamos τA = inft > 0 : Xt /∈ A.

Naturalmente, TA = τ cA e τA = T cA.

(4.3) Proposicao: Temos que:

(i) Se A e um conjunto aberto, TA e um tempo de parada;

(ii) Se A e um conjunto fechado, TA e um tempo de parada.

Demonstracao: Suponha que A e aberto. Se T < t, entao para algums ≥ t, nos temos Xs ∈ A. Como as trajetorias sao contınuas, existe umracional q < t com Xq ∈ A. Assim,

(T < t) = ∪q<t,q∈Q(Xq ∈ A) ∈ Ft,

o que prova (i).

Se A e fechado, seja An = x : dist(x,A) < 1/n, onde dist(x,A) de-nota a distancia entre x e A. Os conjuntos Ans sao abertos, logo T = An

29

Page 30: Aplicaç˜oes do cálculo estocástico `a análise complexa

e uma sequencia crescente de tempos de parada, pela proposicao anterior,T = supn TAn e um tempo de parada. Como TA ≥ TAn para cada n, entaoTA ≥ T . Se T = ∞, entao TA deve ser igual a ∞. Se T < ∞, pela con-tinuidade das trajetorias, XT = limXTAn

. Como XTAnesta no fecho de Am

se n ≥ m, segue que XT esta tambem para cada m. Isto implica que XT ∈ A,ou TA ≤ T , portanto TA = T , o que prova (ii).

4.3 Propriedade de Markov

4.3.1 Definicoes

Seja F00s = σ(Xr; r ≤ s), s ∈ [0,∞]. Esta σ-algebra e chamada a ”historia”do

processo ate o instante s inclusive.

Um processo estocastico X(t) e chamado um markoviano se

P(X(t) ∈ A|F00s ) = P(X(t) ∈ A|σ(X(s)))

q.s. para todo 0 ≤ s ≤ t e A boreliano.

A ideia por tras desta definicao e que, dado apenas o valor atual X(s), pode-se predizer valores esperados futuros de X(t) tao bem quanto se conhecessetoda a historia do processo antes do instante s. Em outras palavras, o pro-cesso apenas ”sabe”seu valor no instante s e nao ”lembra”como era.

4.4 Martingais

4.4.1 Definicoes

Nesta secao vamos tratar com martingais tanto em tempo discreto quantoem tempo contınuo. Seja Fn uma sequencia crescente de σ-algebras. Umasequencia de variaveis aleatorias Mn e adaptada a Fn se para cada n inteiro,Mn e Fn-mensuravel. Similarmente uma colecao de variaveis aleatorias Mt eadaptada a Ft se para cada t real, Mt e Ft-mensuravel.

30

Page 31: Aplicaç˜oes do cálculo estocástico `a análise complexa

Nos dizemos que a filtracao Ft satisfaz as condicoes usuais se ela e contınuaa direita (ie, Ft = Ft+ para todo t, onde Ft+ = ∩ε>0Ft+ε) e cada Ft e com-pleto (ie, Ft contem todos os conjuntos de medida nula, segundo P). Nestasecao havera apenas uma medida de probabilidade e assumiremos que a fil-tracao Ft satisfaz as condicoes usuais.

(4.4) Definicoes: Mn e um martingal se Mn e adaptado a Fn, Mn eintegravel para todo n, e E[Mn|Fn−1] = Mn−1, q.s., para n = 2, 3, .... Simi-larmente, Mt e um martingal se Mt e integravel para todo t, Ft-adaptada, eE[Mt|Fs] = Ms, q.s., se s ≤ t.

Se nos temos E[Mt|Fs] ≥ Ms, q.s., para todo s ≤ t, entao Mt e um sub-martingal. Se nos temos E[Mt|Fs] ≤ Ms, q.s., para todo s ≤ t, entao Mt eum supermartingal.

4.4.2 Parada Opcional

Note que para martingais discretos temos por inducao que E[Mn] = E[M0]. Oteorema que esta na base de todos os resultados sobre martingais e teorema deparada opcional de Doob, o qual diz que o mesmo resultado vale se trocarmosn por um tempo de parada N . Existem varias versoes dependendo dascondicoes que colocamos nos tempos de parada.

(4.5) Teorema(para martingais em tempo discreto): Se N e tempode parada limitado com respeito a Fn e Mn um martingal, entao EMN =EM0.

Demonstracao: Como N e limitada, facamos K igual ao maior valor queN assume. Assim,

EMN =K∑k=0

E[MN ;N = k] =K∑k=0

E[Mk;N = k].

Note que (N = k) e Fj-mensuravel se j ≥ k, entao E[Mk;N = k] =

31

Page 32: Aplicaç˜oes do cálculo estocástico `a análise complexa

E[Mk+i;N = k] para todo 1 ≤ i ≤ K − k.

Assim,

EMN =K∑k=0

E[MK ;N = k] = EMK = EM0.

(4.6) Corolario: Se N e limitado por K e Mn e um submartingal, entaoEMN ≤ EMK.

As dificuldades vem quando consideramos tempos de parada nao limitadosou em tempo contınuo. Note que uma colecao de variaveis aleatorias e uni-formemente integravel se

E[|Xn|; |Xn| ≥ a] −→ 0

quando a −→∞, uniformemente em n.

Anteriormente vimos uma versao em esperanca condicional da desigualdadede Jensen. Se Xt e um martingal ou submartingal nao-negativo, g e convexa,e g(|Xt|) e integravel, entao

E[g(|Xt|)|Fs] ≥ g(|E[Xt|Fs]|).

(4.7) Teorema(para martingais em tempo contınuo): Se Mt e ummartingal contınuo a direita e T e um tempo de parada limitado por K, entao

E[MT ] = E[MK ] = E[M0].

Se M e um submartingal nao negativo, nos temos E[MT ] ≤ E[MK ].

32

Page 33: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Seja a sequencia de tempos de parada Tn dada por

Tn(ω) = (k + 1)K/2n se kK/2n ≤ T (ω) < (k + 1)K/2n.

MkK/2n e um martingal em tempo discreto com respeito a FkK/2n assim,temos pelo teorema (4.5) que E[MTn ] = E[MK ] para cada n. Como MK e in-tegravel, existe uma funcao convexa crescente nao negativa g com g(x)/x −→∞ quando x −→∞ tal que E[g(|MK |)] <∞. Como g(|Mt|) e um submartin-gal, E[g(|MTn|)] ≤ E[g(|MK |)] <∞ e assim as variaveis aleatorias |MTn| saouniformemente integraveis. Fazendo n −→∞, Tn ↓ T , e pela continuidade adireita, concluımos que MTn −→MT e assim E[MT ] = E[MK ]. O outro casoe analogo.

(4.8) Corolario: Se S ≤ T sao tempos de parada limitados por K e M eum martingal contınuo a direita, entao E[MT |FS] = MS, q.s. .

Demonstracao: Suponha que A ∈ FS. Precisamos mostrar queE[MS;A] = E[MT ;A]. Defina um novo tempo de parada U por U(ω) = S(ω)se ω ∈ A e U(ω) = T (ω) se ω /∈ A.

De fato, U e um tempo de parada, pois

E[MU ] = E[MK ] = E[MT ]

o que implica

E[MS;A] + E[MT ;AC ] = E[MT ].

Agora, basta subtrair E[MT ;AC ] de cada lado para completar a demonstra-cao.

Note que se S e T sao tempos de parada limitados, entao

E[(MT −MS)2|FS] = E[M2T |FS]− 2MSE[MT |FS] +M2

S = E[M2T −M2

S|FS].

33

Page 34: Aplicaç˜oes do cálculo estocástico `a análise complexa

Tomando esperancas, obtemos:

E[(MT −MS)2] = E[M2T ]− E[M2

S].

4.4.3 Desigualdades de Doob

Vamos agora tratar das primeiras aplicacoes interessantes dos resultados an-teriores, as desigualdades de Doob. Se Mt ou Mn sao martingais respectiva-mente em tempo contınuo e discreto, denote M∗

t = sups≤t |Ms|, e analoga-mente para M∗

n.

(4.9) Teorema: Se Mn e um martingal, P(M∗n ≥ a) ≤ E|Mn|/a. O mesmo

resultado vale para Mt se Mt e um martingal ou submartingal positivo comtrajetorias contınuas a direita.

Demonstracao: Seja N = minj : |Mj| ≥ a. Como |.| e convexa, |Mn| eum submartingal. Como |MN | ≥ a sobre (N <∞),

P(M∗n ≥ a) = P(N ≤ n) ≤ E[|MN |/a;N ≤ n] ≤ E|MN∧n|/a ≤ E|Mn|/a.

Para p > 1, nos temos a seguinte desigualdade:

(4.10) Teorema: Se p > 1, existe c dependendo somente de p tal que

E[(M∗n)p] ≤ cE[|Mn|p],

com o mesmo sendo verdade se Mt e martingal ou submartingal positivo comtrajetorias contınuas a direita.

34

Page 35: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Temos que |Mj| e submartingal e assim

|Mj| ≤ E[|Mn| |Fj] ≤ ‖M‖∞.

Se p = ∞ a prova e imediata. Agora, sejam M1n = Mn1|Mn|>a/2, M

2n =

Mn−M1n. SejaM i

j = E[M in|Fj], j = 1, 2. Como maxj |Mj| ≤ maxj |M1

j |+a/2,pelo teorema anterior em M1 temos

P(M∗n > a) ≤ P((M1

n)∗ > a/2) ≤ 2E[|M1n|]/a

= 2E[|Mn|; |Mn| > a/2]/a.

Assim, pela proposicao (3.8),

E[(M∗n)p] =

∫ ∞0

pap−1P(M∗n > a)da

≤∫ ∞0

2pap−2E[|Mn|1(|Mn|>a/2)]da.

Pelo teorema de Fubini a ultima integral e

E

[∫ 2|Mn|

0

2pap−2da|Mn|

]= E

[2pp

p− 1|Mn|p

],

como desejado.

4.4.4 Teoremas de Convergencia para Martingais

Os teoremas de convergencia para martingais sao um conjunto importantede consequencias das paradas opcionais. O passo principal e o lema seguinte(lema ”upcrossing”). O numero de passagens de baixo para cima (”up-crossings”) de um intervalo [a, b] e o numero de vezes que um processo cruza

35

Page 36: Aplicaç˜oes do cálculo estocástico `a análise complexa

vindo de ”baixo”de a para ”cima”de b.

Para ser mais exato, sejam S1 = mink : Xk ≥ a, T1 = mink > S1 : Xk ≥b, e Si+1 = mink > Ti : Xk ≤ a, Ti+1 = mink > Si+1 : Xk ≥ b.

O numero de passagens Un antes do tempo n e Un = maxj : Tj ≤ n.

(4.11) Lema: Se Xk e um submartingal,

EUn ≤ (b− a)−1E[(Xn − a)+].

Demonstracao: Primeiro assuma que a = 0 e Xk ≥ 0 para cada k. Fixen e defina Xm = Xn para m ≥ n, este ainda e submartingal. Sejam Si e Ticomo acima, e sejam S ′i = Si ∧ (n+ 1), T ′i = Ti ∧ (n+ 1).

Escrevendo

EXn+1 = EXS′1+∞∑i=0

E[XT ′i−XS′i

] +∞∑i=0

E[XS′i+1−XT ′i

].

Todos os somandos no terceiro termo a direita sao nao negativos, pois Xk eum submartingal, e

∞∑i=0

E[XT ′i−XS′i

] ≥ (b− a)Un.

Logo

EUn ≤ EXn+1/b.(∗)

Vamos remover a hipotese de que a = 0 e Xk ≥ 0. O numero de passagensde baixo para cima de [a, b] por Xk e o mesmo que o numero de passagens debaixo para cima de [0, b− a] por Yk = (Xk − a)+. Logo basta aplicar (*) aonumero de passagens de baixo para cima de [0, b−a] pelo processo (Xk−a)+.

36

Page 37: Aplicaç˜oes do cálculo estocástico `a análise complexa

O que leva ao teorema de convergencia para martingais.

(4.12) Teorema: Se Xn e um submartingal tal que supn EX+n <∞, entao

Xn converge q.s. quando n −→∞.

Demonstracao: Seja U(a, b) = limn−→∞ Un. Para cada a, b racionais, porconvergencia monotona, E[U(a, b)] ≤ c(b − a)−1 < ∞. Assim U(a, b) < ∞,q.s. . Tomando a uniao sobre todos os pares de racionais a, b, nos temosque q.s. a sequencia Xn(ω) nao podera ter lim supXn > lim inf Xn. LogoXn converge q.s., embora ainda exista a possibilidade do limite ser infinito.Como Xn e um submartingal, EXn ≥ EX0, assim temos

E|Xn| = EX+n + EX−n = 2EX+

n − EXn ≤ 2EX+n − EX0.

Pelo lema de Fatou,

E[limn|Xn|

]≤ sup

nE|Xn| <∞,

ou Xn converge q.s. para um limite finito.

(4.13) Corolario: Se Xn e um supermartingal positivo ou um martingallimitado por baixo ou por cima, Xn converge q.s..

Demonstracao: Se Xn e um supermartingal positivo, −Xn e um sub-martingal limitado por cima por zero. Agora, aplicamos o teorema anterior.

Se Xn e um martingal limitado por cima, considere −Xn, podemos assumirque Xn e limitado por baixo. Considerar Xn + M para um fixo M nao ira

37

Page 38: Aplicaç˜oes do cálculo estocástico `a análise complexa

afetar a convergencia, assim podemos assumir que Xn e limitado por baixopor zero, agora basta aplicar a primeira parte ja provada.

(4.14) Corolario: Os dois resultados anteriores, (4.12) e (4.13), permane-cem validos se considerarmos martingais ou supermartingais ou submartin-gais contınuos com trajetorias contınuas a direita.

Demonstracao: A prova que lim sup |Xt| e finito e a mesma que na ultimalinha da demonstracao do teorema (4.12). Assim, a possibilidade de oscilacao,ie, lim sup |Xt| > lim inf |Xt| e a unica que resta a ser descartada. O mesmoargumento do teorema (4.12) mostra que E[Ut(a, b)] ≤ E[(Xt − a)+], ondeUt(a, b) e o numero de passagens de baixo para cima de [a, b] por Xt no tempot, e basta retomar a demonstracao do teorema (4.12).

(4.15) Corolario: Se Xt e um martingal contınuo a direita comsupt E|Xt|p <∞ para algum p > 1, entao a convergencia e em Lp q.s. .

Este resultado permanece valido quando Xt e um submartingal contınuo adireita. Se Xt e um martingal uniformemente integravel com trajetoriascontınuas a direita, entao a convergencia e em L1. Se Xt −→ X∞ em L1,entao Xt = E[X∞|Ft].

OBS.: Xt e um martingal uniformemente integravel se a colecao de variaveisaleatorias Xt e uniformemente integravel.

Demonstracao: A afirmacao sobre convergencia em Lp segue da desigual-dade de Doob e por convergencia dominada. A afirmacao sobre convergenciaem L1 segue, haja visto que convergencia q.s. e integrabilidade uniformeimplicam convergencia em L1. Por fim, se t < n, Xt = E[Xn|Ft]. Se A ∈ Ft,

E[Xt;A] = E[Xn;A] −→ E[X∞;A]

38

Page 39: Aplicaç˜oes do cálculo estocástico `a análise complexa

pela convergencia em L1 de Xn para X∞. Como isto e verdade para todoA ∈ Ft, Xt = E[X∞|Ft].

Sejam Dn = k/2n : k ≤ 2n e D = ∪nDn, temos ainda o seguinte corolario:

(4.16) Corolario: Suponha que Xt e um submartingal com supt EX+t <

∞. Entao Xt : t ∈ D tem limites a direita e a esquerda q.s. .

Demonstracao: Seja Un(a, b) o numero de passagens de baixo para cimaem [a, b] de Xt, t ∈ Dn, e U(a, b) o numero de passagens de baixo para cimaem [a, b] de Xt, t ∈ D. Por convergencia monotona,

E[U(a, b)] = limn

E[Un(a, b)] ≤ E[(X1 − a)+]

b− a<∞.

Isto e verdade para todo par de racionais a, b, juntando com o argumento doteorema (4.12) temos a prova desejada.

4.4.5 Decomposicoes de Supermartingais

A decomposicao de Doob-Meyer diz que sob hipoteses razoaveis, um super-martingal pode ser decomposto em um martingal menos um processo cres-cente. Para provar o caso de tempo contınuo e trajetorias contınuas, vamoscomecar com uma aproximacao discreta e entao mostrar a convergencia emL2 das aproximacoes.

(4.17) Teorema: Suponha que Zt e um supermartingal com trajetoriascontınuas. Entao existe um martingal Mt e um processo crescente At, amboscom trajetorias contınuas e adaptado a filtracao de Zt, tal que Zt = Mt−At.Mais ainda, esta decomposicao e unica.

39

Page 40: Aplicaç˜oes do cálculo estocástico `a análise complexa

(4.18) Proposicao: Suponha que Mt e um martingal contınuo com tra-jetorias de variacao limitada e M0 ≡ 0. Entao M e identicamente nulo.

Demonstracao: Seja TN = inft > 0 : |Mt| > N ou∫ t0|dMs| > N

(∫ t0|dMs| e a variacao limitada de Ms ate o tempo t). Vamos mostrar que

Mt∧TN e identicamente nulo e fazer N −→∞, assim, suponha que M e limi-tado e tem variacao total limitada por N .

Seja ε > 0, e sejam S0 = 0 e Si+1 = inft > Si : |Mt −MSi| > ε. Por (4.12)

temos que

EM2∞ = E

[∞∑i=0

(MSi+1−MSi

)2

]

≤ εE

[∞∑i=0

E|MSi+1−MSi

|

]≤ εE

[∫ ∞0

|dMs|].

Como ε e arbitrario, EM2∞ = 0. Pela desigualdade de Doob, temos: EM2

s = 0.

Vamos provar agora a unicidade no teorema (4.17):

Demonstracao: Seja Zt = Mt − At = Nt − Bt, onde Mt e Nt sao martin-gais e At e Bt sao processos de variacao limitada, entao Mt−Nt = At−Bt eum martingal com trajetorias contınuas que tambem e de variacao limitada.Aplicando a proposicao (4.18) em (M − N)t − (M − N)0 temos Mt = Nt,At = Bt, e assim a unicidade.

Os seguintes lemas sao uteis para muitas aplicacoes alem da prova de exis-tencia.

40

Page 41: Aplicaç˜oes do cálculo estocástico `a análise complexa

(4.19) Lema: Suponha que Ak e um processo de variacao limitada comA0 ≡ 0 e tambem que Ak e Fk−1-mensuravel e ainda que E[|A∞ −Ak|Fk] ≤N , k = 0, 1, 2, ... . Entao

EA2∞ ≤ 2N2.

Demonstracao: Seja Ak um processo de variacao limitada com A0 ≡ 0.Seja ak = Ak+1 − Ak. Depois de algumas manipulacoes algebricas obtemos:

A2∞ = 2

∞∑k=0

(A∞ − Ak)ak −∞∑k=0

a2k (1).

Se Ak e tambem crescente, de modo que ak ≥ 0 para todo k, entao

EA2∞ = 2E

[∞∑k=0

E[A∞ − Ak|Fk]ak

]− E

[∞∑k=0

(ak)2

]

≤ 2NE

[∞∑k=0

ak

]= 2NEA∞.

Como E[A∞ − Ak|F0] ≤ N e A0 ≡ 0, tomando esperancas temos EA∞ ≤ Ne substituindo na equacao anterior temos o resultado desejado.

(4.20) Lema: Suponha que A(1)k e A

(2)k sao processos crescentes satisfazen-

do as hipoteses do lema anterior. Seja Bk = A(1)k −A

(2)k . Suponha que existe

W ≥ 0 com EW 2 <∞ tal que para todo k,

|E[B∞ −Bk|Fk]| ≤ E[W |Fk].

41

Page 42: Aplicaç˜oes do cálculo estocástico `a análise complexa

Entao existe c tal que

E[supkB2k

]≤ cEW 2 + cN(EW 2)1/2.

Demonstracao: Seja bk = Bk+1 − Bk. Seja a(i)k = A

(i)k+1 − A

(i)k , i = 1, 2.

Como (1) e valido para qualquer processo de variacao limitada,

EB2∞ = 2E

∞∑k=0

E[B∞ −Bk|Fk]bk − E∞∑k=0

b2k

≤ E∞∑k=0

E[W |Fk](a(1)k + a(2)k ) ≤ E[W (A(1)

∞ + A(2)∞ )].

Aplicando a desigualdade de Cauchy-Schwarz e os limitantes para E(A(i)∞ )2

obtemos

EB2∞ ≤ cN(EW 2)1/2.

Considerando o limite em L2 sobre o supremo dos Bks, sejam

Mk = E[B∞|Fk], Nk = E[W |Fk], e Xk = Mk −Bk. Temos que

|Xk| = |E[B∞ −Bk|Fk]| ≤ Nk,

pela desigualdade de Doob,

E[supkX2k

]≤ E

[supkN2k

]≤ cEN2

∞ = cEW 2.

Novamente, pela desigualdade de Doob,

E[supkM2

k

]≤ cEM2

∞ = cEB2∞.

42

Page 43: Aplicaç˜oes do cálculo estocástico `a análise complexa

Como supk |Bk| ≤ supk |Xk|+ supk |Mk|, logo

E[supkB2k

]≤ cEW 2 + cN(EW 2)1/2.

Aqui esta a decomposicao de Doob-Meyer no caso de tempo discreto:

(4.21) Proposicao: Se Zk e um supermartingal de tempo discreto, existeum martingal Mk e um processo crescente Ak tal que Ak+1 e Fk-mensuravele Zk = Mk − Ak.

Demonstracao: Seja ak = E[Zk−Zk+1|F ]. Como Z e um supermartingal,os ak sao nao negativos e claramente Fk-mensuraveis. Seja Ak =

∑k−1j=1 aj, e

facil ver que Zk + Ak e um martingal.

Vamos provar agora a existencia no teorema (4.17):

Demonstracao: Como Zt e contınuo, e suficiente mostrar que Zt∧TN tema decomposicao desejada para cada N , onde TN = inft : |Zt| > N, emseguida fazer N −→ ∞, e usar a unicidade. Assim, podemos assumir que Ze limitado. Alem disso, se nos temos a decomposicao para qualquer tempofixado M , podemos fazer M −→∞, e obter o resultado de existencia. Logopodemos assumir que Zt e constante para t ≥ M , e assim que q.s. as tra-jetorias de Zt sao uniformemente contınuas.

Fixemos M e n, seja Fnk = Fk/2n . Apos construir Ank atraves da proposicao(4.21), seja Bn

t = Ank e Gnt = Fnk se (k − 1)/2n < t ≤ k/2n.

Seja W (δ) = sups≤M,s≤t≤s+δ |Zt − Zs|. Como Z e limitado, temos que W (δ)tambem e. Uma vez que as trajetorias de Z sao uniformemente contınuas,W (δ) −→ 0 q.s. quando δ −→ 0. Assim W (δ) −→ 0 em L2.

43

Page 44: Aplicaç˜oes do cálculo estocástico `a análise complexa

Devemos primeiro provar que Bnk converge em L2 quando n −→ ∞, uni-

formemente sobre t. Para provar isto temos que mostrar que

E[supt|Bm

t −Bnt |2]−→ 0,

quando n,m −→ ∞. Logo Bnk converge pois e sequencia de Cauchy. Va-

mos estimar a norma em L2 do supremo da diferenca usando o lema (4.20).Supondo m ≥ n, Bn

t e Bmt sao constantes sobre os intervalos (k/2m, (k +

1)/2m], o supremo da diferenca sera alcancado em algum k/2m. Fixe t =k/2m para algum k, e assim a diferenca das esperancas condicionais com res-peito a Fmk estara limitada. Seja u o menor multiplo de 2−n maior do queou igual a t. Pela proposicao (4.21):

E[Bm∞ −Bm

t |Gmt ] = E[Am∞ − Amk |Fk/2m ] = E[Zt − Z∞|Ft].

Por outro lado,

E[Bn∞ −Bn

t |Gmt ] = E[An∞ − Anu2n|Ft]

= E[E[An∞ − Anu2n|Fu]|Ft] = E[E[Zu − Z∞|Fu]|Ft] = E[Zu − Z∞|Ft],

onde usamos a definicao de Ank . Assim a diferenca das esperancas condi-cionais e limitada:

|E[Bm∞ −Bm

t |Ft]− E[Bn∞ −Bn

t |Ft]| ≤ E[|Zt − Zu||Ft] ≤ E[W (2−n)|Ft].

Pelo lema (4.20) temos que E[supt |Bn∞−Bn

t |2] tende a zero quando n −→∞.

Vamos agora mostrar que o limite e contınuo. Os saltos de Bnt sao

∆Bnt = E[Z(k−1)/2n − Zk/2n|F(k−1)/2n ], t = k/2n,

44

Page 45: Aplicaç˜oes do cálculo estocástico `a análise complexa

o qual e limitado por

E[W (2−n)|F(k−1)/2n ].

Assim

E[supt

(∆Bnt )2]≤ E

[supk

(E[W (2−n)|F(k−1)/2n ])2]

≤ cE[W (2−n)]2 −→ 0,

pela desigualdade de Doob, como E[W (2−n)|F(k−1)/2n ] e um martingal.

Olhando para uma subsequencia conveniente nj, supt |∆Anj

j | −→ 0, q.s.,entao o limite e contınuo.

Finalmente, so falta mostrar que se At e o limite de Bnt , entao Zt + At e

um martingal. Como Zt e At sao ambos contınuos e quadrado integraveis, esuficiente mostrar que para todos s, t ∈ Dn, s < t, e B ∈ Fs, E[Zt +At;B] =E[Zs + As;B], mas isto e verdade para cada Zt + Bn

t , e o resultado seguepassando ao limite e utilizando a desigualdade de Cauchy-Schwarz.

4.4.6 Variacao Quadratica

Se Mt e um martingal contınuo de quadrado integravel (ie, EM2∞ < ∞),

entao M2t e um submartingal e −M2

t e um supermartingal. Pelo teorema(4.17) existe um processo contınuo crescente, denotado por 〈M〉t, e chamadode variacao quadratica de M , tal que M2

t − 〈M〉t, e um martingal. Dadosdois martingais M,N , definimos 〈M,N〉t por polarizacao:

〈M,N〉t =1

2(〈M +N〉t − 〈M〉t − 〈N〉t)

45

Page 46: Aplicaç˜oes do cálculo estocástico `a análise complexa

(4.22) Teorema: Para cada ε suponha que Si(ε) e uma sequencia de tem-pos de parada que tende ao infinito quando i −→ ∞ tal que supi |MSi+1(ε) −MSi(ε)| −→ 0 quando ε −→ 0. Entao

∞∑i=0

(MSi+1(ε) −MSi(ε))2 −→ 〈M〉∞

em probabilidade.

Demonstracao: Tomando o primeiro tempo em que Mt ou 〈M〉t excedeN , podemos assumir que M e 〈M〉 sao ambos limitados. Para nao carregara notacao vamos omitir (ε) de agora em diante:

Vamos aplicar o lema (4.20), sejam a(1)i = (MSi+1

−MSi)2, a

(2)i = (〈M〉Si+1

−〈M〉Si

)2, bi = a(1)i −a

(2)i . Sejam A(1), A(2) as respectivas somas dos ais, e seja

Fk = σ(MSi+1, i ≤ k). Como M e 〈M〉 sao limitados, e claro que as hipoteses

do lema (4.20) estao satisfeitas para A(1) e A(2). Seja Bk = A(1)k −A

(2)k . Seja

W (ε) = supi

(|(MSi+1−MSi

)|2 + 〈M〉Si+1− 〈M〉Si

).

Temos B∞ −Bk =∑∞

i=k bi. Note que E[bi|Fk] = 0 se i > k. Assim,

|E[B∞ −Bk|Fk]| ≤ a(1)k − a

(2)k .

Observe que supk a(1)k ≤ supk E[W (ε)|Fk] e analogamente para supk a

(2)k . As-

sim aplicando o lema (4.20), nos obtemos o limite

E[supkB2k

]≤ c(EW (ε)2)1/2 + EW (ε)2),

o qual vai a zero quando ε −→ 0.

Seja Xt um processo Ft-mensuravel e nao negativo. Para cada ω ∈ Ω e t ∈ R,a integral de Lebesgue-Stieltjes

46

Page 47: Aplicaç˜oes do cálculo estocástico `a análise complexa

Y (t, ω) =

∫ t

0

X(s, ω)d〈M〉s

existe e o processo Y sera adaptado e mensuravel em relacao a Ft. Umaconstrucao detalhada desta integral pode vista em [niski][13].

4.5 Movimento Browniano

4.5.1 Preliminares

Agora vamos definir o processo estocastico que e a principal personagemnesta dissertacao, o Movimento Browniano.

(4.23) Definicao: Um processo estocastico Xt e um movimento brow-niano padrao unidimensional se:

(i)X0 = 0 com probabilidade 1;

(ii)Para todos s ≤ t, Xt −Xs e uma variavel aleatoria normal com media 0e variancia t− s;

(iii)Para todo s < t, Xt −Xs e independente de σ(Xr; r ≤ s);

(iv)Com probabilidade 1 a funcao t −→ Xt(ω) e contınua.

Por definicao, σ(Xr; r ≤ s) e a menor σ-algebra na qual todo Xr, r ≤ s, emensuravel.

Existem diversas demonstracoes de existencia e unicidade do movimentobrowniano que podem ser encontradas por exemplo em livros como [dur-rett1][6] e [bass][2].

Nao e claro por exemplo, que as propriedades (ii) e (iii) sejam consistentescom (iv), se tivessemos suposto que ao inves da distribuicao normal em (ii) adistribuicao fosse de Cauchy terıamos como consequencia que as trajetoriasseriam descontınuas com probabilidade um, o que nos mostra que a questaode existencia e nao trivial (veja [durrett1][6], pagina 2).

47

Page 48: Aplicaç˜oes do cálculo estocástico `a análise complexa

Uma versao da propriedade (iii) que vamos utilizar bastante e

(iii’)Se 0 ≤ t0 < t1 < ... < tk entao Xti(ω) − Xti−1(ω) sao independentes

(1 ≤ i ≤ k).

Vamos mostrar que (iii) implica em (iii’):

Sejam Ai ∈ σ(Xti −Xti−1),(1 ≤ i ≤ k). Sabemos que σ(Xtk −Xtk−1

) e inde-pendente de σ(Xr; r ≤ tk−1). Temos

Ai ∈ σ(Xti −Xti−1) ⊂ σ(Xr; r ≤ tk−1)⇒ ∩k−1i=1Ai ∈ σ(Xr, r ≤ tk−1).

Assim P(∩ki=1Ai) = P(Ak ∩ (∩k−1i=1Ai)) = P(Ak).P(∩k−1i=1Ai) e daı segue porinducao que P(∩ki=1Ai) = Πk

i=1P(Ai).

Este movimento browniano e unidimensional, para definir o movimento brow-niano d-dimensional, sejam X1

t , ...Xdt movimentos brownianos unidimensio-

nais independentes. Temos que Xt = (X1t , ...X

dt ) e um movimento browniano

d-dimensional.

Como X0 = 0 temos que este movimento browniano comeca em 0, paraconsiderar um movimento iniciando em x ∈ Rd podemos simplesmente con-siderar x + Xt. No entanto, ao inves de considerar P e Xx

t = x + Xt, ouseja uma medida de probabilidade e muitos processos, e mais interessanteconsiderar um processo e muitas medidas de probabilidade.

Seja Zt um movimento browniano d-dimensional definido como anterior-mente. Seja Ω o conjunto de funcoes contınuas ω de [0,∞) em Rd (naoestamos exigindo que ω(0) = 0 aqui). Cada elemento ω em Ω e assim umafuncao contınua. Tome Xt(ω) = ω(t).

No processo Xt acima definido seja F = σ(Xr; r < ∞). Agora defina Pxsendo a medida de probabilidade dada por

Px(A) = P(A− x)

onde x ∈ Rd, A ∈ F , A−x = ω ∈ Ω;ω(.)+x ∈ A, ω(.)+x : [0,∞) −→ Rd

e (ω(.) + x)(t) = ω(t) + x (trajetoria transladada).

48

Page 49: Aplicaç˜oes do cálculo estocástico `a análise complexa

O par (Px, Xt), x ∈ R, t ≥ 0 e chamado um movimento browniano.

Vamos denotar a esperanca em relacao a Px como Ex.

As trajetorias do movimento browniano sao extremamente irregulares, comprobabilidade um, sao nao diferenciaveis em quase todo ponto. Este resultadoe devido a [paley][14], uma prova mais simples foi dada por [dvoretsky][8].

Vamos algumas propriedades do movimento browniano.

(4.24) Proposicao: Se um processo gaussiano Xt : 0 ≤ t < ∞ temE[Xt] = 0 para todo t e se Cov(Xs, Xt) = s ∧ t, ∀s, t, 0 ≤ s, t, entao oprocesso Xt tem incrementos independentes. Mais ainda se o processo temcaminhos contınuos e X0 = 0, entao ele e o movimento browniano padrao.

Demonstracao: Considere o vetor aleatorio de incrementos independentesdo processo Xt, (Xt2 − Xt1 , Xt3 − Xt2 , ..., Xtn − Xtn−1), este tem matriz decovariancias diagonal.

Note que para i < j:

E[(Xti −Xti−1)(Xtj −Xtj−1

)] = E[XtiXtj ]− E[XtiXtj−1]− E[Xti−1

Xtj ]+

E[Xti−1Xtj−1

] = ti − ti − ti−1 + ti−1 = 0

e a segunda parte segue da definicao do movimento browniano.

Vamos ver mais duas propriedades interessantes do movimento browniano,para comecar, a de escala:

(4.25) Proposicao: Se (Px, Xt) e um movimento browniano iniciando emx e a > 0, entao (Px/a, a−1Xa2t) e um movimento browniano iniciando emx/a.

49

Page 50: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Vamos fazer o caso unidimensional, o caso multidimen-sional e analogo. Como Px e definida por translacao, e suficiente consideraro caso x = 0. Temos que a−1Xa2t e contınuo em t, e

Cov(a−1Xa2t, a−1Xa2s) = a−2(a2t ∧ a2s) = s ∧ t.

Se t1 ≤ t1 ≤ ... ≤ tn, a lei de distribuicao de

(a−1Xa2t1 , ..., a−1Xa2tn)

e uma gaussiana multivariada, pela proposicao anterior a−1Xa2t deve ser ummovimento browniano.

Outra propriedade interessante e que o movimento browniano e invariantesob rotacoes.

(4.26) Proposicao: Se A e uma matriz ortogonal, entao (PAx, AXt) e ummovimento browniano iniciando em Ax.

Demonstracao: Considere o caso em que x = 0: se A = (aij) e Xt =

(X1t , ..., X

dt ) temos AXT

t = (∑d

k=1 a1kXkt , ...,

∑dk=1 adkX

kt )T .

Temos que AXTt tem caminhos contınuos, comeca em x = 0, tem media zero,

e como e combinacao linear de processos gaussianos e gaussiano.

Cov(∑d

k=1 amkXkt ,∑d

k=1 ankXkt ) = E[

∑dk=1 amkX

kt .∑d

k=1 ankXkt ] =∑

i 6=j bijE[X itX

jt ] +

∑di=1 biiE[X i

tXit ] = 0 + 0 = 0.

Assim temos que AXTt e um processo com incrementos independentes.

Cov(∑d

k=1 amkXks ,∑d

k=1 amkXkt ) = E[

∑dk=1 amkX

ks .∑d

k=1 amkXkt ] =∑

i 6=j bijE[X isX

jt ] +

∑di=1 biiE[X i

sXit ] = 1.(s ∧ t) = s ∧ t.

50

Page 51: Aplicaç˜oes do cálculo estocástico `a análise complexa

4.5.2 O Movimento Browniano e um Processo Markoviano

Seja F00t = σ(Xs; s ≤ t), t ∈ [0,∞]. Seja F0

t o completamento de F00t , porem

aqui e necessario ser cuidadoso com o significado de completamento, poisestamos trabalhando com mais de uma medida de probabilidade. Seja F0

t

a σ-algebra gerada por F00t e N , onde N e a colecao de conjuntos que tem

medida nula segundo Px para todo x ∈ Rd. Finalmente, seja

Ft = F0t+ = ∩ε>0F0

t+ε.

Note que Ftt e uma filtracao contınua a direita por construcao.

Nos vamos utilizar somente Ft mas precisamos das outras em estagios in-termediarios, enquanto F00

t e pequena demais para incluir muitos conjuntosinteressantes, outras filtracoes podem ser grandes demais para que a pro-priedade de Markov seja valida.

Se Ω e o conjunto de funcoes contınuas de [0,∞) em Rd, nos definimos osoperadores deslocamento (”shift operators”) θt : Ω −→ Ω por

θt(ω)(s) = ω(t+ s).

Entao

Xs θt(ω) = Xs(θtω) = θtω(s) = ω(s+ t) = Xt+s(ω)

se o processo e dado por funcoes coordenadas como em (4.23). Podemostomar t tal que

Xs+t = Xs θt.

Definimos EXsY como sendo a variavel aleatoria ϕ(Xs), onde ϕ(y) = EyY .

Vejamos a propriedade de Markov para F00t .

51

Page 52: Aplicaç˜oes do cálculo estocástico `a análise complexa

(4.27) Proposicao: Se Y e limitada e F00t -mensuravel e (Px, Xt) e um

movimento browniano, entao

Ex[Y θs|F00s ] = EXsY, q.s. (Px).

Vejamos esta proposicao aplicada no caso particular em que Y = f(Xt), ondef e limitada e Borel mensuravel. Temos

Ex[f(Xt+s)|F00s ] = Ex[f(Xt θs)|F00

s ] = Ex[f (Xt θs)|F00s ] =

Ex[(f Xt) θs|F00s ] = Ex[f(Xt) θs|F00

s ] = EXs [f(Xt)]

Vamos provar a propriedade de Markov para este caso particular, o caso geralpode ser encontrado em [durrett2][7]. Assim, temos:

(4.28) Proposicao: Se f e limitada e Borel mensuravel,

Ex[f(Xt) θs|F00s ] = EXs [f(Xt)] q.s. (Px).

Demonstracao: Seja g(y, z) = f(y+z), vamos precisar do seguinte lema:

(4.29) Lema: Se g (como definida anteriormente) e limitada entao

Ex[g(Xs, Xt+s −Xs)|F00s ] = ϕg(Xs)

onde ϕg(y) =∫R g(y, z)(2πt)−d/2e−|z|

2/2tdz.

52

Page 53: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Para provar este lema, considere inicialmente o caso emque g(y, z) = g1(y)g2(z), temos

ϕg(y) = g1(y)

∫g2(z)(2πt)−d/2e−|z|

2/2tdz

Note que

Ex[g(Xs, Xt+s −Xs)|F00s ] = Ex[g1(Xs)g2(Xt+s −Xs)|F00

s ] =

g1(Xs)Ex[g2(Xt+s −Xs)|F00s ] = g1(Xs)Ex[g2(Xt+s −Xs)] =

g1(Xs)

∫Rg2(z)(2πt)−d/2e−|z|

2/2tdz = ϕg(Xs)

Vamos agora provar o lema (4.29) estendendo o caso inicial para todas asfuncoes mensuraveis limitadas. Vamos precisar do seguinte resultado de Teo-ria da Medida:

(4.30) Teorema da Classe Monotona: Seja A uma colecao de subcon-juntos de Ω que contem Ω e e fechado sob interseccao finita. Seja H o espacovetorial de funcoes f : Ω −→ Rd tais que

(i)A ∈ A ⇒ 1A ∈ H;

(ii)gn ∈ H sao nao negativas e crescentes a g limitada implica que g ∈ H.

Logo H contem todas as funcoes que sao mensuraveis em relacao a σ- algebragerada por A.

Seja A o conjunto de todos os retangulos A×B onde A,B sao retangulos deRd e H o conjunto das funcoes limitadas g onde vale (4.29). Claramente Hforma um espaco vetorial e dado (A× B) ∈ A, 1A×B = 1A.1B = g1.g2 = g ∈

53

Page 54: Aplicaç˜oes do cálculo estocástico `a análise complexa

H, logo vale (i).

Se gn ∈ H, pelo teorema da convergencia monotona temos:

Ex[g(Xs, Xt+s −Xs)|F00s ] = lim

n−→∞Ex[gn(Xs, Xt+s −Xs)|F00

s ] =

limn−→∞

ϕgn(Xs) = limn−→∞

∫gn(y, z)(2πt)−d/2e−|z|

2/2tdy =

∫g(y, z)(2πt)−d/2e−|z|

2/2tdy = ϕg(Xs)⇒ g ∈ H

Logo vale o lema (4.29).

Vamos finalmente provar a proposicao (4.28).

Basta tomar g(Xs, Xt+s −Xs) = f(Xt+s) e observar que

ϕg(Xs) =

∫g(Xs, Xt+s −Xs)(2πt)

−d/2e−|z|2/2tdy = Ex[f(Xt)]

Acrescentar conjuntos de medida nula nao altera em nada a demonstracao(conforme [bass][2]), logo temos:

54

Page 55: Aplicaç˜oes do cálculo estocástico `a análise complexa

(4.31) Proposicao: Se Y e limitada e F0∞-mensuravel, entao

Ex[Y θt|F0t ] = EXtY q.s. (Px).

Seja

p(t, x, y) = (2πt)−d/2e−|x−y|2/2t,

x, y ∈ Rd, t > 0. O correspondente operador Pt sobre funcoes e dado por

Ptf(x) =

∫f(y)p(t, x, y)dy.

Note que se f e limitada e t > 0, entao Ptf(x) e contınua em x pela con-tinuidade de p(t, x, y) e pelo teorema de convergencia dominada.

(4.32) Teorema: Se Y e limitada e F∞-mensuravel e (Px, Xt) e um movi-mento browniano,

Ex[Y θt|Ft] = EXtY.

Demonstracao: Vamos ver o caso em que Y = f(Xt), o caso geral podeser visto em [durrett2][7]. Por meio de um processo limite, podemos assumirque f e contınua.

Se A ∈ Fs = F0s+ para todo ε > 0. Assim pela propriedade de Markov com

respeito a F0s+ε,

Ex[f(Xt+s+ε);A] = Ex[Ptf(Xs+ε);A].

Se fizermos ε −→ 0, o lado esquerdo converge para Ex[f(Xt+s);A] por con-vergencia dominada e continuidade de f e X. Como observado Ptf e contı-nuo.

O lado direito converge para Ex[Ptf(Xs);A] por convergencia dominada e a

55

Page 56: Aplicaç˜oes do cálculo estocástico `a análise complexa

continuidade de Ptf e X.

4.5.3 Leis 0-1

(4.33) Proposicao: Temos que Fs = F0s .

Demonstracao: Seja Y = fj(Xtj). Se tj ≤ s < tj+1, sejam

Y1 =∏j:tj≤s fj(Xtj) e Y2 =

∏j:tj>s fj(Xtj). Entao

Ex[Y |F0s+] = Y1EXsY2,

o qual e F0s -mensuravel.

Por linearidade e limites (usando o teorema de extensao da classe monotona),Ex[Y |F0

s+] e F0s -mensuravel quando Y ∈ F0

∞. Se A ∈ Fs = F0s+, fazendo

Y = 1A temos que A ∈ F0s .

(4.34) Corolario (Lei 0-1 de Blumenthal): Se A ∈ F0, entao Px(A) eigual a 0 ou 1.

Demonstracao: Se A ∈ F0, entao considerando Px,

1A = Ex[1A|F0+] = EX01A = Ex1A = Px(A).

Assim Px(A) = 1A ∈ 0, 1.

Como aplicacao da lei 0-1, temos:

56

Page 57: Aplicaç˜oes do cálculo estocástico `a análise complexa

(4.35) Proposicao: Temos que

P0(T(0,∞) = 0) = 1.

Demonstracao: Para qualquer t,

P0(T(0,∞) ≤ t) ≥ P0(Xt > 0),

que pela simetria da distribuicao N (0, t) e 1/2. Fazendo t ↓ 0, P0(T(0,∞) =0) ≥ 1/2. Pela lei 0-1 temos P0(T(0,∞) = 0) = 1.

Este resultado nos diz que o movimento browniano entra imediatamente noeixo real positivo, por simetria ele tambem entra imediatamente no eixo realnegativo. O que esta ocorrendo e que o movimento browniano oscila entreos eixos positivo e negativo em toda vizinhanca da origem no eixo temporal.

4.5.4 Propriedade Forte de Markov para o Movimento Browniano

Dado um tempo de parada T , seja a seguinte σ-algebra de eventos FT =A ∈ F∞ : A∩ (T ≤ t) ∈ Ft,∀t > 0. Defina θT por θT (ω)(t) = ω(T (ω) + t).Assim, Xt θT (ω) = XT (ω)+t(ω) e XT (ω) = XT (ω)(ω).

(4.36) Teorema: Se Y e limitada e F∞-mensuravel e (Px, Xt) e um movi-mento browniano, entao Ex[Y θT |FT ] = EXTY , q.s. sobre (T <∞).

Demonstracao: E suficiente provar que Ex[f(XT+t)|FT ] = EXT f(Xt) paraf limitada e contınua, o caso geral segue por meio de extensao (veja [dur-rett2][7]). Defina Tn como Tn(ω) = k/2n se T (ω) ∈ [(k− 1)/2n, k/2n]. EntaoTn sao tempos de parada decrescentes para T no conjunto (T <∞).

Se A ∈ FT , entao A ∈ FTn . Temos tambem que A ∩ (Tn = k/2n) ∈ Fk/2n eassim

57

Page 58: Aplicaç˜oes do cálculo estocástico `a análise complexa

Ex[f(XTn+t;A ∩ (Tn = k/2n)] = Ex[f(Xt+k/2n);A ∩ (T = k/2n)]

= Ex[EXk/2nf(Xt);A ∩ (T = k/2n)] = Ex[EXTnf(Xt);A ∩ (T = k/2n)].

Entao

Ex[f(XTn+t);A ∩ (T <∞)] =∞∑k=1

Ex[f(XTn+t);A ∩ (Tn = k/2n)]

=∞∑k=1

Ex[EXTnf(Xt);A ∩ (Tn = k/2n)] = Ex[EXTn [f(Xt);A ∩ (T <∞)].

Fazendo n −→∞ temos

Ex[f(XTn+t);A ∩ (T <∞)] −→ Ex[f(XT );A ∩ (T <∞)]

pelo teorema da convergencia dominada e a continuidade de f e Xt. Poroutro lado,

EXTnf(Xt) = Ptf(XTn) −→ Ptf(XT ) = EXT f(Xt),

desde que Ptf e uma funcao contınua.

4.5.5 O Movimento Browniano e um Martingal

Nesta secao vamos tratar com martingais relacionados ao movimento brow-niano (Xt). Temos que ele e um martingal, pois

E[Xt|Fs] = Xs + E[Xt −Xs|Fs] = Xs + E[Xt −Xs] = Xs,

58

Page 59: Aplicaç˜oes do cálculo estocástico `a análise complexa

usando incrementos independentes.

Como resultado da aplicacao das desigualdades de Doob (teoremas) para omovimento browniano obtemos os seguintes resultados:

(4.37) Proposicao: Seja Xt um movimento browniano. Entao se a, t > 0,

P(

sups≤t|Xs| ≥ a

)≤ 2e−a

2/2t.

Demonstracao: Como ebx e convexa, ebXt e um submartingal nao nega-tivo. Pelo teorema (4.9)

P(

sups≤t

Xs ≥ a

)= P

(sups≤t

ebXs ≥ eab)≤ e−abEebXt ≤ 2e−ab+b

2t/2.

Tomando b = a/t, e repetindo o argumento para −Xt, e adicionando as duasdesigualdades obtemos o resultado.

Vamos calcular a distribuicao de saıda do movimento browniano do intervalo[a, b].

(4.38) Proposicao: Se a < x < b, entao τ[a,b] <∞, q.s., e

Px(X(τ[a,b]) = a) =b− xb− a

,

Px(X(τ[a,b]) = b) =x− ab− a

.

59

Page 60: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Vamos escrever τ para τ[a,b]. X2t −t e um martingal, assim

pelo teorema (4.7),

ExX2τ∧t = Exτ ∧ t.

Para t ≤ τ , |Xt| ≤ |a|+ |b|, assim, pelo lema de Fatou, Exτ ≤ (|a|+ |b|)2, ouτ <∞ q.s. .

Como Xt e um martingal, ExXτ∧t = x. Fazendo t −→ ∞ e usando con-vergencia dominada,

x = ExXτ = aPx(Xτ = a) + bPx(Xτ = b).

Como τ <∞ q.s.,

1 = Px(Xτ = a) + Px(Xτ = b).

Resolvendo este sistema de equacoes lineares nas incognitas Px(Xτ = a) ePx(Xτ = b) obtemos o resultado desejado.

Tomando b −→∞ e x > a, entao

Px(Ta <∞) = 1.

Analisando a demonstracao anterior, segue de imediato a seguinte proposicao:

(4.39) Proposicao: Suponha que Mt e um martingal contınuo que sai de[a, b] com probabilidade um, e M0 = x. Entao

P(Mτ = a) = (b− x)/(b− a) e

P(Mτ = b) = (x− a)/(b− a).

60

Page 61: Aplicaç˜oes do cálculo estocástico `a análise complexa

5 Calculo Estocastico

A drunk man always returns but a drunk bird is lost forever.

Vamos desenvolver agora o Calculo Estocastico propriamente dito, mais umavez so desenvolvemos o necessario para nossas aplicacoes. Estudaremos ocaso real aqui, deixando o caso complexo para o proximo capıtulo.

5.1 Integrais Estocasticas

5.1.1 Construcao

Sabemos que as trajetorias do movimento browniano sao nao diferenciaveisem quase todo ponto, isto significa que nao devemos esperar que faca sentido∫f(s)dMs por meio de uma integral de Lebesgue-Stieltjes para integrandos

gerais f . Entretanto e possıvel definir uma integral estocastica, nosso obje-tivo aqui sera definir

∫HsdMs, onde Hs = Hs(ω) e um processo estocastico

conveniente e Ms e um martingal contınuo, na maioria dos casos, o movi-mento browniano.

A classe de integrandos Hs e a seguinte: seja Ft uma filtracao satisfazendoas condicoes usuais. Seja P a σ-algebra sobre Ω × [0,∞) gerada por todosos processos contınuos a esquerda Yt que sao adaptados a Ft. P e chamadaa σ-algebra predizıvel. Nos vamos querer que H(s, ω) seja P-mensuravel.Primeiro vamos querer que

E[∫ ∞

0

H2sd〈M〉s

]<∞,

e depois enfraquecer esta condicao para∫ ∞0

H2sd〈M〉s <∞, q.s..

Vamos esbocar a definicao da integral estocastica no caso do movimento

61

Page 62: Aplicaç˜oes do cálculo estocástico `a análise complexa

browniano inicialmente. Observe que se H e Fa-mensuravel e K e Fc-mensuravel, Xt e um movimento browniano, e a ≤ b ≤ c ≤ d, entao

E[H(Xb −Xa)K(Xd −Xc)] = E[H(Xb −Xa)KE[(Xd −Xc)]|Fc] = 0.

Alem disso, como X2t − t e um martingal, entao

E[(Xb −Xa)2|Fa] = E[X2

b −X2a |Fa] = b− a.

e assim,

E[H2(Xb −Xa)2] = E[H2E[(Xb −Xa)

2]|Fa] = E[H2(b− a)].

Agora, vamos construir∫ 1

0HsdXs. Se Hs e elementar, ou seja, da forma

H(ω)1[a,b](s) onde H e Fa-mensuravel, entao defina∫ 1

0HsdXs = H(Xb−Xa).

Se Hs e simples, isto e, se e uma combinacao linear de integrandos elementa-res, defina

∫ 1

0HsdXs por linearidade. Finalmente, se Hs satisfaz E

∫ 1

0H2sds <

∞, aproximando H por ”integrandos simples”Hn e defina a integral es-tocastica como limites em L2 das integrais estocasticas dos integrandos aprox-imantes.

Uma pergunta natural e: como sabemos que o limite existe em L2 e inde-pendente da escolha dos Hns? Se H e simples, podemos escrever H como∑N

j=1Kj1[aj ,bj ](s), onde os Kjs sao limitados, Faj -mensuraveis, e a1 ≤ b1 ≤a2 ≤ ... ≤ bN . Entao

E

[(∫ 1

0

HsdXs

)2]

= E

[N∑j=1

K2j (Xbj −Xaj)

2

]+ E

[2∑i<j

Ki(Xbi −Xai)Kj(Xbj −Xaj)

].

O segundo somando e nulo, assim temos:

62

Page 63: Aplicaç˜oes do cálculo estocástico `a análise complexa

E

[(∫ 1

0

HsdXs

)2]

= E[∫ 1

0

H2sds

],

ou seja, existe uma isometria entre∫ 1

0HsdXs na norma L2(dP) e Hs na norma

(E∫ 1

0(.)2ds)1/2 em L2(dP⊗ dt). Este resultado sera usado para mostrar que

o limite existe e e independente da escolha das sequencias aproximantes.

Vamos voltar agora ao caso geral de martingais contınuos de modo deta-lhado e rigoroso. Suponha que Mt e quadrado integravel e contınuo, assimsupt EM2

t < ∞. Pela desigualdade de Doob e o teorema de convergenciapara martingais,

M∞ = limt−→∞

Mt

existe e EM2∞ < ∞. Os integrandos H que estamos considerando sao

predizıveis e

E[∫ ∞

0

H2sd〈M〉s

]<∞,

Seja K uma variavel aleatoria limitada Fa-mensuravel, e defina

Nt = K(Mt∧b −Mt∧a).

(5.1) Lema: Temos que Nt e um martingal contınuo,

EN2∞ = E[K2(〈M〉b − 〈M〉a)], e 〈N〉t =

∫ t0K21[a,b](s)d〈M〉s.

Demonstracao: A continuidade de Nt e clara. Falta mostrar que se s < t,entao E[Nt|Fs] = Ns. Existe alguns casos a considerar, dependendo daposicao de s e t em relacao a a e b. Vamos analisar os casos a < s < t < b es < a < t < b, os demais sao similares. Entao

E[K(Mt −Ma)|Fs] = KE[Mt −Ma|Fs] = K(Ms −Ma),

63

Page 64: Aplicaç˜oes do cálculo estocástico `a análise complexa

no primeiro caso, como desejado. Para o segundo caso,

E[K(Mt −Ma)|Fs] = E[KE[Mt −Ma|Fa]|Fs] = 0,

novamente, como precisavamos.

Para a segunda afirmacao,

EN2∞ = E[K2E[(Mb −Ma)

2|Fa]] = E[K2E[M2b −M2

a ]|Fa]].

Como M2t − 〈M〉t e um martingal,

E[M2b −M2

a |Fa] = E[〈M〉b − 〈M〉a|Fa].

Substituindo na equacao anterior temos a segunda afirmacao.

Para a terceira afirmacao devemos mostrar que

E[K2(Mt∧b −Mt∧a)2 −K2(〈M〉t∧b − 〈M〉t∧a)|Fs]

= K2(Ms∧b −Ms∧a)2 −K2(〈M〉s∧b − 〈M〉s∧a).

Esta e analoga a primeira afirmacao, trata-se novamente de considerar algunscasos.

Um processo Hs e simples se puder ser escrito na forma∑J

j=1Hj1[aj ,bj ](s),onde para cada j, Hj e Fsj -mensuravel e limitado. Para um processo simplesHs, defina

Nt =

∫ t

0

HsdMs =J∑j=1

Hj(Mbj∧t −Maj∧t).

64

Page 65: Aplicaç˜oes do cálculo estocástico `a análise complexa

(5.2) Proposicao: Se Hns e uma sequencia de processos simples tais que

E[∫ ∞

0

(Hns −Hm

s )2d〈M〉s]−→ 0,

quando n,m −→∞, entao

E[

sups<∞

(Nns −Nm

s )2]−→ 0

quando n,m −→∞.

Demonstracao: Se H e um processo simples, pode ser reescrito como∑Jj=1Hj1[aj ,bj ](s), onde os Hjs sao limitados e Fsj -mensuraveis e os interva-

los [aj, bj] satisfazem a1 ≤ b1 ≤ a2 ≤ a2 ≤ a3 ≤ ... ≤ bJ . Pelo lema anterior,Nt e um martingal, e pela desigualdade de Doob,

E[

sups<∞

N2s

]≤ cE[N2

∞]

= cE

[J∑j=1

H2j (Mbj −Maj)

2

]+ cE

[2∑i<j

HiH2j (Mbi −Mai)(Mbj −Maj)

].

Condicionando em Faj cada somando no segundo termo a direita se anula,logo

E[H2j (Mbj −Maj)

2] = E[H2jE[(Mbj −Maj)

2|Faj ]] = E[H2jE[M2

bj−M2

aj|Faj ]]

= E[H2jE[〈M〉bj − 〈M〉aj |Faj ]] = E[H2

j (〈M〉bj − 〈M〉aj)],

entao

E[

sups<∞

N2s

]≤ cE

[∫ ∞0

H2sd〈M〉s

].

65

Page 66: Aplicaç˜oes do cálculo estocástico `a análise complexa

A diferenca entre dois processos simples e novamente um processo simples,assim aplicando esta estimativa para Nn −Nm finalizamos a prova.

(5.3) Teorema: Suponha que Hns sao processos simples tais que

E[∫ ∞

0

(Hns −Hs)

2d〈M〉s]−→ 0,

quando n −→ ∞. Entao Nns converge em L2, uniformemente sobre s ∈

[0,∞), para um martingal contınuo. O limite, o qual denotamos∫ t0HsdMs,

e independente da escolha de qual sequencia Hn utilizamos para aproximarHs.

Demonstracao: Se Hns e como na hipotese,

E[∫ ∞

0

(Hns −Hm

s )2d〈M〉s]−→ 0,

quando n,m −→ ∞. Pela proposicao anterior temos que Nns forma uma

sequencia de Cauchy em relacao a norma em L2 do supremo sobre s, logoesta sequencia converge. Seja Ns o limite, assim temos uma afirmacao sobreconvergencia em L2. Tomando uma apropriada subsequencia, nos podemosdizer que com probabilidade um, Nnk

s converge para Ns uniformemente so-bre s ∈ [0,∞). Desde que cada Nn

s e contınuo, isto prova que Ns e tambemcontınua.

Suponha s ≤ t, pela convergencia em L2 e pela desigualdade de Jensen temos,

E[(E[Nnt |Fs]− E[Nt|Fs])2] ≤ E[E[(Nn

t −Nt)2|Fs]] = E[(Nn

t −Nt)2] −→ 0.

Visto que, E[Nnt |Fs] = Nn

s , passando ao limite quando n −→ ∞, temos queNt e um martingal.

Finalmente, se Hn, Hm sao dois processos simples convergindo para H, a

66

Page 67: Aplicaç˜oes do cálculo estocástico `a análise complexa

proposicao anterior nos mostra que

E[

sups<∞

(Nns −Nm

s )2]−→ 0,

ou o limite e independente de qual sequencia aproximante e usada.

(5.4) Corolario: Temos que

〈N〉t =

∫ t

0

H2sd〈M〉s

Demonstracao: Esta afirmacao e verdadeira pelo lema anterior quando He simples, para completar a prova basta aproximar um processo geral H porprocessos simples.

5.1.2 Extensoes

Vamos extender nossa definicao para casos mais interessantes:

Primeiro, se∫∞0H2sd〈M〉s < ∞, q.s. mas nao necessariamente integravel,

seja

TN = inf

t > 0 :

∫ T

0

H2sd〈M〉s > N

,

e defina∫ t0HsdMs como

∫ t0HsdMs∧TN se t ≤ TN . Como Ms∧TN nao aumenta

em [TN ,∞), nos podemos usar a definicao no caso integravel para definir aintegral estocastica. Assim, TN −→ ∞ quando N −→ ∞, nos temos assimdefinido Nt para todo t.

67

Page 68: Aplicaç˜oes do cálculo estocástico `a análise complexa

(5.5) Definicoes: Um processo Mt e um martingal local se existem tem-pos de parada Sn −→ ∞ tais que Mt∧Sn e um martingal de quadrado in-tegravel para cada n. Se Mt e um processo contınuo, os tempos de paradaSn = inft : |Mt| > n servem para mostrar que e um martingal local, poisMt∧Sn e limitado por n (note que o movimento browniano e um exemplo demartingal local que nao e martingal de quadrado integravel). Para definir∫ t0HsdMs, faca inicialmente

∫ t0HsdMs∧Sn se t ≤ Sn. A seguir tome 〈M〉t

como 〈M〉t∧Sn se t ≤ Sn.

Um processo e localmente de variacao limitada se existem tempos deparadaRn tais que ARn∧t e de variacao limitada para cada n (no caso contınuoo Rn adequado e Rn = inft :

∫ t0|dAs| > n). Um semimartingal Xt e um

processo que e soma de um martingal local Mt e um processo que e local-mente de variacao limitada At. Se

∫ t0H2sd〈M〉s +

∫ t0|Hs||dAs| < ∞ para

todo t, definimos a integral estocastica∫ t0HsdXs =

∫ t0HsdMs +

∫ t0HsdAs ,

onde a primeira integral e a integral estocastica que acabamos de discutir ea segunda e uma integral de Lebesgue-Stieltjes. Se Xt e um semimartingal,〈X〉t e definida como sendo 〈M〉t.

5.1.3 Formula de Ito

(5.6) Teorema (Lema de Ito): Seja Xt um semimartingal com tra-jetorias contınuas. Suponha que f ∈ C2. Entao com probabilidade um, temos

f(Xt) = f(X0) +

∫ t

0

f ′(Xs)dXs +1

2

∫ t

0

f”(Xs)d〈X〉s , t ≥ 0.

Demonstracao: A formula de Ito e uma afirmacao sobre trajetorias. Sabe-mos que Xt = Mt + At, onde M e martingal local e A e um processo quee localmente de variacao limitada. Defina TN = inft > 0 : |Mt| > N ou〈M〉t > N ou

∫ t0|dAs| > N.

Como Tn −→∞ quando N −→∞, provando o resultado para Xt∧TN , entaotemos para todo t. Assim, podemos assumir que f e C2 e que f , f ′, f” saolimitadas.

68

Page 69: Aplicaç˜oes do cálculo estocástico `a análise complexa

Fixe t0 > 0 e sejam ε > 0, S0(ε) = 0, e defina

Si+1(ε) = inft > Si(ε) : |Mt −MSi(ε)| > ε ou

〈M〉t − 〈M〉Si(ε) > ε ou

∫ t

Si(ε)

|dAs| > ε ou t− Si(ε) > ε ∧ t0.

Para nao carregar muita a notacao vamos omitir ε de agora em diante.

Como estamos lidando com processos contınuos, Si −→ t0 quando i −→∞.

Note que

f(Xt0)− f(X0) =∞∑i=0

[f(XSi+1− f(XSi

)] =∞∑i=0

f ′(XSi)(XSi+1

−XSi)

+∞∑i=0

1

2f”(XSi

)(XSi+1−XSi

)2 +∞∑i=0

Ri,

onde usamos a formula de Taylor e Ri e o resto associado. Devemos mostrarque o primeiro termo a direita da equacao anterior converge para o termo naforma de integral estocastica na formula de Ito, o segundo termo convergepara o termo de variacao limitada, e resto vai para zero.

Vamos primeiro olhar para o termo integral estocastica. Seja Hεs = f ′(XSi

)se Si ≤ s < Si+1. Pela continuidade de Xs e f ′, Hε

s converge limitadamentepara f ′(Xs). Entao

∞∑i=0

f ′(XSi)(ASi+1

− ASi) =

∫ t

0

HεsdAs

converge por convergencia dominada usual. Note que

∞∑i=0

f ′(XSi)(MSi+1

−MSi) =

∫ t

0

HεsdMs.

69

Page 70: Aplicaç˜oes do cálculo estocástico `a análise complexa

Pela proposicao anterior,

∞∑i=0

f ′(XSi)(MSi+1

−MSi)

converge para∫ t0f ′(Xs)dMs.

Temos

f”(XSi)(XSi+1

−XSi)2

= f”(XSi)(MSi+1

−MSi)2 + 2f”(XSi

)(MSi+1−MSi

)(ASi+1− ASi

)

+f”(XSi)(ASi+1

− ASi)2.

Pelo teorema (4.22), para cada t, V εt =

∑i:Si+1≤t

(MSi+1− MSi

)2 converge

para 〈M〉t em probabilidade. Assim, se εk e uma sequencia tendendo a zerorapido o bastante, a convergencia sera quase certa (veja [steele][20], pagina114), e supεk V

εkt <∞.

Como f”(Xs) e um processo contınuo,∫ t00f”(Xs)dV

εks converge para∫ t0

0f”(Xs)d〈M〉s quando εk −→ 0. Por outro lado, como f ∈ C2, dado δ

podemos achar ε tal que |f”(x)− f”(y)| < δ se |x− y| < ε. Portanto

∑f”(XSi

)(MSi+1−MSi

)2 −∫ t

0

f”(Xs)dVεss ≤ δV ε

t0.

Assim, ∑f”(Xs)(MSi+1

−MSi)2 −→

∫ t

0

f”(Xs)d〈M〉s.

Os demais termos sao faceis.

70

Page 71: Aplicaç˜oes do cálculo estocástico `a análise complexa

∣∣∣∣∣∞∑i=0

f”(XSi)(MSi+1

−MSi)(ASi+1

− ASi)

∣∣∣∣∣ ≤ ‖f”‖∞ε∞∑i=0

(ASi+1− ASi

)|

≤ ‖f”‖∞εN,

pois estamos assumindo que∫ t0|dAs| e limitada e |(MSi+1

−MSi)| ≤ ε. Assim

este termo vai a zero quando ε −→ 0.

O termo∑f”(XSi

)(ASi+1− ASi

)2 e similar. Pelo teorema de Taylor,

Ri ≤ η(ε)(XSi+1−XSi

)2,

onde η(ε) −→ 0 quando ε −→ 0. Como acima, E[∑

(XSi+1− XSi

)2] per-manece limitado, o que mostra que

∑Ri −→ 0 em L2.

Dados dois semimartingais contınuos X e Y , definimos 〈X, Y 〉 por pola-rizacao:

〈X, Y 〉t =1

2[〈X + Y 〉t − 〈X〉t − 〈Y 〉t].

Pelo o teorema (4.22), se M e N sao martingais, entao

∑(MSi+1∧t −MSi∧t)(NSi+1∧t −NSi∧t) −→ 〈M,N〉t.

Com este fato, podemos provar a versao multivariada da formula de Ito.

71

Page 72: Aplicaç˜oes do cálculo estocástico `a análise complexa

(5.7) Corolario: Suponha que Xt e um processo d-dimensional, onde cadacomponente e um semimartingal contınuo. Seja f ∈ C2(Rd). Assim, comprobabilidade um

f(Xt)− f(X0) =

∫ t

0

d∑i=1

∂f

∂xi(Xs)dX

is

+1

2

∫ t

0

d∑i,j=1

∂2f

∂xi∂xj(Xs)d〈X i, Xj〉s t > 0.

A seguir a formula de integracao por partes para integrais estocasticas.

(5.8) Corolario: Se X e Y sao semimartingais contınuos, entao

XtYt = X0Y0 +

∫ t

0

XsdYs +

∫ t

0

YsdXs + 〈X, Y 〉t.

Demonstracao: Aplicando a formula de Ito com f(x) = x2, obtemosX2t = X2

0 + 2∫ t0XsdXs + 〈X〉t, aplicando a formula de polarizacao obte-

mos o resultado.

Se X e um d-dimensional movimento browniano, entao 〈X i, Xj〉t = 0 se i 6= je 〈X i, Xj〉t = t se i = j, assim aplicando a formula de Ito para o movimentobrowniano temos

f(Xt) = f(X0) +

∫ t

0

∇f(Xs).dXs +1

2

∫ t

0

∆f(Xs)ds,

72

Page 73: Aplicaç˜oes do cálculo estocástico `a análise complexa

5.1.4 Aplicacoes

Vamos comecar usando a formula de Ito para obter as probabilidades de al-cance de coroas (”annulis”) para o movimento browniano d-dimensional, emparticular obtemos a propriedades de recorrencia para d = 2 e transienciapara d ≥ 3.

(5.9) Proposicao: Seja Xt um movimento browniano d-dimensional.

(a) Se d = 2,r < |x| < R, entao

(i)Px(TB(0,r) < τB(0,R)) = (ln(R)− ln(|x|))/(ln(R)− ln(r));

(ii)Px(T0 <∞) = 0;

(iii)Px(TB(0,r) <∞) = 1;

(iv)Px(Xt ∈ B(0, r)i.v.) = 1.

(b) Se d ≥ 3,r < |x| < R, entao

(i)Px(TB(0,r) < τB(0,R)) = (|x|2−d −R2−d)/(r2−d −R2−d);

(ii)Px(T0 <∞) = 0;

(iii)Px(TB(0,r) <∞) = (|x|/r)2−d.

Demonstracao: Se d = 2, seja u(x) = − ln(|x|). Se d ≥ 3, seja u(x) =|x|2−d. Em ambos os casos temos ∇u = 0 em B(0, R) − B(0, r) (noteque ∂|x|/∂xi = xi/|x| pois |x| = (

∑di=1(x

i)2)1/2). Isto implica que Mt =u(Xt∧T (B(0,r))) e um martingal. Como o movimento browniano unidimen-sional supera R em valor absoluto com probabilidade um, entao |Xt| ≥ |X1

t |ira superar R com probabilidade um. Assim, se S = TB(0,r) ∧ τB(0,R), entaoPx(S <∞) = 1. Logo pelo corolario (4.37) obtemos (a)(i) e (b)(i).

Considere (a)(i), fazendo r −→ 0, obtemos Px(TB(0,r) < τB(0,R)) = 0. FazendoR −→ 0, obtemos (a)(ii). Se ao inves, em (a)(i), fizermos R −→∞, obtemos(a)(iii). Se fizermos r −→ 0 e entao R −→ 0, em (b)(i), obtemos (b)(ii),enquanto que se fizermos R −→∞, obtemos (b)(iii).

73

Page 74: Aplicaç˜oes do cálculo estocástico `a análise complexa

Para obter (a)(iv), note que para algum s,

Px(Xt ∈ B(0, r) para algum t ≥ s) = Ex[PXs(τB(0,r)<∞)] = 1

pela propriedade de Markov e (a)(iii). Ou seja, se L = supt : Xt ∈ B(0, r),entao L ≥ s com probabilidade um. Como s e arbitrario, L =∞, q.s. .

Esta proposicao justifica a citacao do inıcio deste capıtulo.

(5.10) Teorema: Suponha que Mt e martingal contınuo local de trajetoriascontınuas com

〈M〉t ≡ t e M0 ≡ 0.

Entao Mt e um movimento browniano.

Demonstracao: Devemos mostrar que Mt −Ms e independente de Fs etem distribuicao N (0, t − s). Considerando M ′

u = Ms+u −Ms, F ′u = Fs+u,pode-se considerar apenas o caso s = 0.

Pela formula de Ito,

eiuMt − 1 = iu

∫ t

0

eiuMsdMs −u2

2

∫ t

0

eiuMsds. (1)

Suponha que A ∈ F0. Seja TN = inft : |Mt| > N. Como o primeiro termoa direita da equacao (1) e um martingal de media zero, nos temos, por paradaopcional, que

E[∫ t∧TN

0

eiuMsdMs;A

]= 0. (2)

Logo trocando t por t∧TN em (2), multiplicando por 1A, tomando esperancas,

74

Page 75: Aplicaç˜oes do cálculo estocástico `a análise complexa

e depois fazendo N −→∞, nos obtemos a equacao

J(t) = P(A)− u2

2

∫ t

0

J(s)ds,

onde J(s) = E[eiuMs ;A].

Como J e limitado, a equacao (2) mostra que J e contınuo, mas sendocontınuo, a equacao (2) mostra tambem que e C1. Assim J ′ = −u2J(t)/2,ou (ln J(t))′ = −u2/2, ou J(t) = P(A)e−u

2t/2.

Esta equacao pode ser reescrita como

E[eiuMt ;A] = P(A)e−u2t/2.

Tomando A = Ω temos que Mt tem uma distribuicao N (0, 1). Aproximando1B(x) por combinacoes lineares de eiuxs temos

E[1B(Mt);A] = P(A)P(Mt ∈ B),

o que prova a independencia.

Seja δij igual a 0 se i 6= j e 1 se i = j (delta de Kronecker).

(5.11) Corolario: Se Xt e um processo d-dimensional, cada coordenadae um martingal contınuo local, X0 ≡ 0, e 〈X i, Xj〉t ≡ δijt, entao Xt e ummovimento browniano d-dimensional.

Demonstracao: Aplicando o teorema anterior em∑d

j=1 λjXjt com∑d

j=1 λ2j = 1, temos:

E[e∑λjX

jt ;A

]= P(A)e−u

2t/2.

Assim, fazendo u = |v| e λ = v/|v|,

E[eiv.Xt ;A] = E[eiuλ.Xt ;A] = e−|v|2t/2P(A).

75

Page 76: Aplicaç˜oes do cálculo estocástico `a análise complexa

(5.12) Teorema: Supondo que Mt e um martingal contınuo com 〈M〉t es-tritamente crescente e 〈M〉∞ = ∞. Entao Mt e uma mudanca de tempo deum movimento browniano e existe um movimento unidimensional brownianoXt tal que Mt = X〈M〉t.

OBS.: Mt e uma mudanca de tempo para Xt se para algum processo cres-cente τ(t) temos Mt = Xτ (t).

Demonstracao: Definindo τ(u) = inft : 〈M〉t > u e seja Xu = Mτ(u).Como M tem trajetorias contınuas, entao 〈M〉t tambem tem. Assim τ(u) econtınuo em u, e ainda X. Se u1 < u2, entao τ(u1) < τ(u2) sao tempos deparada, e por parada opcional,

E[Xu2|Fτ(u1)] = E[Mτ(u2)|Fτ(u1)] = Mτ(u1) = Xu1 .

PortantoXu e um martingal com respeito as σ-algebras Fτ(u). Analogamente,X2t − t e um martingal, assim 〈X〉t ≡ t. Pelo teorema anterior, X e um movi-

mento browniano, e desconsiderando a mudanca de tempo, Mt = X〈M〉t .

(5.13) Definicao: Dizemos que uma funcao f : U ⊂ Rd −→ R e harmonica(harmonica real) se ∆f ≡ 0 para todo x ∈ Rd.

(5.14) Teorema: Seja f : Rd −→ R uma funcao de classe C2 em R2. Afuncao f e harmonica se e somente se para todo movimento browniano Xt,sua imagem f(Xt) e um martingal em R.

76

Page 77: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Dada f de classe C2 e um movimento browniano Xt em,temos pela formula de Ito que

f(Xt) = f(X0) +

∫ t

0

d∑i=1

∂f

∂xi(Xs)dX

is

+1

2

∫ t

0

d∑i=1

∂2f

∂xi2(Xs)ds

ja que os demais termos se anulam.

Assim, se f for harmonica, o ultimo somatorio se anula, logo restam apenastermos que sao martingais.

Por outro lado, suponha que f(Xt) seja um martingal, agora, suponha porabsurdo que existe x0 ∈ Rd, tal que o ∆f(x0) > 0. Sejam U ⊂ um abertoconexo contendo x0 tal que neste conjunto ∆f > 0, T o tempo de paradadado pelo tempo de saıda de U pelo movimento browniano inicializado emx0. Entao

f(Xt)T = f(X0) +

∫ T

0

d∑i=1

∂f

∂xi(Xs)dX

is

+1

2

∫ T

0

∆f(Xs)ds.

Isto mostra que f(Bt)T nao e um martingal pois a ultima integral e sobreum integrando estritamente positivo, absurdo, logo devemos ter ∆f ≡ 0.

Note que este teorema caracteriza uma propriedade determinıstica (f e umafuncao harmonica) de modo probabilıstico (f preserva a propriedade martin-gal do movimento browniano).

77

Page 78: Aplicaç˜oes do cálculo estocástico `a análise complexa

5.1.5 Representacoes Martingais

Vamos mostrar que todo martingal adaptado a uma filtracao gerada por ummovimento browniano pode ser escrito como uma integral estocastica comrespeito ao movimento browniano.

(5.15) Teorema: Se Y ∈ L2 e Ft-mensuravel, existe Hs predizıvel comE[∫ t0H2sds] <∞, tal que

Y = EY +

∫ t

0

HsdXs. (3)

Demonstracao: Existem tres passos principais. Temos:

eu2t/2eiuXt = 1 +

∫ t

0

eu2r/2d(eiuXr) +

∫ t

0

eiuXrd(eu2r/2)

= 1 +

∫ t

0

eu2r/2iueiuXrdXr +

(−u2

2

)∫ t

0

eu2r/2eiuXrdr +

∫ t

0

eiuXru2

2eu

2r/2dr

= 1 +

∫ t

0

iueu2r/2eiuXrdXr

Multiplicando pela funcao determinıstica e−u2t/2,

eiuXt = e−u2t/2 +

∫ t

0

iueu2(r−t)/2eiuXrdXr.

Aplicando em X ′t = Xt+s −Xs,

eiu(Xt+s−Xs) = e−u2t/2 +

∫ t

0

iueu2(r−t)/2eiuXs+r−XsdXr,

78

Page 79: Aplicaç˜oes do cálculo estocástico `a análise complexa

ou (3) e verdade quando Y = eiu(Xt+s−Xs).

Para o segundo passo, suponha que temos

Yi = EYi +

∫ t

0

Hi(r)dXr i = 1, ..., n

com Hi(r)Hj(r) = 0 se i 6= j. A equacao (3) e valida para o produtoY = Y1...Yn. Para verificar esta afirmacao, vamos proceder por inducao emn. Seja

Yi(s) = E[Yi|Fs] = EYi +

∫ s

0

Hi(r)dXr,

i = 1, 2. Temos,

Y1Y2 = Y1(t)Y2(t)

= Y1(0)Y2(0) +

∫ t

0

Y1(r)dY2(r) +

∫ t

0

Y2(r)dY1(r) + 〈Y1, Y2〉t

= EY1EY2 +

∫ t

0

[Y1(r)H2(r) + Y2(r)H1(r)]dXr + 〈Y1, Y2〉t.

Note que 〈Y1, Y2〉t =∫ t0H1(r)H2(r) = 0.

Para o terceiro passo, suponha que

Yn = EYn +

∫ t

0

Hn(r)dXr

e Yn −→ Y em L2. Entao EYn −→ EY e

E[∫ t

0

(Hn(r)−Hm(r))2dr

]= E

[(∫ t

0

(Hn(r)−Hm(r))dXr

)2]

79

Page 80: Aplicaç˜oes do cálculo estocástico `a análise complexa

= E[((Yn − Ym)− (EYn − E))2]

≤ E[(Yn − Ym)2] + 2(EYn − EYm)2 −→ 0

quando m,n −→ ∞. Assim Hn(r) forma uma sequencia de Cauchy comrelacao a norma (E[

∫ t0(.)2dr])1/2. Logo existe H tal que Hn −→ H nesta

norma, e E[∫ t0H2(r)dr] <∞. Temos

E[(Y − EY −

∫ t

0

E[H(r)]dXr)2

]

= limn−→∞

E[(Yn − EYn −

∫ t

0

Hn(r)dXr)2

]= 0,

o qual implica (3) para Y .

Podemos agora terminar a prova juntando os passos obtidos. Pelo primeiroe segundo passos, variaveis aleatorias da forma

m∏j=1

eiuj(Xsj+1−Xsj ),

onde s1 ≤ ... ≤ sm+1, satisfazem (3). Combinacoes lineares destas variaveisaleatorias sao densas em L2 (uma prova deste fato pode ser encontrada em[steele][20], paginas 210-211, essencialmente envolve alguns fatos de AnaliseFuncional em espacos de Hilbert), assim (3) tambem vale para todo Y ∈ L2.

(5.16) Corolario: Se Mt e um martingal com M0 = 0 e EM2t <∞, entao

existe Hr predizıvel tal que para cada s temos Ms =∫ s0HrdXr, q.s. .

80

Page 81: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Aplicando o teorema anterior para Y = Mt, temos que(3) vale para todo tempo t. Como ambos os lados de (3) sao martingais,tomando esperancas condicionais em relacao a Fs, obtemos o corolario.

Em particular, como integrais estocasticas do movimento browniano temcaminhos contınuos, se Mt e um martingal em relacao a filtracao de um movi-mento browniano, entao Mt tem uma versao que tem trajetorias contınuas(dois processos sao versao um do outro se para cada t, eles sao iguais quasesempre).

Seja agora Xt = (X1t , ..., X

dt ) um movimento browniano d-dimensional.

(5.17) Corolario: Se Y esta em L2(P) e Ft-mensuravel, existe Hr =(H1

r , ..., Hdr ) predizıvel com E

∫ t0(Hj

r )2dr <∞ para cada j tal que

Y = EY +

∫ t

0

HrdXr .

Demonstracao: Vamos mostrar que esta equacao vale para eiu.Xt , ondeu = (u1, ..., ud), e entao seguir a demonstracao do teorema (5.15). Pelo teo-rema (5.15),

Yj = eiujXjt = EeiujX

jt +

∫ t

0

KjrdX

jr .

Seja Hj(r) = (0, ..., Kjr , 0, ..., 0), se Yj(s) = E[Yj|Fs] = EYj +

∫ s0Hj(r).dXr ,

entao 〈Yj, Yk〉t =∫ t0Hj(r).Hk(r)dr = 0 se j 6= k. Pelo argumento do segundo

passo do teorema (5.15),∏d

j=1 Yj e uma variavel aleatoria que satisfaz (5.15).

Como∏d

j=1 Yj = eiu.Xt obtemos nosso corolario.

81

Page 82: Aplicaç˜oes do cálculo estocástico `a análise complexa

5.1.6 Mudanca de Medida e o Teorema de Suporte

Seja Mt um martingal contınuo positivo com M0 = 1. Vamos definir umanova medida de probabilidade Q fazendo Q(A) = E[Mt;A] se A ∈ Ft, ie,a derivada de Radon-Nikodym de Q com relacao a P sobre Ft e Mt. SeA ∈ Fs ⊆ Ft, entao E[Mt;A] = E[Ms;A], como M e um martingal, estadefinicao e consistente.

(5.18) Formula de Cameron-Martin-Girsanov: Se Xt e um martingalcontınuo em relacao a P, entao Xt−Dt e um martingal com relacao Q, ondeDt =

∫ t0(Ms)

−1d〈X,M〉s. A variacao quadratica de Xt −Dt sobre a medidaQ e a mesma que a de Xt sob P.

Demonstracao: Podemos assumir sem perda de generalidade que X0 = 0.Se A ∈ Fs,

EQ[Xt;A] = EP[MtXt;A]

= EP

[∫ t

0

MrdXr;A

]+ EP

[∫ t

0

XrdMr;A

]+ EP[〈X,M〉t;A]

= EP

[∫ s

0

MrdXr;A

]+ EP

[∫ s

0

XrdMr;A

]+ EP[〈X,M〉t;A]

= EQ[Xs;A] + EP[〈X,M〉t − 〈X,M〉s;A],

usando a formula de integracao por partes (corolario 5.8).

Por outro lado,

EQ[Dt −Ds;A] = EP[(Dt −Ds)Mt;A]

= EP

[∫ t

s

MtdDr;A

]= EP

[∫ t

s

EP[Mt|Fr]dDr;A

]82

Page 83: Aplicaç˜oes do cálculo estocástico `a análise complexa

= EP

[∫ t

s

MrdDr;A

]= EP

[∫ t

s

d〈X,M〉r;A]

= EP[〈X,M〉t − 〈X,M〉s;A].

Isto mostra que Xt −Dt e um martingal com relacao a Q. A parte relativaa variacao quadratica pode ser mostrada do mesmo modo.

Vamos usar este resultado para provar o teorema de suporte.

(5.19)Proposicao: Se Xt e um movimento browniano d-dimensional, ε >0 e t > 0, entao

P0

(sups≤t|Xs| < ε

)> 0.

Demonstracao: Vamos mostrar este resultado para o caso unidimensional,o caso geral segue de

P0

(sups≤t|Xs| < ε

)≥ P0

(sups≤t|X i

s| < ε/√d, i = 1, ..., d

)

≥(P0

(sups≤t|X1

s | < ε/√d

))d> 0.

Basta mostrar no caso unidimensional, que

P0

(sups≤u|Xs| < 1

)> 0, (∗)

83

Page 84: Aplicaç˜oes do cálculo estocástico `a análise complexa

nos obtemos o resultado desejado trocando u por t/√ε e usando a propriedade

de escala.

Note que se |x| ≤ 1/4 e n e suficientemente grande, entao Px(|X1/n| ≤ 1/4) ≥1/4, isto ocorre porque Px(|X1/n −X0| < 1/4 eX1/n < X0) −→ 1/2 quandon −→∞ pela simetria da normal. Pela proposicao (3.12),

sup|x|≤1/4

Px(

sups≤1/n

|Xs −X0| > 1/4

)≤ 2e−n/32.

Mais ainda,

inf|x|≤1/4

Px(

sups≤1/n

|Xs| < 1/2, |X1/n| ≤ 1/4

)≥ (1/4)− 2e−n/32.

Tomando n suficientemente grande, isto sera maior do que 1/8.

Seja Im = (sups≤1/n |Xs+m/n − Xm/n| < 1/2, |X(m+1)/n| ≤ 1/4). Pela pro-priedade de Markov,

P(I1 ∩ I2 ∩ ... ∩ Im) ≥ (1/8)m.

Note que (sups≤m/n |Xs| < 1) ⊇ I1 ∩ I2 ∩ ... ∩ Im, assim tomando m > nuprovamos (*) e assim a proposicao.

Como ultimo resultado deste capıtulo, vamos enunciar o teorema de suportepara o movimento browniano:

(5.20) Teorema de Suporte: Se ψ : [0, t] −→ Rd e contınua, ε > 0, ex = ψ(0), entao

Px(

sups≤t|Xs − ψ(s)| < ε

)> c,

84

Page 85: Aplicaç˜oes do cálculo estocástico `a análise complexa

onde c pode ser tomado dependendo somente de t, ε, e o modulo de con-tinuidade de ψ.

Demonstracao: Vamos tomar ψ1 tal que ψ1 tem derivada limitada e talque sups≤t |ψ(s) − ψ1(s)| < ε/2. Podemos escolher ψ1 de modo que ||ψ′1||∞depende somente de t, ε, e o modulo de continuidade de ψ. Vamos mostrarque

Px(

sups≤t|Xs − ψ1(s)| < ε/2

)> c, (∗∗)

onde c depende somente de t, ε, e ||ψ′1||∞, isto nos da o teorema.

Defina Q por dQ/dP = Mt, onde

Mt = exp

(∫ t

0

ψ′1(s).dXs − (1/2)

∫ t

0

|ψ′1(s)|2ds).

Note que ⟨X,

∫ t

0

ψ′1(s).dXs

⟩t

=

∫ t

0

ψ′1(s)ds = ψ1(t)− ψ1(0).

Assim, Xt − ψ1(t) e um processo, onde cada uma das componentes sobQ e um martingal contınuo, e a variacao quadratica e a mesma que a deX sob P. Logo pelo corolario (5.11), sob Q, X(t) − ψ1(t) e um movi-mento browniano iniciando em 0. Pela proposicao anterior, Q(A) ≥ c, ondeA = (sups≤t |X(s)− ψ1(s)| < ε/2), e c depende somente de ε e t. Como |ψ′1|e limitada, EM2

t <∞ e

c ≤ Q(A) =

∫A

MtdP ≤ (EM2t )1/2(P(A))1/2,

o que prova (**).

Este teorema junto com a propriedade de invariancia sob escala do movimentobrowniano justificam a citacao do proximo capıtulo (capıtulo 6).

85

Page 86: Aplicaç˜oes do cálculo estocástico `a análise complexa

6 Calculo Estocastico Complexo

If you run Brownian motion in two dimensions for a positiveamount of time, it will write your name.

Wilfrid Kendall

Neste capıtulo vamos retomar algumas construcoes do capıtulo anterior nocaso complexo. A conexao entre o movimento browniano bidimensional e aAnalise Complexa vem atraves de um resultado de Levy que diz que umafuncao analıtica composta com um movimento browniano bidimensional euma mudanca de tempo de outro movimento browniano.

6.1 Calculo Estocastico Complexo

Sejam D o disco unitario z : |z| < 1, e H o semi-plano z : =z > 0. Vamosescrever τ para τD e τ para τB(0,r).

(6.1) Definicao: O movimento browniano complexo padrao Zt =Xt+iYt = (Xt, Yt) e um processo estocastico em C, iniciando em zero e adap-tado ao espaco de probabilidade (Ω,F ,Ft,P), onde Xt = <Zt e Yt = =Zt,sao movimentos brownianos unidimensionais.

Note que estamos tomando o movimento browniano bidimensional real comoum movimento browniano complexo unidimensional. Assim, um processoZt e um movimento browniano complexo padrao se e somente (Xt, Yt) e ummovimento browniano bidimensional padrao sobre o plano (x, y) (ou seja,R2).

(6.2) Definicao: Um martingal complexo e um processo Mt sobre C(ou Cd), que e um martingal vetorial (multivariado) quando C (ou Cd) evisto como espaco vetorial real.

Note que se Mt e um martingal complexo, entao seu conjugado M t tambem

86

Page 87: Aplicaç˜oes do cálculo estocástico `a análise complexa

e um martingal complexo. Quanto a definicao do processo 〈M,N〉 devemosfazer uma escolha, toma-lo bilinear ou sesquilinear, nesta dissertacao esco-lheremos a bilinearidade como convencao.

(6.3) Definicao: Sejam M e N martingais complexos contınuos de quadra-do integraveis, entao 〈M,N〉 e o unico processo complexo contınuo adaptadoe de variacao limitada tal que MtNt − 〈M,N〉t e um martingal.

(6.4) Lema: Se Mt = Rt + iSt, Nt = Tt + iUt, onde Rt, St, Tt e Ut saomartingais reais entao

〈M,N〉t = (〈R, T 〉t − 〈S, U〉t) + i(〈R, T 〉t + 〈U, S〉t)

A demonstracao desta proposicao segue apos algumas contas rotineiras.

(6.5) Definicao: Um martingal complexo contınuo de quadrado integravele um martingal conforme se 〈M,M〉t ≡ 0.

Note que um martingal Mt e conforme se e somente se seu quadrado M2t e

tambem um martingal conforme.

(6.6) Lema: O movimento browniano complexo e um martingal conforme.

Demonstracao: Seja Zt = Xt + iYt um movimento browniano complexo,onde Xt = <Zt e Yt = =Zt, sao movimentos brownianos unidimensionais.Assim,

〈Z,Z〉t = 〈X,X〉t − 〈Y, Y 〉t + 2i〈X, Y 〉t = 1/2(t− t) + 0 = 0.

87

Page 88: Aplicaç˜oes do cálculo estocástico `a análise complexa

O processo 〈Z,Z〉t faz o papel de variacao quadratica para martingais con-formes.

Podemos agora reescrever o lema de Ito para o caso bidimensional na formacomplexa:

(6.7) Teorema(Lema de Ito Complexo): Suponha que Z e martingalcomplexo contınuo e que f e uma funcao de classe C2, entao

f(Zt)− f(Z0) =

∫ t

0

∂f(Zs)dZs +

∫ t

0

∂f(Zs)dZs

+

∫ t

0

∂∂f(Zs)d〈Z,Z〉s +

∫ t

0

∂∂f(Zs)d〈Z,Z〉s

+2

∫ t

0

∂∂f(Zs)d〈Z,Z〉s.

Os seguintes corolarios sao imediatos:

(6.8) Corolario: Se Zt e um martingal conforme nos temos

f(Zt)− f(Z0) =

∫ t

0

∂f(Zs)dZs +

∫ t

0

∂f(Zs)dZs + 2

∫ t

0

∂∂f(Zs)d〈Z,Z〉s.

(6.9) Corolario: Se Zt e um martingal conforme e f e harmonica entaof(Zt) e um martingal e temos

f(Zt)− f(Z0) =

∫ t

0

∂f(Zs)dZs +

∫ t

0

∂f(Zs)dZs.

88

Page 89: Aplicaç˜oes do cálculo estocástico `a análise complexa

(6.10) Corolario: Se Zt e um martingal conforme e f e analıtica entaof(Zt) e um martingal e temos

f(Zt)− f(Z0) =

∫ t

0

f ′(Zs)dZs.

6.2 Invariancia Conforme

Vamos separar o teorema de Levy em duas partes, inicialmente suponha quef e inteira e nao constante.

(6.11) Teorema de Levy (invariancia conforme): Sejam

As =

∫ s

0

|f ′(Zr)|2dr e σt = infs : As ≥ t.

Entao f(Zσt) e um movimento browniano bidimensional.

Demonstracao: Se uma funcao e analıtica em um domınio e seus zeros temum ponto de acumulacao no domınio, entao a funcao deve ser identicamentenula (veja [rudin][16]). Assim, como f e nao constante, f ′ tem no maximoum numero contavel de zeros; como o movimento browniano bidimensionalnao atinge um conjunto contavel (pela proposicao 5.9 (a)(ii), a probabilidadede alcance e zero), As e estritamente crescente. Logo σt e contınuo em t, q.s.,e f(Zσt) e um processo contınuo.

Antes de continuar, vamos provar o seguinte lema:

(6.12) Lema: Se f e inteira, nao identicamente nula, entao As −→ ∞,q.s., quando s −→∞.

89

Page 90: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Se f e constante nao nula, entao a conclusao e trivial-mente verdadeira. Se f e nao constante entao pelo teorema da aplicacaoaberta, podemos assumir que existe um disco D(z0, ρ) e um δ > 0 tais que|f(z)| ≥ δ > 0, ∀z ∈ D(z0, ρ). Agora, sejam τ0 = 0, para j = 1, 2, ...,

σj = infs > τj−1 : Zs ∈ D(z0, ρ/2) e

τj = infs > σj : Zs 6= D(z0, ρ/2).

Claramente, τj−σj e uma sequencia de variaveis aleatorias positivas inde-pendentes e identicamente distribuıdas (i.i.d.) e temos ainda que |f(Zs)| ≥δ, σj ≤ s ≤ τj, ∀j ≥ 1. Logo∫ s

0

|f(Zr)|2dr ≥ δ∞∑j=1

(τj ∧ t− σj ∧ t) −→∞

q.s., quando s −→∞.

Assim, As −→∞, q.s., quando s −→∞.

Suponha f = u+ iv. Pela formula de Ito,

u(Zt) = u(Z0) +

∫ t

0

∇u(Zs)dZs e

v(Zt) = v(Z0) +

∫ t

0

∇v(Zs)dZs

Em particular, u(Zt) e v(Zt) sao martingais. Pelas equacoes de Cauchy-Riemann nos temos |∇u(z)|2 = |∇v(z)|2 e ∇u(z).∇v(z) = 0 para todo z.Assim 〈u(Z)〉t = 〈v(Z)〉t = At e 〈u(Z), v(Z)〉t = 0.

Portanto, f(Zσ) e um processo contınuo bidimensional, sendo cada compo-nente um martingal, 〈u(Zσ.)〉t = 〈v(Zσ.)〉t = t, e 〈u(Zσ.), v(Zσ.)〉t = 0. Pelo

90

Page 91: Aplicaç˜oes do cálculo estocástico `a análise complexa

teorema (5.11), f(Zσt) e um movimento browniano bidimensional.

A seguir a versao do teorema de Levy para funcoes analıticas em um domınioD.

(6.13) Teorema: Suponha que f e analıtica em um domınio D. Seja Ase σt como no teorema anterior. Se FT = f(Z(σt∧τD)), entao Ft∧τ(f(D)) e ummovimento browniano bidimensional parado sobre a borda de f(D).

Demonstracao: Como na prova do teorema anterior, Ft e um martingalde tempo contınuo com 〈<F 〉t = 〈=F 〉t = t ∧ τD e 〈<F,=F 〉t = 0. Seja Wt

um movimento browniano bidimensional iniciando em zero e independentede Zt e defina F ′t = Ft se t ≤ τD e F ′t = Ft se F ′t = FτD +Wt−τD > τD.

E facil ver que 〈<F ′〉t = 〈=F ′〉t = t e 〈<F ′,=F ′〉t = 0, e assim F ′t e ummovimento browniano bidimensional. Nao e difıcil ver que f(Zt) primeiro al-canca ∂f(D) antes ou ao mesmo tempo que Zt primeiro alcanca ∂D. AssimFt∧τ(f(D)) e um movimento browniano bidimensional parado sobre ∂f(D).

Se f e injetora, entao o tempo de alcance de ∂f(D) por f(Zt) e igual aotempo de alcance de ∂D por Zt.

Antes de passar as aplicacoes do Teorema de Levy, parece bastante naturalse perguntar se ele nao se generaliza para dimensoes d ≥ 3, a resposta e nao,vamos ver porque.

Seja F it a i-esima componente de f(Bt). Se f(Bt) e uma mudanca de tempo

do movimento browniano, devemos ter 〈F i, F j〉 ≡ δijAt, assim segue daformula de Ito que se fi e a i-esima componente de f , entao

∇fi.∇fj = 0 se i 6= j e

|∇fi|2 e independente de i

As duas ultimas condicoes implicam que f e conforme (preserva angulos),

91

Page 92: Aplicaç˜oes do cálculo estocástico `a análise complexa

logo por um teorema de Liouville (veja [spivak][18]) temos que f deve seruma composicao de funcoes da seguinte lista:

(i) translacao: x −→ x+ y;

(ii) multiplicacao por uma constante (homotetia): x −→ cx;

(iii) transformacao ortogonal: x −→ Ax onde A e uma matriz ortogonal;

(iv) inversao: J(x) = x/|x|2.As funcoes f que podem ser formadas pela composicao de funcoes da listaanterior sao chamadas de Transformacoes de Kelvin. As tres primeirastransformacoes claramente levam o movimento browniano em uma mudancade tempo dele mesmo, porem se d ≥ 3, a ultima transformacao nao.

Quando d ≥ 3, |Bt| −→ ∞ quando t −→ ∞, assim J(Bt) −→ 0, algoque e impossıvel para uma mudanca de tempo do movimento browniano emd ≥ 3, pois neste caso P(Bt = 0 para algum t > 0) = 0 e, como mencionado,|Bt| −→ ∞ quando t −→∞.

6.3 Aplicacoes

Vamos finalmente mostrar alguns teoremas classicos de Analise Complexaatraves do Calculo Estocastico.

6.3.1 Alguns Teoremas Interessantes

(6.14) Teorema Fundamental da Algebra: Seja P (z) um polinomionao constante em z. Entao existe pelo menos um z0 tal que P (z0) = 0, ouseja, todo polinomio complexo nao constante possui pelo menos uma raiz.

Demonstracao: Se P (z) = anzn + an−1z

n−1 + ...+ a0 com an 6= 0, entao

|P (z)| = |an||z|n|1 +an−1an

z−1 + ...+a0anz−n| −→ ∞,

quando |z| −→ ∞.

Seja R tal que |P (z)| ≥ 1 se |z| ≥ R.

92

Page 93: Aplicaç˜oes do cálculo estocástico `a análise complexa

Figura 1: Planos complexos domınio e imagem de P (z)

Suponha que P (z) nunca se anule. Como P (B(0, R)) e compacto, e logofechado, existe uma vizinhanca V de 0 que e disjunta dele. Escolhendo V demodo que seu diametro seja menor do que 1/2, V ∩P (C) = ∅ (acompanhe afigura 1, para uma melhor compreensao da situacao descrita).

Entretanto, P (Zt) e uma mudanca de tempo de um movimento brownianobidimensional. Como P e nao constante, temos que 〈P (Z)〉t −→ ∞ quandot −→∞. Isto significa que P (Zt) alcanca toda vizinhanca infinitas vezes; emparticular toca V , uma contradicao para V ∩ P (C) = ∅.

(6.15) Teorema de Liouville: Toda funcao f inteira nao constante e naolimitada.

Demonstracao: Pela propriedade de recorrencia para o movimento brow-niano bidimensional (proposicao 5.9) temos que com probabilidade um, quasetoda trajetoria de f(Zt) e densa em C.

(6.16) Princıpio do Maximo Modulo: Se D e um domınio limitado ef e analıtica em D e contınua em D, entao supD |f | = sup∂D |f |.

93

Page 94: Aplicaç˜oes do cálculo estocástico `a análise complexa

Demonstracao: Se f = u + iv onde u e v sao harmonicas, entao |f |2 =u2 + v2 e subharmonica, como δ(u2) = 2|∇u|2 ≥ 0 e mesmo vale para δ(v2).Assim |f(z)|2 ≤ Ez|f(ZτD |2 ≤ sup∂D |f |2 para z ∈ D. Agora basta tomarraızes quadradas para obter o resultado.

6.3.2 ”Pequeno”Teorema de Picard

Dadas duas curvas fechadas γ1 e γ2 dizemos que elas sao homotopicas em umdomınio D se γ1 pode ser deformada continuamente em γ2.

De modo mais formal, suponha que γ1 e γ2 sao funcoes contınuas de [0, 1]em um domınio D com γi(0) = γi(1), i = 1, 2. Dizemos que γ1 e γ2 saohomotopicas se existe uma funcao F de [0, 1]2 em D tal que F e contınua,F (s, 0) = γ1(s) para todo s ∈ [0, 1], F (s, 1) = γ2(s) para todo s ∈ [0, 1],e F (0, t) = F (1, t) para todo t ∈ [0, 1]. O conjunto de curvas homotopicasumas as outras forma claramente uma classe de equivalencia. Alem disso, seγ1 e γ2 sao homotopicas entre si e f e contınua, entao f(γ1) e f(γ2) sao ho-motopicas entre si. Em um domınio simplesmente conexo cada curva fechadae homotopica a curva γ0 formada por um unico ponto no domınio.

(6.17) ”Pequeno”Teorema de Picard: Se f e uma funcao inteira e seexistirem dois numeros complexos que nao estao na imagem de f , entao f econstante, ou seja, a imagem de f omite no maximo um ponto se f e umafuncao inteira nao constante.

Demonstracao: A prova original deste resultado segundo metodos de Cal-culo Estocastico se deve a [davis2][5], aqui seguiremos uma variante devidaa [bass][2].

Seja f inteira nao constante, suponha por absurdo que f(C) omite mais deum ponto de C. Podemos sem perda de generalidade supor que dois dos pon-tos omitidos sao −a e b, onde a e b sao reais positivos, e que f(0) = 0. Comof e inteira, |f ′| > 0 exceto para um conjunto contavel, e pela recorrencia domovimento browniano,

∫ t0|f ′(Zs)|2ds −→∞ quando t −→∞ . Assim f(Zt)

e um movimento browniano a menos de uma mudanca de tempo (nao mortoou parado).

94

Page 95: Aplicaç˜oes do cálculo estocástico `a análise complexa

Figura 2: Plano complexo com conjuntos Ai

Seja ε > 0 suficientemente pequeno tal que se |z| < ε, f(z) pode ser conec-tado a 0 por uma curva passando por f(C) ∩ B(0, (a ∧ b)/2). Para infinitost, Zt ∈ B(0, ε). Seja Lt o segmento de reta conectando Zt a 0. A curva con-sistindo de adicionar o segmento de reta Lt ao final de Zt e uma curva fechadahomotopica a um unico ponto, 0. Logo a curva consistindo de adicionar f(Lt)ao final de f(Zt) deve ser tambem homotopica a um unico ponto.

Vamos mostrar agora que em Lt com probabilidade um, existe t0 (depen-dendo de ω) tal que se t > t0, a curva formada pela adicao de f(Lt) ao finalde f(Zt) e nao homotopica a um unico ponto (*).

Sejam

A0 = −a < x < b, y = 0 , A1 = x < −a, y = 0,

A2 = x > b, y = 0 , A3 = x = −a ou x = b, y > 0 e

A4 = x = −a ou x = b, y < 0.

Sejam T1 = 0, bi ∈ 0, 1, 2, 3, 4 tais que f(ZTi) ∈ Abi , e

Ti+1 = inft > Ti : f(Zt) ∈ ∪4j=0Aj − Abi.

Assim os Tis sao os tempos para atingir um dos conjuntos Aj diferentes daultima passagem.

Seja 0b1b2...bn a sequencia formada, e entao seja a sequencia reduzida cons-truıda como segue:

95

Page 96: Aplicaç˜oes do cálculo estocástico `a análise complexa

(i) Se nossa sequencia termina em 030 ou 040, apague as duas ultimas en-tradas;

(ii) Se a ultima entrada e a mesma que a antepenultima e a penultima nao e0, apague as duas ultimas entradas (assim, ...0424 torna-se ...04, mas ...3404nao se torna ...34);

(iii) Se a sequencia termina em um 0 e tem a forma ...0bi1 ...bij0bij ...bi10, eli-mine tudo a partir do antepenultimo 0 ate o ultimo (assim ...0423140413240torna-se ...0).

Aplicando as regras (i), (ii) e (iii) ate a sequencia nao puder ser mais reduzida,obtemos a sequencia completamente reduzida (acompanhar os passos do al-goritmo atraves da figura 2, fornece uma maior intuicao sobre o processo).

A sequencia completamente reduzida descreve a classe de homotopia paraf(Zt) com f(Lt) adicionada sobre Zt ∈ B(0, ε), e para esta curva ser ho-motopica a um ponto, e necessario que a sequencia reduzida consista de umunica entrada 0. Assim para provar (*), e suficiente provar que o numero de0s em uma sequencia reduzida tende a ∞, q.s. . Seja um bloco uma porcaode uma sequencia reduzida iniciando e terminando com um 0 e sem zeros nomeio.

Suponha que o ultimo bloco na sequencia reduzida e ...03140. Para reduzir onumero de zeros, o proximo bloco deve ser 04130. Por simetria na reta y = 0,temos 03140, o que aumenta o numero de zeros por um. Alem disso, peloteorema de suporte, existe uma probabilidade positiva que o proximo blocoseja 034240 ou 042430, cada uma das quais aumenta o numero de zeros. Umargumento similar de simetria pode ser dado nao importa o que o ultimobloco e, e assim existe δ > 0 tal que

P(numero de zeros aumenta emum) ≥ 1/2 + δ e

P(numero de zeros diminui emum) ≤ 1/2− δ

Logo o numero de 0s tende ao infinito, q.s..

Vamos retornar a curva consistindo de adicionar o segmento de reta f(Lt) aofinal de f(Zt). Para t suficientemente grande, esta curva e nao homotopicaa um unico ponto, uma contradicao, o que prova o teorema.

96

Page 97: Aplicaç˜oes do cálculo estocástico `a análise complexa

7 Conclusao

It is not knowledge, but the act of learning, not possession but theact of getting there, which grants the greatest enjoyment. WhenI have clarified and exhausted a subject, then I turn away fromit, in order to go into darkness again; the never-satisfied man isso strange if he has completed a structure, then it is not in orderto dwell in it peacefully, but in order to begin another. I imaginethe world conqueror must feel thus, who, after one kingdom isscarcely conquered, stretches out his arms for others.

Johann Carl Friedrich Gauss (1777-1855)

Na relacao frutıfera entre Analise e Probabilidade, normalmente o fluxo deaplicacoes se da no uso da Analise como ferramenta poderosa para estu-dar a Teoria da Probabilidade. Neste texto procuramos explorar um poucodesta relacao no sentido oposto, em particular na aplicacao de Probabilidade(Calculo Estocastico) para obter resultados classicos em Analise Complexa.

Aqui apresentamos apenas uma pequena amostra das muitas possıveis apli-cacoes, mais desenvolvimentos podem ser encontrados em [bass][2] e [dur-rett1][6].

Como sabemos, o ”pequeno”teorema de Picard e generalizado pela Teoriade Nevanlinna, assim cabe a pergunta: Podemos usar o Calculo Estocasticopara provar os teoremas de Nevanlinna?

A resposta e sim, e o leitor deste texto podera encontrar detalhes em [at-suji][1] e [carne][3]. Uma prova do ”grande”teorema de Picard pode ser en-contrada em [davis2][5].

Outra possibilidade interessante seria colocar o movimento browniano com-plexo para ”passear”por outras superfıcies alem do plano complexo, comopor exemplo em superfıcies de Riemann. Neste caso tambem obtemos resul-tados interessantes, conforme [davis2][5].

Uma area que tem despertado interesse em pesquisa ultimamente e em Teo-ria de Campo Conforme atraves das equacoes estocasticas de Loewner (veja[lyons1][11]), este pode ser um tema de trabalho futuro para o autor destadissertacao.

97

Page 98: Aplicaç˜oes do cálculo estocástico `a análise complexa

Referencias

[1] A. Atsuji, Nevanlinna Theory via Stochastic Calculus, Jour. of Func-tional Analysis, 132, pp. 473-510, 1995

[2] R. F. Bass, Probabilistic Techniques in Analysis, Springer-Verlag, 1995

[3] T.K. Carne, Brownian Motion and Nevanlinna Theory, Proc. LondonMath. Soc., (3), 52, pp. 349-368, 1986

[4] B. Davis, Brownian Motion and Analytic Functions, Ann. Probability,Vol. 7, No. 6, pp. 913-932, 1979

[5] B. Davis, Picard’s Theorem and Brownian Motion, Trans. Am. Math.Soc., Vol. 213, pp. 353-362, 1975

[6] R. Durrett, Brownian Motion and Martingales in Analysis, Wadsworth,1984

[7] R. Durrett, Probability: Theory and Examples , Cambridge, 2010, 4a ed.

[8] A.P. Dvoretsky, P. Erdos, S. Kakutani, Nonincreasing everywhere of theBrownian motion process, Proceedings of the Fourth Berkeley Sympo-sium, vol. II, pp. 103-116, 1961

[9] J.P. Kahane, Brownian Motion and Classical Analysis, Bull. LondonMath. Soc., 8, pp. 145-155, 1976

[10] A. Lins Neto, Funcoes de uma Variavel Complexa, IMPA, Projeto Eu-clides, 1993

[11] T.J. Lyons, Brownian Motion in Complex Analysis, notas de aula docurso C10.1b na University of Oxford, 2007, disponıvel na internet

[12] T.J. Lyons, H. P. McKean, Winding of the Plane Brownian Motion,Advances in Mathematics, 51, pp. 212-225, 1984

[13] F. Niski, Integral Estocastica e Aplicacoes, dissertacao de mestrado emMatematica Aplicada, 2009

[14] R.Paley, N. Wiener, A. Zygmund Note on random functions, Math. Z.,37, pp.647-688, 1933

[15] M. N. Pascu, A Probabilistic Proof of the Fundamental Theorem of Al-gebra, Proc. Am. Math. Soc., Vol. 133, No. 6, pp. 1707-1711

98

Page 99: Aplicaç˜oes do cálculo estocástico `a análise complexa

[16] W. Rudin, Real and Complex Analysis, McGraw-Hill, 1987, 3a ed.

[17] P. Ruffino, Uma Iniciacao aos Sistemas Dinamicos Estocasticos, IMPA,27o Col. Bras. Matem., 2009

[18] S. S. Sheu, Ito’s Formula for Complex Semimartingales, disponıvel nainternet

[19] M. Spivak, A Comprehensive Introduction to Differential Geometry,Publish or Perish Inc., Vol. III, pp. 302-310

[20] J. M. Steele, Stochastic Calculus and Financial Applications, Springer-Verlag, 2000

99

Page 100: Aplicaç˜oes do cálculo estocástico `a análise complexa

Indice Remissivo

adaptada, 30adaptado, 28

condicoes de Cauchy-Riemann, 13condicoes usuais, 31contınua a direita, 28

espaco de probabilidade, 17

filtracao, 27funcao caracterıstica, 21funcao subharmonica, 16

harmonica, 15holomorfa, 12

inteira, 12

Lema de Ito, 68Lema de Ito Complexo, 88localmente de variacao limitada, 68

martingal, 31martingal complexo, 86martingal conforme, 87martingal local, 68movimento browniano, 49movimento browniano complexo, 86movimento browniano padrao, 47

numero de passagens de baixo paracima, 35

operadores deslocamento, 51

Pequeno Teorema de Picard, 15polo de ordem n, 14predizıvel, 61Princıpio do Maximo Modulo, 14processo estocastico, 27processo gaussiano, 27

processo markoviano, 30processo morto, 27processo parado, 27

semimartingal, 68singularidade essencial, 14singularidade isolada, 13singularidade removıvel, 13submartingal, 31supermartingal, 31

tempo de parada, 28Teorema da Aplicacao Aberta, 14Teorema de Levy, 89Teorema de Liouville, 15Teorema de Suporte, 84Teorema Fundamental da Algebra, 14Transformacoes de Kelvin, 92

uniformemente integravel, 32

variacao quadratica, 45

100