161
Conteúdo 1. Preliminares 3 1.1. Conceitos básicos de teoria das probabilidades ........................ 3 1.1.1. Variáveis aleatórias ..................................... 3 1.1.2. Vetores aleatórios ..................................... 10 1.1.3. Independência e dependência .............................. 15 1.2. Processos estocásticos ........................................ 18 1.3. Movimento browniano ....................................... 26 1.3.1. Propriedades da definição ................................ 26 1.3.2. Processos derivados do movimento browniano .................. 32 1.3.3. Simulações de caminhos amostrais brownianos .................. 35 1.4. Esperança condicional ........................................ 45 1.4.1. Esperança condicional sob a condição discreta ................... 45 1.4.2. Sobre σ -álgebras ...................................... 50 1.4.3. A esperança condicional geral .............................. 54 1.4.4. Regras para o cálculo da esperança condicional .................. 57 1.4.5. A propriedade da projeção de esperanças condicionais .............. 60 1.5. Martingais ............................................... 63 1.5.1. Propriedades definidoras ................................. 63 1.5.2. Exemplos ........................................... 66 1.5.3. A interpretação de um martingal como um jogo não viciado ......... 69 2. A integral estocástica 71 2.1. As integrais de Riemann e de Riemann-Stieltjes ....................... 71 2.1.1. A integral de Riemann ordinária ............................ 72 2.1.2. A integral de Riemann-Stieltjes ............................. 75 2.2. A integral de Ito ............................................ 79 2.2.1. Um exemplo motivador ................................. 79 2.2.2. A integral estocástica de Ito para processos simples ................ 82 2.2.3. A integral estocástica geral de Ito ........................... 88 2.3. O lema de Ito ............................................. 92 2.3.1. A regra da cadeia clássica para a diferenciação ................... 92 2.3.2. Uma versão simples do lema de Ito .......................... 94 2.3.3. Versões estendidas do lema de Ito ........................... 96 1

Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

Conteúdo

1. Preliminares 3

1.1. Conceitos básicos de teoria das probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 31.1.1. Variáveis aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.1.2. Vetores aleatórios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.1.3. Independência e dependência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.2. Processos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.3. Movimento browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

1.3.1. Propriedades da definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261.3.2. Processos derivados do movimento browniano . . . . . . . . . . . . . . . . . . 321.3.3. Simulações de caminhos amostrais brownianos . . . . . . . . . . . . . . . . . . 35

1.4. Esperança condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451.4.1. Esperança condicional sob a condição discreta . . . . . . . . . . . . . . . . . . . 451.4.2. Sobre σ -álgebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 501.4.3. A esperança condicional geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541.4.4. Regras para o cálculo da esperança condicional . . . . . . . . . . . . . . . . . . 571.4.5. A propriedade da projeção de esperanças condicionais . . . . . . . . . . . . . . 60

1.5. Martingais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 631.5.1. Propriedades definidoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 631.5.2. Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661.5.3. A interpretação de um martingal como um jogo não viciado . . . . . . . . . 69

2. A integral estocástica 71

2.1. As integrais de Riemann e de Riemann-Stieltjes . . . . . . . . . . . . . . . . . . . . . . . 712.1.1. A integral de Riemann ordinária . . . . . . . . . . . . . . . . . . . . . . . . . . . . 722.1.2. A integral de Riemann-Stieltjes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

2.2. A integral de Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 792.2.1. Um exemplo motivador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 792.2.2. A integral estocástica de Ito para processos simples . . . . . . . . . . . . . . . . 822.2.3. A integral estocástica geral de Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

2.3. O lema de Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 922.3.1. A regra da cadeia clássica para a diferenciação . . . . . . . . . . . . . . . . . . . 922.3.2. Uma versão simples do lema de Ito . . . . . . . . . . . . . . . . . . . . . . . . . . 942.3.3. Versões estendidas do lema de Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

1

Page 2: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.4. A integral de Stratonovich e outras integrais . . . . . . . . . . . . . . . . . . . . . . . . . 101

3. Equações diferenciais estocásticas (EDE) 107

3.1. Equações diferenciais determinísticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1073.2. As equações diferenciais estocásticas de Ito . . . . . . . . . . . . . . . . . . . . . . . . . . 110

3.2.1. O que é uma equação diferencial estocástica? . . . . . . . . . . . . . . . . . . . . 1103.2.2. Resolvendo EDEs usando o lema de Ito . . . . . . . . . . . . . . . . . . . . . . . 1133.2.3. Resolvendo equações diferenciais estocásticas de Ito através do cálculo de

Stratonovich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1193.3. A equação diferencial linear geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

3.3.1. Equações lineares com ruído aditivo . . . . . . . . . . . . . . . . . . . . . . . . . 1233.3.2. Equações homogêneas com ruído multiplicativo . . . . . . . . . . . . . . . . . 1263.3.3. O caso geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1273.3.4. As funções de esperança e variância da solução . . . . . . . . . . . . . . . . . . . 128

3.4. Solução numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1293.4.1. A aproximação de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1303.4.2. A aproximação de Milstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

4. Aplicações do cálculo estocástico em finanças 137

4.1. A fórmula de Black-Scholes do apreçamento de opções . . . . . . . . . . . . . . . . . . 1374.1.1. Uma breve excursão através das finanças . . . . . . . . . . . . . . . . . . . . . . . 1374.1.2. O que é uma opção? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1394.1.3. Uma formulação matemática do problema de apreçamento de opções . . . . 1414.1.4. A fórmula de Black e Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

4.2. Uma técnica útil: a mudança de medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1454.2.1. O que é a mudança da medida subjacente . . . . . . . . . . . . . . . . . . . . . . 1454.2.2. Uma interpretação da fórmula de Black-Scholes pela mudança de medida . 148

A. Apêndice 153

A.1. Modos de convergência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153A.2. Desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155A.3. Não diferenciabilidade e variação ilimitada dos caminhos amostrais brownianos . . 156A.4. Demonstração da existência da integral estocástica geral de Ito . . . . . . . . . . . . . . 157A.5. O teorema de Radon-Nikodym . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160A.6. Prova da existência e unicidade da esperança condicional . . . . . . . . . . . . . . . . . 160

Page 3: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

CAPÍTULO 1

PRELIMINARES

Neste capítulo iremos coletar alguns fatos básicos necessários para definirmos as integrais estocás-ticas. Em uma primeira leitura, a maioria das partes deste capítulo podem ser deixadas de lado,contanto que você possua algum conhecimento básico de teoria das probabilidades e processosestocásticos. Você poderá então começar pelo capítulo 2 que trata do cálculo estocástico de Ito erevisar alguns fatos deste capítulo, se necessário.

Na seção 1.1 iremos revisar noções elementares de teoria das probabilidades tais como var-iáveis aleatórias, vetores aleatórios, distribuições, funções de distribuição, densidade, esperança, mo-mento, variância e covariância. Esta pequena revisão não pode ser um substitutivo de um cursointeiro de probabilidade, e portanto recomenda-se que você consulte suas anotações do curso ouum texto padrão. A seção 1.2 trata dos processos estocásticos. Um processo estocástico é um mod-elo natural para a descrição de processos da vida real, objetos e sistemas no espaço e no tempo.Um processo estocástico particular desempenha um papel central no presente livro: movimentobrowniano. Ele será introduzido na seção 1.3 onde discutiremos algumas de suas propriedades ele-mentares, em particular a não-diferenciabilidade e a variação ilimitada de seus caminhos amostrais.Essas propriedades indicam que os caminhos amostrais brownianos são bastante irregulares, e por-tanto um novo cálculo estocástico tem de ser introduzido para as integrais referentes a movimentosbrownianos.

Na seção 1.4 nós iremos brevemente revisar as esperanças condicionais. Sua definição precisabaseia-se em uma teoria matemática profunda, e portanto somente daremos alguma intuição arespeito desse conceito. A mesma observação se aplica à seção 1.5, onde introduziremos uma classeimportante de processos estocásticos: os martingais. Estes incluem o movimento browniano e asintegrais indefinidas de Ito como exemplos particulares.

1.1. Conceitos básicos de teoria das probabilidades

1.1.1. Variáveis aleatórias

O resultado de um experimento ou jogo é aleatório. Um simples exemplo é o do lançamentode uma moeda: os possíveis resultados “cara” ou “coroa” não são previsíveis no sentido de apare-cerem segundo um mecanismo aleatório que é determinado pelas propriedades físicas de umamoeda. Existem os resultados aleatórios das atividades dos corretores (que representam na reali-dade tendências econômicas, interesses políticos, bem como os próprios instintos) que se refletemnos preços das ações e nas taxas de câmbio. Outro jogo é denominado de “competição” e pode

3

Page 4: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

ser visualizado onde os produtos se encontram à venda: o preço de 1 kg de bananas, digamos, é oresultado, por um lado, de um jogo entre os donos das lojas, e de outro entre os donos de lojas eos consumidores.

O tratamento científico de um experimento requer a atribuição de um número a cada resul-tado aleatório. Ao lançarmos uma moeda, podemos escrever “1” para nos referirmos a “cara” e“0” para “coroa.” Assim, obteremos uma variável aleatória X = X (ω) ∈ 0,1, onde ω pertenceao espaço de resultados Ω = cara, coroa. O valor do preço de uma ação já é um número aletório,como também o é o preço de uma banana em uma quitanda. Tais números X (ω) nos fornecemuma informação a respeito de um experimento, mesmo que não saibamos quem participa do jogoou quem o impulsiona.

Os matemáticos fazem uma clara distinção entre realidade e modelo matemático: eles definemum espaço abstrato Ω coletando todos os possíveis resultados ω de um experimento subjacente.Trata-se de um espaço abstrato, i.e., na realidade não importando o que esses objetos ω são. Emlinguagem matemática, a variável aleatória X =X (ω) nada mais é do que uma função real definidasobre Ω.

O passo seguinte do processo de abstração da realidade é a descrição probabilística da variávelaleatória X :

Quais os valores mais prováveis de X (ω), onde eles estão concentrados, e qual seu spread?

Para abordarmos esses problemas, primeiro coletamos os subconjuntos “bons” de Ω, os as-sim denominados eventos de uma classe F , digamos. Em textos avançados, F é denominado deσ -álgebra. Veja mais adiante na página 50 uma definição precisa desse conceito. Tal classe suposta-mente contém todos os eventos interessantes. O que seria F para o lançamento de uma moeda?Certamente ω : X (ω) = 0 = cara e ω : X (ω) = 1 = coroa devem pertencer a F , masa união, diferença e intersecção de quaisquer eventos em F também devem pertencer a F . Omesmo se dá com os conjuntos Ω= cara, coroa e seu complemento, o conjunto vazio ;. Trata-sede um exemplo trivial, mas que mostra como F deveria ser: se A ∈ F , então seu complementoAc também pertence; e se A,B ∈ F , então também estarão emF A∩ B , A∪ B , A∪ B c , B ∪Ac , eassim por diante.

Se consideramos o preço de uma ação X , não somente os eventos ω : X (ω) = c deveriampertencer aF , como também

ω : a <X (ω)≤ b, ω : b <X (ω), ω : X (ω)≤ a,

bem como muito mais eventos que podem ser relevantes para tal situação. Como no caso dolançamento de uma moeda, gostaríamos que as operações elementares tais como ∩, ∪, c aplicadasa eventos de F não nos levassem para fora da classe F . Este é o significado intuitivo de umaσ -álgebraF .

Probabilidade, Distribuição e Funções de distribuição

Perguntamos agora, onde entram as probabilidades? Ao lançarmos uma moeda, ocorrerá “cara” ou“coroa”. As probabilidades medem a verossimilhança de tais eventos ocorrerem. Se a moeda é nãoviciada, iremos atribuir a probabilidade 0.5 a ambos os eventos, i.e., P (ω : X (ω) = 0) = P (ω :X (ω) = 1) = 0.5. Esta definição matemática é baseada em evidência empírica: ao lançarmos umamoeda não viciada um grande número de vezes, esperamos que em aproximadamente 50% das

4

Page 5: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.1. Conceitos básicos de teoria das probabilidades

vezes seja obtida “cara” e nas restantes 50% seja obtida “coroa.” Em teoria das probabilidades, a leidos grandes números fornece a justificativa teórica de tais observações empíricas.

Este exemplo elementar expressa o que é uma medida de probabilidade sobre uma classeF deeventos: para cada evento A∈F ela associa um valor P (A) ∈ [0,1]. Tal número é a fração esperadade ocorrências do evento A em uma séria longa de experimentos em que A e Ac são observadas.

Algumas propriedades elementares de medida de probabilidade podem ser facilmente suma-rizadas:

Para eventos A,B ∈FP (A∪B) = P (A)+ P (B)− P (A∩B),

e, se A e B são disjuntos,

P (A∪B) = P (A)+ P (B).

Além disto,

P (Ac ) = 1− P (A), P (Ω) = 1 e P (;) = 0.

A relação entre as variáveis aleatórias e probabilidade pode ser caracterizada por certas quantidadesnuméricas. No que se segue, consideraremos algumas delas.

A coleção de probabilidades

FX (x) = P (X ≤ x) = P (ω : X (ω)≤ x), x ∈R= (−∞,∞),é a função distribuição FX de X .

A dada função fornece a probabilidade para que X pertença ao intervalo [a, b]. De fato,

P (ω : a <X (ω)≤ b) = FX (b )− FX (a), a < b .

Além disto, podemos também obter a probabilidade de que X seja igual a um determinadonúmero:

P (X = x) =

=P (ω : X (ω) = x) = P (ω : X ≤ x)− P (ω : X < x)=P (ω : X (ω)≤ x)− lim

h↓0P ((ω : X (ω)≤ x − h)

=FX (x)− limh↓0

FX (x − h).

Com essas probabilidades, podemos aproximar a probabilidade de um evento ω : X (ω) ∈ Bpara subconjuntos bastante complexos B de R.

A coleção de probabilidades

PX (B) = P (X ∈ B) = P (ω : X (ω) ∈ B)para subconjuntos convenientes B ⊂R é a distribuição de X .

5

Page 6: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Os subconjuntos “convenientes” de R são os assim chamados conjuntos borelianos. Eles po-dem ser obtidos através de um número enumerável de operações envolvendo ∩, ∪ ou c atuandosobre intervalos; veja a página 52 para uma definição mais precisa.

A distribuição PX e a função de distribuição FX são noções equivalentes, no sentido de queambas podem ser utilizadas no cálculo da probabilidade do evento X ∈ B.

A função de distribuição é contínua ou dá saltos. Primeiramente consideramos o caso especialem que a função distribuição FX é uma função de saltos puros:

FX (x) =∑

k:xk≤x

pk x ∈R (1.1)

onde

0≤ pk ≤ 1 para todo k e∑∞

k=1 pk = 1.

A função distribuição dada pela equação (1.1) e pela distribuição correspondente sãodenominadas discretas; uma variável aleatória possuindo uma função distribuiçãodada pela equação (1.1) é uma variável aleatória discreta.

Uma variável aleatória discreta pode assumir somente um número finito ou infinito enu-merável de valores x1, x2 . . . onde pk = P (X = xk ). Em particular, a função distrbuição FX possuium salto para cima de tamanho pk em x = xk . Por exemplo, a variável aleatória X referente aolançamento de uma moeda é discreta: ela assume tão somente os valores 0 ou 1. O preço de vendade um produto qualquer em um supermercado é uma variável aleatória discreta: ela pode assumir,digamos, os valores 0.01,0.02, . . . .

Exemplo 1.1.1. (Duas distribuições discretas importantes)Dentre as distribuições discretas importantes podemos citar a distribuição binomial Bi n(n, p)tendo como parâmetros n ∈N= 0,1,2, . . . e p ∈ (0,1).

P (X = k) =

n

k

pk (1− p)n−k , k = 0,1 . . . n,

e a distribuição de Poisson Poi (λ) com parâmetro λ > 0:

P (X = x) = e−λλk

k!, k = 0,1,2, . . . .

Veja a figura 1.1 para uma ilustração.

Em contraste com as distribuições discretas e variáveis aleatórias, a função distribuição deuma variável aleatória contínua não pode dar saltos, e portanto P (X = x) = 0 para todo x, ou, deforma equivalente

limh→0

FX (x + h) = FX (x) para todo x, (1.2)

i.e., uma tal variável aleatória pode assumir qualquer valor com probabilidade 0. Uma variávelaleatória contínua ganha seu nome a partir da propriedade da continuidade dada pela equação(1.2) da função de distribuição FX .

6

Page 7: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.1. Conceitos básicos de teoria das probabilidades

Fig. 1.1 — Esquerda: as probabilidades P (X = x), k = 0,1,2, . . . da função de distribuição de Poisson com parâmetro λ = 10. Direita: a função de

distribuição correspondente.

Fig. 1.2 — Esquerda: a densidade de probabilidade da distribuição normal padrão (média 0, variância 1). Direita: a função de distribuição correspondente.

Fig. 1.3 — Esquerda: a densidade dos log-retornos Xt = lnYt − lnYt−1 dos preços diários de fechamento Yt do índice S& P. O S& P é um dos

índices industriais básicos. Direita: a função de distribuição correspondente. Uma comparação com a 1.1 indica que a última distribuição certamente não

é normal.

7

Page 8: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

A maioria das distribuições de interesse possuem uma densidade fX :

FX (x) =

∫ x

−∞fX (y)d y, x ∈R,

onde

fX (x)≥ 0 para todo x ∈R e∫ ∞

−∞fX (y)d y = 1.

Exemplo 1.1.2. (As distribuições normal e uniforme)Uma distribuição importante contínua é a distribuição gaussiana normal N (µ,σ2), tendo comoparâmetros µ ∈R, σ2 > 0. Tem como densidade a expressão dada por

fX (x) =1p

2πσexp

(−(x −µ)2

2σ2

), x ∈R. (1.3)

Se X é N (0,1) (normal padrão) denotaremos por ϕ sua densidade e por Φ sua função dis-tribuição FX . Para uma ilustração da densidade da normal padrão, veja a figura 1.2.A distribuição uniforme U (a, b ) tem por densidade a seguinte expressão:

fX (x) =

(1

b−ase x ∈ (a, b ),

0 em caso contrário.

O valor de uma taxa de câmbio ou preço de uma ação pode, pelo menos teoricamente, assumirqualquer valor real positivo. É claro que existem limitações técnicas: um computador ou calcu-ladora de bolso não é capaz de armazenar o valor de uma taxa de câmbio com infinitos dígitos,por exemplo

p2; qualquer número figurando na memória de um computador foi arredondado.

Portanto, qualquer variável aleatória tendo algum interesse prático é na realidade discreta. . . Noentanto, é conveniente pensarmos uma tal variável como sendo contínua. Existem várias razõesde natureza teórica. Por exemplo, a distribuição normal aparece como uma distribuição limiteatravés do teorema do limite central; (veja a página 36). Muitas funções de uma amostra são por-tanto aproximadamente normais, e portanto suas distribuições limite são contínuas. Mas existemtambém razões de ordem prática: em geral é menos enfadonho trabalhar com uma distribuiçãocontínua amplamente estudada (tal como a normal, exponencial, gama, uniforme, e assim pordiante), porque podemos utilizar o conhecimento padrão sobre sua densidade, bem como utilizarpacotes de programas computacionais padrão sobre sua densidade, momentos, quantis, e assimpor diante. Podemos também obter expressões explicitamente dadas dessas quantidades.

Esperança, Variância e Momentos

Algumas características interessantes das variáveis aleatórias X são a sua esperança EX , a variânciavar(X ) e seus momentos E(X l ).

8

Page 9: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.1. Conceitos básicos de teoria das probabilidades

A esperança ou valor médio de uma variável aleatória X tendo densidade fX é dadapor

µX = EX =

∫ ∞

−∞x fX (x)d x.

A variância de X é definida por

σ2X= var(X ) =

∫ ∞

−∞(x −µX )

2 fX (x)d x.

O l -ésimo momento de X para l ∈N é definido como

E(X l ) =

∫ ∞

−∞x l fX (x)d x.

Para uma dada função real g , a esperança de g (X ) é dada pela expressão

E g (X ) =

∫ ∞

−∞g (x) fX (x)d x.

A esperança ou valor médio de uma variável aleatória discreta X tendo como proba-bilidades associadas pk = P (X = xk ) é dada por

µX = EX =∞∑

k=1

xk pk .

A variância de X é definida por

σ2X= var(X ) =

∞∑

k=1

(xk −µX )2 pk .

O l -ésimo momento de X para l ∈N é definido como

E(X l ) =∞∑

k=1

x lk

pk

Para uma dada função real g , a esperança de g (X ) é dada pela expressão

E g (X ) =∞∑

k=1

g (xk )pk .

Podemos considerar a esperança µX como o “centro de gravidade” da variável aleatória X , i.e.,os varlores aleatórios X (ω) encontram-se concentrados em torno do valor não-aleatório µX . Aesperança é considerada com freqüência como um substituto do tamanho da variável aleatória.Por exemplo, é uma maneira simples de previsão dos valores futuros de uma série temporal.

O spread ou dispersão dos valores aleatórios X (ω) ao redor da esperança µX é descrita pormeio de uma variância:

9

Page 10: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

σ2X=var(X ) = E(X −µX )

2

=E(X 2− 2µX X +µ2X) = E(X 2)− 2µ2

X+µ2

X

=E(X 2)−µ2X

e o desvio padrão σX .Recorde-se da densidade normal dada pela equação (1.3). O parâmetro µ é a esperança µX

e parâmetro σ 2 é a variância σ2X

da variável aleatória X com densidade dada por (1.3). É umfato bem conhecido (e facilmente verificável por meio de um computador) que para uma variávelaleatória normal (N (µ,σ2)) X ,

P (µ− 1.96σ ≤X ≤µ+ 1.96σ) = Φ(µ+ 1.96σ)−Φ(µ− 1.96σ) = 0.95. (1.4)

Assim, existe 95% de chance de que a variável aleatória X assuma valores no intervalo [µ −1.96,µ+ 1.96]. Analogamente á equação (1.4), podemos formular uma regra heurística1 denomi-

1 não é nada maisdo que isto:

podemosconstruir

contraexemplos.

nada 2σ segundo a qual para uma variável aleatória bem comportada X , a probabilidade

P (µX − 2σX ≤X ≤µX + 2σX )

é próxima de 1. Esta regra também justificada pela desigualdade de Chebyshev:

P (|X −µX |> x)≤ x−2σ2X

, x > 0,

o que fornece um limite correto para a probabilidade de que o desvio absoluto da variável aleatóriaX de sua esperança exceda o patamar dado por x.

1.1.2. Vetores aleatórios

No que se segue, faremos uso freqüente das estruturas aleatórias finita e infinitamente dimension-ais. Iniciamos com os vetores aleatórios finitamente dimensionais como um primeiro passo paraa definição dos processos estocásticos.

X = (X1 . . .Xn) é um vetor aleatório n-dimensional se os seus componentes X1 . . .Xn

são variáveis aleatórias unidimensionais a valores reais.

Se interpretarmos t = 1 . . . n como instantes equidistantes no tempo, Xt pode ser consideradocomo o resultado de um experimento no tempo t . Uma tal série temporal, por exemplo, podeconsistir dos preços das ações da BMW Xt em n dias sucessivos. É claro que t é um “tempomatemático”, e portanto, não é nada mais do que um índice de uma variável de contagem. Porexemplo, um vetor aleatório pode descrever as condições meteorológicas em São Paulo em umdado instante: X1 pode ser a temperatura, X2 a pressão atmosférica, e X3 a velocidade do vento.

Analogamente às variáveis aleatórias unidimensionais, podemos introduzir a função de dis-tribuição, a esperança, os momentos e a matriz de covariância do vetor aleatório para descreversua distribuição e sua estrutura de dependência. Este último aspecto é uma novidade; a dependên-cia não faz sentido quando se fala de apenas uma variável aleatória.

10

Page 11: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.1. Conceitos básicos de teoria das probabilidades

Probabilidade, Distribuição e Função de distribuição

Lance uma moeda duas vezes. Podemos considerar quatro pares (Cara, Cara), (Coroa, Coroa),(Cara, Coroa) e (Coroa, Cara) como resultados do experimento. Esses quatro pares constituem oespaço amostral Ω. Como foi visto anteriormente, atribuiremos 1 para “Cara” e 0 para “Coroa.”Obteremos desta maneira duas variáveis aleatórias X1 e X2. X = (X1,X2) é um vetor aletóriobidimensional. Observe que

X (C a ra,C a ra) = (1,1),X (C o r oa,C o r oa) = (0,0),X (C a ra,C o r oa) = (1,0),X (C o r oa,C a ra) = (0,1).

Se a moeda for não viciada, poderemos atribuir uma probabilidade de 0.25 para cada um dosquatro resultados, i.e.

P (ω : X (ω) = (k , l )) = 0.25 k , l ∈ 0,1.

Como foi visto anteriormente, podemos considerar uma coleção de subconjuntosF deΩ e definiruma medida de probabilidade para o mesmo, i.e., poderemos atribuir um número P (A) ∈ [0,1]para cada A∈F .

Fig. 1.4 —

A coleção de probabilidades

FX (x) =P (X1 ≤ x1 . . .Xn ≤ xn) (1.5)=F (ω : X1(ω)≤ x1 . . .Xn(ω)≤ xn)

x = (x1 . . . xn) ∈Rn ,

é a função distribuição FX de X .

11

Page 12: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Por exemplo, se X for bidimensional,

P (X ∈ (a,b) = FX (b1, b2)+ FX (a1,a2)− FX (a1, b2)− FX (b1,a2).

Esta fórmula é claramente correta; veja a figura 1.4. Como no caso das variáveis aleatórias unidi-mensionais, essas probabilidades constituem uma aproximação P (X ∈ B) para conjuntos B bas-tante gerais.

A coleção de probabilidades

FX (B) = P (X ∈ B) = P (ω : X (ω) ∈ B).para subconjuntos convenientes de B ⊂Rn constituem a distribuição de X .

Os subconjuntos “convenientes” de Rn são os conjuntos de Borel, os quais são obtidos pormeio de um conjunto enumerável de operações ∩, ∪ e c atuando em intervalos doRn (veja a página52 para a uma definição precisa. Por exemplo, conjuntos formados por um único elemento, esferase retângulos são conjuntos borelianos. Em um sentido matemático, a distribuição e a funçãodistribuição de um vetor aleatório X são noções equivalentes. Tanto FX quanto PX podem serusados para calcular a probabilidade de um evento X ∈ B.

Observe que a distribuição de X = (X1 . . .Xn) contém toda a informação sobre a distribuiçãodos componentes Xi , dos pares (Xi ,X j ), das triplas (Xi ,X j ,Xk ), e assim por diante. Isto podefacilmente ser visto a partir da equação (1.5): você poderá obter a função de distribuição de (X1,X2)fazendo x3 = . . .= xn =∞, e assim por diante.

Analogamente às variáveis aleatórias, podemos introduzir vetores contínuos e discretos, bemcomo suas distribuições. Para nossos propósitos, os vetores aleatórios contínuos possuindo umadensidade serão relevantes, e portanto iremos restringir nossa atenção tão-somente a eles.

Se a distribuição de um vetor aleatório X possui densidade fX, poderemosrepresentá-lo por meio de uma função de distribuição FX de X como

FX(x1 . . . xn) = P (X ∈ B) =

∫ x1

−∞. . .∫ xn

−∞fX(y1 . . . yn)d y1 . . . d yn ,

(x1 . . . xn) ∈Rn ,

onde a densidade é a função satisfazendo

fX(x)≥ 0 para todo x ∈Rn

e ∫ x1

−∞. . .∫ xn

−∞fX(y1 . . . yn)d y1 . . . d yn = 1.

Se um vetor X possui densidade fX, todos seus componentes Xi , os vetores de pares (Xi ,X j ),triplas (Xi ,X j ,Xk ), e assim por diante, possuirão densidades. Elas serão chamadas de densidadesmarginais.

12

Page 13: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.1. Conceitos básicos de teoria das probabilidades

Exemplo 1.1.3. (Densidades marginais: o caso em que n = 3) Consideramos o caso em que n = 3.As densidades marginais podem ser obtidas da seguinte maneira:

fX1(x1) =

∫ ∞

−∞

∫ ∞

−∞fX(x)d x2d x3, fX1,X2

(x1, x2) =

∫ ∞

−∞fX(x)d x3.

fX2(x2) é obtido integrando-se fX(x) com respeito a x1 e x3, fX1,X3

pela integração de fX(x)

com respeito a x2, e assim por diante.Um dos casos é particularmente simples: se a densidade de fX(x) pode ser escrita como um

produto de funções não-negativas gi :

fX(x) = g1(x1) . . . gn(xn), x ∈Rn .

Neste caso,∫∞−∞ gi (xi )d xi = 1, para i = 1 . . . n, i.e., as funções gi (xi ) são densidades probabilísticas

unidimensionais. Portanto, tem-se necessariamente que

fXi(xi ) = gi (xi ), fXi ,X j

(xi , x j ) = gi (xi )g j (x j ), e assim por diante.

Verifique isto!

Exemplo 1.1.4. (Vetor gaussiano aleatório)Um vetor normal aleatório ou gaussiano possui distribuição normal. A distribuição n-dimensionalnormal ou distribuição gaussiana pode ser fornecida através de sua densidade:

fX(x) =1

(2π)1/2(d e tΣ)1/2

exp−

1

2(x−µ)Σ−1(x−µ)′

, x ∈Rn , (1.6)

com parâmetros µ ∈ Rn e Σ. (Aqui, e no que se segue, y′ denota a transposta do vetor y. Aquantidade Σ é uma matriz n × n simétrica definida positiva, Σ−1 é a sua inversa e detΣ seudeterminante. Veja a figura 1.5 para uma ilustração no caso em que n = 2.

Esperança, Variância e Covariância

A esperança de um vetor aleatório tem uma função parecida com o valor médio de uma variávelaleatória. Os valores X (ω) estão concentrados em torno dela.

13

Page 14: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

A esperança ou valor médio de um vetor aleatório X é dado por

µX = EX= (EX1 . . . EXn).

A matriz de covariância de X é definida por

ΣX = (cov(Xi ,X j ) : i , j = 1 . . . n),

ondecov(Xi ,X j ) =E[(Xi −µXi

)(X j −µX j)]

=E(Xi ,X j )−µXiµX j

,

é a covariância entre Xi e X j . Observe que cov(Xi ,Xi ) = σ2Xi

.

Exemplo 1.1.5. (Continuação do exemplo 1.1.4)Lembre-se da equação (1.6) que expressa a densidade de um vetor multivariado aleatório gaussianoX. O parâmetro µ é a esperança µX de X e Σ é a sua matriz de covariância ΣX. Assim, a densidadede um vetor gaussiano (e portanto, sua distribuição) fica completamente determinada através desua esperança e matriz de covariância. Em particular, se µ= 0 e Σ é a matriz identidade In , tem-seque detIn = 1 e Σ−1 = In . A densidade de fX é pois simplesmente o produto de n densidadesnormais padrão:

fX(x1 . . . xn) = ϕ(xi ) . . .ϕ(xn).

Podemos então escrever N (µ,Σ) para a distribuição do vetor gaussiano n-dimensional X tendoesperança µ e matriz de covariância Σ. Tal vetor possui uma propriedade elegante pela qual elecontinua gaussiano por transformações lineares (lembre-se de que µ′ e A′ denotam as transpostasde µ e A, respectivamente):

Suponha que X= (X1 . . .Xn) possua uma distribuição normal N (µ,Σ) e A seja umamatriz m× n. Então AX′ tem uma distribuição da forma N (Aµ′ ,AΣA′).

É conveniente padronizar as covariâncias dividindo as variáveis aleatórias correspondentes pelosseus desvios padrão. A quantidade resultante será:

corr(X1,X2) =cov(X1,X2)

σX1σX2

=E[(X1−µX1

)(X2−µX2)]

σX1σX2

é a correlação entre X1 e X2. Como resultado desta padronização, a correlação entre duas variáveisaleatórias encontra-se sempre entre−1 e 1. Verifique este fato mediante a aplicação da desigualdadede Cauchy-Schwarz; veja a página 155.

14

Page 15: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.1. Conceitos básicos de teoria das probabilidades

Fig. 1.5 — Densidade da densidade bi-dimensional normal padrão (µ= 0 e Σ= I2 é a matriz identidade)

1.1.3. Independência e dependência

Jogue uma moeda não viciada duas vezes e suponha que os números aleatórios X1(ω), X2(ω) ∈0,1 sejam os resultados correspondentes do primeiro e segundo experimentos. É fácil verificarque

P (X1 = k ,X2 = l ) = P (X1 = k) · P (X2 = l ), k , l ∈ 0,1.Esta propriedade é denominada independência das variáveis aleatórias X1 e X2. Falando intuitiva-mente, a independência significa que o primeiro experimento não tem influência no segundo, evice-versa. Por exemplo, o conhecimento de X1 não permite a previsão do valor de X2, e vice-versa.

Logo abaixo, relembramos as definições essenciais e propriedades de eventos independentes evariáveis aleatórias independentes.

Dois eventos A1 e A2 são independentes se

P (A1 ∩A2) = P (A1) · P (A2).

Duas variáveis aleatórias X1 e X2 são independentes se

P (X1 ∈ B1,X2 ∈ B2) = P (X1 ∈ B1)P (X2 ∈ B2)

De forma alternativa, podemos definir a independência através das funções de distribuição e den-sidades. As variáveis aleatórias X1 e X2 são independentes se e somente se

FX1,X2(x1, x2) = FX1

(x1)FX2(x2), x1, x2 ∈R.

Suponha que X1,X2) possua densidade fX1,X2com densidades marginais fX1

e fX2(veja a página

12). Então as variáveis aleatórias X1 e X2 são independentes se e somente se

fX1,X2(x1, x2) = fX1

(x1) fX2(x2), x1, x2 ∈R.

A definição de independência pode ser estendida para um número finito e arbitrário de even-tos e vetores aleatórios. Observe que a independência dos componentes dos vetores aleatórios

15

Page 16: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

implica a independência de cada par de seus componentes, mas a recíproca em geral não é ver-dadeira.

Os eventos A1 . . .An são independentes se, para toda escolha de índices 1≤ i1 < . . .<ik ≤ n e inteiros 1≤ k ≤ n,

P (Ai1∩ . . .∩Aik

) = P (Ai1) . . . P (Aik

).

As variáveis aleatórias X1 . . .Xn são independentes se, para toda escolha de índices1≤ i1 < . . .< ik ≤ n, inteiros 1≤ k ≤ n e subconjuntos apropriados B1 . . .Bn de R,

P (Xi1∈ Bi1

. . .Xik∈ Bik

) = P (Xi1∈ Bi1

) . . . P (Xik∈ Bik

)

Isto significa que os eventos X1 ∈ B1 . . .Xn ∈ Bn são independentes.

As variáveis aleatórias X1 . . .Xn são independentes se e somente se suas funções de distribuiçãoconjunta podem ser escritas como

FX1...Xn(x1 . . . xn) = FX1

(x1) . . . FXn(xn), (x1 . . . xn) ∈Rn .

Se o vetor aleatório X= (X1 . . .Xn) possuir densidade fX, então X1 . . .Xn serão independentes se esomente se

fX1...Xn(x1 . . . xn) = fX1

(x1) . . . fXn(xn), (x1 . . . xn) ∈Rn . (1.7)

Exemplo 1.1.6. (Continuação do exemplo 1.1.2)Relembre-se da densidade de um vetor gaussiano n-dimensional dada na equação (1.6). Pode-se verificar facilmente da forma desta densidade que seus componentes são independentes se esomente se a matriz de covariância Σ é diagonal. Isto tem o seguinte significado: corr(Xi ,X j ) =

cov(Xi ,X j ) = 0, para i 6= j . Assim, podemos escrever a densidade de X na forma dada pelaequação (1.7). Assim, no caso gaussiano a não correlação e independência são noções equivalentes.Esta asserção é falsa no caso de vetores não-gaussianos aleatórios; veja o exemplo 1.1.7.

Uma conseqüência importante da independência das variáveis aleatórias é a seguinte propriedade:

Se as variáveis aleatórias X1 . . .Xn são independentes, então para quaisquer funçõesreais g1 . . . gn , tem-se

E[g1(X1) . . . gn(Xn)] = E g1(X1) . . . E gn(Xn),

contanto que as esperanças sejam bem definidas.

Em particular, pode-se concluir que as variáveis aleatórias independentes X1 e X2 são não correla-cionadas, i.e., corr(X1,X2) = cov(X1,X2) = 0. A recíproca em geral não é verdadeira.

16

Page 17: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.1. Conceitos básicos de teoria das probabilidades

Exemplo 1.1.7. (Variáveis aleatórias não correlacionadas não são necessariamente independentes.)Seja X uma variável aleatória normal padrão. Uma vez que X é simétrica (i.e., tanto X quanto−X possuem a mesma distribuição), o mesmo acontece com X 3, e portanto tanto X quanto X 3

possuem esperança zero. Assim,

cov(X ,X 2) = E(X 3)− E(X )E(X 2) = 0,

mas X e X 2 são claramente dependentes: uma vez que X ∈ [−1,1]= X 2 ∈ [0,1], obtemos

P (X ∈ −1,1,X 2 ∈ [0,1]) =P (X ∈ [−1,1])

> P (X ∈ [−1,1])P (X 2 ∈ [0,1]) =[P (X ∈ [−1,1])]2.

Exemplo 1.1.8. (Autocorrelações de uma série temporal)Para uma dada série temporal X0,X1,X2, . . ., a autocorrelação em um lag h é definida pela sériecorr(X0,Xh ), h = 0,1, . . . . Uma asserção que pode ser encontrada com freqüência na literaturaé a de que as séries temporais financeiras (derivadas dos índices de bolsa, preços de ações, taxasde câmbio, e assim por diante) quase que não são autocorrelacionadas. Tal asserção é apoiadapelas amostras de autocorrelações dos retornos logaritmos Xt do índice S&P; veja a figura 1.6.Em contraste com esta observação, as autocorrelações estimadas dos valores absolutos |Xt | sãodistintos de zero para grandes lags de tamanho h. Tal fato indica que existe uma dependência nestasérie temporal.

Fig. 1.6 — As autocorrelações estimadas do índice S&P (à esquerda) e de seus valores absolutos (à direita); veja o exemplo 1.1.8; confronte com os

comentários da figura 1.3.

No que se segue, iremos lidar com certa freqüência com coleções infinitas (Xt , t ∈ T ) devariáveis aleatórias Xt , i.e., T é um conjunto infinito de índices. Nesta configuração, podemostambém introduzir a independência.

A coleção de variáveis aleatórias (Xt , t ∈ T ) é independente se para toda escolhade índices distintos t1 . . . tn ∈ T com n ≥ 1, as variáveis aleatórias Xt1

. . .Xtnsão

independentes.A mesma coleção será dita independente e identicamente distribuída — isto abreviadopara iid — se for independente e todas as variáveis aleatórias Xt tiverem a mesmadistribuição.

17

Page 18: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Notas e comentários

Nesta seção iremos revisar alguns fatos de teoria das probabilidades elementar que podem ser en-contrados em qualquer livro tratando deste tópico; veja por exemplo o livro de Pitman (1993) paraconsiderações de nível elementar e Gut (1995) para um curso intermediário. Cumpre observar quemuitos textos de estatística em geral começam com uma introdução à teoria das probabilidades;veja, por exemplo, o livro de Mandenhall, Wackerly e Scheaffer (1990).

1.2. Processos estocásticos

Suporemos que a taxa de câmbio R$/US$ em qualquer instante t entre 09:00h e 10:00h é aleatória.Portanto, podemos interpretá-la como uma realização Xt (ω) de uma variável aleatória Xt . Assim,observamos Xt (ω) para t ’s satisfazendo 9≤ t ≤ 10. A fim de podermos fazer uma conjectura nohorário de 10:00h de quanto a taxa de câmbio deverá valer às 11:00h, i.e., para estimar X11(ω),é razoável examinar sua evolução inteira de Xt (ω) no período entre 09:00h e 10:00h. Esta étambém uma demanda dos dispositivos de tecnologia de alto padrão que fornecem informaçãoquase que contínua a respeito do processo considerado. Um modelo matemático para descrevertais fenômenos é denominado de processo estocástico.

Um processo estocástico X é uma coleção de variáveis aleatórias

(Xt , t ∈ T ) = (Xt (ω), t ∈ T ,ω ∈Ω),definido em algum espaço Ω.

Para as nossas finalidades, T é muitas vezes um intervalo, por exemplo, T = [a, b], [a, b ) ou[a,∞), para a < b . Então chamaremos X de processo de tempo contínuo contrastando com osprocessos de tempo discreto. Neste último caso, T é um conjunto finito ou infinito enumerável.Pelas razões óbvias, o índice t da variável aleatória Xt é freqüentemente denominada como tempo,e nós iremos seguir esta convenção.

Um processo estocástico X é uma função de duas variáveis.

Para um instante t fixado, ele é uma variável aleatória:

Xt =Xt (ω), ω ∈ΩPara um resultado aleatório fixoω ∈Ω, ele é uma função do tempo.

Xt =Xt (ω), t ∈ T .

Esta função é denominada de realização, trajetória ou caminho amostral do processoX .

Esses dois aspectos de um processo estocástico são ilustrados na figura 1.7.

Exemplo 1.2.1. A série temporal

Xt , t = 0,±1,±2 . . .

18

Page 19: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.2. Processos estocásticos

Fig. 1.7 — 5 caminhos amostrais de um processo estocástico (Xt , t ∈ [0,1]). Topo: todo caminho corresponde a um ω ∈ Ω distinto. Meio e fundo:

os valores das linhas verticais para t = 0.1 . . . 0.9 visualizam as variáveis aleatórias X0.1 . . .X0.9; elas ocorrem como projeções de caminhos amostrais

nas linhas verticais.

19

Page 20: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Fig. 1.8 — Os valores diários (scaled) do índice S&P em um período de 7 422 dias. O gráfico sugere que consideremos a série temporal do S&P como

um caminho amostral de um processo de tempo contínuo. Se existem muitos valores em uma série temporal de tal forma que os instantes de tempo

t ∈ T sejam “densos” em um dado intervalo, então poder-se-á interpretar esse processo de tempo discreto como um processo de tempo contínuo. Os

caminhos amostrais de um processo de tempo contínuo ocorrendo na realidade são sempre informados em instantes discretos do tempo. Dependendo

da situação, dever-se-á decidir qual modelo (de tempo discreto ou contínuo) é mais apropriado.

é um processo de tempo discreto com T = Z = 0,±1,±2, . . .. As séries temporais constituemuma classe importante de processos estocásticos. Elas são modelos relevantes em muitas apli-cações, onde se possa estar interessado na evolução de um processo real. Tais séries representam,por exemplo, a temperatura diária do corpo de um paciente em um hospital, os retornos diáriosde preços, ou então o número mensal de passageiros do tráfego aéreo em um determinado país.O modelo teórico de séries temporais mais popular são os processos ARMA (AutoRegressiveMoving Average). Eles são definidos por meio de algumas equações de diferença nas quais umaseqüência iid (veja a página 17), o assim chamado ruído está envolvido. Por exemplo, uma médiamóvel de ordem q ≥ 1 pode ser definida como

Xt = Zt +θ1Zt−1+ . . .+θq Zt−q , t ∈Z,

e o processo auto-regressivo de ordem 1 é dado por meio da seguinte equação:

Xt =φXt−1+Zt , t ∈Z.

Neste caso, os parâmetros θ1 . . .θq e φ são reais dados. Os modelos de séries temporais podem serentendidos como discretizações de equações diferenciais estocásticas. Iremos examinar este fatopara os processos autoregressivos na página 116.

A figura 1.9 mostra dois exemplos:

Verificamos que os conceitos de variável aleatória X e o de processo estocástico (Xt , t ∈ T ) não sãomuito diferentes. Ambos possuem realizações aleatórias, mas a realização X (ω) de uma variávelaleatória é um número, ao passo que a realização Xt (ω), t ∈ T de um processo estocástico é umafunção definida em T . Portanto, estaremos inteiramente corretos se considerarmos um processoestocástico como um “elemento randômico” assumindo como valores funções. Além disto, pode-mos interpretar uma variável aleatória e um vetor aleatório como um processo estocástico especialpossuindo um conjunto finito de índices T .

20

Page 21: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.2. Processos estocásticos

Fig. 1.9 — Duas séries temporais Xt , t = 1 . . . 100. Esquerda: 100 log-retornos sucessivos do índice S&P; veja a figura 1.3. Direita: Um caminho

amostral simulado do processo autoregressivo Xt = 0.5Xt−1+Zt , onde os Zt são variáveis aleatórias iid N (0,1); veja o exemplo 1.2.1.

Distribuição

Em analogia ás variáveis aleatórias e vetores aleatórios, desejamos introduzir características não-aleatórias de um processo estocástico, tais como sua distribuição, esperança, e assim por diante.Além disto, gostaríamos de descrever sua estrutura de dependência. Há uma tarefa muito maiscomplexa do que a descrição de um vetor aleatório. De fato, um processo estocástico não-trivialX = (Xt , t ∈ T ) com um conjunto de índices T infinito é um objeto de dimensão infinita; elepode ser entendido como uma coleção infinita de variáveis aleatórias Xt , t ∈ T . Uma vez que osvalores de X são funções de T , a distribuição de X deveria ser definida para subconjuntos de umcerto “espaço de funções”, i.e.,

P (X ∈A), A∈F , (1.8)

ondeF é uma coleção de subconjuntos apropriados para o espaço de funções. Esta abordagem épossível, mas requer matemática avançada, e portanto iremos procurar meios mais simples.

A observação chave é a de que um processo estocástico pode ser interpretado como umacoleção de vetores aleatórios.

As distribuições de dimensão finita (disfi) de um processo estocástico X são as dis-tribuições dos vetores de dimensão finita.

(Xt1. . .Xtn

), t1 . . . tn ∈ T ,

para todas as escolhas possíveis dos instantes t1 . . . tn ∈ T e para todo n ≥ 1.

Podemos também imaginar os disfi’s de forma muito mais fácil do que uma distribuição (1.8) deprocessos estocásticos. Pode-se demonstrar que os disfi’s determinam a distribuição de X . Nessesentido, nós nos referiremos à coleção de disfi’s como a distribuição de processos estocásticos.

Os processo estocásticos podem ser classificados de acordo com critérios distintos. Um delesé o tipo de disfi.

Exemplo 1.2.2. (Processos gaussianos)Recorde-se pela equação (1.6) da definição de densidade gaussiana n-dimensional. Um processoestocástico é dito gaussiano se todos os seus disfi’s são gaussianos multivariados. Nos aprendemosno exemplo 1.1.5 que os parâmetros µ e Σ de um vetor gaussiano são a sua esperança e sua matriz

21

Page 22: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

de covariância, respectivamente. Portanto, a distribuição de um processo estocástico gaussianofica determinada somente pela coleção das esperanças e matrizes de covariância dos disfi’s.Um processo gaussiano simples em T = [0,1] consiste de uma variável aleatória iid N (0,1). Nestecaso, os disfi’s podem ser caracterizados pelas funções de distribuição

P (Xt1≤ x1 . . .Xtn

≤ xn) =P (Xt1≤ x1) . . . P (Xtn

≤ xn)

=Φ(x1) . . .Φ(xn)

0≤ t1 . . .≤ tn ≤ 1, (x1 . . . xn) ∈Rn .

Os caminhos amostrais deste processo são bastante irregulares. Veja a figura 1.10 para uma ilus-tração.

Fig. 1.10 — Um caminho amostral de um processo gaussiano Xt , t ∈ [0,1] onde os Xt ’s são iid N (0,1); veja o exemplo 1.2.2. A função esperança é

µX (t ) = 0 e as linhas sombreadas indicam as curvas±2σX (t ) =±2; veja o exemplo 1.2.3.

Esperança e função de covariância

Para um vetor aleatório X= (X1 . . .Xn) nós definimos a esperança µX = (EX1 . . . EXn) bem comoa matriz de covariânciaΣX = (cov(Xi ,X j ), i , j = 1 . . . n). Um processo estocástico X = (Xt , t ∈ T )

pode ser considerado como uma coleção de vetores aleatórios (Xt1. . .Xtn

), para t1 . . . tn ∈ T en ≥ 1. Para cada um deles, podemos determinar a esperança e a matriz de covariância. De formaalternativa, podemos considerar essas quantidades como funções de t ∈ T .

A função esperança de X é dada por

µX (t ) =µXt= EXt , t ∈ T

A função de covariância de X é dada por

cX (t , s ) = cov(Xt ,Xs ) = E[(Xt −µX (t ))(Xs −µX (s ))], t , s ∈ T .

A função de variância é dada por

σ2X(t ) = cX (t , t ) = var(Xt ), t ∈ T .

Nós aprendemos do exemplo 1.2.2 que processos gaussianos ficam determinados tão-somen-te pelas suas funções de esperança e covariãncia. Tal fato não é correto para um processo nãogaussiano.

22

Page 23: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.2. Processos estocásticos

No que tange um vetor aleatório, a função esperança µX (t ) é uma quantidade determinísticaem torno da qual os caminhos amostrais de X encontram-se concentrados. A função de covariân-cia cX (t , s ) é uma medida de dependência no processo X . A função de variância σ2

X(t ) pode ser

considerada como uma medida de spread dos caminhos amostrais de X ao redor de µX (t ). Con-trastando com o caso unidimensional, uma asserção como “95% de todos os caminhos amostraisse encontram entre os gráficos de µX (t )−2σX (t ) e µX (t )+2σX (t )” é muito difícil de ser demon-strada (mesmo para processos gaussianos), e em geral não é correta. Nós iremos por vezes consid-erar gráficos computacionais com caminhos de certos processos estocásticos e também indicar ascurvas µX (t ) e µX (t )±2σX (t ), t ∈ T . Esta última deve ser interpretada para cada t fixo, i.e., paracada variável aleatória individual Xt . Somente em algum sentido heurístico, elas podem fornecerlimites para os caminhos do processo X . Veja a figura 1.10 para uma ilustração.

Exemplo 1.2.3. (Continuação do exemplo 1.2.2)Considere o processo gaussiano (Xt , t ∈ [0,1]) de variáveis aleatórias Xt do tipo iid N (0,1). Suasfunções de esperança e covariância são dadas por meio das seguintes expressões:

µX (t ) = 0 e cX (t , s ) =

(1 se t = s

0 se t 6= s .

Estrutura de dependência

Já introduzimos os processos gaussianos por meio da especificação de sua disfi como uma gaus-siana multivariada. Outra maneira de classificar os processos estocásticos consiste em impor umaestrutura de dependência especial.

O processo X = (Xt , t ∈ T ),T ⊂R é dito estritamente estacionário se os disfi’s são invariantesmediante translações do índice t :

(Xt1. . .Xtn

)d= (Xt1+h . . .Xtn+h ) (1.9)

para todas as possíveis escolhas dos índices t1 . . . tn ∈ T , n ≥ 1 e h tal que todos os índices t1 +

h . . . tn + h ∈ T . O símbolod= denota a igualdade entre distribuições. Para os vetores aleatórios

em (1.9) isto significa que as funções de distribuição são idênticas.

Exemplo 1.2.4. (Processos gaussianos estacionários)Considere um processo X = (Xt , t ∈ T ) com T = [0,∞) ou T = Z. Um exemplo trivial de umprocesso estritamente estacionário é uma seqüência de variáveis aleatórias iid Xt , t ∈ Z. Uma vezque um processo gaussiano X é determinado pelas funções de esperança e covariância, a condição(1.9) se reduz a

µX (t + h) =µX (t ) e cX (t , s ) = cX (t + h, s + h)

para todos s , t ∈ T tais que s + h, t + h ∈ T . Mas isto significa que µX (t ) = µX (0) para todos t ,ao passo que cX (t , s ) = ecX (|t − s |), para uma determinada função ecX de uma variável real. Por-tanto, para um processo gaussiano, a estacionariedade estrita significa que a função de esperançaé constante e a função de covariância somente depende da distância |t − s |. Mais geralmente, seum processo X (possivelmente não gaussiano) possui as duas propriedades mencionadas, ele serádenominado estacionário (em sentido mais amplo) ou processo estacionário de segunda ordem.

Se descrevermos um processo real por meio de um processo estocástico estacionário (estrito ouem sentido amplo), então iremos acreditar que as propriedades características desse processo não

23

Page 24: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

variam com o passar do tempo. Esta restrição é relativamente forte sobre o processo subjacente.A estrutura de dependência descrita pelo disfi ou pela função de covariância é invariante portranslações do tempo. Esta restrição no processo subjacente é relativamente forte. No entanto,trata-se de uma hipótese padrão em muitos campos relacionados com probabilidades, tais comoestatística e análise de séries temporais.

A estacionariedade pode também ser imposta sobre os incrementos de um processo. Nestecaso, o próprio processo não é necessariamente estacionário.

Seja X = (Xt , t ∈ T ) um processo estocástico e T ⊂ R um intervalo. Dizemos queX possui incrementos estacionários se

Xt −Xsd=Xt+h −Xs+h para todo t , s ∈ T e h, com t + h, s + h ∈ T

X é dito possuir incrementos independentes se para cada escolha de ti ∈ T comt1 < . . .< tn e n ≥ 1,

Xt2−Xt1

. . .Xtn−Xtn−1

são variáveis aleatórias independentes.

Um dos exemplos mais proeminentes de processos com incrementos independentes e esta-cionários é o processo homogêneo de Poisson. Homogeneidade é aqui um outro refraseamentoda estacionariedade dos incrementos.

Exemplo 1.2.5. (Processos de Poisson homogêneos)Um processo estocástico (Xt , t ∈ [0,∞) é denominado de processo de Poisson homogêneo ou sim-plesmente um processo de Poisson com taxa de intensidade λ > 0 se as seguintes condições estiveremsatisfeitas:

• Ele começa em zero: X0 = 0;

• Possui incrementos estacionários independentes;

• Para todo t > 0, Xt possui uma distribuição de Poisson Poi (λt ).11 Veja o exemplo

1.1.1 para adefinição de

distribuição dePoisson.

A figura 1.11 mostra diversos caminhos amostrais de Poisson.Observe que, pela estacionariedade dos incrementos, Xt − Xs com t > s possui a mesma dis-tribuição que Xt−s −X0 =Xt−s , i.e., uma distribuição de Poisson Poi (λ(t − s )).Uma definição alternativa do processo de Poisson é dada por meio da seguinte equação:

Xt = #n : Tn ≤ t, t > 0, (1.10)

onde #A denota o número de elementos de qualquer conjunto A, Tn = Y1 + . . .+ Yn e (Yi ) éuma seqüência de variáveis aleatórias exponenciais iid E x p(λ) possuindo função de distribuiçãocomum

P (Y1 ≤ x) = 1− e−λx , x ≥ 0.

Esta definição mostra bem que tipo de caminhos amostrais um processo de Poisson possui. Trata-

se de uma função que apresenta saltos puros: ela é constante sobre [Tn ,Tn+1) possuindo saltospara cima de tamanho igual a 1 em instantes randômicos Tn .

24

Page 25: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.2. Processos estocásticos

Fig. 1.11 — Caminhos amostrais de um processo homogêneo de Poisson (Xt , t ∈ [0,∞)) com intensidade λ= 1; veja o exemplo 1.2.5. A linha reta

sólida representa a função esperança µX (t ) = t .

25

Page 26: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

O papel desempenhado por um processo de Poisson e suas modificações e ramificações é com-parável ao papel desempenhado pelo movimento browniano. O processo de Poisson é um pro-cesso de contagem; veja (1.10). Possui uma vasta gama de aplicações nos mais diversos campos.Para mencionar alguns deles, considere Xt como um modelo para o número de

• chamadas telefônicas controladas por um operador;

• clientes à espera de serviços em uma fila;

• reivindicações oriundas de uma carteira de seguros

para um dado intervalo de tempo [0, t].

Notas e comentários

As introduções à teoria dos processos estocásticos são baseadas em fatos não elementares de teoriada medida e análise funcional. Dentre os textos padrão, podemos mencionar Ash e Gardner(1975), Gikhman e Skorokhod (1975), Karlin e Taylor (1975, 1981), bem como vários outros.Uma introdução divertida á teoria de processos estocásticos aplicados é o livro de Resnick (1992).Grimett e Stirzaker (1994) é uma introdução “sem sobrecarregar o leitor, mas com bastante teoriada medida.”

1.3. Movimento browniano

1.3.1. Propriedades da definição

O movimento browniano desempenha um papel central em teoria das probabilidades, na teoriados processo estocásticos, em física, finanças, e também neste livro. Iniciaremos com a definiçãodeste importante processo. Depois continuaremos mencionando algumas de suas propriedadesmais elementares.

Um processo estocástico B = (Bt , t ∈ [0,∞)) é chamado de movimento browniano(padrão) ou um processo de Wiener se as seguintes condições estiverem verificadas:

• ele começa no zero: B0 = 0;

• possui incrementos independentes e estacionários; veja a página 24 para adefinição;

• para todo t > 0, Bt possui uma distribuição normal N (0, t );

• possui caminhos amostrais contínuos: “sem saltos.”

Veja a figura 1.12 para a visualização dos caminhos amostrais brownianos.O movimento browniano deve seu nome ao biólogo Robert Brown cujas pesquisas foram

realizadas por volta de 1820. No início do século 20, Luis Bachelier (1990), Albert Einstein (1905)e Norbert Wiener (1923) começaram a desenvolver uma teoria matemática do movimento brow-niano. A construção de Bachelier (1900) apresentava alguns erros, mas ele conseguiu capturarmuitas das propriedades essenciais do processo. Wiener (1923) foi o primeiro a colocar o movi-mento browniano em firme embasamento matemático.

26

Page 27: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

Funções de distribuição, esperança e de covariância

Os disfi’s do movimento browniano são gaussianos multivariados, e portanto B é um processogaussiano. Verifique esta asserção observando que o movimento browniano possui incrementos

Fig. 1.12 — Caminhos amostrais do movimento browniano no intervalo [0,1].

gaussianos e utilizando as fórmulas para as transformações lineares de um vetor aleatório gaus-siano: veja a página 14.

As variáveis aleatórias Bt − Bs e Bt−s possuem uma distribuição N (0, t − s ), paras < t .

27

Page 28: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Isto é conseqüência da estacionariedade dos incrementos. De fato, Bt − Bs possui a mesma dis-tribuição que Bt−s −B0 = Bt−s , que é normal com média 0 e variância t − s . Assim, a variância éproporcional ao comprimento do intervalo [s , t]. Isto significa intuitivamente o seguinte: quantomais amplo o intervalo, maiores as flutuações do movimento browniano nesse intervalo. Essaobservação é também amparada pelos caminhos amostrais brownianos simulados, como por ex-emplo, os da figura 1.13.

Observe: A distribuição identidade Bt −Bsd= Bt−s não implica em geral a identidade de caminhos

Bt (ω)−Bs (ω) 6= Bt−s (ω).

Vale a pena comparar o movimento browniano com o processo de Poisson; veja o exemplo 1.2.5.

Suas definições coincidem na medida em que ambos são processos com incrementos estacionáriosindependentes. A diferença crucial está no tipo de distribuição dos incrementos. O requisito dadistribuição de Poisson torna os caminhos amostrais funções de salto puro, ao passo que a hipótesegaussiana torna os caminhos amostrais contínuos.

É imediato da definição que o movimento browniano possua a função esperança:

µB (t ) = EBt = 0, t ≥ 0,

e, uma vez que os incrementos Bs − B0 = Bs e Bt − Bs são independentes para t > s , a função decovariância (veja a definição na página 22)

cB (t , s ) =E[(Bt −Bs )+Bs]Bs

= E[(Bt −Bs )Bs]+ EB2

s

=E(Bt −Bs )EBs + s = 0+ s = s , 0≤ s < t .

Uma vez que um processo gaussiano é caracterizado pelas suas funções de esperança e covariância(veja o exemplo 1.2.2), podemos dar então uma definição alternativa:

O movimento browniano é um processo gaussiano tal que

µB (t ) = 0 e cB (t , s ) =min(s , t ). (1.11)

Propriedades dos caminhos: não diferenciabilidade e variação não limitada

No que se segue, fixaremos um caminho amostral Bt (ω), t ≥ 0, e consideraremos suas pro-priedades. Nós já sabemos da definição de movimento browniano que seus caminhos amostraissão contínuos. No entanto, se olharmos de relance para os caminhos brownianos simulados, fi-caremos imediatamente convencidos de que essas funções de t são extremamente irregulares: elasoscilam de forma bastante turbulenta. A razão principal reside no fato de que os incrementosde B são independentes. Em particular, os incrementos do movimento browniano em interva-los adjacentes são independentes, quaisquer que sejam os tamanhos desses intervalos. Uma vezque podemos imaginar os caminhos amostrais como construídos a partir de seus incrementos in-dependentes em intervalos adjacentes, a continuidade dos caminhos se configura como um fatosurpreendente.

Assim:

28

Page 29: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

Quão irregular é o caminho amostral do movimento browniano?

Antes de respondermos a esta pergunta, faremos uma pequena digressão a respeito de uma classe deprocessos estocásticos contendo o movimento browniano como caso particular. Todos os mem-bros desta classe possuem caminhos amostrais irregulares.

Um processo estocástico (Xt , t ∈ [0,∞)) é dito H -auto similar para um dado H > 0se os seus disfi’s satisfizerem à condição dada por

(T H Bt1. . .T H Btn

)d= (BT t1

. . .BT tn) (1.12)

para todo T > 0 e qualquer escolha dos ti ≥ 0, i = 1 . . . n, e n ≥ 1.

Observe que:

A auto-similaridade é uma propriedade da distribuição, e não dos caminhos. Na equação (1.12) nós

não podemos usard= no lugar de =, e vice-versa.

Falando de forma imprecisa, a auto-similaridade significa que os padrões propriamente escalona-dos de um caminho amostral em qualquer intervalo de tempo, pequeno ou grande, possuem umaforma similar, mas não são idênticos. Veja a figura 1.13 para uma ilustração.

Os caminhos amostrais de um processo auto-similar não são diferenciáveis em parte alguma.veja a proposição A.3.1 na página 155. Podemos enunciar este fato assim:

O movimento browniano é 0.5-auto-similar, i.e.,

(T1/2Bt1

. . .T1/2Btn

)d= (BT t1

. . .BT tn) (1.13)

para todo T > 0 e qualquer escolha dos ti ≥ 0, i = 1 . . . n, e n ≥ 1. Portanto, oscaminhos amostrais não são diferenciáveis em parte alguma.

Podemos facilmente verificar a identidade da distribuição dada pela equação (1.13). De fato, oprimeiro e segundo membros da equação (1.13) são vetores aleatórios gaussianos, e portanto bastaverificar que possuem a mesma matriz de esperança e de covariância. Verifique essas propriedadesutilizando (1.11).

A diferenciabilidade de uma função f significa que seu gráfico é liso. De fato, se o limite

f ′(x0) = lim∆x→0

f (x0+∆x)− f (x0)

∆x

existe e é finito para, digamos, algum x0 ∈ (0, t ), então para um valor pequeno de ∆x poderemosescrever

f (x0+∆x)− f (x0) = f (x0)+ f ′(x0)∆x + h(x0,∆x)∆x,

onde h(x0,∆x)→ 0 quando ∆x → 0. Portanto, em uma pequena vizinhança de x0, a função f éaproximadamente linear (como função da variável ∆x. Isto explica seu caráter de diferenciabili-dade. De forma alternativa, a diferenciabilidade de f em x0 implica que temos uma tangente única

29

Page 30: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Fig. 1.13 — Auto-similaridade: o mesmo caminho amostral do movimento browniano com escalas diferentes. As formas das curvas são diferentes em

intervalos distintos, mas se parecem. No entanto, não são simplesemente cópias escalonadas umas das outras.

Fig. 1.14 — Esquerda: uma função diferenciável. Qualquer ponto de seu gráfico pode ser aproximado por meio de uma função única tangente ao ponto.

Direita: esta função não é diferenciável para x = 1. Existem infinitas tangentes à curva representando a função neste ponto.

30

Page 31: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

à curva que representa a função f neste ponto (veja a figura 1.14 para uma ilustração). Nesta figuravocê também poderá observar uma função que não é diferenciável em um ponto.

Procure agora imaginar uma função não diferenciável em todos os pontos de seu domíniode definição: o gráfico desta função deverá variar sua forma na vizinhança de qualquer ponto deforma completamente não previsível. Você poderá admitir que é impossível imaginar uma talfunção: é fisicamente impossível. No entanto, o movimento browniano é considerado como umaboa aproximação de vários fenômenos da vida real. Na seção 1.3 iremos ver que o movimentobrowniano é um processo limite de alguns processos de soma.

A propriedade da auto-similaridade do movimento browniano possui conseqüências interes-santes na simulação de seus caminhos amostrais. Para simularmos um caminho no intervalo [0,T ]basta simular um caminho no intervalo [0,1] e escalonar o intervalo de tempo de um fator T e ocaminho de um fator T 1/2. Isto basta.

Em alguns livros podemos encontrar a declaração de que o limite

lim∆t→0

var

Bt0+∆t −Bt0

∆t

(1.14)

não existe, e portanto os caminhos amostrais do movimento browniano são não diferenciáveis.É fácil verificar 1 que o limite (1.14) não existe, mas sem alguns desenvolvimentos teóricos seria

1 faça-o!errôneo concluir este resultado distribuicional, de acordo com o qual os caminhos do processobrownianao são não diferenciáveis.

A existência de uma função contínua não diferenciável em toda parte foi descoberta no século19. Uma tal função foi construída por Weierstrass. Era considerada simplesmente como umacuriosidade, bastante distante das aplicações práticas. O movimento browniano é um processopossuindo caminhos amostrais não diferenciáveis em toda parte. Hoje em dia é considerado comoum desses processos possuindo uma multiplicidade grande de aplicações nos campos mais variados.Muitas dessas aplicações residem no cálculo estocástico (vide os Capítulos 2 e 3).

Uma indicação adicional das irregularidades presentes nos caminhos amostrais dos movimen-tos brownianos é dada pelo seguinte fato:

Os caminhos amostrais brownianos não possuem variação limitada em nenhumintervalo finito [0,T ]. Isto significa que

supτ

n∑

i=1

|Bt1(ω)−Bti−1

(ω)|=∞

onde o supremo é tomado sobre todas as partições possíveis τ : 0= t0 < . . .< tn =T do intervalo [0,T ].

Uma prova deste fato é fornecida pela proposição A.3.2 na página 156. A esta altura gostarí-amos de mencionar que a variação ilimitada e a não diferenciabilidade dos caminhos amostraisbrownianos são razões fortes para a não validade dos métodos clássicos de integração, quandoaplicados a esses caminhos, e para a introdução do cálculo estocástico.

31

Page 32: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

1.3.2. Processos derivados do movimento browniano

O propósito da presente seção é a aquisição de feeling das propriedades de distribuição e de camin-hos do movimento browniano. Se você desejar iniciar o capítulo 2 a respeito do cálculo estocásticoo mais breve possível, você poderá pular a presente seção e retornar a ela sempre que precisar dealguma referência a propriedades ou definições.

Vários processos estocásticos gaussianos ou não gaussianos de relevância prática podem serderivados do movimento browniano. Logo abaixo iremos introduzir alguns desses processos osquais deverão apresentar aplicações subseqüentes no decurso deste livro. Como foi dito anterior-mente, B = (Bt , t ∈ [0,∞)) denota um movimento browniano.

Fig. 1.15 — Um caminho amostral de uma ponte browniana.

Exemplo 1.3.1. (Ponte browniana)Considere o processo

Xt = Bt − tB1, 0≤ t ≤ 1.

Obviamente,X0 = B0− 0B1 = 0 e X1 = B1− 1B1 = 0.

Por esta simples razão, o processo X leva o nome padrão de ponte browniana ou tied down movi-mento browniano. Ao vislumbrarmos os caminhos amostrais desta “ponte” (veja a figura 1.15),poderemos estar ou não convencidos de que este nome se justifica. Utilizando a fórmula para astransformações lineares dos vetores aleatórios gaussianos (veja a página 14), nós podemos mostrarque os disfi’s de X são gaussianos. Verifique isto! Portanto, X é um processo gaussiano. Vocêpoderá calcular facilmente as funções de esperança e de covariância de uma ponte browniana:

µX (t ) = 0 e cX (t , s ) =min(t , s )− t s s , t ∈ [0,1].

Uma vez que X é gaussiano, a ponte browniana é caracterizada por meio dessas duas funções.

A ponte browniana aparece como um processo limite de uma função de distribuição empírica nor-malizada de uma amostra de variáveis aleatórias iid e uniformes U (0,1). Este resultado é umresultado fundamental da estatística não paramétrica; ela é a base de numerosos testes de bomajuste em estatística. Veja por exemplo Shorack e Wellner (1986).

Exemplo 1.3.2. (Movimento browniano com drift)Considere o processo

Xt =µt +σBt , t ≥ 0,

32

Page 33: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

Fig. 1.16 — Um caminho amostral de movimento browniano com drift Xt = 20Bt + 10t no intervalo [0,100]. A linha pontilhada representa a função

de drift µX (t ) = 10t .

onde σ > 0 e µ ∈R são constantes. É claro que se trata de um processo gaussiano (porque?) cujasfunções de esperança e covariância são dadas por

µX (t ) =µt e cX (t , s ) = σ2 min(t , s ), s , t ≥ 0.

A função de esperança µX (t ) = µt (que é o “drift” determinístico do processo) determina essen-cialmente a forma característica dos caminhos amostrais; veja a figura 1.16 para uma ilustração.Portanto X é chamado movimento browniano com (drift) linear.

Com a descoberta fundamental devida a Bachelier em 1900 de que os preços dos ativos de risco(índices de bolsa, taxas de câmbio, preços de ações, e assim por diante) podem ser bem descritaspelo movimento browniano, nasceu uma nova área de aplicações de processos estocásticos. Noentanto, o movimento browniano, como um processo gaussiano, pode assumir valores negativos,o que não é uma propriedade desejável dos preços. Em seus artigos célebres datando de 1973,Black, Scholes e Merton sugeriram um outro processo estocástico como um modelo para os preçosespeculativos. Na seção 4.1 iremos considerar sua abordagem para o apreçamento das opçõeseuropéias de compra com maior detalhe. Trata-se de exemplos motivadores e promissores para autilização do cálculo estocástico.

Exemplo 1.3.3. (Movimento browniano geométrico)Este processo, sugerido por Black, Scholes e Merton, é dado por

Xt = eµt+σBt , t ≥ 0,

i.e., trata-se de um movimento browniano exponencial com drift; veja o exemplo 1.3.2. Clara-mente, X não é um processo gaussiano (porque?). Para considerações a serem tratadas mais adi-ante, calcularemos as funções de esperança e de covariância do movimento browniano geométrico.Para os leitores familiarizados com teoria das probabilidades, podemo-nos lembrar que para umavariável aleatória Z normal N (0,1), tem-se:

EeλZ = eλ2/2, λ ∈R. (1.15)

33

Page 34: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Pode-se facilmente derivar os seguintes resultados:

EeλZ =1

(2π)1/2

∫ ∞

−∞eλx e−x2/2d x

=eλ2/2 1

(2π)1/2

∫ ∞

−∞e−(x−λ)

2/2d x

=eλ2/2.

Aqui nós utilizamos o fato de que (2π)−1/2 exp−(z−λ)2/2 é a densidade de uma variável aleatóriaN (λ, 1).De (1.15) e da auto-similaridade do movimento browniano, segue-se imediatamente que

µX (t ) = eµt EeσBt = eµt Eeσ t1/2B1 = e (µ+0.5σ2)t . (1.16)

Fig. 1.17 — Caminhos amostrais do movimento browniano geométrico Xt = exp0.01t + 0.01Bt , no intervalo [0,10], a função esperança µX (t )(linha interrompida) e os gráficos das funções µX (t )± 2σX (t ) (linhas sólidas). As últimas curvas devem ser interpretadas com cuidado, uma vez que

as distribuições dos Xt ’s não são normais.

Para s ≤ t , Bt −Bs e Bs são independentes, e portanto Bt −Bsd= Bt−s . Logo,

cX (t , s ) =EXt Xs − EXt EXs (1.17)

=eµ(t+s )Eeσ(Bt+Bs )− e (µ+0.5σ2)(t+s )

=eµ(t+s )Ee[σ(Bt−Bs )+2Bs ]− e (µ+0.5σ2)(t+s )

=eµ(t+s )Eeσ(Bt−Bs )+ Ee2σBs − e (µ+0.5σ2)(t+s )

=e (µ+0.5σ2)(t+s )

eσ2 s − 1

.

Em particular, o movimento browniano geométrico tem a função de variância dada por

σ2X(t ) = e (2µ+σ

2)t

eσ2 t − 1

(1.18)

34

Page 35: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

Veja a figura 1.17 para uma ilustração dos diversos caminhos amostrais do movimento brownianogeométrico.

Exemplo 1.3.4. (Ruído gaussiano branco e colorido)Em estatística e em séries temporais, é freqüente utilizarmos a terminologia “ruído branco” parauma seqüência de variáveis aleatórias iid ou não correlacionadas. Isto contrasta com a física, ondeo ruído branco é entendido como uma certa derivada de um caminho amostral browniano. Istonão está em contradição com as observações que fizemos anteriormente, uma vez que esta derivadanão é obtida por meio da diferenciação ordinária. Uma vez que o “ruído branco” é fisicamenteimpossível, nós iremos considerar uma aproximação a ser denominada por ruído colorido. Trata-sede um processo gaussiano definido por meio da seguinte equação:

Xt =Bt+h −Bt

ht ≥ 0, (1.19)

onde h > 0 é uma determinada constante fixa. As funções correspondentes de esperança e covar-iância são dadas da seguinte maneira:

µX (t ) = 0 e cX (t , s ) = h−2[(s + h)−min(s + h, t )], s ≤ t .

Observe que cX (t , s ) = 0 se t − s ≥ h, o que acarreta que Xt e Xs são independentes. Mas set − s < h, então cX (t , s ) = h−2[h − (t − s )]. Uma vez que X é gaussiano, e cX (t , s ) é uma funçãosomente de t − s , então X é estacionário (veja o exemplo 1.2.4).Claramente, se B fosse diferenciável, poderíamos fazer h tender a zero na equação (1.19), e nolimite obteríamos uma derivada ordinária de B em t . Mas, como sabemos, tal argumento não seaplica. A função variância σ2

X(t ) = h−1 dá uma indicação de que as flutuações do ruído colorido se

tornam maiores quando h decresce. Os caminhos simulados de ruído colorido se parecem muitocom os caminhos amostrais na figura 1.10.

1.3.3. Simulações de caminhos amostrais brownianos

A presente seção não se destina propriamente ao entendimento do cálculo estocástico. No en-tanto, ela irá fornecer uma caracterização do movimento browniano como um limite distribuici-onal de somas parciais de processos (o assim chamado teorema do limite central funcional). Estaobservação irá ajudá-lo a entender as propriedades do caminho browniano (não diferenciabilidade,variação ilimitada) muito melhor. Um segundo objetivo desta seção é mostrar que os caminhosamostrais brownianos podem ser facilmente simulados utilizando software padrão.

Utilizando o poder quase que ilimitado dos computadores modernos, você poderá visualizaros caminhos de quase qualquer processo estocástico. Isto é desejável pois que gostaríamos devisualizar os caminhos amostrais a fim de entender os processos estocásticos de forma melhor.Por outro lado, as simulações de caminhos de processos estocásticos são às vezes inevitáveis sevocê quiser dizer algo a respeito das propriedades distribuicionais de um tal processo. Na maiorparte dos casos, não é possível determinar a distribuição exata de um processo estocástico e deseus funcionais (tal como o máximo e/ou o mínimo em um dado intervalo). Então as simulaçõese técnicas numéricas oferecem alguma alternativa para calcularmos essas distribuições.

35

Page 36: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Simulação através do teorema do limite central funcional

Dos cursos elementares de teoria das probabilidades já ganhamos algum conhecimento do teoremado limite central (TLC). Trata-se de um resultado fundamental: ele explica porque a distribuiçãonormal desempenha um papel tão importante na teoria das probabilidades e na estatística. OTLC diz que, propriamente normalizadas e centradas, as somas parciais de uma seqüência iid devariância finita convergem em distribuição para a distribuição normal. Para sermos mais precisos:seja Y1,Y2, . . . variáveis aleatórias iid não degeneradas (i.e., não constantes) possuindo média µY =EY1 e variância σ2

Y= var(Y1). Defina as somas parciais

R0 = 0, Rn = Y1+ . . .+Yn , n ≥ 1.

Recorde-se que Φ denota a função distribuição de uma variável aleatória normal padrão.

Se Y1 possui variância finita, então a seqüênciaYi

obedece à TLC, i.e.,

supx

P

Rn − ERn

[var(Rn)]1/2≤ x

!−Φ(x)

→ 0 quando n→∞.

Assim, para n suficientemente grande, a distribuição de (Rn − ERn)/[σ2Y

n]1/2 é aproximadamentea normal padrão. Trata-se de um fato assombroso, uma vez que o TLC vale independentementedas distribuições dos Yi s; tudo que é necessário é uma variância finita σ2

Y.

O TLC possui um análogo para processos estocásticos. Considere um processo com camin-hos amostrais contínuos em [0,1]:

Sn(t ) =

((σ2

Yn)−1/2(Ri −µY i ), se t = i/n, i = 0 . . . n,

linearmente interpolado em outros lugares(1.20)

Nas figuras 1.18 e 1.19 você poderá encontrar realizações de Sn , para diversos valores de n.Assuma por um momento que os Yi s são iid e N (0,1) e considere a restrição do processo Sn

aos pontos da forma i/n. Nós imediatamente podemos verificar que as seguintes propriedades sãoverdadeiras:

• Sn começa no zero: S0(0) = 0.

• Sn possui incrementos independentes, i.e., para todos os inteiros 0 ≤ ii ≤ . . . ≤ im ≤ n, asvariáveis aleatórias são independentes.

• Para todo 0≤ i ≤ n, Sn(i/n) possui uma distribuição normal N (0, i/n).

Assim, Sn e o movimento browniano B em [0,1], quando restritos aos pontos i/n possuemas mesmas propriedades; confronte com a definição de movimento browniano dado na página 26.Naturalmente, a terceira propriedade acima não permanece válida se suprimirmos a hipótese deque os Yi s são iid gaussianos. No entanto, em sentido assintótico, o processo estocástico Sn estápróximo a um movimento browniano.

36

Page 37: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

Fig. 1.18 — Caminhos amostrais do processo Sn para uma seqüência de realizações Y1(ω) . . . ,Yn (ω) e n = 2 . . . 9

Fig. 1.19 — Caminhos amostrais do processo Sn para valores distintos de n e a mesma seqüência de realizações Y1(ω) . . .Y100000(ω).

37

Page 38: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Se Y1 possui variância finita, então a seqüênciaYi

obedece à TLC funcional, tam-

bém chamado de princípio de invariância de Donsker, i.e., os processos Sn convergemem distribuição ao movimento browniano B sobre [0,1].

A convergência em distribuição de Sn possui um significado duplo. O primeiro é bastante intu-itivo:

• O disfi de Sn converge para o correspondente disfi de B , i.e.,

P (Sn(t1)≤ x1 . . . Sn(tm)≤ xm)→ P (Bt1≤ x1 . . .Btm

≤ xm) (1.21)

para todas as possíveis escolhas de ti ∈ [0,1], xi ∈R, i = 1 . . . m, e todos os inteiros m ≥ 1.

Mas a convergência do disfi não é suficiente para a convergência em distribuição dos processosestocásticos. A convergência do disfi determina a distribuição gaussiana limite para qualquer es-colha de um número finito de instantes fixados ti , mas os processos estocásticos são objetos infini-tamente dimensionais, e portanto eventos inesperados podem ocorrer. Por exemplo, os caminhosamostrais dos processos convergentes podem flutuar de forma desenfreada com n crescente, con-trastando com o processo de limite do movimento browniano possuindo caminhos amostraiscontínuos. Para se evitar tais comportamentos irregulares,

• Uma assim chamada condição de tightness ou compacidade estocástica deve estar satisfeita.

Felizmente, os processos de somas parciais Sn são tight, mas a demonstração desse fato foge doescopo do presente livro.

Fig. 1.20 — Um caminho amostral co processo S9 (linha interrompida) e eS9 (linha sólida) para a mesma seqüência de realizações Y1(ω) . . .Y9(ω).

Veja (1.20) e (1.22) para as definições de Sn e eSn .

O que foi dito para a convergência do s processos Sn permanece válido para os processos dotipo

eSn = (σ2Y

n)−1/2(R[nt]−µY [nt]), 0≤ t ≤ 1, (1.22)

onde [nt] denota a parte inteira do real nt ; veja a figura 1.20 para uma ilustração. Em contrastecom Sn , o processo eSn é constante nos intervalos do tipo [(i − 1)/n, i/n), possuindo saltos nos

38

Page 39: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

pontos i/n. Mas Sn e eSn coincidem nos pontos i/n, e as diferenças entre esses dois processos sãoassintoticamente desprezíveis: a normalização n1/2 torna os saltos de eSn arbitrariamente pequenospara valores grandes de n. No que diz respeito a Sn , podemos formular o seguinte princípiofuncional do TLC:

Se Y1 possui variância finita, então a seqüênciaYi

obedece ao TLC funcional, i.e.,

os processos eSn convergem em distribuição ao movimento browniano B sobre [0,1].

Uma vez que eSn é um processo de saltos, a noção de convergência em distribuição se torna maiscomplicada do que para Sn . Nós nos absteremos de discutir os detalhes.

Assim, temos em nossas mãos uma ferramenta bastante simples para simular os caminhosamostrais brownianos. Plote os caminhos dos processos Sn e eSn para n suficientemente grande. Assimvocê poderá obter uma aproximação razoável dos caminhos amostrais brwonianos.Observe também o seguinte:Uma vez que o movimento browniano aparece como um limite de distribuições, você poderá observargráficos completamente diferentes para valores distintos de n, em uma mesma seqüência de realizaçõesYi (ω).Da propriedade da auto-similaridade, nós também sabemos como obter uma aproximação doscaminhos amostrais do movimento browniano em qualquer intervalo [0,T ].Simule um caminho de Sn ou de eSn em [0,1], e depois efetue o reescalonamento do intervalo de tempopor meio de um fator T , e o caminho por meio de T 1/2.

Os pacotes padrão de software (tais como o SPlus, Mathematica, Matlab, e assim por diante)fornecem algoritmos rápidos e confiáveis para gerar números aleatórios de distribuições padrão.Os geradores de números aleatórios se baseiam freqüentemente em processos naturais, como porexemplo radiação, ou então em métodos algébricos. Os números “aleatórios” gerados podem serconsiderados como “pseudo” realizações de Yi (ω) da variável aleatória iid Yi .

Para finalidades práticas, você poderá escolher as realizações de Yi (ω) da maneira que quiser(ou ainda, se desejar, os números aleatórios Yi (ω) de uma distribuição apropriada). Se você estiverinteressado em “boas” aproximações da distribuição gaussiana do movimento browniano, vocêdeveria gerar os Yi (ω) de uma distribuição gaussiana. Se você tiver de simular diversos caminhosamostrais de Sn ou de eSn em um curto período de tempo, você poderia talvez escolher os Yi (ω)scomo realizações de variáveis aleatórias iid de Bernouilli, i.e., P (Yi = ±1) = 0.5, ou de variáveisaleatórias uniformes iid.

Simulação via representação de séries

Lembre-se de um curso de cálculo que toda função contínua 2π-periódica f sobre R(i.e., f (x +2π) = f (x), para todo x ∈R.) possui uma representação em série de Fourier, i.e., pode ser escritacomo uma série infinita de funções trigonométricas.

Uma vez que os caminhos amostrais brownianos são funções contínuas, podemos tentarexpandí-las por meio de séries de Fourier. No entanto, os caminhos são funções aleatórias: paraωs distintos, teremos funções distintas. Isto significa que os coeficientes desta série de Fouriersão variáveis aleatórias, e uma vez que o processo é gaussiano, eles tem da mesma forma que sergaussiano.

39

Page 40: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

A representação dada a seguir de um movimento browniano no intervalo [0,2π] é denomi-nada representação de Paley-Wiener: No caso de (Zn , n ≥ 0) ser uma seqüência de variáveis aleató-rias iid N (0,1), então

Fig. 1.21 — Simulação de um caminho amostral browniano a partir da discretização (1.24) da representação de Paley-Wiener, com N = 1000. No topo

à esquerda: todos os caminhos, para M = 2 . . . 40. Topo à direita: o caminho correspondente a M = 40. Fundo á esquerda: M = 100. Fundo à

direita: M = 800.

Bt (ω) = Z0(ω)t

(2π)1/2+

2

π1/2

∞∑

n=1

Zn(ω)sin(nt/2)

nt ∈ [0,2π]. (1.23)

Esta série converge para todo t fixado, porém também uniformemente para t ∈ [0,2π], i.e., a taxaconvergência é comparável para todo t . Para uma aplicação desta fórmula é preciso decidir sobreo número M de funções seno e o número N de pontos de discretização sobre os quais as funçõesseno deverão ser avaliadas. Isto corresponde a calcular os valores

Z0(ω)t j

(2π)1/2+

2

π1/2

M∑

n=1

Zn(ω)sin(nt/2)

n, t j =

2π j

N, j = 0,1 . . .N . (1.24)

O problema de escolher os valores “corretos” para M e N é similar à escolha do tamanho da mostran to TLC; é difícil dar uma regra de algibeira para as escolhas de M e N .

40

Page 41: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

Na figura 1.21, você poderá enxergar que a forma dos caminhos amostrais não muda muitose passarmos de M = 100 para M = 800 funções seno. Uma inspeção visual do caso em queM = 100 dá a impressão de que o caminho amostral é bastante liso. Isto não é completamentesurpreendente, uma vez que a soma de M funções seno ainda é diferenciável; somente no limite éque vamos obter um caminho amostral não diferenciável.

A representação de Paley-Wiener é apenas mais uma dentre as infinitas representações emsérie possíveis para o movimento browniano. Uma outra tal representação muito conhecida é a deLévy. Na representação de Lévy, as funções seno são substituídas por algumas funções poligonais(as funções de Schauder).

Para sermos mais precisos, primeiro defina as funções de Haar Hn sobre [0,1] da seguintemaneira:

H1(t ) = 1,

H2m+1(t ) =

2m/2, se t ∈

1− 22m+1 , 1− 2

2m+1

−2m/2, se t ∈

1− 22m+1 ,

,

0 em caso contrário

H2m+k (t ) =

2m/2, se t ∈

1− k−12m , k−1

2m +1

2m+1

−2m/2, se t ∈

1− 2k−12m+1 , k

2m

,

0 em caso contrário

k = 1 . . . 2m , m = 0,1, . . . .

A partir dessas funções, defina o sistema de funções de Schauder sobre [0,1]mediante a integraçãodas funções de Haar:

eHn(t ) =

∫ t

0Hn(s )d s , n = 1,2, . . . .

As figuras 1.22 e 1.23 mostram os gráficos de Hn e eHn para os primeiros valores de n. Umarepresentação em série para um caminho amostral browniano sobre [0,1] pode ser dada por

Bt (ω) =∞∑

n=1

Zn(ω) eHn(t ), t ∈ [0,1]. (1.25)

onde a convergência desta série é uniforme para t ∈ [0,1] e os Zn(ω)s são realizações de umaseqüência iid N (0,1) (Zn). No tocante às simulações do movimento browniano por meio de sériesde funções seno, temos de escolher um ponto M de truncamento da série infinita (1.25). Emcontraste com a figura 1.21, a forma poligonal das funções de Schauder já antecipa o comporta-mento irregular de um caminho browniano (ou seja, sua não diferenciabilidade) para valores de Mrelativamente pequenos.

As representações de Paley-Wiener e Lévy são apenas duas das infinitas representações emsérie possíveis do movimento browniano. Elas são casos especiais das assim chamadas represen-tações de Lévy-Ciesielski. Ciesielski mostrou que o movimento browniano no intervalo [0,1] pode

41

Page 42: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

ser colocado sob a forma

Bt (ω) =∞∑

n=1

Zn(ω)

∫ t

0φn(x)d x, t ∈ [0,1],

onde Zn são variáveis aleatórias iid N (0,1) e (φN ) é um sistema completo de funções ortonormaissobre [0,1].

Notas e comentários

O movimento browniano é o mais bem estudado dos processos estocásticos. Houve vários livrosdevotados ao seu estudo, como por exemplo Borodin e Salminen (1996), Hida (1980), Karatzase Shreve (1988) e Revuz e Yor (1991). O leitor de tais livros deve obrigatoriamente possuir fa-

Fig. 1.22 — As funções de Haar H1 . . . H8.

miliaridade com os processos estocásticos, análise funcional e teoria da medida. Qualquer livrotexto de processos estocásticos também possui pelo menos um capítulo a respeito do movimentobrowniano; veja as referências na página 26.

42

Page 43: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.3. Movimento browniano

Fig. 1.23 — As funções de Schauder eH1 . . . eH8.

43

Page 44: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Fig. 1.24 — Os primeiros passos da construção de um caminho amostral browniano a partir da representação de Lévy (1.25) através das funções M de

Schauder, M = 1 . . . 8.

44

Page 45: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

Além da não diferenciabilidade e variação ilimitada, o movimento browniano possui váriasoutras propriedades interessantes a respeito dos caminhos e distribuições. Hida (1980) é uma boareferência de leitura a respeito das mesmas.

O TLC funcional pode também ser encontrado em textos avançados sobre os processos es-tocásticos e convergência de medidas de probabilidade; veja por exemplo Billingsley (1968) ouPollard (1984). As representações em série do movimento browniano podem ser encontradas noslivros de Hida (1980); e também em Ciesielski (1965).

1.4. Esperança condicional

Você não pode evitar a leitura da presente seção; ela contém material que é essencial para a com-preensão dos martingais, e, mais geralmente, as integrais estocásticas de Ito.

Caso você não esteja interessado nos detalhes, você poderá ler os conteúdos dos boxes. Mas,ao final da seção 1.4, o seguinte material deverá estar entendido:

• a σ -álgebra gerada por uma variável aleatória, um vetor aleatório ou um processo estocás-tico; veja a seção 1.4.2,

• a esperança condicional de uma variável aleatória dada por uma σ -álgebra; veja a seção 1.4.3,

• as regras mais comuns para calcular esperanças condicionais; veja a seção 1.4.4.

Comece pela seção 1.4.1, onde um exemplo de esperança condicional é dado. Isto lhe dará amotivação necessária para assimilar a noção de esperança condicional dada uma σ -álgebra. Sempreque você se perder nas leituras subseqüentes, retorne à seção 1.4.1 e tente descobrir o que a teoriageral diz a respeito do caso concreto em exame.

1.4.1. Esperança condicional sob a condição discreta

Dos cursos elementares de teoria das probabilidades, já sabemos o que é a probabilidade condicionalde A, dado B , i.e.,

P (A|B) =P (A∩B)

P (B)

Claramente,

P (A|B) = P (A) se e somente se A e B forem independentes.

Para a definição de P (A|B) é crucial que P (B) seja positiva. O objetivo da seção 1.4.3 é enfraqueceresta condição.

A probabilidade P (A|B) pode ser interpretada da seguinte maneira: assuma que o evento Btenha ocorrido. Trata-se de uma informação adicional que altera substancialmente a medida deprobabilidade subjacente. Em particular, podemos atribuir novas probabilidades 0 para B c (umavez que já sabemos que B c não irá ocorrer) e 1 para B . O evento B se torna nosso novo espaçode probabilidade, digamos Ω′. Todos os eventos de interesse passam a ser subconjuntos de Ω′:A∩ B ⊂ Ω′. Para obtermos uma nova medida de probabilidade sobre Ω′, é necessário normalizaras probabilidades antigas P (A∩B) por P (B). Em suma, as ocorrências de B tornam o nosso espaço

45

Page 46: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Fig. 1.25 — A probabilidade condicional clássica: se sabemos que B ocorreu, atribuímos uma nova probabilidade igual a 1 para B . Eventos fora de Bnão podem ocorrer, e portanto possuem nova probabilidade igual a 0.

originalΩ encolher para o espaçoΩ′, e as probabilidades originais P (A) devem ser substituídas porP (A|B).

Dado que P (B) > 0, podemos então definir a função de distribuição condicional de uma var-iável aleatória X dado B como

FX (x|B) =P (X ≤ x,B)

P (B), x ∈R,

e também a esperança condicional de X dado B como

E(X |B) =E(X IB )

P (B), (1.26)

onde

IB (ω) =

(1 seω ∈ B ,0 seω /∈ B ,

denota a função característica do evento B . Para discutirmos a definição (1.26), iremos assumir porenquanto que Ω=R. Se X for uma variável aleatória discreta assumindo valores x1, x2 . . . então aequação (1.26) se torna

E(X |B) =∞∑

k=1

xk

P (ω : X (ω) = xk ∩B)

P (B)

=∞∑

k=1

xk P (X = xk |B)

46

Page 47: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

Se X possui densidade fX , então a equação (1.26) se torna

E(X |B) =1

P (B)

∫ ∞

−∞xIB (x) fX (x)d x

=1

P (B)

∫ ∞

−∞x fX (x)d x

É uso comum escrever-se∫

Bg (x)d x no lugar de

∫∞−∞ g (x)IB (x)d x.

Exemplo 1.4.1. (A esperança condicional de uma variável aleatória uniforme)Consideramos agora a variável aleatória X (ω) = ω no espaço Ω = (0,1], juntamente com a me-dida de probabilidade definida por

P ((a, b]) = b − a (a, b]⊂ (0,1].

Claramente, X possui uma distribuição uniforme no intervalo (0,1]. Sua definição é dada por

FX (x) =P (ω : X (ω) =ω ≤ x)

=

P (;) = 0 se x ≤ 0,P ((0, x]) = x se x ∈ (0,1],P ((0,1]) = 1 se x > 1,

Tanto a variável aleatória X quanto a esperança EX = 0.5 são representadas na figura 1.26.

Fig. 1.26 — Esquerda: uma variável aleatória uniforme X em (0,1] (linha pontilhada) e sua esperança (linha sólida); veja o exemplo %refExa:1.4.2.

Direita: a variável aleatória X (linha pontilhada) e as esperanças condicionais E(X |Ai ) (linhas sólidas), onde Ai = ((i − 1)/5, i/5], i = 1 . . . 5.

Essas esperanças condicionais podem ser interpretadas como valores de uma variável aleatória discreta E(X |Y ) com valores constantes distintos nos

conjuntos Ai ; veja o exemplo 1.4.2.

Assuma agora que um dos eventos

Ai = ((i − 1)/n, i/n], i = 1 . . . n,

haja ocorrido. Lembre-se de que fX (x) = 1 em (0,1] e observe que P (Ai ) = 1/n. Então,

E(X |Ai ) =1

P (Ai )

Ai

x fX (x)d x = n

∫ i/n

(i−1)/nxd x =

1

2

2i − 1

n. (1.27)

47

Page 48: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

As esperanças condicionais E(X |Ai ) encontram-se ilustradas na figura 1.26. E(X |Ai ) é a esperançaatualizada no novo espaço Ai , uma vez dado que a informação Ai haja ocorrido.

Consideramos agora uma variável aleatória discreta Y sobre Ω assumindo valoresdistintos yi sobre Ai , i.e.,

Ai = ω : Y (ω) = yi, i = 1,2, . . . .

Claramente, (Ai ) é uma partição de Ω, i.e.,

Ai ∩Aj = ; para i 6= j e∞⋃

i=1

Ai =Ω. (1.28)

Nós também assumimos por conveniência que P (Ai )> 0 para todo i .

Para uma variável aleatória X sobre Ω com E |X | < ∞ nós definimos a esperançacondicional de X dado Y como a variável aleatória discreta

E(X |Y )(ω) = E(X |Ai ) = E(X |Y = yi ) paraω ∈Ai , i = 1,2, . . . . (1.29)

Se já sabemos que Ai ocorreu, nós poderíamos nos restringir aos ωs em Ai . Para tais valores deω, E(X |Y )(ω) coincide com a esperança condicional clássica E(X |Ai ); veja a equação (1.26).

Exemplo 1.4.2. (Continuação do exemplo 1.4.1) Nós interpretamos os E(X |Ai )s em (1.27) comoos valores de uma variável aleatória discreta E(X |Y ), onde Y é constante sobre os conjuntosAi = ((i−1)/n, i/n]. Veja a figura 1.26 para uma ilustração desta variável aleatória. Neste sentido,E(X |Y ) nada mais é do que uma versão menos fina do que a variável aleatória original X , i.e., umaaproximação de X , dada a informação de que algum dos Ai s ocorreu.

No que se segue, daremos algumas propriedades elementares da variável aleatória E(X |Y ). Aprimeira propriedade pode ser facilmente verificada. 1

1 faça-o!

A esperança condicional é linear: para as variáveis aleatórias X1 e X2 e constantes c1e c2,

E(c1X1+ c2X2|Y ) = c1E(X1|Y )+ c2E(X2|Y ).

As esperanças de X e E(X |Y ) são as mesmas: EX = E[E(X |Y )].

48

Page 49: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

Isto é conseqüência de uma aplicação direta das propriedades definidoras (1.29), (1.26) e pela ob-servação de que E(X |Y ) é uma variável aleatória discreta:

E(E(X |Y )) =∞∑

i=1

E(X |Ai )P (Ai ) =∞∑

i=1

E(X IAi)

=E

X∞∑

i=1

IAi

!= EX .

Nós também fizemos uso da equação (1.26), e portanto

∞∑

i=1

IAi= I⋃∞

i=1 Ai= IΩ = 1.

Se X e Y são independentes, então E(X |Y ) = EX . (1.30)

Lembre-se de que na página 16 foi verificado que a independência de X e Y implica que

P (X ∈A,Y = yi ) = P (X ∈A)P (Y = yi ) = P (X ∈A)P (Ai ). (1.31)

Considere a variável aleatória IAie observe que

ω : IAi(ω) = 1=Ai = ω : Y (ω) = yi.

Assim, podemos reescrever a equação (1.31) da seguinte maneira:

P (X ∈A, IAi= 1) = P (X ∈A)P (IAi

= 1).

A relação análoga, onde IAi(ω) = 1 é substituída por IAi

= 0, também é válida. Portanto, asvariáveis aleatórias X e IAi

são independentes e paraω ∈Ai ,

E(X |Y )(ω) = E(X |Ai ) =E(X IAi

)

P (Ai )=

E(X )E(IAi)

P (Ai )= EX ,

onde utilizamos o fato dado por

EIAi= 0P (Ac

i)+ 1P (Ai ) = P (Ai ).

Isto prova (1.30).

Até este ponto, nós aprendemos que

49

Page 50: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

• A esperança condicional E(X |Y ) de X dada uma variável aleatória discreta Yé uma variável aleatória discreta.

• Ela coincide com a esperança condicional clássica E(X |Y = yi ) nos conjuntosAi = ω : Y (ω) = yi.

• Neste sentido, é uma versão menos elaborada de X ; veja novamente a figura1.26.

• Quanto menos valores Y tiver, menos fina será a variável aleatória E(X |Y ).Em particular, se Y for constante, então E(X |Y ) = E(X ); se Y assumir doisvalores distintos, o mesmo se dará com E(X |Y ), e assim por diante.

• A esperança condicional (X |Y ) não é uma função de X , mas uma mera funçãode Y . A variável aleatória X somente determina o tipo de função. De fato,podemos escrever

E(X |Y ) = g (Y ), onde g (y) =∑∞

i=1 E(X |Y = yi )Iyi (y).

1.4.2. Sobre σ -álgebras

Na seção anterior foi introduzido o conceito de esperança condicional E(X |Y ) de uma variávelaleatória X sob a condição discreta (i.e, variável aleatória discreta) Y . Recorde a partir da equação(1.28) que os valores de Y na realidade não influem na definição de E(X |Y ), mas era crucial queY assumisse os valores distintos yi nos ω-conjuntos Ai . Assim, a esperança condicional E(X |Y )pode na realidade ser pensada como uma variável aleatória construída a partir de uma coleçãoσ(Y ), digamos, de subconjuntos de Ω. Podemos, portanto, de forma simbólica escrever

E(X |Y ) = E(X |σ(Y )).

Obviamente, a coleção σ(Y ) nos fornece informação sobre a estrutura da variável aleatória Y (ω)como uma função deω ∈Ω.

No que se segue, queremos tornar preciso o significa do conceito de “coleção σ(Y ) de sub-conjuntos de Ω.” Nós iremos denominá-la de σ -álgebra. Sua definição vem logo a seguir:

50

Page 51: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

Uma σ -álgebra F sobre Ω é uma coleção de subconjuntos de Ω satisfazendo àsseguintes condições:

• Não é vazia: ; ∈F e Ω ∈F .

• Se A∈F , então Ac ∈F .

• Se A1,A2, . . . ∈F , então∞⋃

i=1

Ai ∈F e∞⋃

i=1

Ai ∈F

Exemplo 1.4.3. (Algumas σ -álgebras elementares)Verifique que as seguintes coleções de subconjuntos de Ω são σ -álgebras:

F1 =;,Ω,F2 =;,Ω,A,Ac para algum A 6= ; e A 6=Ω,F3 =P (Ω) = A : A⊂Ω.

F1 é a menor σ -álgebra sobre Ω, eF3, o conjunto das partes de Ω, é o maior de todos, uma vez quecontém todos os subconjuntos de Ω.

Suponha agora que C é uma coleção de subconjuntos de Ω, mas não necessariamente uma σ -álgebra. Juntando mais subconjuntos aC , poderemos sempre obter uma σ -álgebra. Por exemplo,a σ -álgebra P (Ω). No entanto, existem razões matemáticas que mostram ser P (Ω) bastantegrande em geral. No entanto, podemos provar o seguinte:

para uma dada coleção C de subconjuntos de Ω, existe a menor σ -álgebra σ(C )sobre Ω contendo C .

Nós denominaremos σ(C ) de σ -álgebra gerada por C .

Exemplo 1.4.4. (Gerando σ -álgebras a partir de coleções de subconjuntos de Ω)Lembre-se das σ -álgebras obtidas no exemplo 1.4.3. Prove queFi = σ(Ci ), onde

C1 = ;, C2 = A, C3 =F3.

Usando a definição de σ -álgebra, você deverá verificar quais conjuntos necessariamente pertencemà σ -álgebra σ(Ci ).

Considere agoraC4 = A,B e C5 = A,B ,C .

onde A,B ,C ⊂Ω e determine σ(C4) e σ(C5). Antes de você começar, pense primeiro na estruturados elementos em σ(C4) e σ(C5). Observe que você poderá obter qualquer elemento de σ(C4)tomando todas as possíveis uniões dos conjuntos

;, A∩B , Ac ∩B , A∩B c , Ac ∩B c .

Para σ(C5) proceda de forma inteiramente similar.

51

Page 52: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Em geral, é difícil, ou mesmo impossível, dar uma descrição construtiva dos elementos de σ(C ).A σ -álgebra σ(Y ) gerada por uma variável aleatória discreta Y é uma exceção.

Exemplo 1.4.5. (A σ -álgebra gerada por uma variável aleatória discreta)Lembre-se da organização da seção 1.4.1. Nós consideramos Um variável aleatória discreta Y comvalores distintos yi e definida em subconjuntos Ai = ω : Y (ω) = yi, que constitui uma partiçãode Ω em conjuntos dois a dois disjuntos.

C = A1,A2, . . ..

Uma vez que σ(C ) é uma σ -álgebra, deverá conter todos os subconjuntos da forma

A=⋃

i∈I

Ai , (1.32)

onde I é um dado subconjunto de N= 1,2, . . ., incluindo I = ; (o que dá A= ;) e I =N (dandoA = Ω). Verifique que os conjuntos dados em (1.32) constituem uma σ -álgebra σ(Y ). Uma vezque os conjuntos (1.32) necessariamente pertencem a σ(C , que é a menor σ -álgebra contendo C ,teremos também que σ(Y ) = σ(C ). Mais adiante nós iremos denominar σ(Y ) como a σ -álgebragerada por Y .

Observe que σ(Y ) contém todos os conjuntos da forma

Aa,b = Y ∈ (a, b]= ω : a < Y (ω)≤ b, −∞< a < b <∞.

De fato, o conjunto I = i : a < yi ≤ b é um subconjunto de N, e portanto

Aa,b =⋃

i∈I

ω : Y (ω) = yi ∈ σ(Y ).

Exemplo 1.4.6. (Os conjuntos borelianos)Tome Ω=R e

C (1) = (a, b] :−∞< a < b <∞.A σ -álgebraB1 = σ(C (1)) contém subconjuntos bastante gerais de R. É chamada de σ -álgebra deBorel, seus elementos sendo conjuntos borelianos. Um ser humano normal não é capaz de imaginara variedade ampla de conjuntos borelianos. Por exemplo, é um fato verdadeiro, mas não é fácil deverificar, queB1 é um subconjunto próprio do conjunto das partesP (R).Podemos também introduzir a σ -álgebra dos conjuntos borelianos n-dimensionaisBn = σ(C (n)),onde Ω=Rn e

C (n) = (a,b] :−∞< ai < bi <∞, i = 1 . . . n.

Os conjuntos (a,b] são denominados de retângulos. Qualquer subconjunto “razoável” do Rn éum conjunto boreliano. Por exemplo, bolas, esferas, curvas lisas, superfícies, e assim por diante.O mesmo acontece com os conjuntos abertos e fechados do Rn . Para mostrarmos que um dadoconjunto C ⊂ Rn é um conjunto boreliano, é necessário obter C por meio de um conjuntoenumerável de operações do tipo ∩, ∪ e c atuando sobre os retângulos.Por exemplo, mostre para n = 1 que qualquer conjunto unitário a, para a ∈R, é um conjunto deBorel. Verifique também que os intervalos (a, b], [a, b ), (−∞,a), (b ,∞) são conjuntos borelianos.

52

Page 53: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

Recorde-se agora do exemplo 1.4.5, onde a σ -álgebra foi gerada a partir dos conjuntos Ai = ω :Y (ω) = yi para uma variável aleatória discreta Y com valores yi . Se Y é uma variável aleatóriaassumindo um conjunto não enumerável de valores, a σ -álgebra gerada a partir dos conjuntosω : Y (ω) = y, y ∈ R não é, do ponto de vista matemático, suficientemente rico. Por exemplo,conjuntos da forma ω : a < Y (ω)≤ b não pertencem a uma tal σ -álgebra, mas é desejável tê-losem σ(Y ).

Nós vimos no exemplo 1.4.5 que, para uma variável aleatória discreta Y , os conjuntos ω :a < Y (ω) ≤ b pertencem a σ(Y ). Portanto, nós iremos exigir como hipótese mínima que essesconjuntos pertençam a σ(Y ) quando Y é uma variável aleatória. Uma vez que também estamosinteressados em vetores aleatórios Y, nós definimos logo a seguir σ(Y) para o caso multivariado:

Seja Y = (Y1, . . . ,Yn) um vetor aleatório n-dimensional arbitrário, i.e., Y1, . . . ,Yn

são variáveis aleatórias. A σ -álgebra σ(Y) é a menor σ -álgebra contendo todos osconjuntos da forma

Y ∈ (a,b]=ω : ai < Yi (ω)≤ bi , i = 1 . . . n−∞< a j < b j <∞, j = 1 . . . n.

σ(Y) será denominada de σ -álgebra gerada pelo vetor aleatório Y.

Um elemento de σ(Y) nos diz para quais ω ∈ Ω o vetor aleatório Y assume valores em um retân-gulo (a,b] ou em um conjunto boreliano mais geral.

A σ -álgebra σ(Y) gerada por Y contém informação essencial sobre a estrutura dovetor aleatório Y como função de ω ∈ Ω. Ele contém todos os conjuntos da formaω : Y(ω) ∈C para todos os conjuntos borelianos C ⊂Rn .

Você irá admitir que é difícil de imaginar a σ -álgebra σ(Y), e isto é ainda mais complicado paraum processo estocástico.

Para um processo estocástico Y = (Yt , t ∈ T ,ω ∈ Ω) a σ -álgebra σ(Y ) é a menorσ -álgebra contendo todos os conjuntos da forma

ω : o caminho amostral Yt (ω), t ∈ T ) pertence a Cpara todos os conjuntos apropriados C de funções sobre T . Então, σ(Y ) é denom-inado de σ -álgebra gerada por Y .

Tendo em vista que possuímos ferramentas restritas, nós não podemos tornar esta definição maisprecisa, mas iremos fornecer subsídios para a nossa imaginação a respeito da σ -álgebra σ(Y ) con-siderando o seguinte exemplo:

Exemplo 1.4.7. Seja B = (Bs : s ≤ t ) um movimento browniano sobre [0, t] (veja a seção 1.3.1) eseja

Ft = σ(B) = σ(Bs ), s ≤ t ).

53

Page 54: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Esta é a menor σ -álgebra contendo a informação essencial sobre a estrutura do processo B sobre[0, t]. Podemos mostrar que esta σ -álgebra é gerada por todos os conjuntos da seguinte forma:

At1...tn(C ) = ω : (Bt1

(ω) . . .B( tn)(ω)) ∈C

para qualquer conjunto boreliano C n-dimensional, e quaisquer escolhas de ti ∈ [0, t], n ≥ 1.

Nós já vimos que a σ -álgebra σ(Y ) não é um objeto trivial. No que se segue, faremos uso daseguinte regra de algibeira para podermos imaginar σ(Y ).

Para uma variável aleatória, um vetor aleatório ou um processo estocástico Y sobreΩ, a σ -álgebra σ(Y ) gerada por Y contém a informação essencial sobre a estruturade Y como função de ω ∈ Ω. Ela consiste de todos os subconjuntos ω : Y (ω) ∈C para conjuntos apropriados C .

Pelo fato de Y gerar uma σ -álgebra, dizemos também que Y contém informaçãorepresentada por σ(Y ) ou Y carrega a informação de σ(Y ).

Concluímos essas considerações com uma observação que poderá ser bastante útil. Seja f umafunção definida sobre Y e considere o conjunto

ω : f (Y (ω)) ∈C

para conjuntos apropriados C . Para funções f “bem comportadas,” este conjunto pertence aσ(Y ), i.e.,

σ( f (Y ))⊂ σ(Y ).Isto significa que a função f atuando sobre Y não fornece informação adicional a respeito daestrutura de Y . Diremos então que a informação carregada por f (Y ) está contida na informaçãode σ(Y ). Daremos um exemplo muito simples:

Exemplo 1.4.8. Da mesma forma que já vimos, seja B um movimento browniano, e defina asσ -álgebras

Ft = σ(Bs , s ≤ t ), t ≥ 0.

Considere a função f (B) = Bt para um t fixado. Dado que conhecemos a estrutura do processointeiro (Bs : s ≤ t ) sobre Ω, também conhecemos a estrutura da variável aleatória Bt ; assim,σ(Bt )⊂Ft . A recíproca é claramente falsa. Se conhecemos a variável aleatória Bt , não poderemosreconstruir o processo inteiro (Bs : s ≤ t ) a partir da mesma.

1.4.3. A esperança condicional geral

Na seção 1.4.1 nós definimos a esperança condicional E(X |Y ) de uma variável aleatória X , umavez dada a variável aleatória Y . Esta definição não faz uso explícito dos valores yi de Y , masela depende dos subconjuntos Ai = ω : Y (ω) = yi de Ω. Do exemplo 1.4.5, vimos que acoleção dos conjuntos Ai gera a σ -álgebra σ(Y ). Este é o ponto de partida para a definição daesperança condicional geral E(X |F ), dada uma σ -álgebraF sobre Ω. Nas aplicações, nós sempreescolheremos F = σ(Y ) para variáveis aleatórias apropriadas, vetores aleatórios ou processos

54

Page 55: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

estocásticos Y . Na seção anterior nós tentamo-nos convencer de que a informação essencial sobrea estrutura de Y está contida na σ -álgebra σ(Y ), gerada por Y . Neste sentido, podemos dizer queY carrega a informação σ(Y ).

Seja Y,Y1,Y2 variáveis aleatórias, vetores aleatórios ou processos estocásticos sobreΩ, e sejaF uma σ -álgebra sobre Ω.

Diremos que

• a informação de Y está contida em F ou que Y não possui mais informação do que a contidaemF se σ(Y )⊂F , e

• Y2 contém mais informação do que Y1 se σ(Y1)⊂ σ(Y2).

Estamos agora preparados para dar uma definição rigorosa da esperança condicional E(X |F ) sobuma σ -álgebra abstrataF .

Uma variável aleatória Z é denominada de esperança condicional de X dada aσ -álgebraF (escrevemos Z = E(X |F )) se

• Z não contém mais informação do que a contida emF : σ(Z)⊂F .

• Z satisfaz à relação

E(X IA) = E(ZIA) para todo A∈F . (1.33)

No Apéndice A.6 mostraremos a existência e unicidade de E(X |F ) por meio de métodos da teoriada medida.

A propriedade (1.33) mostra que as variáveis aleatórias X e E(X |F estão “próximas” uma daoutra, não no sentido de que coincidam para umω qualquer, mas as médias (ou esperanças) de X eE(X |F ) sobre conjuntos apropriados A são as mesmas. Isto fornece alguns subsídios para a nossaimaginação a respeito da variável aleatória E(X |F ), que já havíamos adquirido na seção 1.4.1.

A esperança condicional E(X |F ) é a versão menos fina da variável aleatória originalX .

Cumpre mencionar que a propriedade definidora (1.33) deixa alguma liberdade para a construçãoda variável aleatória Z = E(X |F ). Isto significa que podem existir versões Z ′ de E(X |F ) quediferem de Z em conjuntos de probabilidade 0. Por esta razão, todas as relações envolvendoE(X |F ) devem ser interpretadas em um sentido “quase seguro.” Esta incerteza será indicada emtodas as fórmulas relevantes pelo rótulo “q.s.” No entanto, uma vez apontado este fato, poderá serconveniente suprimir o rótulo em todos os casos.

55

Page 56: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Exemplo 1.4.9. (Esperança condicional sob a condição discreta)Queremos mostrar que a definição de E(X |Y ) na seção 1.4.1 acarreta um caso especial da definiçãode E(X |F ) quandoF = σ(Y ). Recorde do exemplo 1.4.5 que todo elemento A de σ(Y ) possui aforma

A=⋃

i∈I

Ai =⋃

i∈I

ω : Y (ω) = yi, I ⊂N. (1.34)

Em (1.29), definimos E(X |Y ) como a variável aleatória Z tal que

Z(ω) = E(X |Ai ) paraω ∈Ai .

Nós estudamos (veja a página 50) que Z é meramente uma função de Y , e não de X , portantoσ(Z)⊂ σ(Y ); veja a discussão ao final da seção 1.4.2. Além disto, para A dado como em (1.34)

E(X IA) = E

X∑

i∈I

IAi

!=∑

i∈I

E(X IAi)

Por outro lado, podemos ver que ZIA é uma variável aleatória discreta tendo esperança dada por

E(ZIA) =∑

i∈I

E(X |Ai )P (Ai ) =∑

i∈I

E(X IAi).

Assim, Z satisfaz à relação definidora (1.33), não possuindo portanto mais informação do que Y(ela é uma função de Y ). Portanto, ela é de fato a esperança condicional de X dada a σ -álgebraσ(Y ).

No caso de uma variável aleatória discreta Y , nós acabamos de ver que E(X |Y ) e E(X |σ(Y ))representam a mesma variável aleatória. Isto sugere a seguinte definição:

Seja Y uma variável aleatória, um vetor aleatório ou um processo estocásticodiscreto sobre Ω, e seja σ(Y ) a σ -álgebra gerada por Y .

A esperança condicional da variável aleatória X dado Y é definida por

E(X |Y ) = E(X |σ(Y )).

Exemplo 1.4.10. (A probabilidade condicional e esperança condicional clássicas)A probabilidade condicional e esperança condicional clássicas são casos especiais da noção geraldefinida na página 55. De fato, seja B tal que P (B)> 0, P (B c )> 0 e definaFB = σ(B). Sabemospelo exemplo 1.4.4 queFB = ;,Ω,B ,B c. Revendo o exemplo 1.4.9, tem-se que

E(X |FB )(ω) = E(X |B) paraω ∈ B .

Esta é a noção clássica de esperança condicional. Se especificarmos X = IA para algum A, obtere-mos paraω ∈ B ,

E(IA|FB )(ω) = E(IA|B) =P (A∩B)

P (B).

O segundo membro da equação acima é a probabilidade condicional clássica de A dado B .

56

Page 57: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

1.4.4. Regras para o cálculo da esperança condicional

A propriedade definidora (1.33) de E(X |F ) não é construtiva. Portanto, em geral é difícil, senãoimpossível calcular E(X |F ). O casoF = σ(Y ) para uma variável aleatória discreta Y , o qual foidiscutido no exemplo 1.4.9, é uma exceção. Por esta razão, é importante ser capaz de trabalharcom esperanças condicionais, sem saber suas formas particulares. Isto significa que temos de saberalgumas regras a fim de lidar com a esperança condicional em situações padrão.

No que se segue, juntamos algumas das regras mais comuns. Em alguns casos, daremos ajustificativa para tais regras, e em outras situações deveremos nos basear em argumentos intuitivos.Começamos por um resultado de existência e unicidade.

Se E |X | < ∞, a esperança condicional E(X |F ) existe e é única no sentido a serdiscutido no apêndice A.6.

Na seção 1.4.1 nós havíamos encontrado regras para o cálculo da esperança condicional sob umacondição discreta. Elas permanecem válidas no caso geral.

Regra 1

A esperança condicional é linear: para variáveis aleatórias X1 e X2 e constantes c1 ec2,

E([c1X1+ c2X2]|F ) = c1E(X1|F )+ c2E(X2|F ). (1.35)

Isto sai mediante uma aplicação da propriedade definidora (1.33) a ambos os membros de (1.35).(Tente prová-lo!)

Tome agora A=Ω na propriedade (1.33). Você obterá imediatamente

Regra 2

As esperanças de X e E(X |F ) são as mesmas:

EX = E[E(X |F )],

A terceira asserção (veja (1.30) transporta do caso discreto a seguinte regra:

Regra 3

Se X e a σ -álgebraF são independentes, então E(X |F ) = EX .

Em particular, se X e Y são independentes, então E(X |Y ) = EX .

Este enunciado requer alguma discussão: o que significa independência entre X eF ? Significa quenão ganhamos nenhuma informação sobre X se conhecemosF , e vice-versa. Mais formalmente:as variáveis aleatórias X e IA são independentes para todo A ∈ F . Agora, pela independência,deduz-se que

E(X IA) = EX EIA= EX P (A) = E[(EX )IA], A∈F

57

Page 58: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Uma comparação com (1.33) acarreta que a variável aleatória constante Z = EX é a esperançacondicional E(X |F ). Isto prova a regra 3.

Regra 4

Se a σ -álgebra σ(X ), gerada pela variável aleatória X , está contida emF , então

E(X |F ) =X .Em particular, se X é uma função sobre Y , então σ(X )⊂ σ(Y ), e assim, E(X |Y ) =X .

Isto significa que a informação contida em F nos fornece a informação total sobre a variávelaleatória X . Se conhecermos tudo sobre a estrutura de X , poderemos com ele lidar como se fossealeatório e escrever o valor de X (ω) na frente da esperança condicional E(1|F ) = 1:

E(X |F )(ω) = E(X (ω)|F ) =X (ω)E(1|F ) =X (ω).

Esta regra pode ser estendida para situações mais gerais:

Regra 5

Se a σ -álgebra σ(X ), gerada pela variával aleatória X , está contida emF , então paraqualquer variável aleatória G,

E(X G|F ) =X E(G|F )Em particular, se X é uma função de Y , σ(X ) ⊂ σ(Y ), e portanto, E(X G|Y ) =X E(G|Y ).

De fato, dadoF , podemos lidar com X como se fosse uma constante, e portanto podemos extrairX (ω) para fora da esperança atualizada e escrevê-la na frente de E(G|F ).

Regra 6

SeF eF ′ são duas σ -álgebras comF ⊂F ′, então

E(X |F ) =E(E(X |F ′)|F ) (1.36)E(X |F ) =E(E(X |F )|F ′) (1.37)

Pelas razões óbvias, a Regra 6 é às vezes chamada a propriedade da torre das esperanças condicionais.A regra (1.37) pode ser justificada pela Regra 4: uma vez queF ⊂F ′, conclui-se que E(X |F )

não possui mais informação do queF ′, i.e., dadaF ′, poderemos então lidar com E(X |F ) comose fosse uma constante:

E(E(X |F )|F ′) = E(X |F )E(1|F ′) = E(X |F ).

A regra (1.36) pode ser formalmente derivada da propriedade definidora (1.33), a qual diz que paraA∈F e Z = E(X |F ),

E(X IA) = E(ZIA). (1.38)

58

Page 59: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

Por outro lado, pela Regra 5 e levando em conta que A∈F ⊂F ′

E(E(X |F ′)|F )IA= E(E(X |F ′)IA|F ) = E(E(X IA|F ′)|F ).

Tome agora as esperanças e aplique a Regra 2 ao segundo membro:

E[E(E(X |F ′)|F )IA] = E[X IA].

Assim, Z ′ = E(E(X |F ′)|F ) também satisfaz (1.38), mas uma vez que E(X |F ) é único, deveremoster Z = Z ′, o que prova (1.36).

Terminamos com uma generalização da Regra 3.

Regra 7

Se X é independente de F e a informação transportada pela variável aleatória, ovetor aleatório ou o processo estocástico G está contido emF , então para qualquerfunção h(x, y),

E(h(X ,G)|F ) = E(EX [h(X ,G)|F ],onde EX [h(X ,G)] significa que fixamos G e tomamos a esperança com respeito aX .

Ilustraremos a Regra 7 com um exemplo:

Exemplo 1.4.11. Sejam X e Y duas variáveis aleatórias independentes. Então as Regras 7 e 5 nosfornecem

E(X Y |Y ) = E(EX (X Y )|Y ) = E(Y EX |Y ) = Y EX ,

E(X +Y |Y ) = E(EX (X +Y )|Y ) = E(EX +Y |Y ) = EX +Y.

Nos dois exemplos seguintes nós queremos exercer as regras para calcularmos esperançascondicionais.

Exemplo 1.4.12. (Movimento browniano)Considere a definição de função browniana B = (Bt , t ≥ 0) na página 26. Associaremos a Buma corrente crescente de informação sobre a estrutura do processo representado pelas σ -álgebrasFs = σ(Bx , x ≤ s ). Queremos calcular

E(Bt |Fs ) = E(Bt |Bx , x ≤ s ) para s ≥ 0.

Claramente, se s ≥ t , entãoFs ⊃Ft , e portanto a Regra 4 nos dá

E(Bt |Fs ) = Bt .

Suponha agora que s < t . Então, pela linearidade da esperança condicional (Regra 1),

E(Bt |Fs ) =E[(Bt −Bs )+Bs |Fs]

=E(Bt −Bs |Fs )+ E(Bs |Fs ).

59

Page 60: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Uma vez que Bt −Bs é independente deFs , a Regra 3 pode ser aplicada:

E(Bt −Bs |Fs ) = E(Bt −Bs ) = 0.

Além disto, σ(Bs )⊂ (Bx , x ≤ s ) =Fs , e portanto E(Bs |Fs ) = Bs . Finalmente,

E(Bt |Fs ) = Bmin(s ,t ).

Exemplo 1.4.13. (Movimento browniano quadrado)Como no exemplo 1.4.12, B denota um movimento browniano, e Fs = σ(Bx , x ≤ s ). Consid-eramos o processo estocástico Xt = B2

t− t , t ≥ 0. Pelos mesmos argumentos do exemplo 1.4.12

deduzimos queE(Xt |Fs ) =Xt para s ≥ t .

Para s < t , podemos escrever

B2 t − t =[(Bt −Bs )+Bt ]2− t

=(Bt −Bs )2+B2

s+ 2Bs (Bt −Bs )− t .

Tomando esperanças condicionais, obtemos

E(Xt |Fs ) = E[(Bt −Bs )2|Fs]+ E(B2

s|Fs )+ 2E[Bs (Bt −Bs )|Fs]− t .

Observe que Bt−Bs e (Bt−Bs )2 são independentes deFs , e que σ(B2

s)⊂ σ(Bs )⊂Fs . Aplicando-se

as regras 3–5, obteremos

E(Xt |Fs ) =E(Bt −Bs )2+B2

s+ 2Bs E(Bt −Bs )− t

=(t − s )+B2s+ 0− t =Xs .

Finalmente,E(Xt |Fs ) =Xmin(s ,t ).

Mais adiante, tomaremos esta relação como a propriedade definidora de martingais (veja (1.41)).

1.4.5. A propriedade da projeção de esperanças condicionais

No que se segue, F é uma σ -álgebra e L2(F ) é a coleção das variáveis aleatórias Z sobre Ω,satisfazendo às seguintes condições:

• Z possui um segundo momento finito: EZ2 <∞,

• A informação transportada por Z está contida em F : σ(Z) ⊂ F . Se F = σ(Y ), istosignifica que Z é uma função de Y .

A variável aleatória E(X |F ) pode ser entendida como uma versão atualizada da esperança de X ,dada a informação F . A esperança condicional tem uma certa propriedade de otimalidade naclasse L2(F ).

60

Page 61: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.4. Esperança condicional

A propriedade da projeção

Se X uma variável aleatória com EX 2 <∞. A esperança condicional E(X |F ) é avariável aleatória em L2(F ) que está o mais próximo de X no sentido do quadradoda média. Isto significa que

E[X − E(X |F )]2 = minZ∈L2(F )

E(X −Z)2. (1.39)

Fig. 1.27 — Uma ilustração da propriedade da projeção da esperança condicional E(X |F ). Convém mencionar que ⟨Z ,Y ⟩ = E(ZY ) para Z ,Y

tais que EZ2 < ∞ e EY 2 < ∞. Isto define um produto interno e ‖Z − Y ‖ =p⟨Z −Y,Z −Y ⟩, ou seja, uma distância entre Z e Y . Como

em um espaço euclideano, diremos que Z e Y são ortogonais se ⟨Z ,Y ⟩ = 0. Neste sentido, E(X |F ) é a projeção ortogonal de X em L2(F ):⟨X − E(X |F ),Z⟩= 0 para todo Z ∈ L2(F ), e ⟨X −Z ,X −Z⟩ é minimal para Z = E(X |F ).

Neste sentido, E(X |F ) é a projeção da variável aleatória X no espaço L2(F ) das variáveis aleatóriasZ que transportam parte da informação deF ; veja os comentários da figura 1.27.

Se F = σ(Y ), E(X |Y ) é a função de Y possuindo um segundo momento finito, eque está o mais próximo de X no sentido do quadrado da média.

No que se segue, nós podemo-nos referir às vezes a E(X |F ) como a melhor previsão de X dadoF . Isto significa que a relação (1.39) é válida. Para dar mais significado para a palavra “previsor,”reconsideraremos os exemplos 1.4.12 e 1.4.13. Já demonstramos que, para s ≤ t ,

E(Bt |Bx , x ≤ s ) = Bs e E(B2t− t |Bx , x ≤ s ) = B2

x− s .

Assim, a melhor previsão dos valores futuros de Bt e de B2t− t , dada a informação do movimento

browniano até o instante presente s , são os valores presentes Bs e Bs − s respectivamente. Estapropriedade caracteriza uma classe inteira de martingais com um segundo momento finito: amelhor previsão dos valores futuros do processo estocástico é o valor presente; veja a seção 1.5.1

61

Page 62: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

No que se segue, indicaremos os passos da demonstração da propriedade da projeção (1.30). Iremosfazer uso das regras para o cálculo da esperança condicional. Primeiramente observe que a variávelaleatória Z ′ = E(X |F ) possui segundo momento finito. Esta última propriedade é conseqüenciada aplicação da desigualdade de Jensen (veja o apêndice A.2 na página 155) em combinação com aRegra 2:

E[(E(X |F )2]≤ E[E(X 2|F )] = EX 2

Iremos agora verificar a propriedade da projeção (1.39). Seja Z uma variável aleatória qualquer emL2(F ). Então

E(X −Z)2 =E((X −Z ′)+ (Z ′−Z))2

=E(X −Z ′)2+ E(Z ′−Z)2+ 2E[(X −Z ′)(Z ′−Z)]

Trataremos os termos do segundo membro separadamente. Primeiramente considere E[(X −Z ′)(Z ′ − Z)]. Uma vez que ambos, Z e Z ′ pertencem a L2(F ), o mesmo acontece com Z − Z ′.Em particular, pela Regra 5,

E[(X −Z ′)(Z ′−Z)|F ] = (Z −Z ′)E(X −Z ′|F ).

Mas pelas Regras 1 e 4,

E(X −Z ′|F ) = E(X |F )− E(Z ′|F ) = Z ′−Z ′ = 0.

Assim, demonstramos que

E(X −Z)2 = E(X −Z ′)2+ E(Z ′−Z)2.

Logo,E(X −Z)2 ≥ E(X −Z ′)2 para todas as variáveis aleatórias Z em L2(F ). (1.40)

Vemos também que a igualdade em (1.40) pode ser obtida no caso de Z = Z ′, e portanto Z =E(X |F ) realmente representa o elemento de L2(F ) para o qual o mínimo de E(X−Z)2 é atingido.Isto prova (1.39).

Notas e comentários

A noção de esperança condicional é uma das mais difíceis em teoria das probabilidades, porémé também uma das ferramentas mais poderosas. Sua definição como variável aleatória para umadada σ -álgebra é devida a Kolmogorov. Para a sua inteira compreensão, a teoria das probabilidadescom teoria da medida é inevitável.

A esperança condicional é tratada em qualquer texto avançado de teoria das probabilidades.Veja por exemplo Billingsley (1998) e Williams (1991).

62

Page 63: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.5. Martingais

1.5. Martingais

1.5.1. Propriedades definidoras

A noção de martingal é crucial para o entendimento da integral estocástica de Ito. As integraisindefinidas estocásticas de Ito são construídas de forma tal que acabam constituindo martingais.A idéia subjacente ao conceito de martingal é a de que este é um jogo não viciado, onde os gan-hos líquidos são calculados por meio de esperanças condicionais. Felizmente, temos agora uminstrumento poderoso em nossa caixa de ferramentas; veja a seção 1.4.

Suponha que (Ft , t ≥ 0) é uma coleção de σ -álgebras sobre o mesmo espaço Ω, e que todososFt s são subconjuntos de uma σ -álgebra maior, digamos,F sobre Ω.

A coleção (Ft , t ≥ 0) de σ -álgebras sobre Ω é chamada de filtração se

Fs ⊂Ft para todo 0≤ s ≤ t

Assim, uma filtração é uma corrente crescente de informação.

SeFn , n = 0,1, . . .) é uma seqüência de σ -álgebras sobre Ω eFn ⊂Fn+1 para todon nós chamaremos a famíliaFn também de filtração.

Para as nossas aplicações, uma filtração estará em geral ligada a um processo estocástico.

O processo estocástico Y = (Yt , t ≥ 0) é dito adaptado à filtração (Ft , t ≥ 0) se

σ(Yt )⊂Ft para todo t ≥ 0.

O processo estocástico Y é sempre adaptado à filtração natural gerada por Y :

Ft = σ(Ys , s ≤ t ).

Assim, a adaptação de um processo estocástico Y significa que os Yt s não carregam mais infor-mação do queFt .

Se Y = (Yn , n = 0,1, . . .) é um processo de tempo discreto, definimos ‘adaptação’de forma inteiramente análoga: para a filtração (Fn , n = 0,1, . . .) será requerido queσ(Yn)⊂Fn .

Exemplo 1.5.1. (Exemplos de processos adaptados)Seja (Bt , t ≥ 0) um movimento browniano e (Ft , t ≥) a filtração natural correspondente. Osprocessos estocásticos da forma

Xt = f (t ,Bt ), t ≥ 0,

onde f é uma função de duas variáveis, são adaptados aFt , t ≥ 0). Isto inclui os processos

X(1)t = Bt , X

(2)t = B2

t, X

(3)t = B2

t− t , X

(4)t = B3

t, X

(5)t = B4

t.

Da mesma forma, processos que dependem do passado inteiro do movimento browniano podemser adaptados. Por exemplo,

X(6)t = max

0≤s≤tBs ou X

(7)t = max

0≤s≤tB2

s.

63

Page 64: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Se o processo estocástico Y é adaptado à filtração browniana natural (Ft , t ≥ 0),nós diremos que Y é adaptado ao movimento browniano. Isto significa que Yt éuma função de Bs , s ≤ t .

Os seguintes processos não são adaptados ao movimento browniano:

X(8)t = Bt+1 X

(9)t = BT −Bt , X

(10)t = Bt +BT .

onde T > 0 é um número fixo. De fato, esses processos requerem o conhecimento do movimentobrowniano em instantes futuros do tempo. Por exemplo, consideremos X (9)t . Para a sua definiçãotemos de conhecer BT nos instantes t < T .

Claramente, podemos ampliar a filtração natural e obter uma filtração para a qual o processoestocástico é adaptado.

Exemplo 1.5.2. (Ampliando uma filtração)Considere o movimento browniano B = (Bt , t ≥ 0), e a filtração natural correspondente Ft =σ(Bs , s ≤ t ), t ≥ 0. O processo estocástico Xt = B2

tgera a filtração natural

F ′t= σ(B2

s, s ≤ t ), t ≥ 0,

a qual é menor do que (Ft ). De fato, para todo t , F ′t⊂ Ft uma vez que podemos reconstruir

somente a informação integral sobre |Bt | a partir de B2t, mas não sobre Bt : nada podemos afirmar

a respeito do sinal de Bt . Assim,Ft é também uma filtração para (B2t).

Desta forma, podemos trabalhar com filtrações distintas para o mesmo processo. Para ilustrareste aspecto a partir de um ponto de vista aplicado, consideraremos um exemplo de finança es-tocástica. Neste campo, acredita-se que os preços das ações, taxas de câmbio, de juros, e assimpor diante, podem ser modeladas por meio de soluções de equações diferenciais estocásticas, asquais são movidas por um movimento browniano; veja o Capítulo 4. Estas soluções são entãofunções do movimento browniano. Este processo modela as flutuações do mercado financeiro(movimento independentes para cima ou para baixo em intervalos disjuntos). Essas flutuaçõesna realidade representam a informação sobre o mercado. Este relevante conhecimento está con-tido na filtração natural. Ele não leva em consideração informações externas. No entanto, emfinanças, existem sempre pessoas que sabem mais do que outras. Por exemplo, elas poderiam con-hecer uma decisão política essencial será tomada em um futuro muito próximo, a qual mudarácompletamente a paisagem financeira. Isto permite que as pessoas informadas ajam com maiorcompetência do que outras. Assim, elas possuem suas próprias filtrações que podem ser maioresdo que a filtração natural.

Considere agora um processo estocástico X = (Xt , t ≥ 0) sobre Ω, e suponha que você possua ainformaçãoFs no instante presente s .

Como pode esta informação influenciar o nosso conhecimento a respeito do comportamento doprocesso X no futuro?

SeFs e X são dependentes, podemos esperar que a nossa informação reduza a incerteza sobre osvalores de Xt em um instante futuro t . Se sabemos que alguns eventos aconteceram no passado,

64

Page 65: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.5. Martingais

podemos incluir este conhecimento em nossos cálculos. Assim, Xt pode ser melhor previstocom a informação Fs do que sem ela. Uma ferramenta matemática que descreva este ganho deinformação é a esperança condicional de Xt , dadoFs :

E(Xt |Fs ) para 0≤ s ≤ t .

Nós estudamos na seção 1.4.5 que E(Xt |Fs ) é a melhor previsão de Xt dada a informação Fs .Também a partir dos exemplos 1.4.12 e 1.4.13 vimos que os processos estocásticos Xt = Bt eXt = B2

t− t (B é movimento browniano) satisfazem à condição E(Xt |Fs ) = Xs , para s < t . Para

tais processos X , a melhor previsão do valor futuro Xt dadoFs é o valor presente Xs . Claramente,isto pode mudar, se considerarmos uma outra filtração, e portanto, devemos sempre dizer qual dasfiltrações estamos considerando.

O processo estocástico X = (Xt , t ≥ 0) martingal de tempo contínuo com respeito àfiltração (Ft , t ≥ 0) (e isto será denotado por (X , (Ft ))) se

• E |Xt |<∞ para todo t ≥ 0.

• X é adaptado a (Ft ); veja a página 63 para a definição;

•E(Xt |Fs ) =Xs para todo 0≤ s ≤ t (1.41)

i.e., Xs é a melhor previsão de Xt dadoFs .

É também possível definirmos martingais de tempo discreto X = (Xn , n = 0,1, . . .). Neste caso,adaptamos a propriedade definidora (1.41) do seguinte modo:

E(Xn+k |Fn) =Xn , k ≥ 0. (1.42)

Mostramos que basta exigir que (1.42) esteja satisfeita para k = 1. De fato, pela Regra 6 na página59,

E(Xn+1|Fn) =E[E(Xn+2|Fn+1)|Fn] = E(Xn+2|Fn)

=E[E(Xn+3|Fn+2)|Fn] = E(Xn+3|Fn)

= . . . = E(Xn+k |Fn).

Definiremos agora martingal no caso do tempo discreto.

65

Page 66: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

O processo estocástico X = (Xn , n = 0,1, . . .) martingal de tempo discreto com re-speito à filtração (Fn , n = 0,1, . . .) (e isto será denotado por (X , (Fn))) se

• E |Xn |<∞ para todo n = 0,1, . . ..

• X é adaptado a (Fn).

•E(Xn+1|Fn) =Xn para todo n = 0,1 . . . (1.43)

i.e., Xn é a melhor previsão de Xn+1 dadoFn .

Não é difícil verificar que a propriedade definidora (1.43) pode ser reescrita na forma

E(Yn+1|Fn) = 0, onde Yn+1 =Xn+1−Xn , n = 0,1, . . . . (1.44)

Os martingais possuem a notável propriedade segundo a qual sua função esperançaé constante.

De fato, usando a propriedade definidora E(Xt |Fs ) = Xs , para s < t e a Regra 2 da página 57,obtemos

EXs = E[E(Xt |Fs )] = EXt para todo s e t .

Isto nos fornece uma maneira fácil de provar que um processo estocástico não é um martingal.Por exemplo, se B é um movimento browniano, EB2

t= t para todo t . Logo (B2

t) não pode ser

um martingal. No entanto, não podemos utilizar este meio para provarmos que um processoestocástico é um martingal, já que um processo que tem uma função esperança constante nãoprecisa ser um martingal, como podemos verificar do exemplo a seguir: temos que EB3

t= 0 para

todo t , mas (B3t) também não é um martingal; veja o exemplo 1.5.5.

1.5.2. Exemplos

Nesta seção, coligimos alguns exemplos simples de processos estocásticos que possuem a pro-priedade martingal.

Exemplo 1.5.3. (As somas parciais de variáveis aleatórias independentes constituem um martin-gal.)Seja (Zn) uma seqüência de variáveis aleatórias independentes com esperança finita e Z0 = 0. Con-sidere as somas parciais

Rn = Z0+ . . .+Zn , n ≥ 0

e a filtração natural correspondenteFn = σ(R0 . . . Rn), para n ≥ 0. Observe que

Fn = σ(Z0 . . .Zn) n ≥ 0

De fato, os vetores aleatórios (Z0 . . .Zn) e (R0 . . . Rn) possuem a mesma informação, uma vez queRi = Z1+Z2+ . . .+Zi e Zi = Ri −Ri−1, para i = 1 . . . n.

66

Page 67: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.5. Martingais

Uma aplicação das Regras 1, 3 e 4 na seção 1.4.4 acarreta

E(Rn+1|Fn) = E(Rn |Fn)+ E(Zn+1|Fn) = Rn + EZn+1.

Logo, se EZn = 0 para todo n, então (Rn , n = 0,1, . . .) é um martingal com respeito a (Fn , n =0,1, . . .).

Exemplo 1.5.4. (Coligindo informação a respeito de uma variável aleatória)Seja Z uma variável aleatória sobre Ω com E |Z | < ∞, e seja (Ft , t ≥ 0) uma filtração sobre Ω.Defina o processo estocástico X da seguinte forma:

Xt = E(Z |Ft ), t ≥ 0

Uma vez queFt cresce à medida em que o tempo passa, Xt nos fornece cada vez mais informaçãoa respeito da variável aleatória Z . Em particular, se σ(Z) ⊂ Ft para algum t , então Xt = Z .Mostramos que X é um martingal.

Invocando a desigualdade de Jensen (veja (A.2) na página 155) e a Regra 2 na página 57, conclui-seque

E |Xt |= E |E(Z |Ft )| ≤ E[E(|Z ||Ft )] = E |Z |<∞.

Além disto, Xt é obtido pela restrição às informações de Ft . Portanto, não contém mais infor-mação do que a contida emFt . Assim, σ(Xt )⊂Ft . Falta verificar (1.41). Seja s < t . Então umaaplicação da Regra 6 da página 59 acarreta

E(Xt |Fs ) = E[E(Z ,Ft )|Fs] = E(Z |Fs ) =Xs .

Assim, X obedece às propriedades definidoras de um martingal de tempo contínuo; veja a página65.

Exemplo 1.5.5. (O movimento browniano é um martingal)Seja B = (Bt , t ≥ 0) um movimento browniano. Concluímos a partir dos exemplos 1.4.12 e1.4.13 que tanto (Bt , t ≥ 0) quanto (B2

t− t , t ≥ 0) são martingais com respeito à filtração natural

Ft = σ(Bs , s ≤ t ).

Da mesma maneira, podemos mostrar 1 que, ((B3t− 3tBt ), (Ft )) é um martingal. Tente achar um

1 faça-o!processo estocástico (At ) tal que ((B4

t−At ), (Ft )) é um martingal. Sugestão: Calcule primeira-

mente E[((Bt −Bs )+Bs )4|Fs] para s < t .

O exemplo a seguir de transformada martingal é o primeiro passo para a definição da integralestocástica de Ito. De fato, uma tal transformada pode ser considerada como o análogo discreto daintegral estocástica.

Exemplo 1.5.6. (Transformada martingal)Seja Y = (Yn , n = 0,1, . . .) uma seqüência de diferenças de martingais com respeito à filtração(Fn , n = 0,1, . . .); (veja (1.44) para a definição). Considere um processo estocástico C = (Cn , n =0,1, . . .) e suponha que, para todo n, a informação transportada por Cn esteja contida em Fn−1,i.e.,

σ(Cn)⊂Fn+1. (1.45)

Isto significa que, dadoFn−1, nós conhecemos completamente Cn no instante n− 1.

67

Page 68: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Se a seqüência (Cn , n = 1,2, . . .) satisfaz (1.45), nós a chamaremos de previsível comrespeito a (Fn).

Defina agora o processo estocástico

X0 = 0, Xn =n∑

i=1

Ci Yi , n ≥ 1. (1.46)

Por razões óbvias, o processo X é denotado por C •Y . Ele é denominado de trans-formada martingal de Y por C .

A transformada martingal C •Y é um martingal se EC 2n<∞ e EY 2

n<∞, para todo n. Para

mostrá-lo, iremos verificar as três propriedades definidoras (de um martingal) que se encontramna página 65:

E |Xn | ≤n∑

i=1

E |Ci Yi | ≤n∑

i=1

[EC 2i

EY 2i]

1/2 <∞,

onde foi feito uso da desigualdade de Cauchy-Schwarz: E[Ci Yi] ≤ [EC 2i

EY 2i]1/2 (veja a página

155). Claramente Xn é adaptado aFn , um vez que Y1 . . .Yn não carrega mais informação do queFn , e C1 . . .Cn é previsível. Portanto, σ(Xn)⊂Fn . Além disto, aplicando a Regra 5 da página 58,obtemos

E(Xn −Xn−1|Fn−1) = E(CnYn |Fn−1) =Cn E(Yn |Fn−1) = 0.

Neste último passo, nós utilizamos a propriedade definidora (1.44) da seqüência de diferenças de

martingais (Yn). Logo, (Xn−Xn−1) é uma seqüência de diferenças de martingais, e portanto (Xn)é um martingal com respeito a (Fn).

Exemplo 1.5.7. (Uma transformada do martingal browniano)Considere um movimento browniano B = (Bs , s < t ) e uma partição

0= t0 < t1 < . . .< tn−1 < tn = t .

Usando a propriedade dos incrementos independentes de B , não é difícil verificar 1 que a seqüência1 verifique-o!

∆B : ∆0B = 0, ∆i B = Bti−Bti−1

, i = 1 . . . n,

forma uma seqüência de diferenças de martingais∆B com respeito á filtração dada por

F0 = ;,Ω, Fi = σ(Bt j, 1≤ j ≤ i ), i = 1 . . . n.

Considere agora a seqüência de transformação

eB = (Bti−1, i = 1 . . . n).

68

Page 69: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1.5. Martingais

Ela é previsível com respeito a (Fn) (porque?). A transformada martingal é então um martingal:

(eB •∆B)k =k∑

i=1

eBi∆i B =k∑

i=1

Bti−1(Bti−Bti−1

), k = 1 . . . n.

As somas do segundo membro possuem uma forma típica de somas de Riemann-Stieltjes, as quaispoderiam ser utilizadas na definição da integral de Riemann-Stieltjes

∫ t0 Bs dBs ; veja a seção 2.1.2.

No entanto, esta integral não existe no sentido de Riemann-Stietjes uma vez que os caminhosamostrais do movimento browniano são bastante irregulares. Iremos ver na seção 2.2.1 que eB•∆Bé o análogo de tempo discretoda integral estocástica de Ito

∫ t0 Bs dBs .

1.5.3. A interpretação de um martingal como um jogo não viciado

No início desta seção nós mencionamos que os martingais são considerados modelos de jogos nãoviciados. Esta interpretação é oriunda das propriedades definidoras de um martingal; veja a página65.

Suponha que você jogue um jogo de tempo contínuo; ou seja, em qualquer instante de tempot você tem uma variável aleatória Xt como valor do jogo. Suponha ainda que (Xt ) é adaptadoà filtração (Ft ). Pense em Xt − Xs como os ganhos líquidos do jogo per unit stake no intervalode tempo (s , t]. Então, a melhor previsão (no sentido da seção 1.4.5) dos ganhos líquidos dada ainformaçãoFs no instante s < t possui valor

E(Xt −Xs |Fs ) = E(Xt |Fs )−Xs .

Se (X , (Ft )) é um martingal, o segundo membro se anula. Isto significa que

A melhor previsão dos ganhos futuros líquidos per unit stake no intervalo (s , t] ézero.

Isto é exatamente o que você deve esperar que seja um jogo não viciado.

As pessoas ligadas a finanças certamente são jogadores (ainda que elas não admitam tal fato empúblico), e elas ainda acreditam que seu jogo é honesto. Esta é a razão pela qual elas ficam atraídaspelo mundo dos martingais e das integrais estocásticas.

Sabemos que a transformada martingal C •Y de uma seqüência de diferenças de martingais Yé um martingal: veja o exemplo 1.5.6. Ela possui uma interpretação interessante no contexto dosjogos não viciados: pense Yn como os ganhos líquidos por unidade no n-ésimo jogo, ganhos essesque estão adaptados à filtração (Fn), i.e., no n-ésimo jogo seu stake Cn não possui mais informaçãodo que Fn−1. No instante n − 1 esta é a melhor informação que possuímos a respeito do jogo.A transformada martingal C •Y fornece os ganhos líquidos por jogo. Em particular, (C •Y )n =∑n

i=1 Ci Yi são os melhores ganhos líquidos até o instante n, e CnYn são os ganhos líquidos porunidade no n-ésimo jogo. Trata-se de um jogo não viciado uma vez que a melhor previsão dosganhos líquidos CnYn do n-ésimo jogo, logo antes do início deste, é zero: E(CnYn |Fn) = 0.

No Capítulo 2 iremos estudar a respeito do análogo em tempo contínuo das transformadasmartingais: trata-se da integral estocástico da Ito.

69

Page 70: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

1. Preliminares

Notas e comentários

Martingais constituem uma importante classe de processos estocásticos. A teoria dos martingaisé tratada em todos os livros-texto modernos sobre processos estocásticos. Veja Karatzas e Shreve(1988) e Revuz e Yor (1991) para a teoria avançada de martingais de tempo contínuo. O livro deWilliams (1991) contém uma introdução a esperanças condicionais e martingais de tempo discreto.

70

Page 71: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

CAPÍTULO 2

A INTEGRAL ESTOCÁSTICA

Neste capítulo iremos introduzir a importante noção de integral de Ito. Já sabemos da seção 1.3.1que os caminhos amostrais do movimento browniano não são diferenciáveis em nenhum pontode seu domínio, possuindo além disto variação ilimitada. Isto tem conseqüências importantes nadefinição de integral estocástica com respeito a caminhos amostrais brownianos.

Discutiremos a noção de integral ordinária na seção 2.1 e também consideraremos uma exten-são, a assim chamada integral de Riemann-Stieltjes. Esta última pode ser aplicada para caminhosamostrais brownianos se o integrando é suficientemente liso. No entanto, veremos na seção 2.1.2que os caminhos amostrais brownianos não podem ser integrados em relação a si próprios, o que seconstitui em uma enorme desvantagem. Portanto, somos forçados a considerar uma integral quenão se encontra definida caminho a caminho. Isto será feito na seção 2.2. Nessa seção, definiremosa integral estocástica de Ito como o limite do quadrado da média de algumas integrais de Riemann-Stieltjes. Isto possui a desvantagem de que nós perdemos a interpretação intuitiva de uma talintegral a qual é naturalmente fornecida por uma integral de caminhos. No entanto, será aindaconveniente pensar a integral estocástica em termos das aproximações por somas de Riemann-Stieltjes.

Na seção 2.3 nós iremos estudar uma outra ferramenta importante: o lema de Ito. Trata-se doanálogo estocástico da regra da cadeia ordinária da diferenciação. O lema de Ito será crucial nocapítulo 3, onde pretenderemos resolver equações diferenciais estocásticas de Ito.

Na seção 2.4 iremos estudar mais uma integral estocástica cujo valor em geral é distinto dovalor fornecido pela integral estocástica de Ito. Ela é denominada integral estocástica de Stratono-vich e pode ser útil como ferramenta auxiliar para a solução das integrais estocásticas de Ito.

2.1. As integrais de Riemann e de Riemann-Stieltjes

Esta seção não será necessária para o entendimento da integral estocástica de Ito, mas fornece al-guma informação a respeito da história da integração e explica porque as integrais clássicas podemdeixar de funcionar quando o integrando ou o integrador são caminhos amostrais brownianos.

Nós discutimos algumas abordagens para a integração por meio de caminhos. Em particular,estaremos interessados em integrais da forma

∫ t0 fs dBs (ω), onde (Bt (ω), t ≥ 0) é um dado cam-

inho amostral browniano e f é uma função determinística ou caminho amostral de um processoestocástico. Em particular, faremos uma recordação da integral de Riemann

∫ 10 f (t )d t como a

71

Page 72: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

integral clássica, e de algumas de suas propriedades. Discutiremos entao as integrais de Riemann-Stieltjes, as quais estão no espírito próximas da integral por meio de caminhos

∫ 10 fs dBs (ω). Ver-

emos então que, sob certas condições de alisamento de f , esta última integral é bem definida, eiremos também observar, por exemplo, que a integral de Riemann-Stieltjes

∫ t0 B1(ω)dBs (ω) não

pode ser definida.

2.1.1. A integral de Riemann ordinária

Queremos fazer a revisão da noção de integral ordinária, a qual é também denominada de integralde Riemann. Espera-se que você esteja familiarizado com a noção desta integral de um cursoelementar de cálculo elementar.

Suponha, apenas por simplicidade que f seja uma função real definida no intervalo [0,1], se bemque, ao invés deste, poderíamos considerar qualquer intervalo do tipo [a, b].

Considere uma partição do intervalo [0,1]:

τ0 : 0= t0 < t1 < . . .< tn−1 < tn = 1,

e defina∆i = ti − ti−1, i = 1 . . . n.

Uma partição intermediária σn de τn é dada por quaisquer valores yi satisfazendo ti−1 ≤ yi ≤ ti ,para i = 1 . . . n. Dadas duas partições τn e σn , podemos definir a soma de Riemann como

Sn = Sn(τn ,σn) =n∑

i=1

f (yi )(ti − ti−1) =n∑

i=1

f (yi )∆i . (2.1)

Assim, uma soma de Riemann é nada mais do que uma média ponderada dos valores f (yi ), ondeos pesos são os comprimentos correspondentes∆i dos intervalos [ti−1, ti]. Também sabemos queSn é uma aproximação da área entre o gráfico da função f e o eixo dos t ’s, contanto que f assuma

Fig. 2.1 — Uma ilustração da integral de Riemann com partição (ti ) e partição intermediária (yi ). A soma das áreas retangulares aproxima a área entre

o gráfico de f (t ) e o eixo dos t ’s, ou seja, a integral∫ t5

0 f (t )d t .

tão-somente valores não negativos. Veja a figura 2.1 para uma ilustração.

72

Page 73: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.1. As integrais de Riemann e de Riemann-Stieltjes

Suponha agora que a máxima amplitude da partição τn — a ser denotada por m.a.p.(τn)— tenda azero, i.e.,

m.a.p.(τn) = maxi=1...n

∆i = maxi=1...n

(ti − ti−1)→ 0.

Se prosseguirmos desta maneira, os pontos ti = t(n)

iclaramente devem depender de n, mas

esta dependência será omitida da notação.

Se o limite

S = limn→∞ Sn = limn→∞∑n

i=1 f (yi )∆i

existe quando m.a.p.(rn) → 0 e S é independente da escolha das partições τn ede suas partições intermediárias σn , então S é denominada integral ordinária ouintegral de Riemann de f em [0,1].

Neste caso, escreveremos

S =

∫ 1

0f (t )d t

Sabemos que∫ 1

0 f (t )d t existe no caso de f ser suficientemente liso, por exemplo, f é uma funçãocontínua ou contínua por trechos no intervalo [0,1].

Fig. 2.2 — Duas somas de Riemann para a integral∫ 1

0 t d t ; veja o exemplo 2.1.1. A partição é dada por ti = i/5, i = 0, . . . 5. Os pontos extremantes

das figuras à direita e esquerda dos intervalos da forma [(i − 1)/5, i/5] são tomados como os pontos yi da partição intermediária.

Exemplo 2.1.1. Queremos calcular a integral∫ 1

0 t d t como limite de somas de Riemann conve-

nientes. Veja a figura 2.2 para uma ilustração. Já sabemos que∫ 1

0 t d t = 0.5; ela representa a áreatriangular entre o gráfico de f (t ) = t e o eixo dos t ’s. Para aproximações numéricas é convenienteescolher uma partição equidistante do intervalo [0,1].

ti =i

n, i = 0 . . . n.

73

Page 74: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

Tome primeiramente os pontos extremantes à esquerda dos intervalos [(i − 1)/n, i/n] para par-tição intermediária:

S (l )n=

n∑

i=1

i − 1

n∆i =

1

n

n∑

i=1

i − 1

n.

Utilizando a conhecida fórmula da soma dos primeiros n+ 1 números naturais,

n∑

i=1

i =n(n+ 1)

2, (2.2)

concluímos que

S (l )n=

1

n2

n(n− 1)

2→

1

2= S.

De forma análoga, tome os pontos extremantes à direita dos intervalos [(i − 1)/n, i/n]

S (r )n=

n∑

i=1

i

n∆i =

1

n

n∑

i=1

i

n,

e podemos concluir utilizando (2.2) que

S (r )n=

1

n2

n(n+ 1)

2→

1

2= S.

Escolha agora os yi ’s como os pontos médios dos intervalos [(i − 1)/n, i/n] e denote a somade Riemann correspondente por S (m)

n. Uma vez que S (l )

n≤ S (m)

n≤ S (r )

npodemos concluir que

S (m)n→ S = 0.5.

A integral de Riemann pode ser tomada como modelo para a definição de qualquer tipo de in-tegral. A nova espécie de integral deve possuir uma quantidade comum de propriedades com aintegral de Riemann tão grande quanto possível. Tais propriedades são enumeradas logo abaixo:

74

Page 75: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.1. As integrais de Riemann e de Riemann-Stieltjes

Para funções Riemann integráveis f , f1 e f2 sobre [0,1] as seguintes propriedades severificam:

• A integral de Riemann é linear, i.e., para todas as constantes c1 e c2,

∫ 1

0[c1 f1(t )+ c2 f2(t )]d t = c1

∫ 1

0f1(t )d t + c2

∫ 1

0f2(t )d t

• A integral de Riemann é aditiva em intervalos adjacentes:

∫ 1

0f (t )d t =

∫ a

0f (t )d t +

∫ a

0f (t )d t

• Podemos definir a integral de Riemann indefinida como uma função do limitesuperior ∫ s

0f (t )d t =

∫ 1

0f (t )I[0,s](t )d t , 0≤ s ≤ 1.

2.1.2. A integral de Riemann-Stieltjes

Em teoria das probabilidades é usual denotar-se a esperança de uma variável aleatória X por

EX =

∫ ∞

−∞t d FX (t ),

onde FX denota a função de distribuição de X . Esta notação se refere ao fato de que EX é definidacomo uma integral de Riemann-Stieltjes, ou como uma integral de Lebesgue-Stieltjes. Isto sig-nifica, falando de forma aproximada, que

∫ ∞

−∞t d FX (t )≈

i

yi[Fx (ti )− FX (ti−1)]

para uma dada partição (ti ) deR e uma partição intermediária correspondente (yi ). Do cálculo ele-mentar você deverá se lembrar que é possível definir a integral

∫ 10 f (t )d g (t ) como

∫ 10 f (t )g ′(t )d t ,

contanto que a derivada g ′(t ) exista.

Tanto∫∞−∞ t d FX (t ) quanto

∫ 10 f (t )d g (t ) são exemplos de como poderíamos abordar o prob-

lema da integração de uma função f com respeito a outra função g . O objetivo do presentecapítulo é o de sugerir tais métodos. Em particular, gostaríamos de obter uma integral do tipo∫ 1

0 f (t )dBt (ω), onde f é uma função ou um processo estocástico sobre [0,1] e Bt (ω) é um cam-inho amostral browniano. Temos aqui uma considerável dificuldade para definir uma tal inte-gral, pois que o caminho Bt (ω) não possui derivada (veja a seção 1.3.1). No entanto, podemosachar uma espécie de integral por caminhos que muitas vezes permite que se calcule a integral∫ 1

0 f (t )dBt (ω). Esta espécie de integral é denominada de integral de Riemann-Stieltjes. Trata-se deuma ferramenta clássica em diversos campos da matemática.

75

Page 76: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

No que se segue, daremos uma definição precisa da integral de Riemann-Stieltjes. Quanto àintegral de Riemann, considere uma partição do intervalo [0,1]:

τn : 0= t0 < t1 < . . .< tn−1 < tn = 1,

e uma partição intermediária σn de τn :

σn : ti−1 ≤ yi ≤ ti para i = 1 . . . n.

Sejam f e g duas funções de variável real sobre [0,1] e defina

∆i g = g (ti )− g (ti−1), i = 1 . . . n.

A soma de Riemann-Stieltjes correspondente às partições σn e τn é dada por:

Sn = Sn(τn ,σn) =n∑

i=1

f (yi )∆i g =n∑

i=1

f (yi )[g (ti )− g (ti−1)].

Observe a semelhança com a soma de Riemann; veja (2.1). Neste caso, a soma de Riemann-Stieltjesé obtida pela ponderação dos valores f (yi ) com os incrementos∆i g de g nos intervalos [ti−1, ti].

Se o limite

S = limn→∞

Sn = limn→∞

n∑

i=1

f (yi )∆i g

existe quando mesh→ 0 e S e S é independente da escolha da partição τn e de suaspartições intermediárias σn , então S é denominada de integral de Riemann-Stieltjesde f com respeito a g em [0,1].

Podemos escrever

S =

∫ 1

0f (t )d g (t ).

A seguinte questão se coloca:

Quando é que a integral de Riemann-Stieltjes∫ 1

0 f (t )d g (t ) existe, e será que é possivel tomarmosg = B para o movimento browniano B em [0,1]?

Esta pergunta não possui uma resposta simples e requer mais sofisticação. Em alguns livros, pode-mos encontrar as seguintes respostas parciais:

• As funções f e g não podem ter descontinuidades em pontos t ∈ [0,1].

• Suponha que f seja contínua e que g seja uma função de variação limitada,i.e.,

supτ∑n

i=1 |g (ti )− g (ti−1)|<∞,

onde o supremo é tomado sobre todas as possíveis partições τ de [0,1].

Então a integral de Riemann-Stieltjes∫ 1

0 f (t )d g (t ) existe.

76

Page 77: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.1. As integrais de Riemann e de Riemann-Stieltjes

Observe que este último resultado não é aplicável à integral∫ 1

0 f (t )dBt (ω). De fato, já estudamosna seção 1.3.1 que os caminhos amostrais brownianos Bt (ω) não possuem variação limitada. Noentanto,

a variação limitada de g não é uma condição necessária para a existência da integral de

Riemann-Stieltjes∫ 1

0 f (t )d g (t ).

ainda que a asserção contrária possa ser encontrada em alguns livros. Condições mais fracaspara a existência de

∫ 10 f (t )d g (t ) não são bem conhecidas, mas já haviam sido encontradas por

L. C. Young em 1936; veja também os artigos recentes de Dudley e Norvaisa (1988a,b) para umadiscussão pormenorizada.

Sem entrar em muitos pormenores, daremos uma condição suficiente para a integrabilidadede Riemann-Stieltjes que é próxima das necessidades. Antes, porém, daremos duas definições:

A função h a valores reais definida em [0,1] é dita de p-variação limitada, para p > 0se

supτ

n∑

i=1

|h(ti )− h(ti−1|p <∞

onde o supremo é tomado sobre todas as partições τ de [0,1].

Observe que h possui varição limitada se p = 1.

A integral de Riemann-Stieltjes∫ 1

0 f (t )d g (t ) existe se as duas condições seguintesestiverem satisfeitas:

• As funções f e g não possuem descontinuidades no mesmo ponto t ∈ [0,1].

• A função f tem p-varição limitada e a função g tem q -variação limitada parap > 0 e q > 0 tais que p−1+ q−1 > 1.

Em alguns casos essas definições podem ser verificadas. Daremos um exemplo para a integral∫ 10 f (t )dBt (ω).

Exemplo 2.1.2. Como anteriormente, B = (Bt , t ≥ 0) denota um movimento browniano. É umfato bem conhecido que os caminhos amostrais do movimento browniano possuem p-variaçãolimitada em qualquer intervalo finito, contanto que p > 2. Veja Taylor (1972).

Considere agora uma função determinística f (t ) sobre [0,1] ou um caminho amostral de um pro-cesso estocástico f (t ,ω). De acordo com a teoria acima, podemos definir a integral de Riemann-Stieltjes

∫ 10 f (t )dBt (ω) com respeito ao caminho amostral Bt (ω), contanto que f seja de q -

variação limitada para algum q < 2. Isto é satisfeito se f possuir variação limitada, i.e., se q = 1.

Assuma que f seja uma função diferenciável com derivada f ′(t ) limitada. Como conseqüência doteorema da média, concluímos que

| f (t )− f (s )| ≤K(t − s ), s < t ,

77

Page 78: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

onde K é uma constante que depende de f . Então

supp

n∑

i=1

| f (ti )− f (ti−1)| ≤Kn∑

i=1

(ti − ti−1) =K <∞.

Portanto, f possui variação limitada, e portanto o seguinte enunciado é verdadeiro:

Suponha que f seja uma função determinística ou um caminho amostral de umprocesso estocástico. Se f for diferenciável com derivada limitada sobre o intervalo[0,1], então a integral de Riemann-Stieltjes

∫ t

0f (t )dBt (ω)

existe para todo caminho amostral browniano Bt (ω).

Em particular, você poderá definir as seguintes integrais como integrais de Riemann-Stieltjes:

∫ 1

0e t dBt (ω),

∫ 1

0sen(t )dBt (ω)

∫ 1

0t p dBt (ω), p ≥ 0. (2.3)

Isto não significa que você seja capaz de calcular essas integrais explicitamente em termos do movi-mento browniano.

I (B)(ω) =

∫ t

0Bt (ω)dBt (ω).

A discussão acima pode ser ligeiramente enganosa, uma vez que ela sugere que possamos definira integral

∫ 10 f (t )dBt (ω) para integrandos f bastante gerais como integrais de Riemann-Stieltjes

com respeito a um caminho amostral browniano. Isto no entanto não é o caso. Um exemplofamoso, e que também motiva exemplos para a introdução da integral estocástica de Ito, é a integral

I (B)(ω) =

∫ 1

0Bt (ω)dBt (ω).

O movimento browniano possui p-variação limitada, para p > 2, e não para p ≤ 2. Assim,a condição suficiente 2 p−1 > 1 para a existência de I (B) (veja a página 77) não está satisfeita.Ademais, pode-se demonstrar que esta simples integral não existe como integral de Riemann-Stieltjes.

Além disso, podemos demonstrar o seguinte: se∫ 1

0 f (t )d g (t ) existe como uma integral deRiemann-Stieltjes para todas as funções contínuas em [0,1], então g tem necessariamente variaçãolimitada; veja Protter (1992), teorema 52. Uma vez que uma de nossas metas é definir as inte-grais

∫ 10 f (t )dBt (ω) para todas as funções contínuas determinísticas em [0,1], a abordagem de

Riemann-Stieltjes deve necessariamente não funcionar uma vez que os caminhos amostrais brow-nianos não possuem variação limitada em nenhum intervalo.

Nosso objetivo nas seções seguintes é o de encontrar outra abordagem para a integral estocás-tica. Já que a integração por caminhos com respeito a um caminho amostral browniano, como foi

78

Page 79: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.2. A integral de Ito

sugerido pela integral de Riemann-Stieltjes, não nos conduz a uma classe suficientemente amplade funções integráveis f , tentaremos definir a integral como uma média probabilística. Uma talabordagem tem a desvantagem de ser menos intuitiva do que a integral de Riemann-Stieltjes, noque diz respeito á forma das integrais.

Notas e comentários

As integrais de Riemann e de Riemann-Stieltjes são tratadas em livros de cálculo elementar. Noentanto não é fácil encontrar um tratamento abrangente da integral de Riemann-Stieltjes. Young(1936) ainda é uma das melhores referências para o tópico. Extensões da integral de Riemann-Stieltjes são tratadas no trabalho mais recente de Dudley e Norvaisa (1998a,b).

2.2. A integral de Ito

2.2.1. Um exemplo motivador

Ao final da seção precedente vimos ser impossível definir uma integral∫ 1

0 Bt (ω)dBt (ω) caminhoa caminho como uma integral de Riemann-Stieltjes. Aqui, e no que se segue, B = (Bt , t ≥ 0)denotará um movimento browniano. Para entendermos o que está acontecendo, consideramos assomas de Riemann-Stieltjes

Sn =n∑

i=1

Bti−1∆i B , (2.4)

ondeτn : 0= t0 < t1 < . . .< tn−1 < tn = t , (2.5)

é uma partição do intervalo [0, t] e, para qualquer função f sobre [0, t],

∆ f : ∆i f = f (ti )− f (ti−1), i = 1 . . . n,

são os incrementos correspondentes de f e

∆i = ti − ti−1, i = 1 . . . n.

Assim, a soma de Riemann-Stieltjes Sn corresponde à partição τn e à partição intermediária (yi ),com yi = ti−1, i.e., yi é o ponto extremante esquerdo do intervalo ti−1, ti]. Uma tal escolha étípica para a definição da integral estocástica de Ito. Veremos ainda que outra escolha da partiçãointermediária (yi ) dá origem à definição de outro tipo de integral estocástica.

Observe que Sn pode ser escrito da seguinte forma:

Sn =1

2B2

t−

1

2

n∑

i=1

(∆i B)2 =:

1

2B2

t−

1

2Qn(t ).

(Verifique este fato utilizando a fórmula binomial

(Bti−Bti−1

)2 = B2ti+B2

ti−1− 2Bti

Bti−1.)

79

Page 80: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

Recorde-se que o movimento browniano possui incrementos independentes e estacionários (vejaa página 26). Portanto

E(∆i B∆ j B) =

(0, se i 6= j ,var(∆i B) = ti − ti−1 =∆i , se i = j .

Então é imediato que

EQn(t ) =n∑

i=1

E(∆i B)2 =

n∑

i=1

∆i = t ,

e, novamente pela independência dos incrementos de um movimento browniano, e ainda pelofato de valer a relação var(X ) = E(X 2)− (EX )2, deduz-se que

var(Qn(t )) =n∑

i=1

var([∆i B]2) =

n∑

i=1

[E(∆i B)4−∆2

i]

É um fato bem conhecido que para uma variável aleatória N (0,1) B1, EB41 = 3. Logo,

E(∆i B)4 = EB4

ti−ti−1=(∆i )

1/2B1

4= 3∆2

i.

o que implica que

var(Qn(t )) = 2n∑

i=1

∆2i.

Assim, sem.a.p.(τn) = max

i=1...n∆i → 0

obtemos que

var(Qn(t ))≤ 2m.a.p.(τn)n∑

i=1

∆i = 2tm.a.p.(τn)→ 0.

Uma vez que var(Qn(t )) = E(Qn(t )− t 2), nós acabamos de mostrar que

Qn(t ) converge para t segundo o quadrado da média, e portanto, em probabilidade;veja o apêndice A.1 para os diversos modos de convergência.

A função limitante f (t ) = t é característica somente para o movimento browniano.Ela é chamada de variação quadrática do movimento browniano em [0, t].

Podemos ainda mostrar que Qn(t ) não converge para um dado caminho amostral brownianocom escolhas apropriadas de partições τn . Este fato claramente indica que não podemos definir∫ t

0 Bs (ω)dBs (ω) como uma integral de Riemann-Stieltjes. No entanto,

nós poderíamos definir∫ t

0 Bs dBs como o limite da média ao quadrado.

De fato, como Sn = 0.5[B2t−Qn(t )] converge pelo quadrado da média a 0.5(B2

t− t ), podemos

tomar este limite como o valor da integral∫ t

0 Bs dBs . Mais tarde veremos que este valor é o valor

80

Page 81: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.2. A integral de Ito

da integral estocástica de Ito: ∫ t

0Bs dBs =

1

2(B2

t− t ). (2.6)

A partir dessa avaliação nós estudamos vários fatos que serão úteis no que se segue:

Integrais com respeito a caminhos amostrais brownianos, que não podem serdefinidas no sentido de Riemann-Stieltjes, podem possivelmente ser definidas nosentido do quadrado da média.

O incremento ∆i B = Bti− Bti−1

no intervalo ti−1, ti] satisfaz E∆i B = 0 e E(∆i B)2 = ∆i =

ti − ti−1. O limite pelo quadrado da média de Qn(t ) é t . Estas propriedades sugerem que (∆i B)2

é da ordem∆i .

Em termos de diferenciais, podemos escrever

(dBt )2 = (Bt+d t −Bt )

2 = d t (2.7)

e em termos de integrais, ∫ t

0(dBs )

2 =

∫ 1

0d s = t (2.8)

O segundo membro da equação é a variação quadrática do movimento brownianosobre [0, t]

Neste momento, as relações (2.7) e (2.8) são nada mais do que regras heurísticas. Elas podem sertornadas matematicamente corretas (no sentido do quadrado da média). No presente livro, nãopossuímos os meios matemáticos para prová-las. No que se segue, continuaremos usando (2.7) e(2.8) como regras dadas; elas nos ajudarão a entender os resultados do cálculo de Ito, em particularo lema de Ito na seção 2.3.

A seguir, tentaremos entender o porquê da escolha das somas de Riemann-Stieltjes Sn em (2.4)desta maneira específica: os valores do movimento Browniano foram calculados nas extremidadesesquerdas dos intervalos [ti−1, ti]. Suponha que tenhamos uma partição τn de [0, t] como em(2.5). No exemplo 1.5.7 estudamos que a transformada martingal eB •∆B dada por

k∑

i=1

eBi∆i B =k∑

i=1

Bti−1(Bti−Bti−1

), k = 1 . . . n,

é um martingal com respeito à filtração σ(Bti), i = 1 . . . k), k = 1 . . . , n. Resulta que o limite pelo

quadrado da média de 0.5(B2t− t ) das somas aproximativas de Riemann-Stieltjes é um martingal

com respeito à filtração natural browniana.

Uma outra definição das somas de Riemann-Stieltjes faz com que elas percam a propriedade mar-tingal. De fato, é preciso mencionar que para partições τn = (ti ) de [0,1] com m.a.p.(τn)→ 0, assomas de Riemann-Stieltjes

eSn =n∑

i=1

Byi∆i B

81

Page 82: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

com

yi =1

2(ti−1+ ti ), i = 1 . . . n,

possuem limite pelo quadrado da média igual a 0.5B2t

(você poderá verificar este fato com os mes-mos argumentos e ferramentas utilizadas para o caso Sn). Esta quantidade pode ser interpretadacomo o valor de outra integral estocástica,

∫ t0 Bs dBs , digamos. As somas de Riemann-Stieltjes∑k

i=1 Byi∆i B , k = 1 . . . n, não constituem um martingal, e nem o processo limite 0.5B2

t.1 No en-

1 Verifique-o!tanto, o último processo satisfaz a uma bela propriedade. A relação

∫ t

0Bs dBs =

1

2B2

t(2.9)

indica que a regra da cadeia clássica é válida.Para sermos mais precisos, seja b (t ) uma função diferenciável determinística, satisfazendo a

relação b (0) = 0. Sabemos que1

2

d b 2(s )

d s= b (s )

d b (s )

d s.

Integrando ambos os membros, obtemos as regras clássicas do cálculo:

1

2

∫ t

0

d b 2(s )

d sd s =

1

2b 2(t ) =

∫ t

0b (s )

d b (s )

d sd s =

∫ t

0b (s )d b (s ).

Se substituirmos formalmente a função b (t ) pelo movimento browniano Bt , obteremos o mesmovalor obtido no caso da integral estocástica (2.9). No entanto, trata-se de uma substituição for-mal, uma vez que esta regra da cadeia é aplicável somente para funções diferenciáveis, e não paracaminhos amostrais brownianos.

A integral estocástica, que é obtida com um limite pelo quadrado da média das somas deRiemann-Stieltjes, calculadas nos pontos médios dos intervalos [ti−1, ti] é denominada integral deStratonovich. Iremos considerá-la na seção 2.4. Ela resultará em uma ferramenta bastante útil pararesolvermos as equações diferenciais estocásticas de Ito.

Assim, conseguimos estudar mais um fato a ser utilizado:

A fórmula∫ t

0 Bs dBs = 0.5(B2t− t ) sugere que a clássica regra da cadeia da integração

não é válida para as integrais estocásticas de Ito. Na seção 2.3 acharemos uma formada regra da cadeia adequada à integração de Ito: é o lema de Ito.

2.2.2. A integral estocástica de Ito para processos simples

Iniciamos a investigação da integral estocástica de Ito para uma classe de processos cujos caminhossupõem somente um número finito de valores. Como é usual, B = (Bt , t ≥ 0) denota o movimentobrowniano, e

Ft = σ(Bs : s ≤ t ), t ≥ 0,

é a filtração natural correspondente. Recorde-se que um processo estocástico X = (Xt , t ≥ 0) éadaptado a (Ft , t ≥ 0). Isto significa que, para todo t , Xt é uma função do passado e do presentedo movimento browniano.

82

Page 83: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.2. A integral de Ito

No que se segue, consideraremos que todos os processos estão sobre um mesmo intervalo fixado [0,T ].

Primeiramente, introduziremos uma classe apropriada de processos Ito integráveis.

O processo estocástico C = (Ct , t ∈ [0,T ]) é dito simples se satisfizer às seguintespropriedades:

Existe uma partição

τn : 0= t0 < t1 < . . . , tn−1 < tn = T ,

e uma seqüência (Zi , i = 1 . . . n) de variáveis aleatórias tais que

Ct =

(Zn , se t = T ,Zi , se ti−1 ≤ t < ti , i = 1 . . . n.

A seqüência (Zi ) é adaptada a (Fti−1, i = 1 . . . n), i.e., Zi é uma função do movi-

mento browniano até o instante ti−1, e satisfaz EZ2i<∞ para todo i .

Exemplo 2.2.1. (Alguns processos simples)A função determinística

fn(t ) =

(n−1

n, se t = T ,

i−1n

, se i−1n≤ t < i

n, i = 1 . . . n,

é uma função do tipo escada, e portanto trata-se de um processo simples. Defina agora o processo

Fig. 2.3 — Duas aproximações de um caminho amostral browniano por meio de processos simples C (linhas interrompidas), dadas por (2.10)

Ct =

(Zn = Btn−1

, se t = T ,

Zi = Bti−1, se ti−1 ≤ t < ti , i = 1 . . . n,

(2.10)

para uma dada partição τn de [0,T ]. Trata-se de um processo simples: os caminhos são constantespor trechos, e Ct é uma função de movimento browniano até o instante t . Para uma ilustração doprocesso C para duas partições distintas, veja a figura 2.3

83

Page 84: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

A integral estocástica de Ito de um processo simples C sobre [0,T ] é dado por

∫ T

0Cs dBs =:

n∑

i=1

Cti−1(Bti−Bti−1

) =n∑

i=1

Zi∆i B .

A integral estocástica de Ito de um processo simples C sobre [0, t], tk−1 ≤ t ≤ tk édada por

∫ t

0Cs dBs :=

∫ T

0Cs I[0,t](s )dBs =

k−1∑

i=1

Zi∆i B + Zk (Bt − Btk−1), (2.11)

onde∑0

i=1 Zi∆i B = 0.

Assim, os valores da integral estocástica de Ito∫ t

0 Cs dBs é a soma de Riemann-Stieltjes de umcaminho de C , calculada nos pontos extremantes esquerdos dos intervalos [ti−1, ti], com respeitoao movimento browniano. Se t < tn , o ponto t pode ser formalmente interpretado como oúltimo ponto da partição de [0, t].

Fig. 2.4 — A integral estocástica de Ito∫ t

0 Cs dBs correspondente aos caminhos de C e B dados na figura 2.3

Exemplo 2.2.2. (Continuação do exemplo 2.2.1)Recorde-se dos processos simples f e C do exemplo 2.2.1. As correspondentes integrais estocásti-cas de Ito são dadas por

∫ t

0fn(s )dBs =

k−1∑

i=1

i − 1

n(Bi/n −B(i−1)/n)+

k − 1

n(Bt −B(k−1)/n),

para t ∈ [(k − 1)/n, k/n], e por

∫ t

0Cs dBs =

k−1∑

i=1

Bti−1∆i B +Btk−1

(Bt −Btk−1), (2.12)

84

Page 85: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.2. A integral de Ito

para t ∈ [tk−1, tk]. Veja as figuras 2.3 e 2.4 para uma visualização dos caminhos amostrais de B , Ce as correspondentes integrais estocásticas de Ito.

Já sabemos pelo exemplo 2.1.2 que

limn→∞

∫ t

0fn(s )dBs (ω) =

∫ t

0s dBs (ω),

onde o segundo membro da equação é uma integral de Riemann-Stieltjes com respeito a um dadocaminho amostral browniano. Nós também estudamos na seção 2.1.2 que as somas de Riemann-Stieltjes que aparecem em (2.12) em geral não convergem, quando a m.a.p.(τn)→ 0, para um dadocaminho amostral de movimento browniano.

A forma da integral estocástica de Ito para processos simples nos trazem à memória a transformadamartingal. Na página 67 foi introduzido o conceito de transformada martingal eC •Y ), onde

( eC •Y )0 = 0, ( eC •Y )n =n∑

i=1

eCi Yi , n = 1,2, . . . .

Aqui, Y = (Yn) é uma seqüência de diferenças de martingais com respeito à dada filtração e eC =( eC )n) é uma seqüência previsível. Neste sentido, a seqüência das integrais estocásticas de Ito

∫ tk

0Cs dBs , k = 0 . . . n

de processos simples (Cs , s ≤ t ) é uma transformada martingal com respeito á filtração (Ftk, k =

0 . . . n).Mais ainda, a asserção seguinte é verdadeira:

O processo estocástico It (C ) =∫ t

0 Cs dBs , t ∈ [0,T ], é um martingal com respeitoá filtração natural browniana (Ft , t ∈ [0,T ]).

Verificamos aqui as propriedades definidoras de martingais expressas na página 65. Por conveniên-cia, relembrá-las-emos em termos de I (C ):

• E |It (C )|< inf para todo t ∈ [0,T ].

• I (C ) está adaptado a (Ft ).

•E(It (C )|Fs ) = Is (C ) s < t (2.13)

A primeira propriedade é conseqüência, por exemplo, da propriedade da isometria (2.14) dadaabaixo.

A adaptação de I (C ) ao movimento browniano pode ser facilmente vista: no instante t , asvariáveis aleatórias Z1 . . .Zk e∆1B . . .∆k−1B ,Bt −Btk−1

, que ocorrem na relação definidora (2.11),são todas funções de movimento browniano até o instante t .

85

Page 86: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

Falta verificar a relação crucial (2.13). Trata-se de um bom exercício de utilização das regrasda esperança condicional, que sugerimos para você fazer por si próprio. Não indicamos quais asregras a serem usadas, já que estamos assumindo que você já as conheça.

Primeiramente, suponha que s < t e s , t ∈ [tk−1, tk]. Observe que

It (C ) = Itk−1(C )+Zk (Bs −Btk−1

)+Zk (Bt −Bs )

= Is (C )+Zk (Bt −Bs ),

onde Is (C ) e Zk são funçoes de movimento browniano até o instante s e Bt − Bs é independentedeFs . Portanto,

E(It (C )|Fs ) = Is (C )+Zk E(Bt −Bs ) = Is (C ).

Isto prova (2.13) neste caso.O caso em que s ∈ [tl−1, tl ] e t ∈ [tk−1, tk] para valores l < k, podem ser tratados analoga-

mente. Verifique (2.13); faça uso da decomposição

It (C ) = [Iti−1(C )+Zl (Bs −Bti−1

)]+

Zl (Btl

−Bs )k−1∑

i=l+1

Zi∆i B +Zk (Bt −Btk−1)

= Is (C )+R(s , t ),

e mostre que E(R(s , t )|Fs ) = 0.

Propriedades da integral estocástica de Ito para processos simples

É fácil verificar que EIt (C ) = 0 uma vez que Zi e ∆i B na definição (2.11) são independentes, eE(Zi∆i B) = EZi E∆i B = 0. Assim,

A integral estocástica de Ito possui esperança zero.

De forma alternativa, poderíamos argumentar da seguinte maneira: uma vez que I (C ) é um mar-tingal, possui uma função de esperança constante. Além disto, I0(C ) = 0, e portanto EIt (C ) =EI0(C ) = 0.

Outra propriedade da integral estocástica de Ito para processos simples acabará sendo crucialpara a definição geral da integral estocástica de Ito.

A integral estocástica de Ito satisfaz à propriedade da isometria:

E

∫ t

0Cs dBs

2

=

∫ t

0EC 2

sd s , t ∈ [0,T ]. (2.14)

Nós mostramos então esta propriedade. Para o caso que está sendo apresentado, supomos quet = tk , para algum k. De fato, se tk−1 < t < tk , observe que 0 = t0 < . . . < tk−1 < t ′

k= t é

86

Page 87: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.2. A integral de Ito

uma partição de [0, t], de modo que você poderá considerar formalmente t como um ponto dapartição. Temos, para Wt = Zi∆i B ,

E[It (C )]2 =

k∑

i=1

k∑

j=1

E(WiW j ). (2.15)

Você poderá verificar que, para i > j , as variáveis aletórias Wi e W j são não correlacionadas:observe que W j e Zi são funções do movimento browniano até o instante ti−1, e portanto sãoindependentes de∆i B . Concluímos que

E(WiW j ) = E(W j Zi )E(∆i B) = 0.

Assim, os termos de E(WiW j ) em (2.15) se anulam para i 6= j , e portanto obtemos

E[It (C )]2 =

k∑

i=1

E(Zi∆i B)2 =

k∑

i=1

EZ2i

E(∆i B)2 =

k∑

i=1

EZ2i(ti − ti−1).

O segundo membro nada mais é do que a integral de Riemann∫ t

0 f (s )d s da função em escadaf (s ) = EC 2

s, que coincide com EZ2

ipara ti−1 ≤ t < ti . (Verifique isto!) Assim, provamos a

propriedade da isometria da integral estocástica de Ito.

A integral estocástica de Ito possui várias propriedades em comum com as integrais de Riemann eRiemann-Stieltjes.

A integral estocástica de Ito é linear:Para constantes c1 e c2 e processos simples C (1) e C (2) sobre [0,T ],

∫ t

0

c1C (1)

s+ c2C (2)

s

dBs = c1

∫ t

0C (1)

sdBs + c2

∫ t

0C (2)

sdBs .

A integral estocástica de Ito é aditiva em intervalos adjacentes:para 0≤ t ≤ T , ∫ T

0Cs dBs =

∫ t

0Cs dBs +

∫ T

t

Cs dBs .

A prova da linearidade não é difícil; tente você mesmo. Antes de começar, você precisa definir C (1)

e C (2) sobre uma mesma partição. Isto é sempre possível: se τ(1)n

é uma partição correspondentea C (1), e τ(2)

ma partição correspondente a C (2), você poderá obter uma partição comum τ com

no máximo n + m pontos distintos tomando a união de τ(1)n

e τ(2)m

. Claramente, trata-se de umrefinamento das duas partições originais. Os valores dos I (C (i ))s permanecem os mesmos comesta nova partição. A linearidade é conseqüência da linearidade das somas de Riemann-Stieltjessubjacentes.

87

Page 88: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

A aditividade em intervalos adjacentes é conseqüência da linearidade, uma vez que

∫ T

0Cs dBs =

∫ T

0

C (1)

s+C (2)

s

dBs ,

onde C (1)s=Cs I[0,t](s ) e C (2)

s=Cs I(t ,T ](s ) são dois processos simples

Finalmente enunciamos a seguinte propriedade:

O processo I (C ) possui caminhos amostrais contínuos.

Isto sai da definição de I (C ): a relação

It (C ) = Iti−1(C )+Zi (Bt −Bti−1

), ti−1 ≤ t ≤ ti .

é satisfeita e os caminhos amostrais do movimento browniano são contínuos.

2.2.3. A integral estocástica geral de Ito

Na seção precedente introduzimos a integral estocástica de Ito para processos simples C , i.e.,para processos estocásticos cujos caminhos amostrais são funções de escada. A integral estocásticade Ito

∫ t0 Cs dBs é simplesmente a soma de Riemann-Stieltjes de C calculada pelas extremidades

esquerdas dos intervalos [ti−1, ti], com respeito ao movimento browniano. Nós estudamos naseção 2.1.2 que, em geral, não podemos definir a integral estocástica de Ito como um limite portrechos das somas de Riemann-Stieltjes. Na seção 2.2.1 foi sugerido que definíssemos a integralestocástica de Ito como o limite pelo quadrado da média das somas de Riemann-Stieltjes. Estaidéia funciona sob condições bastante gerais, e o propósito da seção presente é o de argumentar emfavor desta abordagem. A certa altura, teremos necessidade de algumas ferramentas da teoria dosespaços de Hilbert, que não é exigido como pre-requisito. Isto fará com que dependamos de algunsargumentos de natureza heurística. No entanto, o leitor que se interessar, poderá encontrar umaprova de existência da integral estocástica de Ito geral utilizando ferramentas de teoria da medidae da análise funcional no Apêndice A.4.

No que se segue, o processo C = (Ct , t ∈ [0,T ]) serve de integrando para a integral estocástica deIto. Nós supomos que as seguintes condições estejam satisfeitas:

Hipóteses sobre o processo integrando C :

• C é adaptado ao movimento browniano sobre [0,T ], i.e., Ct é uma funçãode Bs , s ≤ t .

• A integral∫ T

0 EC 2s

é finita.

Observe que as Hipóteses estão trivialmente satisfeitas para um processo simples; confronte coma página 82. (Verifique-as!) Uma outra classe de integrandos admissíveis consiste das funções

88

Page 89: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.2. A integral de Ito

determinísticas c(t ) sobre [0,T ] com∫ T

0 c2(t )d t <∞. Isto inclui as funções contínuas definidasem [0,T ].

No que se segue, daremos uma abordagem heurística para a integral estocástica de Ito. Primeira-mente, recorde como proceder para a definição da integral

∫ t0 Bs dBs na seção 2.2.1:

• Para t fixo e uma dada partição (ti ) de [0, t], foram introduzidas as somas de Riemann-Stieltjes

∑ni=1(Bti

−Bti−1).

• Observe: na seção 2.2.2 nós havíamos definido essas somas de Riemann-Stieltjes exatamentecomo as integrais estocásticas de Ito I (C (n)) =

∫ t0 C (n)

sdBs das funções simples C (n) que

assumem o valor Bti−1sobre o intervalo [ti−1, ti ).

• Então nós consideramos o limite do quadrado da média das somas de Riemann-StieltjesI (C (n)) e obtivemos o valor 0.5(B2

t− t ).

Esta abordagem pode funcionar para processos C satisfazendo às Hipóteses.Iniciamos com uma observação interessante:

Seja C um processo satisfazendo às Hipóteses. Então podemos achar uma seqüência(C (n)) de processos simples tal que

∫ T

0E[Cs −C (n)

s]2d s → 0.

A prova desta propriedade vai além do escopo do presente livro. Veja o apêndice A.4 para umareferência.

Assim, o processo simples C (n) em certo sentido do quadrado da média para o processointegrando C . Uma vez que C (n) é simples, podemos calcular as integrais estocásticas de ItoIt (C

(n)) =∫ t

0 C (n)s

dBs para todo n e t .O próximo passo consiste em mostrar que a seqüência (I (C (n))) de integrais estocásticas de

Ito converge em algum sentida do quadrado da média para um único processo limite. De fato,podemos demonstrar a existência de um processo I (C ) sobre [0,T ] tal que

E sup0≤t≤T

It (C )− It (C

(n))2→ 0.

Veja o Apêndice A.4 para uma demonstração.

O limite de I (C ) pelo quadrado da média é denominado integral estocástica de Itode C . Ela será denotada por

It (C ) =

∫ t

0Cs dBs t ∈ [0,T ].

Para um processo simples C , a integral estocástica de Ito possui uma representaçãopor meio de somas de Riemann-Stiltjes dada em (2.11).

89

Page 90: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

Depois desta definição geral, nós não nos sentimos muito á vontade com a noção de integralestocástica de Ito. Nós perdemos a intuição porque não somos capazes de escrever a integral∫ t

0 Cs dBs em termos simples do movimento browniano. Em casos particulares, seremos capazesde obter fórmulas explícitas para as integrais estocásticas de Ito, mas isto requer conhecimento dolema de Ito; veja a seção 2.3. Para a nossa intuição e para as finalidades práticas, a seguinte regra dealgibeira será bastante útil:

Fig. 2.5 — Primeira e terceira linhas: aproximações de um caminho amostral browniano por processos simples C (n) (linhas interrompidas) assumindo

n = 4,10,20,40 valores distintos. Abaixo de cada figura você encontrará o caminho da integral estocástica de Ito correspondente I (C (n)). Os últimos

processos aproximam o processo It (B) =∫ t

0 Bs dBs = 0.5(B2t− t ). Compare com a figura 2.6, onde o caminho amostral correspondente de I (B) é

esboçado.

90

Page 91: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.2. A integral de Ito

A integral estocástica de Ito It (C ) =∫ t

0 Cs dBs , t ∈ [0,T ] constitui um processoestocástico. Para uma dada partição

τn : 0< t0 < t1 < . . . , tn−1 < tn = T ,

e t ∈ [tk−1, tk], a variável aleatória It (C ) está “próxima” da soma de Riemann-Stieltjes

k−1∑

i=1

Cti−1(Bti−Bti−1

)+Cti−1(Bt −Btk−1

),

e esta aproximação está mais próxima (no sentido do quadrado da média) ao valorde It (C ), quanto mais densa for a partição τn de [0,T ].

Propriedades da integral estocástica geral de Ito

A integral estocástica de Ito geral herda as propriedades da integral estocástica de Ito para processossimples; veja a seção 2.2.2. De um modo geral, essas propriedades não serão demonstradas nopresente livro. No entanto, algumas das provas poderão ser encontradas nos apêndices (veja oApêndice A.4).

O processo estocástico It (C ) =∫ t

0 Cs dBs , t ∈ [0,T ] é um martingal com respeito àfiltração natural brownianaFt , t ∈ [0,T ].

Isto resulta da escolha particular das somas de Riemann-Stieltjes de C que aproximam o valor daintegral, e que são calculadas tomando-se as extremidades esquerdas dos intervalos [ti−1, ti] daspartições.

A integral estocástica de Ito possui esperança igual a zero.

A demonstração da existência da integral de Ito faz uso essencial da propriedade da isometria (2.14)para processos simples. Ela permanece válida nos casos mais gerais.

A integral estocástica de Ito satisfaz à propriedade da isometria:

E

∫ t

0Cs dBs

2

=

∫ t

0EC 2

sd s t ∈ [0,T ]

A integral estocástica de Ito tem também algumas propriedades em comum com as integrais deRiemann e de Riemann-Stieltjes.

91

Page 92: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

A integral estocástica de Ito é linear:Para constantes c1, c2 e processos C (1) e C (2) sobre [0,T ] satisfazendo às Hipóteses,

∫ t

0

c1C (1)

s+ c2C (2)

s

dBs = c1

∫ t

0C (1)

sdBs + c2

∫ t

0C (2)

sdBs .

A integral estocástica de Ito é aditiva em intervalos adjacentes:

∫ T

0Cs dBs =

∫ t

0Cs dBs +

∫ T

t

Cs dBs .

O processo I (C ) possui caminhos amostrais contínuos.

Notas e comentários

A definição da integral estocástica de Ito é originária do trabalho de Ito (1942, 1944) onde foi in-troduzida a integral estocástica com integrando aleatório. Doob (1953) se deu conta da conexãoentre a integração de Ito e a teoria dos martingais. A integração de Ito faz parte dos textos avança-dos de teoria das probabilidades e dos processo estocásticos. As referências padrão são Chung eWilliams (1990), Ikeda e Watanabe (1989), Karatzas e Shreve (1988), Øksendahl (1985) ou Protter(1992). Hoje em dia, alguns textos de finanças também possuem um kit de sobrevivência a respeitode integração estocástica; veja por exemplo Lamberton e Lapeyre (1996).

Alguns dos livros mencionados definem a integral estocástica com respeito a processos maisgerais do que o movimento browniano, incluindo processos que apresentam saltos. Além domais, a hipótese

∫ T0 EC 2

sd s <∞ para a existência da integral

∫ t0 Cs dBs pode ser substancialmente

atenuada.

2.3. O lema de Ito

Nas duas últimas seções nós estudamos alguns aspectos da integral estocástica de Ito. Sabemosagora como a integral

∫ t0 Cs dBs está definida, mas, com exceção dos processos simples C , não

temos ferramentas para calcularmos a integral estocástica de Ito, e assim prosseguir com algumasoperações simples envolvendo as mesmas. O objetivo da presente seção é o de proporcionar umatal ferramenta, qual seja, o lema de Ito.

2.3.1. A regra da cadeia clássica para a diferenciação

O lema de Ito é o análogo estocástico da regra clássica da cadeia para a diferenciação. A regrada cadeia foi mencionada na página 82 para um caso particular. Lá relembramos que, para umafunção diferenciável b (s ),

1

2

d b 2(s )

d s= b (s )

d b (s )

d s.

92

Page 93: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.3. O lema de Ito

Esta relação implica que, com b (0) = 0,

1

2

∫ t

0

d b 2(s )

d sd s =

1

2b 2(t ) =

∫ t

0b (s )

d b (s )

d sd s =

∫ t

0b (s )d b (s ). (2.16)

Nós não podemos simplesmente substituir na equação (2.16) a função determinística b (s ) pelocaminho amostral Bs (ω) do movimento browniano. De fato, um tal caminho não é diferenciávelem nenhum dos pontos de seu domínio de definição. Usando alguns métodos elementares, nósdescobrimos na seção 2.2.1 que a integral estocástica de Ito

∫ t0 Bs dBs possui o valor 0.5(B2

t− t ).

Isto contrasta com a relação (2.16). Observe que o valor da integral 0.5(B2t− t ) coincide com o

valor 0.5B2t, o qual era de se esperar da regra da cadeia clássica para a diferenciação, corrigida pelo

valor −0.5t . Isto sugere que temos de encontrar um termo de correção para a regra da cadeiaclássica. Apelando novamente para a discussão na seção 2.2.1, ela nos diz que este termo provémdo limite pelo quadrado da média do funcional quadrático

∑ni=1(Bti

−Bti−1)2.

Para entendermos a regra da cadeia estocástica, primeiro concentraremos nossa atenção na regrada cadeia determinística. Por simplicidade, denotaremos por h ′(t ), h ′′(t ), e assim por diante, asderivadas ordinárias da função h calculadas em t .

Sejam f e g funções diferenciáveis. Então é válida a regra da cadeia clássica para adiferenciação:

[ f (g (s ))]′ = f ′(g (s ))g ′(s ). (2.17)

Pelo fato de estarmos interessados em integrais, reescreveremos (2.17) sob forma integral, i.e.,tomaremos as integrais em ambos os membros da equação (2.17) sobre [0, t].

A regra da cadeia sob forma integral é:

f (g (t ))− f (g (0)) =∫ t

0f ′(g (s ))g ′(s )d s =

∫ t

0f ′(g (s ))d g (s ). (2.18)

Daremos agora um argumento heurístico para a validade da regra da cadeia, a qual servirá demotivação para o lema de Ito. Na linguagem das diferenciais, (2.17) assume a forma d f (g ) =f ′d g . Esta diferencial pode ser interpretada como o termo de primeira ordem de uma expansãode Taylor:

f (g (t )+ d g (t ))− f (g (t )) = f ′(g (t ))d g (t )+1

2f ′′(g (t ))[d g (t )]2+ . . . . (2.19)

Aqui, d g (t ) = g (t + d t )− g (t ), e coincide com o incremento de g no intervalo [t , t + d t]. Sobcondições apropriadas, os termos de segunda ordem e de ordem superior podem ser desprezadospara valores pequenos de d t .

93

Page 94: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

2.3.2. Uma versão simples do lema de Ito

Suponha agora que f seja uma função duas vezes diferenciável, porém substitua g (t ) em (2.19)por um caminho amostral browniano Bt (ω) do movimento browniano. Escreva dBt = Bt+d t −Bt para os incrementos de B sobre [t , t + d t]. Usando os mesmos argumentos dados acima,obteremos

f (Bt + dBt )− f (Bt ) = f ′(Bt )dBt +1

2f ′′(B(t ))[dB(t )]2+ . . . . (2.20)

Na página 81 demos uma motivação segundo a qual a diferencial ao quadrado (dBt )2 pode ser

interpretado como d t . Assim,

em contraste com o caso determinístico, a contribuição do termo de segunda ordem na expansão deTaylor (2.20) não é desprezível.

Este fato é a razão para o desvio da regra da cadeia clássica.Integrando ambos os membros da equação (2.20) em sentido meramente formal, e desprezan-

do os termos de ordem superior ou igual a 3 no segundo membro, obteremos para s < t ,∫ t

s

d f (Bx ) := f (Bt )− f (Bs ) (2.21)

=

∫ t

s

f ′(Bx )dBx +1

2

∫ t

s

f ′(Bx )d x (2.22)

Então a seguinte questão natural se coloca:

Como devemos interpretar as integrais em (2.21) e (2.22)?

A primeira integral em (2.22) é a integral estocástica de Ito da função f ′(B), e a segunda integraldeve ser interpretada como a integral de Riemann de f ′′(B). A relação (2.21) define a quantidade∫ t

sd f (Bs ) que é um análogo da ‘soma telescópica,’ e portanto torna-se natural atribuir o valor

f (Bt )− f (Bs ) a ela. No que se segue, sempre atribuiremos o valor Vt −Vs à integral simbólica∫ ts

dVs , qualquer que seja o processo estocástico V .

Seja f uma função continuamente diferenciável até ordem 2.A fórmula

f (Bt )− f (Bs ) =

∫ t

s

f ′(Bx )dBx +1

2

∫ t

s

f ′′(Bx )d x, s < t , (2.23)

Usando métodos sofisticados, que se encontram além do escopo do presente livro, poderemosmostrar que (2.23) etá matematicamente correto.

Agora, queremos ver como o lema de Ito funciona.

Exemplo 2.3.1. Escolha f (t ) = t 2. Então f ′(t ) = 2t e f ′′(t ) = 2. Portanto, o lema de Ito acarretapara s < t ,

B2t−B2

s= 2∫ t

0Bx dBx +

∫ t

s

d x.

94

Page 95: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.3. O lema de Ito

Fig. 2.6 — Um caminho amostral do processo∫ t

0 Bs dBs = 0.5(B2t− t ). Veja também a figura 2.5.

Para s = 0 obtemos a fórmula ∫ t

0Bx dBx =

1

2(B2

t− t ),

a qual já nos é familiar; confronte com (2.26), ou com a discussão na seção 2.3.1. Tentaremos obteruma fórmula similar para B3

t−B3

s. Neste caso, f (t ) = t 3, f ′(t ) = 3t 2 e f ′′(t ) = 6t . O lema de Ito

imediatamente acarreta que

B3t−B3

s= 3∫ t

s

B2xdBx + 3

∫ t

s

Bx d x.

Não podemos expressar∫ s

tBx d x em termos mais simples do movimento browniano. Para po-

dermos vislumbrar o tipo de o tipo dos caminhos amostrais dos processos∫ t

sBx d x ou

∫ ts

B2xdBx ,

precisamos nos basear em simulações.

Faça agora você mesmo um exercício sobre o lema de Ito: calcule f (Bt )− f (Bs ) para a funçãof (t ) = t n , para algum inteiro n > 3.

Exemplo 2.3.2. (A função exponencial não é a exponencial de Ito)No cálculo clássico, a função exponencial f (t ) = expt possui a espetacular propriedade f ′(t ) =f (t ). De forma inteiramente equivalente,

f (t )− f (s ) =

∫ t

s

f (x)d x.

Será que existe um processo estocástico X tal que

Xt −Xs =

∫ t

s

Xx dBx , s < t , (2.24)

no sentido de Ito? Um tal processo seria um candidato para a exponencial de Ito. Uma vez queas regras clássicas de integração não são válidas em geral quando o movimento browniano estáenvolvido, podemos também esperar que f (Bt ) = exp(Bt ) não seja a exponencial de Ito. Isto podeser verificado de forma muito simples: uma vez que f (t ) = f ′(t ) = f ′′(t ), o lema de Ito acarreta

95

Page 96: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

para s < t ,

eBt − eBs =

∫ t

s

eBx dBx +1

2

∫ t

s

eBx d x

Obviamente a segunda integral de Riemann acarreta um valor positivo, e portanto (2.24) nãopode ser satisfeito.

No momento não podemos dar uma resposta à questão acima. Retornaremos ao problema quandoestivermos de posse de uma forma mais avançada do lema de Ito (veja exemplo 2.3.3.

2.3.3. Versões estendidas do lema de Ito

Nesta seção iremos estender o lema de Ito simples, dado por (2.21)–(2.22), de diversas maneiras.

Começamos pelo lema de Ito para processos estocásticos f (t ,Bt ). Suponha que f (t , x) possuaderivadas parciais contínuas pelo menos até ordem 2. Uma modificação do argumento em expan-são de Taylor utilizado na seção 2.3.2 deverá também ter sucesso neste caso mais geral. Como jáfoi visto anteriormente, a expansão de Taylor de segunda ordem acarreta que

f (t + d t ,Bt+d t )− f (t ,Bt ) = f1(t ,Bt )d t + f2(t ,Bt )dBt+

1

2[ f11(t ,Bt )(d t )2+ 2 f12(t ,Bt )d t dBt + f22(t ,Bt )(dBt )

2]+ . . . . (2.25)

Aqui, e no que se segue, utilizaremos a seguinte notação para as derivadas parciais de f :

fi (t , x) =∂

∂ xi

f (x1, x2)

x1=t ,x2=x

, i = 1,2,

fi j (t , x) =∂

∂ xi

∂ x j

f (x1, x2)

x1=t ,x2=x

, i = 1,2.

Da mesma forma do que no cálculo clássico, os termos de ordem superior em (2.25) podem serdesprezados, bem como os termos com fatores d t dBt e (d t )2. No entanto, como estamos inter-pretando (dBt )

2 como d t , o termo com (dBt )2 não pode ser desprezado. Raciocinando da mesma

forma do que na seção 2.3.2, i.e., integrando formalmente ambos os membros da equação (2.25) egrupando todos os termos com d t e dBt separadamente, terminaremos com a seguinte fórmula:

Extensão I do lema de Ito:Seja f (t , x) uma função cujas derivadas parciais de segunda ordem são contínuas.Então,

f (t ,Bt )− f (s ,Bs ) =

∫ t

s

f1(x,Bx )+

1

2f22(x,Bx )

d x+

∫ t

s

f2(x,Bx )dBx . s < t . (2.26)

96

Page 97: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.3. O lema de Ito

Fig. 2.7 — Um caminho amostral da exponencial do movimento browniano exp(Bt ) (à esquerda) e da exponencial de Ito exp(Bt −0.5t ) (à direita) para

um mesmo caminho B ; confronte com os exemplos 2.3.2 e 2.3.3.

Aplicaremos esta fórmula para determinar a exponencial de Ito:

Exemplo 2.3.3. (A exponencial de Ito)Nós estudamos no exemplo 2.3.2 que o processo estocástico expBt não é a exponencial de Itono sentido de (2.24). Escolheremos agora a função

f (t , x) = e x−0.5t .

Um cálculo direto mostra que

f1(t , x) =1

2f (t , x) f2(t , x) = f (t , x) f22(t , x) = f (t , x)

Uma aplicação do lema de Ito dado acima nos fornece

f (t ,Bt )− f (s ,Bs ) =

∫ t

s

f (x,Bx )dBx .

No sentido dado em (2.24), f (t ,Bt ) é a exponencial de Ito. Veja a figura 2.7 para uma comparaçãodos caminhos dos processos e x pBt e expBt − 0.5t.

Exemplo 2.3.4. (Movimento browniano geométrico)Considere uma forma particular do movimento browniano geométrico (confronte com o exemplo1.3.3):

Xt = f (t ,Bt ) = e (c−0.5σ2)t+σBt . (2.27)

onde c e σ > 0 são constantes. Observe que

f (t , x) = e (c−0.5σ2)t+σ x , f1(t , x) = (c − 0.5σ2) f (t , x)

f2(t , x) = σ f (t , x), f22(t , x) = σ2 f (t , x)

Uma aplicação do lema de Ito (2.26) acarreta que o processo X satisfaz a equação diferencial es-tocástica linear

Xt −X0 = c

∫ t

0Xs d s +σ

∫ t

0Xs dBs . (2.28)

97

Page 98: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

Para uso posterior, precisaremos de uma versão ainda mais geral do lema de Ito. Consideraremosprocessos da forma f (t ,Xt ), onde X é dado por

Xt =X0+

∫ t

0A(1)

sd s +

∫ t

0A(2)

sdBs , (2.29)

e, tanto A() quanto A() são adaptados ao movimento browniano. Aqui, estamos assumindo que asintegrais acima são bem definidas, tanto no sentido de Riemann quanto no de Ito respectivamente.

Um processo X , possuindo a representação (2.29), é denominado de processo de Ito.Pode-se demonstrar que, os processos A(1) e A(2) estão univocamente determinadosno sentido de que, se X possui uma representação (2.29), onde os A(i )s são substi-tuídos por processos adaptados D (i ), então A(i ) e D (i ) necessariamente coincidem.

Lembre-se de que o movimento browniano geométrico (2.27) satisfaz (2.28). Portanto é um pro-cesso de Ito com A(1) = cX e A(2) = σX .

Agora, usando um argumento similar ao da expansão de Taylor dada acima, podemos mostrara seguinte fórmula:

Extensão II do lema de ItoSeja X um processo de Ito com representação dada em (2.20) e f (t , x) uma funçãocujas derivadas parciais de segunda ordem existem e são cohtínuas. Então

f (t ,Xt )− f (s ,Xs ) =∫ t

s

f1(y,Xy )+A(1)

yf2(y,Xy )+

1

2[A(2)

y]2 f22(y,Xy )

d y

+

∫ t

s

A(2)y

f2(y,Xy )dBy s < t . (2.30)

Dê uma justificativa para esta fórmula. Use a expansão de Taylor para f (t + d t ,Xt+d t )− f (t ,Xt )como em (2.25), onde B é substituído por X , e X possui um representação do tipo (2.29). Desprezeos termos de ordem superior, começando pelos termos envolvendo (d t )2 e d t dBt , e faça uso daigualdade (dBt )

2 = d t .A fórmula (2.30) é dada com muita freqüência sob a seguinte forma:

98

Page 99: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.3. O lema de Ito

f (t ,Xt )− f (s ,Xs ) =∫ t

s

f1(y,Xy )+

1

2[A(2)

y]2 f22(y,Xy )

d y +

∫ t

s

f2(y,Xy )dXy , (2.31)

onde

dXy =A(1)y

d y +A(2)y

dBy .

Esta última identidade é uma forma simbólica de escrevermos a representação de Ito (2.29). Aintegral com respeito a X em (2.31) deve ser interpretada da seguinte forma:

∫ t

s

f2(y,Xy )dXy =

∫ t

s

A(1)y

f2(y,Xy )d y +

∫ t

s

A(2)y

f2(y,Xy )dBy (2.32)

Finalmente, consideramos o lema de Ito para processos estocásticos da forma f (t ,X(1)t ,X

(2)t ), onde

ambos, X (1) e X (2), são processos de Ito com respeito ao mesmo movimento browniano:

X(i )t =X

(i )0 +

∫ t

0A(1,i )

sd s +

∫ t

0A(2,i )

sdBs , i = 1,2. (2.33)

Um argumento utilizando a expansão em série de Taylor para a equação acima acarretará a seguintefórmula:

Extensão III do lema de Ito:Sejam X (1) e X (2) dois processos de Ito dados por (2.33) e f (t , x1, x2) uma funçãocujas derivadas parciais de segunda ordem existem e são contínuas. Então, paras < t ,

f (t ,X(1)t ,X

(2)t )− f (s ,X (1)

s,X (2)

s) =

∫ t

s

f1(y,X (1)y

,X (2)y)d y

+3∑

i=2

fi (y,X (1)y

,X (2)y)dX (i )

y

+3∑

i=2

3∑

j=2

∫ t

s

fi j (y,X (1)y

,X (2)y)A(2,i )

yA(2, j )

yd y. (2.34)

Aqui, fi (y, x1, x2) e fi j (t , x1, x2) denotam as derivadas parciais de f (t , x1, x2) relati-vamente à i -ésima e j -ésima variáveis, respectivamente; confronte com a página 96.

As integrais com respeito a X (i )y

devem ser interpretadas da mesma maneira que em (2.32). A

fórmula (2.34) pode ser estendida de forma direta para as funções do tipo f (t ,X(1)t . . .X

(m)t ), onde

os X (i )s são processos de Ito com relação ao mesmo movimento browniano. Mencionamos que

99

Page 100: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

podemos também considerar uma tal fórmula para os processos de Ito com respeito a dois movi-mentos brownianos distintos. No entanto, isto requer que se defina a integral estocástica de Itopara este cenário.

O exemplo seguinte é uma aplicação do lema de Ito (2.34).

Exemplo 2.3.5. (Integração por partes)Considere a função f (t , x1, x2) = x1x2. Então obteremos1

1 Os argumentosdas funções

foramsuprimidos.

f1 = 0, f2 = x2 f3 = x1 f22 = f33 = 0 e f23 = f32 = 1.

Aplique agora a fórmula (2.34) para obter:

A fórmula de integração por partes:Sejam X (1) e X (2) dois processos de Ito dados por (2.33). Então

d (X(1)t X

(2)t ) =X

(2)t dX

(1)t +X

(1)t dX

(2)t +A

(2,1)t A

(2,2)t d t (2.35)

Usando a representação de Ito (2.33), obteremos uma expressão alternativa para as diferenciais:

d (X(1)t X

(2)t ) = (X

(1)t A

(1,2)t +X

(2)t A

(1,1)t +A

(2,1)t A

(2,2)t )d t + (X

(1)t A

(2,2)t +X

(2)t A

(2,1)t )dBt .

Como exemplos particulares nós consideramos:

X(1)t = e t − 1=

∫ t

0e s d s e X

(2)t = Bt =

∫ t

01dBs .

Obviamente,A(1,1)t = e t , A

(2,1)t = 0, A

(1,2)t = 0, A

(2,2)t = 1.

Portanto a integral por partes acarreta∫ t

0e s dBs = e t Bt −

∫ t

0Bs e s d s ,

Mais geralmente, mostre que para qualquer função continuamente diferenciável f sobre [0,T ] aseguinte relação pode ser verificada:

∫ t

0f (s )dBs = f (t )Bt −

∫ t

0f ′(s )Bs d s ,

Notas e comentários

O lema de Ito é a mais importante ferramenta do cálculo de Ito. Ele será utilizado com bastantefreqüência nas seções que se seguem. Uma primeira versão deste resultado fundamental foi demon-strada em Ito (1951). Várias versões do lema de Ito e de suas provas podem ser encontradas em

100

Page 101: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.4. A integral de Stratonovich e outras integrais

livros texto de cálculo estocástico, como por exemplo Chung e Williams (1990), Ikeda e Watanabe(1989), Karatzas e Shreve (1989), Øksendahl (1985) ou Protter (1992).

2.4. A integral de Stratonovich e outras integrais

Nesta seção, discutiremos algumas outras integrais estocásticas e sua relação com a integral estocás-tica de Ito. É certamente útil que você se dê conta de que existe uma variedade bastante ampla deoutras integrais, a integral de Ito sendo apenas mais um membro desta família. Por outro lado,você não necessita a informação contida nesta seção (a qual é um tanto quanto técnica), a não serque você pretenda resolver as equações diferenciais de Ito por meio do assim chamado cálculo deStratonovich.

Nas seções anteriores nós já havíamos estudado as integrais estocásticas de Ito da forma

It (C ) =

∫ t

0Cs dBs , t ∈ [0,T ].

Aqui, e no que se segue, B = (Bt , t ≥ 0) é um movimento browniano e C = (Ct , t ∈ [0,T ]) é umprocesso adaptado à filtração browniana naturalFt = σ(Bs , s ≤ t ), t ∈ [0,T ]. O ponto principalda definição da integral estocástica de Ito era o de que a aproximação de It (C ) por meio das somasde Riemann-Stieltjes da forma

k−1∑

i=1

Cti−1∆i B +Ctk−1

(Bt −Btk−1) para tk−1 ≤ t ≤ tk , (2.36)

para partições do tipoτn : 0= t0 < t1 < . . .< tn−1 < tn = T

e tais quem.a.p.(τn) = max

i=1...n(ti − ti−1)→ 0.

Da maneira usual, escrevemos∆i B = Bti−Bti−1

.Nas equações de Riemann-Stieltjes (2.36), os valores escolhidos para C eram as extremi-

dades esquerdas dos subintervalos [ti−1, ti]. Esta escolha foi feita meramente por conveniênciamatemática. O ganho se consubstanciava em que os processos estocásticos (It (C ), t ∈ [0,T ] pos-sui uma estrutura matemática bastante rica. Ela herda a propriedade martingal das somas deRiemann-Stieltjes (2.36) de aproximação. Assim, um alto nível da teoria dos processos estocás-ticos pode ser aplicado. Como propriedades subsidiárias, obtermos que a esperança da integralestocástica de Ito vale sempre zero e sua variância pode ser expressa por meio de uma aplicaçãoda propriedade da isometria. O preço a ser pago por obtermos esta bela estrutura matemática éo de que a regra da cadeia do cálculo clássico não é mais válido. No cálculo de Ito, o lema de Itosubstitui a regra da cadeia clássica.

Na presente seção consideramos um outro tipo de integral estocástica, a assim chamada in-tegral estocástica de Stratonovich. Iniciaremos com sua definição para o caso em que o processointegrando C é dado por

Ct = f (Bt ), t ∈ [0,T ],

101

Page 102: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

para uma função diferenciável f sobre [0,T ] até ordem 2. Defina as somas de Riemann-Stieltjes

eSn =n∑

i=1

f (Byi)∆i B , (2.37)

ondeyi =

ti−1+ ti

2, i = 1 . . . n.

Pode-se demonstrar que o limite pelo quadrado da média das somas de Riemann-Stieltjes eSn existese m.a.p.(τn)→ 0.

O limite único pelo quadrado da média ST ( f (B)) das somas de Riemann-StieltjeseSn existe se

∫ T0 E f 2(Bt )d t < ∞. O limite é chamado de integral estocástica de

Stratonovich de f (B). Ele é denotado por

St ( f (B)) =

∫ T

0f (Bs )dBs .

Claramente, no tocante à equação estocástica de Ito, podemos definir o processo estocástico dasintegrais estocásticas de Stratonovich

St ( f (B)) =

∫ t

0f (Bs ) dBs , t ∈ [0,T ],

como o limite pelo quadrado da média das somas de Riemann-Stieltjes correspondentes.

Exemplo 2.4.1. Na página 82 nós consideramos as somas de Riemann-Stieltjes

eSn =n∑

i=1

Byi∆i B

para uma dada partição τn de [0,T ]. Foi também mencionado que não é difícil de verificar que aseqüência (eSn) possui limite pelo quadrado da média igual a 0.5B2

T. Este pe o valor correspondente

da integral estocástica de Stratonovich:

ST (B) =

∫ T

0Bs dBs =

1

2B2

T. (2.38)

Obviamente, o processo estocástico (0.5B2t, t ∈ [0,T ]) não é um martingal. No entanto,

vemos que a integral estocástica de Stratonovich (2.38) satisfaz formalmente a regra da cadeia; vejaa página 82 para uma discussão.

A validade formal da regra da cadeia clássica é a razão para o uso das integrais estocásticas deStratonovich. Assim, a despeito da estrutura matemática relativamente “pobre,” da integral es-tocástica de Stratonovich, ela possui uma propriedade “agradável.” Iremos explorá-la quando re-solvermos as equações diferenciais estocásticas de Ito.

102

Page 103: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.4. A integral de Stratonovich e outras integrais

Fig. 2.8 — Um caminho amostral do processo∫ t

0 B2s

dBs (curva inferior) e do processo∫ t

0 B2s dBs (curva superior) para o mesmo caminho amostral

browniano.

Para adquirirmos alguma intuição da integral estocástica de Ito, nós consideramos a fórmula detransformação que liga as integrais estocásticas de Ito com as correspondentes integrais estocásticasde Stratonovich, possuindo o mesmo processo integrando f (B). Estamos supondo que

∫ T

0E[ f (Bt )]

2d t <∞ e∫ T

0E[ f ′(Bt )]

2d t <∞, (2.39)

A primeira condição é necessária para a definição da integral estocástica de Stratonovich ST ( f (B))e a integral estocástica de Ito IT ( f (B)).

Primeiramente, observe que a expansão de Taylor

f (Byi) = f (Bti−1

)+ f ′(Bti−1)(Byi−Bti−1

)+ . . . .

é verdadeira, onde estamos desprezando os termos de ordem superior. Assim, uma soma de aprox-imação de Riemann-Stieltjes para ST ( f (B)) pode ser escrita como se segue:

n∑

i=1

f (Byi)∆i B

=n∑

i=1

f (Bti−1)∆i B +

n∑

i=1

f ′(Bti−1)(Byi−Bti−1

)∆i B

=n∑

i=1

f (Bti−1)∆i B +

n∑

i=1

f ′(Bti−1)(Byi−Bti−1

)2

+n∑

i=1

f ′(Bti−1)(Byi−Bti−1

)(Bti−Byi

)+ . . .

= eS (1)n+ eS (2)

n+ eS (3)

n+ . . . , (2.40)

onde mais uma vez estamos desprezando os termos de ordem superior. Pela definição da integralde Ito, eS (1)

npossui limite pelo quadrado da média igual a

∫ T0 f (Bs )dBs . Uma aplicação da condição

(2.39) mostra que eS (3)n

possui limite pelo quadrado da média igual a zero, e alguns cálculos adi-

103

Page 104: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

cionais nos fornecem que eS (i )n

, i = 1,2,3,

eS (1)n→

1

2

∫ T

0f ′(Bt )d t

pelo quadrado da média. Combinando as convergências pelo quadrado da média de S (i )n

, i = 1,2,3,nós finalmente obtemos o seguinte resultado a partir de (2.40):

Suponha que a função f satisfaça (2.39). Então a fórmula de transformação é ver-dadeira:

∫ T

0f (Bt ) dBt =

∫ T

0f (Bt )dBt +

1

2

∫ T

0f ′(Bt )d t . (2.41)

Desta fórmula é imediato que (St ( f (B)), t ∈ [0,T ]) não é um martingal. Verifique isto tomandoas esperanças em (2.41).

Tome agora a função particular f (t ) = g ′(t ). Uma aplicação do lema de Ito (2.23) a Yt =g (Bt ) acarreta

g (BT )− g (B0) =

∫ T

0g ′(Bs )dBs +

1

2

∫ T

0g ′′(Bs )d s

=

∫ T

0f (Bs )dBs +

1

2

∫ T

0f ′(Bs )d s ,

e o segundo membro é igual a∫ T

0 g ′(Bs ) dBs . Assim, temos

A integral estocástica de Stratonovich satisfaz à regra da cadeia do cálculo clássico:

∫ T

0g ′(Bs ) dBs = g (BT )− g (B0). (2.42)

Observe o seguinte: esta asserção não significa que a integral estocástica de Stratonovich coincidecom a integral clássica (i.e., com a integral de Riemann). Apenas estamos afirmando que as regrasda cadeia correspondentes possuem uma estrutura similar.

Exemplo 2.4.2. a) Tome g (t ) = t 2. Então g ′(t ) = 2t . A partir de (2.42) obtemos que

∫ T

0Bt dBt =

1

2B2

T−

1

2B2

0 =1

2B2

T.

Tal fato esta em concordância com nossas observações precedentes a respeito do valor de ST (B).b) Tome g (t ) = exp(t ). Então g ′(t ) = g (t ). Obtemos a partir de (2.42) que

∫ T

0eBt dBt = eBt − eB0 = eBt − 1.

104

Page 105: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2.4. A integral de Stratonovich e outras integrais

Desta última relação concluímos que o processo Xt = exp(Bt ), t ∈ [0,T ] é a exponencial deStratonovich. A partir do exemplo 2.3.3 também sabemos que a exponencial de Ito é um pro-cesso totalmente diferente.

No que se segue, queremos dar uma fórmula de transformação para a integral estocástica que émais geral do que (2.41). Nessa fórmula nós somente tratamos de integrandos do tipo C = f (B).Agora iremos assumir que o integrando é da forma

Ct − f (t ,Xt ), t ∈ [0,T ] (2.43)

onde f (t , x) é uma função contínua tendo derivadas parciais até ordem 2. O processo X estásendo suposto ser um processo de Ito (veja a página 98), dado pela equação diferencial estocástica:

Xt =X0+

∫ t

0a(s ,Xs )d s +

∫ t

0b (s ,Xs )dBs ,

onde as funções contínuas a(t , x) e b (t , x) satisfazem as condições de existência e unicidade dapágina 113. Para integrandos (2.43) não é imediato como obter uma extensão da integral comC = f (B). Um modo possível de definir a integral estocástica de Stratonovich seria através deaproximações por meio de somas de Riemann-Stieltjes:

eSn =n∑

i=1

f (ti−1, 0.5(Xti−1+Xti

))∆i B .

O limite pelo quadrado da média∫ T

0 f (t ,Xt ) dBt dessas somas de Riemann-Stieltjes existe se

∫ T

0E[ f (t ,Xt )]

2d t <∞.

Podemos demonstrar que esta definição é consistente com a definição precedente (com f (x, t ) =f (x),X = B e as somas aproximantes de Riemann-Stieltjes (2.37)).

Para uso posterior, daremos aqui uma outra identidade:

Supondo as hipóteses sobre f e X dadas acima, a seguinte fórmula de transformaçãoé verdadeira:

∫ T

0f (t ,Xt ) dBt =

∫ T

0f (t ,Xt )dBt +

1

2

∫ T

0b (t ,Xt ) f2(t ,Xt )d t , (2.44)

Da discussão acima, poderá ter ficado claro que podemos definir integrais estocásticas bastantediferentes. Para cada p ∈ [0,1], uma dada partição τn = (ti ) de [0,T ] e um processo C adaptadoa um movimento browniano, podemos definir as somas de Riemann-Stieltjes

eS (p)n=

n∑

i=1

Cyi (p)∆i B ,

105

Page 106: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

2. A integral estocástica

ondeyi (p) = ti−1+ p(ti − ti−1), i = 1 . . . n.

Se m.a.p.(τn) → 0, o limite pelo quadrado da média das somas de Riemann-Stieltjes eS (p)n existe,contanto que C satisfaça algumas hipóteses adicionais. O limite pode ser considerado como aintegral (p)-estocástica de C :

I(p)

T(C ) = (p)−

∫ T

0Cs dBs .

Nos estudamos dois casos particulares: P = 0 (o caso de Ito) e p = 0.5 (o caso de Stratonovich).Para integrandos não triviais C os valores I

(p)

T(C ) diferem para valores distintos de p. Por exem-

plo, utilizando argumentos similares aos casos das integrais de Ito e Stratonovich, podemos provarque

(p)−∫ T

0Bs dBs =

1

2B2

T+

p −

1

2

T .

É também possível obter uma fórmula de transformação como (2.44) para relacionarmos as (p)-integrais, p ∈ [0,1], com as integrais correspondentes de Ito e Stratonovich. Para as aplicações,as integrais de Ito e Stratonovich são bastante relevantes. As razões foram explicadas acima. Vejatambém o capítulo 3 que trata das equações diferenciais estocásticas.

Notas e comentários

A integral estocástica de Stratonovich foi introduzida por Fisk, e de forma independente porStratonovich (1966). A teoria matemática da integral de Stratonovich pode ser encontrada emStratonovich (1966); veja também Arnold (1973). Ambas as integrais, de Ito e Stratonovich sãodefinidas de forma matemática correta. Nas aplicações, precisamos decidir qual dos processosestocásticos é o mais correto. Esta é um questão de modelagem; veja também a discussão napágina 123.

Na seção 3.2.3 iremos fazer uso das regras do cálculo de Stratonovich (i.e., as regras do cálculoclássico) para a solução das integrais diferenciais estocásticas de Ito.

106

Page 107: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

CAPÍTULO 3

EQUAÇÕES DIFERENCIAIS ESTOCÁSTICAS(EDE)

Este capítulo é devotado ao estudo das equações diferenciais estocásticas e sua solução. Na seção3.1 iniciamos com uma breve introdução às equações diferenciais ordinárias. As equações difer-enciais estocásticas podem ser entendidas como equações diferenciais determinísticas perturbadaspor ruído aleatório.

Na seção 3.2.1 nós introduzimos as equações diferenciais estocásticas de Ito e explicamos o que éuma solução. Resultará que as equações diferenciais estocásticas são na realidade equações integraisestocásticas envolvendo integrais ordinárias e integrais estocásticas de Ito. Portanto a noção de“equação” diferencial poderia dar impressão errônea, porém como o uso do termo é um costumegeneralizado, nós o seguiremos. Na seção 3.2.1 formularemos condições de existência e unicidadede soluções para as equações diferenciais estocásticas de Ito. Na seção 3.2.2 daremos um métodosimples para resolver equações diferenciais estocásticas de Ito. Este método é baseado no lema deIto. Continuamos na seção 3.2.3 com a solução para as equações diferenciais estocásticas de Itoque são derivadas de uma equação diferencial estocástica equivalente, a de Stratonovich.

Na seção 3.3, consideramos a equação diferencial estocástica linear geral. Trata-se de um casoespecial de equações diferenciais estocásticas possuindo solução explícita em termos das funçõescoeficiente e do movimento browniano subjacente. As equações diferenciais estocásticas linearessão relevantes em várias aplicações. Também fornecemos um método para calcular as funçõesesperança e variância no caso.

De forma análoga às equações diferenciais determinísticas, somente em casos excepcionais é queé possível obter uma solução explícita para as equações diferenciais estocásticas. Em geral, énecessário basear-se em métodos numéricos; veja a seção 3.4 para uma introdução ao tópico.

3.1. Equações diferenciais determinísticas

A teoria das equações diferenciais é o berço da cálculo clássico. Tais equações foram os exemplosmotivadores para a criação do cálculo diferencial e integral. A idéia subjacente de uma equaçãodiferencial é simples: nos é dada uma relação funcional

f (t , x(t ), x ′(t ), x ′′(t ), . . .) = 0, 0≤ t ≤ T , (3.1)

107

Page 108: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

envolvendo o tempo t , uma função incógnita x(t ) e suas derivadas. A meta é achar uma funçãox(t ) satisfazendo (3.1). Tal função é denominada solução da equação diferencial (3.1). Espera-se queuma tal solução seja única para uma dada condição inicial x(0) = x0, digamos.

As equações diferenciais mais simples são as de ordem 1. Elas envolvem somente t , x(t ) e aderivada x ′(t ). Idealmente, uma tal equação diferencial possui a seguinte forma:

x ′(t ) =d x(t )

d t= a(t , x(t )), x(0) = x0, (3.2)

para uma função conhecida a(t , x). É rotineiro escrever-se (3.2) sob forma mais intuitiva:

d x(t ) = a(t , x(t ))d t , x(0) = x0. (3.3)

Se você interpretar x(t ) como sendo a localização no espaço de uma partícula uni-dimensionalno instante t , (3.3) descreve a mudança de posição da partícula no pequeno intervalo de tempo[t , t + d t], digamos. A relação (3.3) então nos diz que d x(t ) = x(t + d t )− x(t ) é proporcionalao incremento de tempo d t , com um fator igual a a(t , x(t )). De forma alternativa, (3.2) nos dizque a velocidade x ′(t ) da partícula é uma função dada do tempo t e da posição x(t ).

Exemplo 3.1.1. (Algumas equações diferenciais simples)Suponha que a velocidade é apenas uma função de t :

x ′(t ) = a(t ).

A integração de ambos os membros acarreta a solução

x(t ) = x(0)+∫ t

0a(s )d s .

Esta é a forma mais simples de uma equação diferencial, mas é também uma forma trivial, porqueo segundo membro não depende da função incógnita x(t ).Suponha agora que a velocidade x ′(t ) é proporcional à posição x(t ):

x ′(t ) = c x(t )

para uma constante c Aqui, uma integração simples não resolve. Mas conhecemos a solução destaequação diferencial: é a função exponencial x(t ) = x(0)exp(c t ).

Mediante um artifício elementar, podemos muitas vezes resolver a equação diferencial (3.2).

Exemplo 3.1.2. (Separação de variáveis)Suponha que o segundo membro da equação (3.2) possa ser separado no produto de duas funções:

x ′(t ) = a1(t )a2(x(t )).

Simbolicamente, reescreveremos esta equação diferencial como

d x

a2(x)= a1(t )d t . (3.4)

108

Page 109: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.1. Equações diferenciais determinísticas

Integre agora ambos os membros:

∫ x(t )

x(0)

d x

a2(x)=

∫ t

0a1(s )d s . (3.5)

No lado esquerdo obtemos uma função de x(t ), no lado direito, uma função de t Espera-se obteruma forma explícita da função x(t ).

Esta abordagem se justifica diferenciando ambos os membros de (3.5) como integrais de limitessuperiores. Então obtemos

x ′(t )

a2(x(t ))= a1(t ),

que é outra forma de se escrever (3.4).

Aplicaremos este método à equação diferencial x ′(t ) = c x(t ) para algum x(0) 6= 0. Então

∫ x(t )

x(0)

d x

x= c

∫ t

0d s ,

o que nos dá x(t ) = x(0)exp(c t ). Esta é a solução que havia sido conjecturada no exemplo 3.1.1.

• As soluções de equações diferenciais são funções. Elas descrevem a evolução ou adinâmica de um processo real em um dado período de tempo.

• Para obter uma solução única precisamos conhecer a condição inicial x(0) = x0. Seessa solução única parte de um ponto x0 no instante t = 0, digamos, a função x(t )fica completamente determinada no futuro, i.e., para t > 0.

• Soluções explícitas de equações diferenciais se constituem em exceções da regra. Emgeral, temos de nos basear em soluções numéricas de equações diferenciais.

• Integrando ambos os membros da equação diferencial (3.2), obtém-se um equaçãointegral equivalente:

x(t ) = x(0)+∫ t

0a(s , x(s ))d s .

Ainda que a equação transformada não seja de grande valia para se achar a solução de(3.4), ela dá uma idéia de como poderíamos definir a equação diferencial estocástica:como uma equação integral estocástica.

109

Page 110: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

3.2. As equações diferenciais estocásticas de Ito

3.2.1. O que é uma equação diferencial estocástica?

Considere a equação diferencial determinística

d x(t ) = a(t , x(t ))d t , x(0) = x0.

A forma mais simples de se introduzir a aleatoriedade nesta equação é a randomização da condiçãoinicial. A solução x(t ) torna-se um processo estocástico (Xt , t ∈ [0,T ]):

dXt = a(t ,Xt )d t , X0(ω) = Y (ω).

Fig. 3.1 — 10 soluções Xt = X0e t da equação diferencial aleatória dXt = Xt d t tendo condição inicial X0 = expN, onde N possui uma

distribuição do tipo N (0,σ2). Esquerda: σ2 = 0.01. Direita: σ2 = 0.0001.

Uma tal equação é denominada equação diferencial aleatória. Sua solução não necessita docálculo estocástico; podemos utilizar os métodos clássicos e ajustar a solução o resultado corre-spondente à condição inicial. As equações diferenciais aleatórias podem ser consideradas equaçõesdiferenciais determinísticas possuindo uma condição inicial perturbada. Sua investigação pode serde interesse se for desejável estudar a robustez da solução da equação diferencial sob pequenas vari-ações da condição inicial. Por exemplo, a figura 3.1 mostra que a solução da equação diferencialpode mudar drasticamente, mesmo que a mudança da condição inicial seja pequena.

Para as nossas finalidades, a aleatoriedade da equação diferencial é introduzida via um termode ruído aleatório adicional:

dXt = a(t ,Xt )d t + b (t ,Xt )dBt , X0(ω) = Y (ω). (3.6)

Aqui, como é usual, B = (Bt , t ≥ 0) denota o movimento browniano, sendo a(t , x) e b (t , x)funções determinísticas. A solução X , se existir, é então um processo estocástico. A aleatoriedadede X = (Xt , t ∈ [0,T ]) resulta, por um lado, da condição inicial, e por outro, do ruído geradopelo movimento browniano.

Uma interpretação simplória de (3.6) nos conta que a mudança dXt = Xt+d t −Xt é causada pelavariação d t do tempo, com fator a(t ,Xt ), em combinação com a variação dBt = Bt+d t − Bt domovimento browniano, com fator b (t ,Xt ). Uma vez que o movimento browniano não possuicaminhos amostrais diferenciáveis (veja a seção 1.3.1), a seguinte questão pode ser imediatamentecolocada:

Em que sentido poderemos interpretar (3.6)?

110

Page 111: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.2. As equações diferenciais estocásticas de Ito

Claramente, não existe resposta única para esta questão. Mas como já possuímos uma idéia arespeito do cálculo de Ito, podemos propor o seguinte:

Interprete (3.6) como uma equação integral estocástica

Xt =X0+

∫ t

0a(s ,Xs )d s +

∫ t

0b (s ,Xs )dBs , 0≤ t ≤ T , (3.7)

onde a primeira integral do segundo membro da equação é uma integral de Rie-mann, e a segunda é uma integral estocástica de Ito.A equação (3.7) é denominada de equação diferencial estocástica de Ito.

Chamar a equação (3.7) de equação diferencial é contrário à intuição. Seu nome tem origem apartir da equação simbólica (3.6), mas esta última não tem significado a menos que se diga o queas diferenciais de fato são. Seguiremos aqui o costume generalizado e denominar (3.7) de equaçãodiferencial estocástica de Ito.

O movimento browniano B é denominado processo condutor da equação diferencialestocástica de Ito (3.7).

É possível substituir o movimento browniano por algum outro processo condutor, mas isto requera definição de integrais estocásticas mais gerais. Este tópico não cabe no presente livro. Podemoscitar as monografias de Chung e Williams (1990) ou Protter (1992) que introduzem a integralestocástica com respeito a semi-martingais. A última classe de processos contém o movimentobrowniano, mas também uma ampla variedade de processos de salto. São ferramentas úteis quandose está interessado em modelar o caráter de salto nos processos reais, por exemplo, uma oscilaçãode taxas de câmbio ou alguma queda brusca no mercado acionário.

A priori não é muito claro se as integrais em (3.7) são bem definidas. Por exemplo, será que pode-mos assegurar que b (s ,Xs ) é adaptado ao movimento browniano e a integral

∫ T0 E[b (s ,Xs )]

2d s éfinita? Estas são condições condições cruciais para a definição da integral estocástica de Ito; vejaa página 89. Mas será que poderemos verificar essas condições se não conhecemos a solução X ?Veremos logo adiante que existem condições simples para a existência e unicidade de soluções dasequações diferenciais estocásticas de Ito.

Tentaremos inicialmente responder à questão:

O que é uma solução de uma equação diferencial estocástica de Ito (3.7)?

Surpreendentemente, não existe uma resposta única. Podemos encontrar duas espécies de soluçõespara um equação diferencial estocástica. Elas serão chamadas de soluções fortes e fracas.

111

Page 112: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

Uma solução forte da equação diferencial estocástica de Ito (3.7) é um processo estocás-tico X = (Xt , t ∈ [0,T ]) satisfazendo às seguintes condições:

• X é adaptado ao movimento browniano, i.e., no instante t é uma função deBs , s ≤ t .

• As integrais ocorrendo em (3.7) são bem definidas como integrais de Riemannou integrais estocásticas de Ito, respectivamente.

• X é uma função do caminho amostral browniano subjacente das funções co-eficiente a(t , x) e b (t , x).

Assim, uma solução forte de (3.7) se baseia no caminho do movimento browniano subjacente. Setivéssemos de mudar o movimento browniano por outro, obteríamos outra solução forte, a qualseria fornecida pela mesma relação funcional, mas tendo o novo movimento browniano interna-mente.

Mas agora, o que é uma solução fraca?

Para essas soluções o comportamento do caminho não é essencial, uma vez que estamos tão-somente interessados na distribuição de X . A condição inicial X0e as funções coeficiente a(x, t ) eb (t , x) são dadas, e tudo que devemos fazer é encontrar um movimento browniano tal que (3.7)se verifique. Mencionamos que existem equações diferenciais estocásticas de Ito que possuem so-mente soluções fracas; veja Chung e Williams (1990), p. 248 para um exemplo.

Soluções fracas X são suficientes para determinar as características distribuicionais de X , tais comoa esperança, as funções de variância e de covariância do processo. Neste caso, não temos necessi-dade de conhecer os caminhos amostrais de X .

Uma solução X , fraca ou forte, da equação estocástica de Ito (3.7) é denominada dedifusão. Em particular, tomando a(t , x) = 0 e b (t , x) = 1 em (3.7), vemos que omovimento browniano é um processo de difusão.

No que se segue, consideraremos somente soluções fortes das equações diferenciais estocásticas de Ito.

Daremos inicialmente condições suficientes para a existência e unicidade de tais soluções. Umademonstração do resultado a seguir pode ser encontrada, por exemplo, em Kloeden e Platen(1992), seção 4.5, ou em Øksendahl (1985), teorema 5.5.

112

Page 113: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.2. As equações diferenciais estocásticas de Ito

Suponha que a condição inicial X0 possua um segundo momento finito: EX 20 <∞

e é independente de (Bt , t ≥ 0).Assuma que, para todo t ∈ [0,T ] e x, y ∈R, as funções coeficiente a(t , x) e b (t , x)satisfazem ás seguintes hipóteses:

• São contínuas.

• Satisfazem à condição de Lipschitz com respeito à segunda variável:

|a(t , x)− a(t , y)|+ |b (t , x)− b (t , y)| ≤K |x − y|.

Então a equação diferencial estocástica de Ito (3.7) possui solução forte única em[0,T ].

Exemplo 3.2.1. (Equações diferenciais lineares estocásticas)Considere a equação diferencial estocástica de Ito

Xt =X0+

∫ t

0(c1Xs + c2)d s +

∫ t

0(σ1Xs +σ2)dBs , t ∈ [0,T ], (3.8)

para constantes σi , i = 1,2.

As condições acima encontram-se satisfeitas (verifique!) para

a(t , x) = c1x + c2 e b (t , x) = σ1x +σ2. (3.9)

Uma equação diferencial estocástica de Ito (3.8) com funções coeficiente lineares (em x) é de-nominada equação diferencial estocástica de Ito linear. Na seção 3.3 daremos a solução da equaçãodiferencial estocástica linear geral. Em virtude da teoria acima, as equações diferenciais estocásti-cas lineares possuem uma única solução forte em qualquer intervalo [0,T ], quaisquer que sejamas escolhas das constantes ci e σi .

3.2.2. Resolvendo EDEs usando o lema de Ito

Nesta seção iremos resolver algumas equações diferenciais estocásticas elementares de Ito, usandoo lema de Ito. Claramente, os primeiros candidatos são as equações diferenciais estocásticas lin-eares. Elas são “simples” e possuem soluções fortes em qualquer intervalo finito [0,T ]; veja oexemplo 3.2.1.

Exemplo 3.2.2. (O movimento browniano geométrico como solução de uma equação diferencialestocástica de Ito com ruído multiplicativo) Considere a equação diferencial estocástica de Ito

Xt =X0+ c

∫ t

0Xs d s +σ

∫ t

0Xs dBs , t ∈ [0,T ], (3.10)

113

Page 114: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

Fig. 3.2 — Caminhos amostrais do movimento browniano geométrico e (c−0.5σ2)t+σBt com c = 0.01. Esquerda: σ = 0.01. Direita: σ = 0.1

Na segunda integral, de Ito, o movimento browniano e o processo X estão ligados de formamultiplicativa. Portanto, a equação diferencial estocástica de Ito (3.10) é reportada como a equaçãodiferencial estocástica de Ito com ruído multiplicativo.

Da equação (2.28) sabemos que:

O movimento browniano geométrico particular

Xt =X0e (c−0.5σ2)t+σBt , t ∈ [0,T ], (3.11)

resolve a equação (3.10), e pelo exemplo 3.2.1 concluímos que X é a solução únicade (3.10).A figura 3.2 mostra dois caminhos deste processo.

Lembre-se de como verificamos que X satisfaz á equação (3.10): nós aplicamos o lema de Ito.Agora iremo-nos defrontar com o problema inverso:

use o lema de Ito para encontrar a solução (3.11) de (3.10).

Suponha que Xt = f (t ,Bt ) para alguma função lisa f (t , x). Pelo lema de Ito (2.26):

Xt =X0+

∫ t

0

f1(s ,Bs )+

1

2f22(s ,Bs )

d s +

∫ t

0f2(s ,Bs )dBs . (3.12)

O processo X é um processo de Ito, e portanto podemos identificar os integrandos nas inte-grais de Riemann e de Ito, respectivamente, de (3.10) e (3.12) (veja a página 98 para o argumentonecessário). Este fato juntamente com a continuidade dos caminhos amostrais do movimentobrowniano acarretam o seguinte sistema de duas equações diferenciais parciais para f (isto porqueas derivadas parciais de f (t , x) estão envolvidas).

c f (t , x) = f1(t , x)+1

2f22(t , x), (3.13)

σ f (t , x) = f2(t , x). (3.14)

Da equação (3.14), obtemosσ2 f (t , x) = f22(t , x).

114

Page 115: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.2. As equações diferenciais estocásticas de Ito

Assim, as duas equações diferenciais (3.13) e (3.14) podem ser simplificadas:

(c − 0.5σ2) f (t , x) = f1(t , x), σ f (t , x) = f2(t , x). (3.15)

Tente escrever f (t , x) como produto de duas funções:

f (t , x) = g (t )h(x).

Então a equação (3.36) adquire a forma

(c − 0.5σ2)g (t ) = g ′(t ), σh(x) = h ′(x).

Ambas podem ser resolvidas por meio de separação de variáveis (veja o exemplo 3.1.2):

g (t ) = g (0)(0)e (c−0.5σ2)t , h(x) = h(0)eσ x .

Assim, obtemos

f (t , x) = g (0)h(0)e (c−0.5σ2)t+σ x .

Lembre-se agora de queX0 = f (0,B0) = f (0,0) = g (0)h(0).

Isto finalmente nos dá

Xt = f (t ,Bt ) =X0e (c−0.5σ2)t+σBt , t ∈ [0,T ],

que concorda com (3.11).Assim, a solução de uma equação diferencial estocástica de Ito pode em certas ocasiões ser derivadacomo solução de uma equação diferencial parcial (determinística).

Exemplo 3.2.3. (O processo de Ornstein-Uhlenbeck)Consideramos agora outra equação diferencial estocástica linear:

Xt =X0+ c

∫ t

0Xs d s +σ

∫ t

0dBs , t ∈ [0,T ]. (3.16)

A equação (3.16) é usualmente denominada de equação de Langevin.

Langevin (1908) estudou esta espécie de equação diferencial estocástica para modelar a velocidadede uma partícula browniana. Isto aconteceu bem antes da existência da teoria geral das equaçõesdiferenciais estocásticas.

Em contraste com (3.10), o movimento browniano e o processo X não estão diretamente ligadosna parte inteira de Ito em (3.16). Na literatura da física, o forcing aleatório em (3.16) é denominadoruído aditivo, o que é uma descrição adequada deste fenômeno.

O modelo (3.16) está relacionado com o mundo da análise de séries temporais. Escreva (3.16) naseguinte forma intuitiva:

dXt = cXt d t +σdBt ,

115

Page 116: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

e formalmente faça d t = 1. Então teremos

Xt+1−Xt = cXt +σ(Bt+1−Bt )

ouXt+1 =φXt +Zt ,

onde φ = c + 1 é uma constante e as variáveis aleatórias Zt = σ(Bt+1 − Bt ) constituem umaseqüência de variáveis aleatórias iid e normal N (0,σ2). Trata=se de um processo auto-regressivode ordem 1; confronte com o exemplo 1.2.1. Este modelo de série temporal pode ser consideradocomo um discreto análogo da solução da equação de Langevin (3.16).

Para resolver (3.16) a seguinte transformação de X é conveniente:

Yt = e−c t Xt .

Observe que ambos os processos, X e Y satisfazem às mesmas condições iniciais:

X0 = Y0.

Fig. 3.3 — Cinco caminhos amostrais do processo de Ornstein-Uhlenbeck (3.17). Esquerda: X0 = 1, e = 0.1,σ = 1. Direita: X0 = 10, c =−1,σ = 1.

Aplicando o lema de Ito (2.30) com

f (t , x) = e−c t x, f1(t , x) =−c f (t , x), f2(t , x) = e−c t , f22(t , x) = 0,

eA(1) = cX e A(2) = σ ,

obteremos

Y1−Y0 =

∫ t

0

f1(s ,Xs )+ cXs f2(s ,Xs )+

1

2σ2 f22(s ,Xs )

d s

+

∫ t

0[σ f2(s ,Xs )]dBs

=

∫ t

0[−cYs + cYs + 0]d s +

∫ t

0[σ e−c s]dBs

=

∫ t

0[σ e−c s]dBs .

116

Page 117: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.2. As equações diferenciais estocásticas de Ito

Nós concluímos:

O processo

Xt = e c t X0+σ e c t∫ t

0e−c s dBs , (3.17)

resolve a equação diferencial estocástica (3.16) de Langevin.

Para uma condição inicial constante X0, o processo é denominado processo deOrnstein-Uhlenbeck.A figura 3.3 mostra diversos caminhos do processo.

Para verificarmos que o processo X , dado por (3.17), é na realidade a solução de (3.16), aplique olema de Ito (2.30) ao processo Xt = u(t ,Zt ), onde

Zt =

∫ t

0c−c s dBs e u(t , x) = e c t X0+σ e c t x.

Além disto, uma vez que a equação de Langevin é uma equação diferencial estocástica de Ito,podemos concluir do exemplo (3.2.1) que X é a única solução forte de (3.16).

Verificamos que o processo de Ornstein-Uhlenbeck é um processo gaussiano. Assuma por simpli-cidade que X0 = 0. Da definição de integral estocástica de Ito temos que

∫ t

0e−c s dBs

é o limite pelo quadrado da média das somas de aproximação de Riemann-Stieltjes

Sn =n∑

i=1

e−c ti−1(Bti−Bti−1

)

para partições τn = (ti ) de [0, t], com m.a.p.(τn) → 0. Esta última soma possui distribuiçãonormal com média zero e variância

n∑

i=1

e c ti−1(ti − ti−1) (3.18)

(Verifique isto!) Observe que (3.18) é uma aproximação por somas de Riemann da integral∫ t

0e−2c s d s =

1

2c(1− e−2c t ).

Uma vez que a convergência pelo quadrado da média implica a convergência em distribuição (vejao Apêndice A.1, podemos concluir que o limite pelo quadrado da média Xt das somas Sn deRiemann-Stieltjes é normalmente distribuído. Isto é conseqüência do argumento dado no exemplo

117

Page 118: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

A.1.1 na página 153. Para X0, temos:

EXt = 0 e var(Xt ) =σ2

2c

e2c t − 1

.

Fig. 3.4 — Dois caminhos do processo bi-dimensional (B(1)t ,B

(2)t ), t ∈ [0,T ], onde B

(1)t e B

(2)t são dois movimentos brownianos independentes. Veja

o exemplo 3.2.4

Usando a mesma abordagem pelas somas de Riemann-Sieltjes, você poderá calcular tambéma função de covariância de um processo de Ornstein-Uhlenbeck com X0 = 0:

cov(Xs ,Xt ) =σ2

2c

e c(t+s )− e c(t−s )

, s < t . (3.19)

Uma vez que X é um processo gaussiano de média zero, esta função de covariância é característicapar o processo de Ornstein-Unlenbeck.

Exemplo 3.2.4. (Uma equação diferencial estocástica com dois movimentos brownianos condu-tores independentes)Sejam B (i ) = (B

(i )t , t ≥ 0) dois movimentos brownianos independentes e σi , i = 1,2 número reais.

Veja a figura 3.4 para uma ilustração do processo bi-dimensional (B (1)t ,B(2)t ).

Defina o processoeBt = (σ

21 +σ

22 )−1/2σ1B

(1)t +σ2B

(2)t

Utilizando a independência de B (1) e B (2), não é difícil de ver que

E eBt = 0 e cov(eBt , eBs ) =min(s , t )

i.e., eB possui exatamente as mesmas funções de esperança e de covariância do que o movimentobrowniano padrão; veja a página 28. Logo eB é um movimento browniano.

Considere agora a equação integral

Xt =X0+ c

∫ t

0Xs d s +σ1

∫ t

0Xs dB (1)

s+σ2

∫ t

0Xs dB (2)

s

para constantes c e σi .

118

Page 119: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.2. As equações diferenciais estocásticas de Ito

Interpretamos a última equação como

Xt −X0 =c

∫ t

0Xs d s +

∫ t

0Xs d

σ1B (1)

s+σ2B (2)

s

=c

∫ t

0Xs d s + (σ2

1 +σ22 )

1/2∫ t

0Xs d eBs , (3.20)

que é uma equação diferencial estocástica de Ito tendo eB como movimento browniano condutor.Do exemplo 3.2.2 podemos encontrar a solução:

X1 =X0e[c−0.5(σ21+σ

22 )]t+(σ

21+σ

22 )

1/2eBt

=X0e[c−0.5(σ21+σ

22 )]t+[σ1

eB (1)t +σ2eB (2)t ].

Na definição (3.20) de integral estocástica dada acima, nós tivemos sorte pelo fato de X aparecercomo um multiplicador de ambas as integrais. Seguindo padrões semelhantes aos da definição daintegral estocástica de Ito, é também possível introduzir a integral estocástica

∫ t

0A(1)

sdB (1)

s+

∫ 1

0A(2)

sdB (2)

s

para processos mais gerais A(i ). Além disto, os movimentos brownianos B (i ) podem ser depen-dentes, sendo também possível considerar mais do que dois movimentos brownianos condutores.

3.2.3. Resolvendo equações diferenciais estocásticas de Ito através do cálculo deStratonovich

Na seção 2.4 nós introduzimos a noção de integral estocástica de Stratonovich. Também expli-camos que algumas das regras básicas do cálculo clássico permanecem válidas formalmente, e emparticular podemos utilizar a regra da cadeia clássica. Gostaríamos de explorar essa propriedadepara resolver algumas equações diferenciais estocásticas de Ito.

Analogamente à equação diferencial estocástica de Ito, a equação diferencial estocástica deStratonovich é uma equação integral estocástica

Xt =X0+

∫ t

0ea(s ,Xs )d s +

∫ t

0

eb (s ,Xs ) dBs , t ∈ [0,T ], (3.21)

para funções coeficiente ea(t , x) e eb (t , x). A primeira integral é uma integral de Riemann, e asegunda é uma integral estocástica de Stratonovich. De forma usual, B = (Bt , t ≥ 0) denota ummovimento browniano. Um processo estocástico X é chamado de solução se ele obedecer (3.21).É comum escrever-se (3.21) na linguagem das diferenciais:

dXt = ea(t ,Xt )d t + eb (t ,Xt ) dBt t ∈ [0,T ],

119

Page 120: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

Suponha agora que X seja uma solução da equação diferencial estocástica de Ito

Xt =X0+

∫ t

0a(s ,Xs )d s +

∫ t

0b (s ,Xs )dBs t ∈ [0,T ], (3.22)

onde as funções coeficiente a(t , x) e b (t , x) satisfazem as condições de existência e unicidade dapágina 113.

Da fórmula de transformação (2.44) para as integrais de Stratonovich em termos das integraisde Riemann e Ito, temos

∫ t

0f (x,Xs ) dBs =

∫ t

0f (s ,Xs )dBs +

1

2

∫ t

0b (s ,Xs ) f2(s ,Xs )d s . (3.23)

Para f = b , obtemos∫ t

0b (s ,Xs )dBs =−

1

2

∫ t

0b (s ,Xs )b2(s ,Xs )d s +

∫ t

0b (s ,Xs ) dBs . (3.24)

Combinando esta relação com (3.22), obtemos a equação diferencial estocástica de Stratonovich:

Xt =X0+

∫ t

0ea(s ,Xs )d s +

∫ t

0b (s ,Xs ) dBs , (3.25)

onde

ea(t , x) = a(t , x)−1

2b (t , x)b2(t , x).

A equação diferencial estocástica de Ito (3.2) é equivalente à equação diferencial es-tocástica de Stratonovich (3.25) no sentido de que ambas possuem a mesma soluçãoforte, contanto que uma delas exista.

Considere o processo estocástico Yt = u(t ,Xt ), onde X é a solução de (3.22) (ou, de formaequivalente, de (3.25)), e u(t , x) é uma função lisa. Uma aplicação do lema de Ito (2.30) comA(1)t = a(t ,Xt ) e A

(2)t = b (t ,Xt ) acarreta que

Yt = Y0+

∫ t

0

u1+ au2+

1

2b 2u22

d s +

∫ t

0b u2dBs . (3.26)

As funções a, b , u e suas derivadas são claramente funções de s e Xs , mas suprimiremos esta de-pendência na notação para tornar as fórmulas acima mais compactas. Uma aplicação da fórmulade transformação (3.23) para f = b u2 e f2 = b2u2+ b u22 acarreta

∫ t

0b u2dBs =

∫ t

0b u2 dBs −

1

2

∫ t

0[b2u2+ b u22]b d s .

Combinando esta relação com (3.26), nós finalmente obtemos:

120

Page 121: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.2. As equações diferenciais estocásticas de Ito

Yt =Y0+

∫ t

0[u1+ (a− 0.5b b2)u2]d s +

∫ t

0b u2 cBs

=Y0+

∫ t

0[u1+ eau2]d s +

∫ t

0b u2 dBs (3.27)

Esta fórmula é o análogo exato da regra da cadeia clássica para uma função duasvezes diferenciável u(t , x).

De fato, suponha por um instante que x(t ) satisfaz à equação diferencial determinística

d x(t ) = ea(t , x(t ))d t + b (t , x(t ))d c(t ),

onde c(t ) é uma função diferenciável. Então as regras clássicas da diferenciação dão a seguintefórmula:

u(t + d t , x + d x)− u(t , x) =u1(t , x)d t + u2(t , x)d x

=[u1(t , x)+ ea(t , x)u2(t , x)]d t + b (t , x)u2(t , x)d c .

Esta analogia formal com (3.27) permite que se resolva as equações diferenciais es-tocásticas de Stratonovich utilizando as regras do cálculo clássico.

No que se segue, daremos alguns exemplos.

Exemplo 3.2.5. (Resolvendo uma equação diferencial estocástica de Ito por meio da resolução deuma equação diferencial estocástica de Stratonovich equivalente) Seja f uma função diferenciável.A) Considere a equação diferencial estocástica

Xt =X0+1

2

∫ t

0f (Xs ) f

′(Xs )d s +

∫ t

0f (Xs )dBs . (3.28)

Assim,

a(t , x) =1

2f (x) f ′(x) e b (t , x) = f (x).

A equação diferencial estocástica correspondente de Stratonovich (veja (3.25)) com funções coefi-ciente ea(t , x) = 0 e b (t , x) é dada por

Xt =X0+

∫ t

0f (Xs ) dBs .

Isto corresponde à equação diferencial determinística

d x(t ) = f (x(t ))d c(t ),

121

Page 122: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

onde c(t ) é uma função diferenciável. Usando a separação de variáveis clássica (veja o exemplo3.1.2), nós obtemos

∫ x(t )

x(0)

d x

f (x)= g (x(t ))− g (x(0)) =

∫ t

0d c(s ) = c(t )− c(0)

para alguma função g (x). Substitua x(t ) por Xt e c(t ) por Bt :

g (Xt )− g (X0) = Bt .

Espera-se que você possa resolver esta equação para X para obter uma solução explícita de (3.28).

Resolva agora a equação diferencial estocástica de Ito

Xt =X0+1

2n

∫ t

0X 2n−1

sd s +

∫ t

0X n

sdBs

para um inteiro positivo.B) Uma equação diferencial estocástica ligeiramente mais complicada é dada por

Xt −X0 =

∫ t

0

q f (Xs )+

1

2f (Xs ) f

′(Xs )

d s +

∫ t

0f (Xs )dBs (3.29)

para q constante.

Observe que

a(t , x) = q f (x)+1

2f (x) f ′(x) e b (t , x) = f (x).

A equação diferencial estocástica equivalente de Stratonovich é

Xt =X0+

∫ t

0[q f (Xs )]d s +

∫ t

0f (Xs ) dBs . (3.30)

Isto corresponde à equação diferencial determinística

d x(t ) = q f (x(t ))d t + f (x(t ))d c(t ), (3.31)

onde c(t ) é uma função diferenciável. Você poderá utilizar o princípio de separação de variáveispara resolver esta equação:

∫ x(t )

x(0)

d x

f (x)= g (x(t ))− g (x(0)) =

∫ t

0d c(s ) = q t + c(t )− c(0)

para alguma função g (x). Você poderá verificar a validade desta abordagem diferenciando as inte-grais no primeiro e segundo membros: você obterá (3.31). Invocando a regra da cadeia (3.27) deStratonovich nos dá a solução de (3.30), e portanto, para (3.29), ao substituirmos x(t ) por Xt ec(t ) por Bt :

g (Xt )− g (X0) = q t +Bt .

122

Page 123: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.3. A equação diferencial linear geral

Considere agora o seguinte exemplo: f (x) = x + 1 para x ≥ 0 e X0 = 0. Então g (x) = ln(1+ x) eln(1+Xt ) = q t +Bt ,

Xt =−1+ eq t+Bt .

Notas e comentários

A solução das equações diferenciais estocásticas é tratada em todos os livros texto relacionadoscom o cálculo de Ito; veja por exemplo as referências à página 92.

Nas aplicações das equações diferenciais estocásticas deve=ser tomar uma decisão a respeitode qual integral tomar, a de Ito ou de Stratonovich, ou seja, qual delas é a mais apropriada.Não existe uma resposta clara para se conhecer qual delas deveria ser usada. Ambos os tiposde equações são matematicamente significativas. A resposta depende de como pretendemos pre-cisamente que o processo de ruído na equação diferencial modele o ruído real. O cálculo clássicoé baseado em classes de funções lisas, em particular, as funções diferenciáveis. Os processos reaissão com freqüência lisos possuindo pelo menos um pequeno grau de correlação. Isto significa queo ruído é “suficientemente regular.” Neste caso, parece razoável modelar o processo por meiode uma equação diferencial estocástica de Stratonovich, porquanto as regras do cálculo clássicopermaneces válidas.

3.3. A equação diferencial linear geral

A equação diferencial estocástica linear geral:

Xt =X0+

∫ t

0[c1(s )Xs + c2(s )]d s +

∫ t

0[σ1(s )Xs +σ2(s )]dBs , t ∈ [0,T ] (3.32)

As funções coeficiente (determinísticas) ci e σi são contínuas, e portanto limitadasem [0,T ]; assim, não é difícil verificar que as condições de existência e unicidade napágina 113 garantem que (3.32) possui uma solução única forte.

Esta equação é importante pelas suas inúmeras aplicações. Ela é particularmente atraente porquepossui uma solução explícita em termos das funções coeficiente e de seu caminho amostral brown-iano subjacente. No que se segue, iremos derivar esta solução mediante uso múltiplo de variantesdistintas do lema de Ito.

3.3.1. Equações lineares com ruído aditivo

Fazendo σt (t ) = 0 na equação (3.32), obtém-se

123

Page 124: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

A equação com ruído aditivo:

Xt =X0+

∫ t

0[c1(s )Xs + c2(s )]d s +

∫ t

0σ2(s )dBs , t ∈ [0,T ]. (3.33)

Em termos das diferenciais, ela pode ser escrita como

dXt = [c1(t )Xt + c2(t )]d t +σ2(t )dBt , t ∈ [0,T ].

O processo X não está diretamente envolvido na integral estocástica, e é daí que (3.33) ganhou seunome. A solução de (3.33) é particularmente simples.

Um dos caminhos para resolver uma equação diferencial é tentar adivinhar sua forma a par-tir de exemplos particulares. Talvez esta abordagem não seja a mais satisfatória, uma vez que énecessário possuir bastante experiência para efetuar essa “adivinhação.” De qualquer maneira,vamos assumir que

Xt = [y(t )]−1Yt

onde

y(t ) = exp

¨−∫ t

0c1(s )d s

«e Yt = f (t ,Xt ),

para uma certa função lisa. Uma aplicação do lema de Ito na página 98 acarreta

dYt = d (y(t )Xt ) = c2(t )y(t )d t +σ2(t )y(t )dBt .

Integrando ambos os membros da equação e observando que y(0) = 1 — e portanto X0 = Y0 —,obtemos

A solução de (3.33):

Xt = [y(t )]−1

X0+

∫ t

0c2(s )y(s )d s +

∫ t

0σ2(s )y(s )dBs

. (3.34)

Se X0 é uma constante, isto define um processo gaussiano. (Você poderá verificar este fato ob-servando que a integral estocástica é o limite pelo quadrado da média, e portanto o limite emdistribuição, das somas de Riemann-Stieltjes as quais são variáveis aleatórias gaussianas uma vezque o integrando σ2(s )y(s ) é determinístico; confronte com o exemplo A.1.1 na página 153.)

Exemplo 3.3.1. (A equação de Langevin)No exemplo 3.2.3 nós já havíamos considerado a equação de Langevin. Trata-se da equação (3.33)com c1(t ) = c , c2(t ) = σ , para c e σ constantes. A solução é dada por

Xt = e c t X0+σ e c t∫ t

0e−c s dBs t ∈ [0,T ].

124

Page 125: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.3. A equação diferencial linear geral

Nós estudamos no exemplo 3.2.3 que X é denominado de processo de Ornstein-Uhlenbeck, con-tanto que X0 seja constante. A função de covariância deste processo gaussiano está dado em (3.19).

Fig. 3.5 — Dois caminhos amostrais do modelo de taxas de juros d rt = c[µ− rt ]d t+σdBt , com σ = 0.5, r0 = 5.05 eµ= 5. Esquerda: c = 0.2.

Direita: c = 1. Ambos os gráficos mostram que rt reverte do valor inicial r0 = 5.05 para o valor médio µ = 5 A velocidade de como isto acontece é

determinada por c .

Exemplo 3.3.2. (O modelo de Vasicek de taxas de juros)Este é um dos modelos padrão para a descrição da taxa de juros para dar e tomar empréstimosem dinheiro, quando a taxa não é suposta constante, mas uma função aleatória rt do tempo t .Uma vez que r pode variar de instante para instante, rt é também denominada de taxa de jurosinstantânea. O modelo de Vasicek é dado pela equação diferencial linear estocástica

rt = r0+ c

∫ t

0[µ− rs]d s +σ

∫ t

0dBs , t ∈ [0,T ], (3.35)

ou, na linguagem das diferenciais,

d rt = c[µ− rt ]d t +σdBt , t ∈ [0,T ],

onde c , µ e σ são constantes positivas. A base lógica deste modelo reside no fato de que supõe-seque rt flutue ao redor da média µ. Quando rt se desvia de µ, ele será imediatamente atraídode novo em direção a µ. A velocidade com que isto acontece é ajustada pelo parâmetro c . Esteponto encontra-se bem ilustrado na figura 3.5. Isto também pode ser visto da forma das funçõesde esperança e variância; veja (3.36) e (3.37). O terceiro parâmetro σ é a medida da ordem demagnitude das flutuações de rt ao redor de µ; veja (3.37). Ele é denominado de volatilidade.

Da solução geral (3.34) podemos encontrar a solução de (3.35):

rt = r0e−c t +µ(1− e−c t )+σ e−c t∫ t

0e c s dBs .

Estamos supondo que r0 seja constante. Então r é um processo gaussiano. Para µ = 0 obtemosum processo de Ornstein-Uhlenbeck. Não é difícil de calcular que

E rt = r0e−c t +µ(1− e−c t ) (3.36)

e

var(rt ) =σ2

2c(1− e−2c t ) (3.37)

125

Page 126: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

Você poderá verificar essas fórmulas usando os resultados para o processo de Ornstein-Uhlenbeck;veja o exemplo 3.2.3. De forma alternativa, você poderá usar os resultados da seção 3.3.4.

Quando t → 0, a variável aleatória converge em distribuição para uma variável aleatória do tipoN (µ,σ2/(2c)). Uma vez que rt é gaussiano, ele assume valores negativos com probabilidade pos-itiva. Esta propriedade não é muito desejável para taxas de juros. No entanto, se t é grande, eσ2/(2c) é pequeno comparado a µ, então é pouco provável que rt seja negativo; veja a figura 3.5para uma ilustração dos caminhos amostrais de um processo de Vasicek. Existem vários outrosmodelos para taxas de juros que superam esta propriedade patológica do processo de Vasicek; vejapor exemplo Lamberton e Lapeyre (1996).

3.3.2. Equações homogêneas com ruído multiplicativo

Outro caso especial da equação diferencial estocástica linear geral (3.32) é dado por

A equação linear homogênea:

Xt =X0+

∫ t

0c1(s )Xs d s +

∫ t

0σ1(s )Xs dBs , t ∈ [0,T ], (3.38)

ou, na linguagem das diferenciais,

dXt = c1(t )Xt d t +σ1(t )Xt dBt , t ∈ [0,T ].

Uma vez que Xt aparece com um fator dos incrementos do movimento browniano,(3.38) é denominada equação diferencial estocástica com ruído multiplicativo. Ela édenominada de homogênea porque c2(t ) = σ2(t ) = 0 para todo t .

Uma vez que podemos dividir ambos os membros de (3.38) por X0, podemos assumir que X0 = 1.(O caso em que X = 0 corresponde ao caso trivial em que Xt é identicamente nulo, que não é denosso interesse.) Uma vez que esperamos uma solução tendo forma exponencial, suporemos queXt > 0 para todo t . Isto nos permite considerar Yt = lnXt = f (Xt ) e aplicar o lema de Ito (2.30)na página 98 com

f (t , x) = ln x, f1(t , x) = 0, f2(t , x) = x−1, f22(t , x) =−x−2.

Nós obtemosdYt = [c1(t )− 0.5σ2

1 (t )]d t +σ1(t )dBt . (3.39)

Primeiramente, integre ambos os membros desta equação, depois tome exponenciais, e finalmentecorrija o valor inicial se X0 6= 1.

126

Page 127: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.3. A equação diferencial linear geral

A solução da equação linear homogênea (3.38):

Xt =X0 exp

¨∫ t

0[c1(s )− 0.5σ2

1 (s )]d s +

∫ t

0σ1(s )dBs

«, t ∈ [0,T ]. (3.40)

Você poderá verificar que X é uma solução1 mediante a aplicação do lema de Ito para f (Yt ) = 1 faça-o!X0 exp(Yt ), onde dYt é dado por (3.39).

Exemplo 3.3.3. (Movimento browniano geométrico)O exemplo mais proeminente de uma equação diferencial estocástica homogênea com ruído mul-tiplicativo foi tratado no exemplo 3.2.2: c1(t ) = c ,σ1(t ) = σ para constantes c e σ . Nós descobri-mos que o movimento browniano geométrico

Xt =X0e (c−0.5σ2)t+σBt , t ∈ [0,T ],

é a única solução forte desse caso. Isto concorda com a solução (3.40) da equação diferencialestocástica homogênea geral (3.38). O movimento browniano geométrico é da maior importâncianas aplicações em finanças; veja o capítulo 4.

3.3.3. O caso geral

Estamos agora bem equipados para resolver a equação diferencial estocástica linear geral (3.32).Isto pode ser obtido embutindo a equação (3.32) em um sistema de duas equações diferenciaisestocásticas.

Lembre-se da solução Y da equação diferencial estocástica homogênea (3.38) com Y0 = 1. Elaé dada pela fórmula (3.40) (com X substituído por Y ). Considere os seguintes dois processos:

X 1t= Y−1

te X

(2)t =Xt .

Aplique o lema de Ito (2.30) da página 98 a Y−1t

(com f (t , x) = x−1). Depois de algumas transfor-mações de cálculo, podemos obter

dX(1)t = [−c1(t )+σ

21 (t )]X

(1)t d t −σ1(t )X

(1)t dBt

Mediante a integração por partes dada pela fórmula (2.35) obtém-se

d (X(1)t X

(2)t ) = [c2(t )−σ1(t )σ2(t )]X

(1)t d t +σ2(t )X

(1)t dBt

Integre agora ambos os lados e lembre-se de que Y0 = 1. Tendo em mente as formas particularesde X

(1)t e X

(2)t , finalmente chegamos a

127

Page 128: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

A solução da equação linear geral (3.32):

Xt = Yt

X0+

∫ t

0[c2(t )−σ1(t )σ2(t )]Y

−1s

d s +

∫ t

0σ2(s )Y

−1s

dBs

,

t ∈ [0,T ]. (3.41)

Aqui, o processo Y é a solução (3.40) da equação homogênea (3.38) (onde X foisubstituído por Y ) com a condição inicial Y0 = 1.

Na realidade nós também derivamos a solução da equação diferencial determinística correspon-dente

d x(t ) = [c1(t )x(t )+ c2(t )]d t , t ∈ [0,T ].

3.3.4. As funções de esperança e variância da solução

Se nós temos a solução explícita de uma equação diferencial estocástica, podemos em princípiodeterminar suas funções de esperança e variância. Nós pudemos efetuar isto no caso do processode Ornstein-Uhlenbeck (veja (3.19) na página 118 ) e para o movimento browniano geométrico(veja (1.16) e (1.17) na página 34).

No que se segue, tomaremos outra via para calcularmos

µX (t ) = EXt e qX (t ) = EX 2(t ), t ∈ [0,T ].

Claramente, então poderemos também calcular σ2X= var(Xt ).

A equação diferencial estocástica linear geral possui a seguinte forma:

Xt =X0+

∫ t

0[c1(s )Xs + c2(s )]d s +

∫ t

0[σ1(s )Xs +σ2(s )]dBs , t ∈ [0,T ].

Tome as esperanças em ambos os lados e observe que a integral estocástica possui esperança zero;veja a página 91. Portanto,

µX (t ) =µX (0)+∫ t

0[c1(s )µX (s )+ c2(s )]d s .

Isto corresponde à equação diferencial linear geral para µX (t )

µ′X(t ) = c1(t )µX (t )+ c2(t ).

Tendo em mente a observação ao final da seção anterior, podemos escrever a solução µX destaequação diferencial em termos de c1 e c2. Derive µX para o processo de Orenstein-Uhlenbeck epara o movimento browniano geométrico e compare com as fórmulas conhecidas.

128

Page 129: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.4. Solução numérica

Podemos proceder de forma análoga para qX (t ). Para obter uma equação diferencial estocás-tica par X 2

t, primeiramente aplique o lema de Ito (2.30) da página 98:

X 2t=X 2

0+

∫ t

0[2Xs (c1(s )Xs + c2(s ))+ [σ1(s )Xs +σ2(s )]

2]d s

+

∫ t

0[2Xs (σ1(s )Xs +σ2(s ))]dBs ,

e depois tome esperanças:

qX (t ) = qX (0)+∫ t

0[[2c1(s )+σ

21 (s )]qX (s )+ 2[c2(s )+σ1(s )σ2(s )]µX (s )+σ

22 (s )]d s .

Esta é a equação diferencial linear geral de qX (t ) (observe que µX (t ) já é conhecido):

q ′X(t ) = [2c1(t )+σ

21 (t )]qX (t )+ 2[c2(t )+σ1(t )σ2(t )]µX (t )+σ

22 (t ),

cuja solução pode ser derivada como um caso especial de (3.41); veja a observação ao final da seçãoanterior. Não há dúvida nenhuma: as soluções µX e qX possuem um aspecto bastante confuso,mas no caso de funções coeficiente constantes ci e σi , você poderá tentar obter as funções deesperança e variância de X .

3.4. Solução numérica

As equações diferenciais estocásticas que admitem solução explícita são exceção da regra. Portanto,técnicas numéricas de aproximação da solução de uma equação diferencial estocástica se impõem.No que se segue, designaremos uma tal aproximação por solução numérica.

Soluções numéricas são necessárias para propósitos distintos. O nosso propósito aqui é visu-alizar uma variedade de caminhos amostrais para uma solução. Uma coleção de tais caminhos épor vezes denominada cenário. Ele dá a impressão do comportamento possível de um caminhoamostral. Nesse sentido, podemos obter uma espécie de “previsão” do processo estocástico eminstantes futuros do tempo. Mas um cenário deve ser interpretado com cuidado. No mundo realnunca conhecemos o caminho amostral browniano que conduz a equação diferencial estocástica,e a simulação de alguns desses caminhos não é representativa do quadro geral.

Um segundo objetivo (talvez o mais importante) é o de obter aproximações razoáveis dascaracterísticas distribuicionais da solução de uma equação diferencial estocástica. Elas incluemesperanças, variâncias, covariâncias e momentos de ordem superior. Isto é de fato um assuntoimportante, uma vez que em pouquíssimos casos somos capazes de fornecer fórmulas ezplícitaspara essas quantidades, e mesmo assim, elas com freqüência envolvem funções especiais que so-mente podem ser aproximadas numericamente. Soluções numéricas nos permitem simular tantoscaminhos amostrais quanto desejarmos; elas constituem a base das técnicas de Monte-Carlo paraobter-se características distribuicionais.

Com a finalidade de ilustração, vamo-nos restringir a soluções numéricas da equação diferencialestocástica

dXt = a(Xt )d t + b (Xt )dBt , t ∈ [0,T ], (3.42)

129

Page 130: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

onde, de forma usual, B denota um movimento browniano, e a “equação diferencial” é na realidadeuma equação integral estocástica. Nós também iremos assumir que as funções coeficiente a(x) eb (x) são funções contínuas satisfazendo à condição de Lipschitz. Se além disto EX 2

0 <∞, essashipóteses garantem a existência e unicidade de uma solução forte; veja a página 113.

3.4.1. A aproximação de Euler

Uma solução numérica X (n) = (X(n)t , t ∈ [0,T ]) da equação diferencial estocástica (3.42) é um

processo estocástico que aproxima a solução X = (Xt , t ∈ [0,T ]) de (3.42) em um sentido a sertornado preciso mais adiante. Uma tal solução é caracterizada por uma partição τn de [0,T ]:

τn 0= t0 < t1 < . . .< tn−1 < tn = T ,

com a máxima amplitude dos intervalos igual a

δn =m.a.p.(τn) = maxi=1...n

(ti − ti−1) = maxi=1...n

∆i .

O processo X (n) é calculado somente nos pontos ti da partição τn , e portanto tem-se a liberdadede escolher X (n) nos intervalos [ti−1, ti]. Uma vez que estamos interessados nas soluções X comcaminhos amostrais contínuos, iremos supor que X

(n)

iem (ti−1, ti ) é obtido mediante uma simples

interpolação dos pontos (ti−1,X(n)ti−1).

Um esquema de aproximação numérica determina X (n) nos pontos ti . Uma forma simplóriade se obter uma solução numérica é substituir as diferenciais na equação diferencial estocástica(3.42) por diferenças. Isto nos conduz ao seguinte esquema iterativo:

(O esquema da aproximação de Euler:)Denote da forma usual

∆i = ti − ti−1 e ∆i B = Bti−Bti−1

, i = 1 . . . n.

Então

X(n)0 = X0

X(n)t1

= X(n)0 + a(X

(n)0 )∆1 + b (X

(n)0 )∆1B

X(n)t2

= X(n)t1

+ a(X(n)t1)∆2 + b (X

(n)t1)∆2B

......

......

X(n)tn−1

= X(n)tn−2

+ a(X(n)tn−2)∆n−1 + b (X

(n)tn−2)∆n−1B

X(n)

T= X

(n)tn−1

+ a(X(n)tn−1)∆n + b (X

(n)tn−1)∆nB .

Na prática usualmente escolhemos pontos equidistantes ti tais que

δn =m.a.p.(τn) = T /n,

130

Page 131: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.4. Solução numérica

eX(n)

iT /n=X

(n)

(i−1)T /n+ a(X

(n)

(i−1)T /n)δn + b (X

(n)

(i−1)T /n)∆i B , i = 1 . . . n. (3.43)

As figuras 3.6 e 3.7 mostram como a aproximação de Euler funciona na prática. Várias questõesemergem de forma natural:

(a) Em qual sentido a solução numérica está próxima da solução X ?

(b) Como podemos medir a qualidade da aproximação de X por X (n)?

(c) Haveria uma aproximação melhor do que a do esquema de Euler?

A terceira questão possui uma resposta positiva; veja a seção 3.4.2. As duas primeiras questõespossuem várias respostas. Se estivermos interessados e aproximações através de caminhos para X ,nós gostaríamos que X (n)(ω) estivesse “próximo” ao caminho amostral X (ω) para um dado cam-inho browniano B(ω). Na prática, nunca sabemos este último caminho, mas podemos facilmentesimular caminhos brownianos no computador; veja a seção 1.3.3 para uma breve introdução aeste tópico. Como medida de qualidade da aproximação através de caminhos podemos escolher aquantidade

es (δn) = E[XT (ω)−X(n)

T(ω)].

Observe que es de fato descreve a ω-comparação (i.e., a comparação através de caminhos) de X eX (n) em t = T . O índice “s” de es indica que se trata de uma aproximação forte (strong em inglês);uma aproximação através de caminhos de X é usualmente denominada de solução numérica forte;veja as considerações abaixo. Certamente existem critérios mais apropriados para descrever aproximidade pelos caminhos entre X e X (n); um deles poderia ser E supt∈[0,T ] |Xt (ω)−X

(n)t (ω)|.

No entanto, esta última quantidade é mais difícil de lidar teoricamente. Portanto, vamos acreditarque os caminhos X (n)(ω) e X (ω) estejam próximos no final do intervalo [0,T ].

Dizemos que X (n) é uma solução numérica forte da equação diferencial estocástica(3.42) se

es (δn)→ 0 quando δn =m.a.p.(τn)→ 0.

Em contraste com a solução numérica forte, uma solução numérica fraca visa a aproximaçãodos momentos da solução X . Neste caso, não é essencial o quão próximo Xt (ω) e X

(n)t (ω) real-

mente estejam. O que importa é que a diferença de momentos seja pequena.

ew (δn) =E f (XT )− E f (X

(n)

T)

Aqui, f é escolhida de uma classe ed funções lisas, por exemplo, alguns polinômios ou funçõescom um crescimento polinomial específico. Nós nos abstemos de discutir essas classes de funçõesporque suas definições são técnicas, e elas costumam diferir na literatura. O índice “w” em ew

indica tratar-se de aproximações fracas (em inglês weak). Como já foi feito anteriormente, nóspoderíamos perguntar-nos o porquê da comparação dos momentos E f (XT ) e E f (X

(n)

T) somente

para t = T , mas de novo, isto é feito tão-somente por simplicidade teórica.

131

Page 132: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

Fig. 3.6 — O esquema equidistante de Euler (3.43) em funcionamento: soluções numéricas (linhas interrompidas) e soluções exatas da equação

diferencial estocástica dXt = 0.01Xt d t + 0.01Xt dBt , t ∈ [0,T ], com X0 = 1.

132

Page 133: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.4. Solução numérica

Dizemos que X (n) é uma solução numérica fraca da equação diferencial estocástica(3.42) se

ew (δn)→ 0 quando δn =m.a.p.(τn)→ 0.

Para medirmos a qualidade da aproximação de X por X (n) introduzimos a ordem de convergência.

A solução numérica X (n) converge fortemente para X com ordem γ > 0 se existiruma constante c > 0 tal que

es (δn)≤ cδγn

para δn ≤ δ0.

A solução numérica X (n) converge fracamente para X com ordem γ > 0 se existiruma constante c > 0 tal que

ew (δn)≤ cδγn

para δn ≤ δ0.

A aproximação equidistante de Euler (veja (3.43)) converge fortemente com ordem0.5 e fracamente com ordem 1.0 (para uma dada classe de funções tendo crescimentoapropriado.

3.4.2. A aproximação de Milstein

A aproximação de Euler pode ser ainda mais melhorada. Ilustraremos este fato introduzindo aaproximação de Milstein. Da mesma maneira que foi feito anteriormente, consideramos a equaçãodiferencial estocástica

Xt =X0+

∫ t

0a(Xs )d s +

∫ t

0b (Xs )dBs , t ∈ [0,T ].

Para os pontos ti da partição τn podemos considerar a diferença Xti−Xti−1

e obter:

Xti=Xti−1

+

∫ ti

ti−1

a(Xs )d s +

∫ ti

ti−1

b (Xs )dBs , i = 1 . . . n. (3.44)

A aproximação de Euler se baseia na discretização das integrais em (3.44). Para podermos vê-lo,considere as aproximações

∫ ti

ti−1

a(Xs )d s ≈ a(Xti−1)∆i ,

∫ ti

ti−1

b (Xs )dBs ≈ b (Xti−1)∆i B ,

133

Page 134: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

e então, substituímos Xt por X(n)ti

:

X(n)ti=X

(n)ti−1+ a(X

(n)ti−1)∆i + b (X

(n)ti−1)∆i B , i = 1 . . . n.

A aproximação de Milstein explora uma assim chamada expansão de Taylor-Ito da relação(3.44). A idéia consiste em aplicar o lema de Ito da página 98 aos integrandos a(Xs ) e b (Xs )em (3.44). Para tornar as fórmulas abaixo mais compactas, escreveremos a, b ,a′, . . . ao invés dea(Xy ), b (Xy ),a′(Xy ), . . ..

Xti−Xti−1

=

∫ ti

ti−1

a(Xti−1

)+

∫ s

ti−1

aa′+

1

2b 2a′′

d y +

∫ s

ti−1

ba′dBy

d s

+

∫ ti

ti−1

b (Xti−1

)+

∫ s

ti−1

ab ′+

1

2b 2b ′′

d y +

∫ s

ti−1

b b ′dBy

dBs

=a(Xti−1)∆i + b (Xti−1

)∆i B +Ri , (3.45)

onde o resto é dado por

Ri = R(1)i+R

(2)i=

∫ ti

ti−1

∫ s

ti−1

b b ′dBy

dBs +R

(2)i

. (3.46)

A integral estocástica dupla R(1)i

é então aproximada por

R(1)i≈ b (Xti−1

)b ′(Xti−1)

∫ ti

ti−1

∫ s

ti−1

dBy

!dBs . (3.47)

Denote esta dupla integral do segundo membro por I . O cálculo de I é bastante delicado. Lembre-se da página 81 de que (dBs )

2 = d s , e portanto

∫ ti

ti−1

(dBs )2 =

∫ ti

ti−1

d s =∆i .

Considere a integral dupla

(∆i B)2 =

∫ ti

ti−1

dBs

! ∫ ti

ti−1

dBy

!=

∫ ti

ti−1

∫ ti

ti−1

dBy

!dBs . (3.48)

De forma alternativa, interpretamos a última integral em sentido heurístico como

∫ ti

ti−1

∫ s

ti−1

dBy

!dBs =

∫ ti

ti−1

∫ ti

s

dBy

dBs +

∫ ti

ti−1

(dBs )2

= 2∫ ti

ti−1

∫ s

ti−1

dBy

!dBs +∆i = 2I +∆i . (3.49)

134

Page 135: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3.4. Solução numérica

Combinando (3.47) com (3.48) e (3.49) tem-se

R(1)i≈

1

2b (Xti−1

)b ′(Xti−1)[(∆i B)

2−∆i]. (3.50)

Supondo algumas condições relativamente fracas para as funções coeficiente a(x) e b (x), podemosmostrar que R

(2)i

é pequeno quando comparado a R(1)i

. Assim, o último termo determina a ordemde magnitude de Ri . As relações (3.45) e (3.50) dão a motivação para a definição do esquema deaproximação de Milstein. Observe que este esquema é o esquema de aproximação de Euler com umtermo adicional de correção contendo os incrementos ao quadrado do movimento browniano.

O esquema de aproximação de Milstein:X(n)0 =X0 e para i = 1 . . . n,

X(n)ti=X

(n)ti−1+ a(X

(n)ti−1)∆i + b (X

(n)ti−1)∆i B

+1

2b (X

(n)ti−1)b ′(X (n)ti−1

)[(∆i B)2−∆i].

A aproximação de Milstein conduz a uma melhoria substancial da qualidade da aproximaçãonumérica da solução:

A aproximação de Milstein equidistante converge fortemente com ordem 1.0

Essa melhoria encontra-se bem ilustrada na figural 3.7.

Notas e comentários

A aproximação de Milstein pode ser aprimorada ainda mais aplicando-se o lema de Ito aos inte-grandos do resto Ri ; (veja (3.46).) A forma das soluções numéricas se tornam pois mais e maiscomplicadas. No entanto, tendo em vista o poder computacional dos computadores modernos,este assunto não deve ser motivo de preocupação.

As expansões de Taylor-Ito tais como em (3.45) envolvem múltiplas integrais estocásticas.O tratamento rigoroso requer um nível teórico ainda mais avançado. Isto também diz respeito àderivação (3.50); esta última relação foi obtida mediante alguns argumentos de natureza heurística.A solução numérica das equações diferenciais estocásticas é uma área relativamente nova da teoriadas probabilidades. Uma retrospectiva das técnicas numéricas existentes é dada em Kloeden ePlaten (1992) e o livro que o acompanha de Kloeden, Platen e Schurz (1994). Este último livrovisa a introdução das equações diferenciais estocásticas e sua resolução através de experimentoscomputacionais.

135

Page 136: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

3. Equações diferenciais estocásticas (EDE)

Fig. 3.7 — Uma comparação entre os esquemas equidistantes de Euler (coluna à esquerda) e de Milstein (coluna da direita). Em cada uma das figuras

são dadas uma solução numérica (linhas interrompidas) e a solução exata da equação diferencial estocástica dXt = 0.01Xt d t+2Xt dBt , t ∈ [0,1],com X0 = 1. Observe a melhoria significativa do esquema de aproximação de Milstein para n grande, particularmente ao final do intervalo.

136

Page 137: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

CAPÍTULO 4

APLICAÇÕES DO CÁLCULO ESTOCÁSTICO EMFINANÇAS

Desde a publicação dos célebres artigos de Black e Scholes (1973) e Merton (1973), a idéia de seutilizar o cálculo estocástico para modelar preços de ativos com risco (como por exemplo preçosde ações, índices de ações como o Dow Jones, Nikkei ou DAX, taxas de câmbio, taxas de juros,e assim por diante) tem sido de um modo geral aceita. Isto nos levou a um novo ramo da teoriaaplicada das probabilidades, o campo das finanças matemáticas. Trata-se de uma simbiose entre amodelagem estocástica, raciocínio econômico e engenharia financeira prática.

No presente capítulo, consideraremos o modelo de Black e Scholes para o apreçamento deuma opção de compra européia. Não se preocupe se você não possui conhecimento anterior dosprocessos econômicos e financeiros. Você precisa ter no mínimo conhecimento de alguns termosda linguagem econômica, e no máximo conhecimento do lema de Ito. Na seção 4.1 explicaremosalguns termos que são básicos em finanças: bonus, ação, opção, carteira, volatilidade, estratégia denegociação, hedging, maturidade de um contrato, auto-financiamento, arbitragem são palavras quepoderão lhe causar alguns transtornos. A fórmula de Black-Scholes para o apreçamento de opçõesde compra européias serão obtidas como solução de uma equação diferencial parcial particular.

Uma vez que noções como medida martingal equivalente e mudança de medida se tornarampredominantes na literatura de finanças, daremos na seção 4.2 uma breve introdução a este assunto.Isto requer algum conhecimento de ferramentas de teoria da medida, mas, como de costume, man-teremos a teoria em um nível de adequação alcançável. Esperamos que as idéias chave se tornemtransparentes, e daremos outra derivação da fórmula de Black-Scholes utilizando a mudança naideologia da medida.

4.1. A fórmula de Black-Scholes do apreçamento de opções

4.1.1. Uma breve excursão através das finanças

Nós assumiremos que o preço Xt de um ativo com risco (que pode ser chamado de ação) no instantet é dado por um movimento browniano geométrico da forma:

Xt = f (t ,Bt ) =X0e (c−0.5σ2)t+σBt , (4.1)

137

Page 138: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4. Aplicações do cálculo estocástico em finanças

onde, como de costume, B = (Bt , t ≥ 0) é um movimento browniano, e X0 está sendo supostoindependente de B . A motivação para essas hipóteses sobre X advém do fato de que X é a únicasolução forte da equação diferencial estocástica

Xt =X0+ c

∫ t

0Xs d s +σ

∫ t

0Xs dBs , (4.2)

a qual pode ser formalmente escrita como

dXt = cXt d t +σXt dBt ,

Isto foi demonstrado no exemplo 3.2.2. Se interpretarmos essa equação de forma simplória, tere-mos no intervalo [t , t + d t]:

Xt+d t −Xt = cXt d t +σXt dBt

De forma equivalente,Xt+d t −Xt

Xt

= cd t +σdBt .

A quantidade do primeiro membro da equação é o retorno relativo do ativo no período de tempo[t , t + d t]. Isto nos diz que existe uma tendência linear cd t que é perturbada por um termo deruído estocástico σdBt . A constante c > 0 é a assim chamada taxa média de retorno, e σ > 0 é avolatilidade. Uma visão de relance da fórmula (4.1) nos diz que, quanto maior σ , tanto maioresserão as flutuações de Xt . Você também poderá verficá-lo com a fórmula da função de variânciado movimento browniano geométrico, fornecido em (1.18). Assim, σ é a medida do risco de umativo.

Acredita-se que o modelo (4.2) é uma primeira aproximação razoável, ainda que incipientedo processo real de preços. Se você esquecer por alguns instantes o termo com σ , i.e., assumirque σ = 0, então (4.2) é uma equação diferencial determinística possuindo a conhecida soluçãoXt = X0 expc t. Assim, se σ > 0, deveremos esperar obter uma função exponencial perturbadaaleatoriamente, e este é o movimento browniano geométrico (4.1). Os economistas acreditam emcrescimento exponencial, e portanto estão bastante satisfeitos com o modelo.

Suponha agora que você tenha um ativo livre de risco tal como uma conta bancária. Emfinanças, ele é denominado de bonus. Estamos assumindo que um investimento de β0 em bonusrenda a quantia de

βt =β0e r t

no instante t . Assim, seu capital inicial β0 foi composto de forma contínua a uma taxa constantede juros r > 0. Trata-se de uma idealização, uma vez que as taxas de juros variam ao longo dotempo. Observe que β satisfaz à equação integral determinística

βt =β0+ r

∫ t

0βs d s . (4.3)

Em geral, você gostaria de manter em sua carteira alguma quantidade de ativos: at em ações e bt

em bonus. Esta posição define a sua carteira. Assumiremos que at e bt são processos estocásticos

138

Page 139: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4.1. A fórmula de Black-Scholes do apreçamento de opções

adaptados ao movimento browniano. Denominemos o par

(at , bt ), t ∈ [0,T ],

uma estratégia de negociação. Claramente, você irá querer escolher uma estratégia em que você nãoperca. Como escolher (at , bt ) de forma razoável será discutido abaixo. Observe que sua riquezaVt (ou o valor de sua carteira) no instante t poderá ser dado por

Vt = at Xt + btβt .

Nós permitiremos que at ou bt ou ambos possam assumir valores negativos. Um valor negativode at significa que o investidor se encontra em uma posição vendida em ações, i.e., as ações estãovendidas no instante t . Um valor negativo de bt significa que foi efetuado um empréstimo a umataxa livre de risco r . Na realidade, você teria a necessidade de pagar pelos custos de transaçãopelas operações de venda de ações, mas, por simplicidade, elas serão desprezadas. Além disto, nãoestamos supondo que at e bt sejam limitados. Assim, em princípio, você poderá se permitir em terdívidas ilimitadas. É claro que isto é uma simplificação, tornando os problemas matemáticos maissimples. E finalmente estamos admitindo que você não gaste dinheiro para outras finalidades, i.e.,que você não diminua o valor de sua carteira pelo consumo.

Estamos assumindo que sua estratégia de negociação (at , bt ) é auto-financiada. Isto significaque os incrementos de sua riqueza Vt resultem somente das variações dos preços de seus ativos Xt

e βt . A condição de auto-financiamento pode ser formulada em termos de diferenciais:

dVt = d (at Xt + btβt ) = at dXt + bt dβt ,

o que é interpretado no sentido de Ito pela relação:

Vt −V0 =

∫ t

0d (as Xs + bsβs ) =

∫ t

0as dXs +

∫ t

0bs dβs .

As integrais do segundo membro claramente fazem sentido se você substituir dXs por cXs +σXs dBs (veja (4.3)). Assim, o valor de sua carteira no instante t é precisamente igual ao investi-mento inicial V0 acrescido dos ganhos de capital de ações e bonus até o instante t .

4.1.2. O que é uma opção?

Suponha que você agora compre um bilhete denominado opção, no instante t = 0, o que lhepermite de comprar uma título até, ou exatamente no instante T . Este instante é chamado dematuridade ou data de vencimento da opção. Se você puder exercer esta opção a um preço fixo K ,chamado preço de exercício ou strike, somente na maturidade T , a opção é denominada de opçãoeuropéia de compra. Se lhe for permitido exercer a qualquer tempo entre a compra e maturidade, aopção será chamada de opção americana de compra. Observe que existem várias outras espécies deopções no mundo das finanças, mas não será possível incluí-las todas no presente livro.

O detentor de uma opção de compra não tem obrigação de exerce-la. Assim, se no instante To preço XT é menor do que o preço de exercício K , seria uma tolice exercer a opção (vá a mercadoe compre o papel pelo preço Xt ). Assim, a opção expira como um contrato sem valor. Se o preçoXT excede K , aí vale a pena exercer a opção de compra, i.e., compra-se o título pelo preço K , paradepois vendê-lo por XT , o que representa um lucro líquido de XT −K .

139

Page 140: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4. Aplicações do cálculo estocástico em finanças

Resumindo, o detentor de uma opção européia de compra adquire o direito a um pagamento

(XT −K)+ =max(0,Xt −K) =

(XT −K , se Xt <K ,0, se Xt ≥K .

Veja a figura 4.1 para uma ilustração.

Uma opção de venda (put) lhe confere o direito de vender o papel a um preço K até ou nadata de maturidade. Uma opção de venda européia somente pode ser exercida na maturidade, e aamericana pode ser exercida a qualquer tempo entre a aquisição e a maturidade T . O detentor deuma opção de venda européia terá o seguinte lucro:

(K −XT )+ =max(0,Xt −K) =

(K −XT , se Xt <K ,0, se Xt ≥K .

Em nossas considerações teóricas iremo-nos restringir a opções de compra européias. A razãosimples para isto é a seguinte: neste caso é possível derivar soluções explícitas e fórmulas compactaspara os problemas de apreçamento. Assim,

daqui em diante, consideraremos como opção somente as opções de compra européias.

Fig. 4.1 — O valor de uma opção de compra européia com preço de exercício K e maturidade T .

Como observação marginal, é interessante observar que a situação pode ser imaginada de formacolorida como um jogo, onde a recompensa é o payoff da opção e o detentor paga uma taxa (opreço da opção) para entrar no jogo.

Uma vez que você não conhece o preço XT no instante t = 0, quando você adquire a opçãode compra, surge uma questão bastante natural:

Quanto você estaria disposto a pagar por um bilhete deste tipo, i.e., qual o preçoracional desta opção no instante t = 0?

Black, Scholes e Merton definiram um tal valor como:

140

Page 141: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4.1. A fórmula de Black-Scholes do apreçamento de opções

• Um determinado investidor, após haver investido esta quantia racional dedinheiro em ações e bonus no instante t = 0 poderia gerenciar sua carteira deacordo com uma estratégia auto-financiada (veja a página 139) de forma a tero mesmo rendimento (XT −K)+ como se a opção tivesse sido negociada.

• Se a opção tivesse sido negociada por um preço qualquer distinto do valorracional, haveria uma oportunidade de arbitragem, i.e., de ganhos ilimitadossem o acompanhamento de um correspondente risco de perda.

4.1.3. Uma formulação matemática do problema de apreçamento de opções

Suponha agora que se deseje encontrar uma estratégia auto-financiada (at , bt ) e um processo asso-ciado de valoração Vt tal que

Vt = at Xt + btβt = u(T − t ,Xt ), t ∈ [0,T ]

para uma certa função determinística u(t , x). Claramente, uma tal restrição pressupõe que o valorVt de sua carteira dependa de forma lisa de t e Xt . Nossa meta é achar esta função u(t , x). Umavez que o valor Vt da carteira na maturidade T é de (XT −K)+, obtemos a condição terminal

VT = u(0,XT ) = (XT −K)+. (4.4)

Na literatura de finanças, o processo de construção de uma estratégia auto-financiada tal que (4.4)esteja satisfeita é denominada de hedge do direito contingente. (XT −K)+.

Pretendemos aplicar o lema de Ito ao processo de valoração Vt = u(T − t ,Xt ). Escrevaf (t , x) = u(T − t , x) e observe que

f1(t , x) =−u1(T − t , x), f2(t , x) = u2(T − t , , x), f22(t , x) = u22(T − t , x).

Sabemos que X satisfaz á equação integral de Ito

Xt =X0+ c

∫ t

0Xs d s +σ

∫ t

0Xs dBs .

141

Page 142: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4. Aplicações do cálculo estocástico em finanças

Agora, a aplicação do lema de Ito (2.30) com A(1) = cX e A(2) = σX acarreta que

Vt −V0 = f (t ,Xt )− f (0,X0)

=

∫ t

0[ f1(s ,Xs )+ cXs f2(s ,Xs )+ 0.5σ2X 2

sf22(s ,Xs )]d s

+

∫ t

0[σXs f2(s ,Xs )]dBs

=

∫ t

0[−u1(T − s ,Xs )+ cXs u2(T − s ,Xs )+ 0.5σ2X 2

su22(T − s ,Xs )]d s

+

∫ t

0[σXs u2(T − s ,Xs )]dBs (4.5)

Por outro lado, (at , bt ) é auto-financiada:

Vt −V0 =

∫ t

0as dXs +

∫ t

0bs dβs . (4.6)

Uma vez que βt =β0e r t ,dβt = rβ0e r t d t = rβt d t . (4.7)

Além disto, Vt = at Xt + btβt , e portanto

bt =Vt − at Xt

βt

(4.8)

Combinando (4.6)–(4.8), obteremos outra expressão para

Vt −V0 =

∫ t

0as dXs +

∫ t

0

Vs − as Xs

βs

rβs d s

=

∫ t

0as dXs +

∫ t

0r (Vs − as Xs )d s

=

∫ t

0cas Xs d s +

∫ t

0σas Xs dBs +

∫ t

0r (Vs − as Xs )d s

=

∫ t

0[(c − r )as Xs + rVs]d s +

∫ t

0[σas Xs]dBs . (4.9)

Compare agora as fórmulas (4.5) e (4.9). Nós estudamos na página 98 que as funções coeficiente dosprocessos de Ito coincidem. Assim, podemos formalmente identificar os integrandos das integraisde Riemann e Ito, respectivamente, em (4.5) e (4.9):

at =u2(T − t ,Xt ), (4.10)(c − r )at Xt + r u(T − t ,Xt ) =(c − r )u2(T − t ,Xt )Xt + r u(T − t ,Xt )

=− u1(T − t ,Xt )+ cXt u2(T − t ,Xt )

+ 0.5σ2X 2t

u22(T − t ,Xt ).

142

Page 143: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4.1. A fórmula de Black-Scholes do apreçamento de opções

Uma vez que Xt pode assumir qualquer valor positivo, podemos reescrever esta última identidadecomo uma equação diferencial parcial (a palavra “parcial” se refere ao uso de derivadas parciais deu):

u1(t , x) = 0.5σ2x2u22(t , x)+ r x u2(t , x)− r u(t , x), x > 0, t ∈ [0,T ]. (4.11)

Lembrando da condição terminal (4.4), nós também iremos requerer que

VT = u(0,XT ) = (XT −K)+.

Isto acarreta a condição terminal determinística:

u(0, x) = (x −K)+, x > 0. (4.12)

4.1.4. A fórmula de Black e Scholes

Em geral, é bem difícil resolver uma equação diferencial parcial explicitamente, e portanto deve-mos nos basear em soluções numéricas. Assim, é um tanto quanto surpreendente que a equaçãodiferencial parcial (4.11) tenha solução explícita (Isto talvez seja uma das razões da popularidade daabordagem de Black-Scholes-Merton). A equação diferencial (4.11), com condição terminal (4.12)tem sido exaustivamente estudada; veja por exemplo Zauderer (1989). Ela possui uma soluçãoexplícita

u(t , x) = xΦ(g (t , x))−Ke−r tΦ(h(t , x)),

onde

g (t , x) =ln(x/K)+ (r + 0.5σ2)t

σ t1/2

h(t , x) = g (t , x)−σ t1/2

e

Φ(x) =1

(2π)1/2

∫ x

−∞e−y2/2d y, x ∈R,

é a função distribuição normal padrão.

Depois de todos esses cálculos,

o que é que foi ganho?

Lembrando de nosso ponto de partida à página 140, vemos que

V0 = u(T ,X0) =X0Φ(g (T ,X0))−Ke−r TΦ(h(T ,X0)) (4.13)

é o preço racional no instante t = 0 para uma opção de compra européia tendopreço de exercício igual a K .O processo estocástico Vt = u(T − t ,Xt ) é o valor de sua carteira auto-financiadano instante t ∈ [0,T ].

143

Page 144: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4. Aplicações do cálculo estocástico em finanças

A estratégia de auto-financiamento (at , bt ) é dada por

at = u2(T − t ,Xt ) e bt =u(T − t ,Xt )− at Xt

βt

; (4.14)

veja (4.10) e (4.8).

Na maturidade T , a fórmula (4.13) acarreta um valor líquido da carteira de (XT − K)+. Alémdisto, podemos mostrar que at > 0 para todo t ∈ [0,T ], mas bt < 0 não é excluído. Assim, vendade ações não ocorre, mas empréstimo de dinheiro a uma taxa constante r de bonus pode se tornarnecessária.

A equação (4.13) é a célebre fórmula de apreçamento de opções de Black e Scholes.Vemos que é independente da taxa média de retorno c do preço Xt , mas depende davolatilidade σ .

Se desejarmos interpretar q = u(T ,X0) como um valor racional em termos de arbitragem, supo-nha que o preço inicial da opção seja p 6= q . Se p > q , aplique a seguinte estratégia no instantet = 0

• venda a opção para alguém a um preço p e

• invista q em ações e bonus de acordo com a estratégia auto-financiada (4.14).

Assim, você deverá ter um lucro líquido inicial de p − q > 0. Na maturidade T , a carteira terá ovalor de aT XT + bTβT = (XT −K)+, e você tem a obrigação de pagar (XT −K)+ para o detentorda opção. Isto significa: se XT >K , você deverá comprar a ação por XT , e vendê-lo para o detentorda opção pelo preço de exercício K , tendo uma perda líquida de XT −K . Caso XT ≤ K , você nãoterá de pagar nada, uma vez que a opção não será exercida. Assim, o lucro total terminal vale zeroe o ganho líquido é p − q .

A escala de ganho poderia ser aumentada indefinidamente, vendendo-se n opções a um preço n pno instante zero e investindo nq em bonus e ações de acordo com a estratégia auto-financiada(nat , nbt ). O lucro líquido seria de n(p − q). Assim, a oportunidade de lucros arbitrariamentegrandes existe vir acompanhada de um risco de perda. Isto significa arbitragem. Argumentossemelhantes podem ser aplicados ao caso q > p; assim, o adquirente de opções irá perfazer umlucro líquido arbitrariamente grande desacompanhado de qualquer risco de perda.

Notas e comentários

A idéia de se usar o movimento browniano em finanças advém de Bachelier (1900), mas somenteapós 1973 quando Black, Scholes e Merton publicaram seus artigos é que a teoria atingiu umnível mais avançado. Desde então, opções, futuros e muitos outros derivativos conquistaramespaço no mundo internacional das finanças. Isto levou a uma nova dimensão de uma teoriamatemática aplicada: o cálculo estocástico. Como já estudamos neste livro, essa teoria pressupõeo conhecimento de algumas ferramentas matemáticas não triviais.

Em 1997, Merton e Scholes foram agraciados com o prêmio Nobel de Economia.

144

Page 145: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4.2. Uma técnica útil: a mudança de medida

A maior parte dos livros devotados a finanças matemáticas requer o conhecimento de teo-ria da medida e análise funcional. Por esta razão eles podem ser lido somente após vários anosde formação universitária. A seguir, damos algumas referências a respeito do assunto: Duffie(1996), Musiela e Rutkowski (1997) e Karatzas e Shreve (1998) bem como o capítulo de finançasem Karatzas e Shreve (1988).

Presentemente, existem alguns textos sobre finanças matemáticas dirigidos a um nível ele-mentar e intermediário. Baxter e Rennis (1996) é uma introdução simples que requer o mínimode matemática, mas ainda assim é bastante preciso e com uma boa explicação dos pressupostos denatureza econômica. O livro de Willmot, Howison e Dewynne (1995) enfoca as equações diferen-ciais parciais e evita o cálculo estocástico sempre que possível. Um curso de finanças com cálculoestocástico é dado em Lamberton e Lapeyre (1996) dirigido a um nível intermediário baseado emalgum conhecimento de teoria da medida. Pliska (1997) é uma introdução às finanças que utilizasomente modelos discretos.

4.2. Uma técnica útil: a mudança de medida

Nesta seção consideraremos uma técnica bastante poderosa do cálculo estocástico: a mudança damedida de probabilidade subjacente. Na literatura essa técnica aparece como sinônimo do teoremade Girsanov ou fórmula de Cameron-Martin.

No que se segue, não poderemos evitar inteiramente os argumentos de teoria da medida. Sevocê não possuir a base necessária em teoria da medida, você poderá pelo menos tentar entender aidéia principal considerando as aplicações na seção 4.2.2.

4.2.1. O que é a mudança da medida subjacente

A idéia principal da técnica de mudança de medida consiste em introduzir umanova medida de probabilidade através da assim chamada função densidade que emgeral não é uma função densidade de probabilidade.

Iniciamos com um simples exemplo de duas distribuições sobre a reta real. Recorde a densidadede probabilidade de uma variável aleatória normal N (µ,σ2):

ϕµ,σ2(x) =1p

2πσexp

(−(x −µ)2

2σ2

), ∈R,

e denote por

Φµ,σ2(x) =

∫ x

−∞ϕµ,σ2(y)d y, x ∈R,

a função distribuição correspondente. Considere dois pares (µ1,σ21 ) e (µ2,σ2

2 ) de parâmetros edefina

f1(x) =ϕµ1,σ2

1(x)

ϕµ2,σ22(x)

e f2(x) =ϕµ2,σ2

2(x)

ϕµ1,σ21(x)

145

Page 146: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4. Aplicações do cálculo estocástico em finanças

Obviamente,

Φµ1,σ21(x) =

∫ x

−∞f1(y)ϕµ2,σ2

2(y)d y, (4.15)

e

Φµ2,σ22(x) =

∫ x

−∞f2(y)ϕµ1,σ2

1(y)d y. (4.16)

A função f1 é denominada de função densidade de Φµ1,σ21

com respeito a Φµ2,σ22

e f2 é a densidadeda função Φµ2,σ2

2com respeito a Φµ1,σ2

1. Claramente, f1 e f2 não são densidades de probabilidade;

elas são funções positivas, mas as integrais∫∞−∞ fi (x)d x, i = 1,2 não são iguais a 1.

Agora, iremos considerar um contexto mais geral:

Sejam P e Q duas medidas de probabilidade sobre a σ -álgebra F . Se existir umafunção não negativa f1 tal que

Q(A) =

A

f1(ω)d P (ω), q uada ∈F , (4.17)

diremos que f1 é a densidade de Q com respeito a P e também diremos que Q éabsolutamente contínua com relação a P .

As integrais em (4.17) devem ser interpretadas em um sentido de teoria da medida.De modo análogo, mudando os papéis de P e Q, podemos introduzir a densidade f2 de P com

relação a Q, dado que uma tal função não negativa existe.

Se P é absolutamente contínua com respeito a Q, e Q é absolutamente contínuacom respeito a P , diremos que P e Q são medidas de probabilidade equivalentes.

Das equações (4.15) e (4.16) podemos concluir que as duas medidas de probabilidade gaussianas nareta real são equivalentes.

Para uma caracterização da continuidade absoluta através do teorema de Radon-Nikodym,veja o apêndice A.5.

Como de costume, B = (Bt , t ∈ [0,T ]) denota o movimento browniano padrão. A definiçãodo movimento broaniano na página 26 depende da medida de probabilidade subjacente P . Defato, para definirmos os os incrementos estacionários independentes de B e para sua distribuiçãogaussiana, devemos conhecer a medida de probabilidade P na σ -álgebra F . Usualmente, nãoprestamos muita atenção a este fato, ou seja, P é simplesmente dado. Mas, no que se segue, talaspecto será crucial. Por exemplo, considere a função distribuição uni-dimensional P (Bt ≤ x), x ∈R. Trata-se de uma função distribuição de uma variável aleatória N (0, t ); porém, se fôssemosmudar P por outra medida de probabilidade Q, esta função poderia diferir de uma função dedistribuição normal. No momento, tal observação pode soar um tanto quanto abstrata, masveremos logo mais adiante que a mudança de medida é uma técnica bastante útil.

Estamos interessados em processos da forma

eBt = Bt + q t , t ∈ [0,T ], (4.18)

146

Page 147: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4.2. Uma técnica útil: a mudança de medida

para alguma constante q . Com a única exceção de q = 0, eB não é um movimento brownianopadrão. No entanto, se mudarmos a probabilidade subjacente P colocando no lugar desta a prob-abilidade Q, eB pode ser demonstrada ser um movimento browniano sob a nova medida de proba-

bilidade Q. Isto simplesmente significa que eB satisfaz ás propriedades definidoras do movimentobrowniano padrão da página 26, quando você substitui P por Q. Este é o conteúdo do famosoresultado que vem a seguir;1

1 veja umademonstraçãopor exemplo emKaratzas e Shreve(1988).

Ft = σ(Bs , s ≤ t ), t ∈ [0,T ], (4.19)

é uma filtração browniana.

O teorema de Girsanov:As seguintes asserções são válidas:

• O processo estocástico

Mt = exp−qBt −1

2q2 t, t ∈ [0,T ], (4.20)

é um martingal com respeito à filtração browniana (4.19) sob a medida deprobabilidade P .

• A relação

Q(A) =

A

MT (ω)d P (ω), A∈F , (4.21)

define uma medida de probabilidade Q sobreF equivalente a P .

• Sob a medida de probabilidade Q, o processo eB definido em (4.18) é um movi-mento browniano padrão.

• O processo eB é adaptado à filtração (4.19).

A medida de probabilidade Q é denominada medida martingal equivalente.

A mudança de medida serve o propósito de eliminar o termo de drift em uma equação difer-encial estocástica. Isto será visto nas aplicações abaixo. Ilustraremos este fato através do seguinteexemplo simples:

Exemplo 4.2.1. (Eliminação do drift em uma equação diferencial estocástica)Considere uma equação diferencial estocástica

dXt = cXt d t +σXt dBt , t ∈ [0,T ]. (4.22)

tendo coeficientes constantes c e σ > 0. Sabemos do exemplo 3.2.2 que tal equação possui aseguinte solução:

Xt =X0e (c−0.5σ2)t+σBt , t ∈ [0,T ], (4.23)

IntroduzaeBt = Bt + (c/σ)t , t ∈ [0,T ],

147

Page 148: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4. Aplicações do cálculo estocástico em finanças

e reescreva (4.22) do seguinte modo:

dXt = σXt d[(c/σ)t +σBt ] = σXt d eBt , t ∈ [0,T ] (4.24)

Pelo teorema de Girsanov, eB é um movimento browniano padrão sob a medida martingal dadapor (4.21) com q = c/σ . A equação diferencial estocástica (4.24) não possui termo de drift; suasolução é um martingal sob Q mas não é um martingal sob P . Você poderá extrair a solução X de(4.24) a partir de (4.23) (escolha c = 0 e substitua B por eB):

Xt = X0e−0.5σ2 t+σ eBt

= X0e (c−0.5σ2)t+cBt t ∈ [0,T ].

Esta é a solução da equação diferencial estocástica (4.22) dirigida por B .Parece que não ganhamos muito. No entanto, se conhecêssemos a solução (4.23) somente parac = 0, poderíamos derivar a solução de (4.23) para c geral a partir da solução para o caso c = 0.Além disto, uma vez que X é um martingal sob Q, podemos fazer uso da propriedade martingalpara provar vários resultados a respeito de X . Utilizaremos este artifício para o apreçamento deuma opção de compra européia (call) na seção 4.2.2.

4.2.2. Uma interpretação da fórmula de Black-Scholes pela mudança de medida

O modelo de Black-Scholes

Nesta seção faremos uma revisão da fórmula de Black-Scholes para o apreçamento de opções.Mostraremos que ela pode ser interpretada como uma esperança condicional do overshoot descon-tado (XT −K)+ na maturidade.Primeiramente, recorde que:

• O preço de uma unidade do ativo de risco (ação) é descrito pela equação diferencial

dXt = cXt d t +σXt dBt , t ∈ [0,T ], (4.25)

onde c é a média das taxas de retorno, B é um movimento browniano (sob P ) e T é amaturidade da opção.

• O preço do ativo livre de risco (bonus) é descrito pela equação diferencial determinística

dβt = rβt d t , t ∈ [0,T ],

onde r > 0 é a taxa de juros do bonus.

• Sua carteira no instante t consiste de at títulos de ações e bt títulos de bonus. Assim, o valorda carteira no instante t é dado por

Vt = at Xt + btβt , t ∈ [0,T ].

• A carteira é auto-financiada, i.e.,

dVt = at dXt + bt dβt , t ∈ [0,T ].

148

Page 149: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4.2. Uma técnica útil: a mudança de medida

• Na maturidade, VT é igual ao direito contingente h(XT ) para uma dada função h. Para umaopção européia, h(x) = (x −K)+, onde K é o preço de exercício (strike price) da opção, epara uma opção de venda (put option), h(x) = (K − x)+.

Na seção 4.1.4 foi derivado o preço racional de uma opção de compra européia, e foi mostradoque existe uma estratégia auto-financiada (at , bt ) tal que VT = (XT −K)+. No que se segue, dare-mos uma interpretação intuitiva desta fórmula de apreçamento aplicando o teorema de Girsanov.

Sob um ponto de vista mais simplório, pode-se argumentar da seguinte maneira: seu ganhocom a opção na maturidade é (XT −K)+. Para se determinar o valor desta quantia de dinheiro noinstante zero, você terá de descontá-la pela taxa de juros r :

e−r T (XT −K)+ (4.26)

Nós não conhecemos XT a priori, e portanto vamos assumir que X satisfaz à equação diferencialestocástica (4.25), e simplesmente tomar a esperança de (4.26) como o preço da opção no instantezero.

Isto soa convincente, ainda que não tenhamos feito uso de nenhuma consideração teórica. Epelo fato de não havermos aplicado nenhuma teoria, veremos que estamos ligeiramente enganadospor este argumento, i.e., nós não iremos encontrar o preço de Black-Scholes desta maneira. O queacontecerá é que o preço racional de Black-Scholes é o valor esperado de (4.26), mas nós teremosde ajustar a esperança mudando a medida de probabilidade subjacente (veja (4.29) para a fórmulacorreta).

Esta mudança da medida de probabilidade P será fornecida de modo que o preço descontadodo valor de uma ação

eX = e−r t Xt , t ∈ [0,T ],

se torna um martingal sob a nova medida de probabilidade Q. Escreva

f (t , x) = e−r t x

e aplique o lema de Ito (2.31) da página 98 (observe que f22(t , x) = 0) para obter

d eXt = −r e−r t Xt d t + e−r t dXt (4.27)= −r e−r t Xt d t + e−r t Xt [cd t +σdBt ]

= eXt [(c − r )d t +σdBt ]

=: σ eXt d eBt , (4.28)

ondeeBt = Bt +[(c − r )/σ]t , t ∈ [0,T ].

Do teorema de Girsanov, sabemos que existe uma medida martingal equivalente Q que torna eBem um movimento browniano padrão. A solução (4.28), dada por

eXt =eX0e−0.5σ2 t+σ eBt t ∈ [0,T ],

vira, sob Q um martingal com respeito à filtração browniana padrão.A existência de uma medida martingal equivalente permite uma interpretação intuitiva da

fórmula de Black e Scholes:

149

Page 150: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4. Aplicações do cálculo estocástico em finanças

Suponha no modelo de Black-Scholes que exista uma estratégia auto-financiada(at , bt ) tal que o valor de sua carteira no instante t é dado por

Vt = at Xt + btβt , t ∈ [0,T ],

e que VT seja igual ao direito contingente h(XT ).Então o valor da carteira no instante t é dado por

Vt = EQ

e−r (T−t )h(XT )Ft

, t ∈ [0,T ], (4.29)

onde EQ (A|Ft ) denota a esperança condicional da variável aleatória A, dadoFtσ(Bs , s ≤ t ), sob a nova medida de probabilidade Q.

Até agora, a esperança condicional E(A|Ft ) = EP (A|Ft ) esteve sempre definida com respeitoà medida de probabilidade original P , e portanto nunca indicamos esta dependência em nossanotação.

Inicialmente, queremos mostrar que (4.29) está correta, e depois utilizaremos (4.29) para cal-cular o preço de uma opção de compra européia.

Considere o processo de valoração descontado

eVt = e−r t Vt = e−r t (at Xt + btβt ).

O lema de Ito (2.31) acarretad eVt =−r eVt d t + e−r t dVt .

Use agora o fato de que (at , bt ) é auto-financiada juntamente com (4.27):

d eVt = −r e−r t (at Xt + btβt )+ e−r t (at dXt + bt dβt )

= at (−r e−r t Xt d t + e−r t dXt )

= at d eXt . (4.30)

Observe que eV0 =V0. Das equações (4.30) e (4.28), temos

eVt = V0+

∫ t

0as d eXs

= V0+σ

∫ t

0aseXs d eBs . (4.31)

Sob a medida martingal equivalente Q, eB é um movimento browniano padrão e o processo(ateXt , t ∈ [0,T ]) é adaptado a (Ft , t ∈ [0,T ]). Portanto, (4.31) se constitui em um martingal

com respeito a (Ft ). Esta é uma das propriedades básicas da integral de Ito; veja a página 91. Emparticular, a propriedade martingal acarreta que

eVt = EQ (eVT |Ft ), t ∈ [0,T ],

150

Page 151: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4.2. Uma técnica útil: a mudança de medida

maseVt = e−r T VT = e−r T h(XT ).

Logoe−r t Vt = EQ[e

−r T h(XT )|Ft ],

ou, de forma equivalente, o valor da carteira é dado por (4.28).Queremos agora calcular o valor Vt de nossa carteira e o preço de Black-Scholes no caso de

uma opção européia.

Exemplo 4.2.2. (O valor de uma opção européia)Escreva

θ= T − t para t ∈ [0,T ].

Devido a (4.29), o valor Vt da carteira no instante t correspondente ao direito contingente VT =h(XT ) é dado por

Vt = EQ[e−rθ h(XT )|Ft ]

= EQ

he−rθh

Xt e (r−0.5σ2)θ+σ(eBT−eBt )

Ft

i.

No instante t , Xt é uma função de Bt , e portanto σ(Xt ) ⊂ Ft , e portanto podemos tratá-la sobFt como se fosse uma constante. Além disto, sob Q, eBT − eBt é independente de Ft , possuindouma distribuição N (0,θ). Uma aplicação da Regra 7 na página 59 acarreta que

Vt = f (t ,Xt ),

onde

f (t , x) = e−rθ∫ ∞

−∞h

xe (r−0.5σ2)θ+σyθ1/2ϕ(y)d y,

e ϕ(y) denota a densidade normal padrão. Para uma opção do tipo call européia

h(x) = (x −K)+ =max(0, x −K),

e portanto

f (t , x) =

∫ ∞

−z2

hxe−0.5σ2θ+σyθ1/2 −Ke−rθ

iϕ(y)d y

= xΦ(z1)−Ke−rθΦ(z2),

onde Φ(x) é a função distribuição normal padrão. Esta é exatamente a fórmula (para t = 0) quefoi derivada na página 143 para o preço racional de uma opção de compra européia (call).

z1 =ln(x/K)+ (r + 0.5σ2)θ

σθ1/2e z2 = z1−σθ

1/2.

O preço de uma opção européia do tipo put (com h(x) = (K − x)+) pode ser calculada da mesmamaneira, o que nos fornece

f (t , x) =Ke−rθΦ(−z2)− xΦ(−z1).

151

Page 152: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

4. Aplicações do cálculo estocástico em finanças

Verifique esta fórmula!

Notas e comentários

A derivação do preço de Black-Scholes através de uma mudança da medida subjacente (tambémchamada de mudança de numerário) foi iniciada pelo artigo fundamental de Harrison e Pliska(1981). Desde então esta técnica faz parte do repertório das finanças matemáticas; veja, por ex-emplo, Karatzas e Shreve (1998), Lamberton e Lapeyre (1997) ou Musiela e Rutkowski (1997). Ainterpretação da fórmula de Black-Scholes como uma esperança condicional, bem como resultadosrelacionados podem ser encontrados nesses livros.

Uma demonstração do teorema de Girsanov pode ser encontrada em textos avançados de teo-ria das probabilidades e processos estocásticos; veja por exemplo Kallenberg (1997) e Karatzas eShreve (1988).

152

Page 153: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

APÊNDICE A

APÊNDICE

A.1. Modos de convergência

A seguinte teoria pode ser encontrada, por exemplo, em Feller (1968), Karr (1993) ou Loève (1978).

Convergência em distribuição

A seqüência (An) converge em distribuição ou converge fracamente para a variável

aleatória A(And−→A) se para todas as funções contínuas e limitadas f , a relação

E f (An)→ E f (A), n→∞,

é válida.

Observe:d−→ A é válida se e somente se para todos os pontos x de continuidade da função de

distribuição FA a relaçãoFAn(x)→ FA(x), n→∞, (A.1)

encontra-se satisfeita. Se FA é contínua, então (A.1) pode ser mesmo fortificada com a hipótese deconvergência uniforme:

supx|FAn(x)− FA(x)| → 0 n→ 0.

É um fato bastante bem conhecido que a convergência em distribuição é equivalente á convergên-cia ponto a ponto das funções características correspondentes:

And−→A se e somente se Ee i tAn → Ee i tA para todo t .

Exemplo A.1.1. (Convergência em distribuição de variáveis aleatórias gaussianas)Suponha primeiramente que (An) é uma seqüência de variáveis aleatórias normais possuindo dis-tribuição N (µn ,σ2

n).

153

Page 154: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

A. Apêndice

Suponha inicialmente que µn → µ e σ2n→ σ2, onde µ e σ2 são valores finitos. Então, as funções

características correspondentes convergem para todo t ∈R:

Ee i tAn = e i tµn−0.5σ2n

t 2→ e i tµ−0.5σ2 t 2.

O segundo membro da equação acima é a função característica de uma variável aleatória A normal

com distribuição N (µ,σ2). Logo, And−→A.

A recíproca é também verdadeira. Se soubermos que And−→ A, então as funções características

e i tµn−0.5σ2 t 2convergem necessariamente para todo t . Deste fato, concluímos que existem número

reais µ e σ2 tais que µn → µ e σ2n→ σ2. Isto implica que A é necessariamente uma variável

aleatória normal N (µ,σ2).

Convergência em probabilidade

A seqüência (An) converge em probabilidade para a variável aleatória A(AnP−→ A)

se para todo ε > 0, a relação

P (|An −A|> ε)→ 0, n→∞,

é válida.

A convergência em probabilidade implica a convergência em distribuição. A recíproca é ver-dadeira se e somente se A= a para alguma constante a.

Convergência quase segura

A seqüência (An) converge em probabilidade ou converge quase seguramente (q.s.) para

a variável aleatória A(An

q .s .−→A) se o conjunto dosωs tais que

An(ω)→A(ω), n→∞,

tem probabilidade 1. Isto significa que

P (An→A) = P (ω : An(ω)→A(ω)) = 1.

A convergência com probabilidade 1 implica a convergência em probabilidade, e portantoconvergência em distribuição. A convergência em probabilidade não implica convergência q.s.

No entanto, AnP−→A implica que Ank

q .s .−→A para uma subseqüência conveniente (nk ).

154

Page 155: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

A.2. Desigualdades

Convergência Lp

Seja p > 0. A seqüência (An) converge em Lp ou na p-ésima média para A(AnLp

−→A)se E[|An |p + |A|p]<∞ para todo n e

E |An −A|p → 0, n→∞.

Pela desigualdade de Markov, vale a relação P (|An−A|> ε)≤ ε−p E |An−A|p para p e ε positivos.

Assim, AnLp

−→A implica AnP−→A. A recíproca em geral não é verdadeira.

Para p = 2, diremos que (An) converge no quadrado da média a A. Esta noção pode serestendida para processos estocásticos; veja por exemplo o Apêndice A.4. A convergência peloquadrado da média coincide com a convergência usual nos espaços de Hilbert

L2 = L2[Ω,F , P] = X : EX 2 <∞

cujo produto interno é ⟨X ,Y ⟩= E(X Y ) e tendo como norma ||X ||=p⟨X ,X ⟩. Aqui, o símbolo

X está representando uma classe de equivalência de variáveis aleatórias Y satisfazendo Xd= Y .

A.2. Desigualdades

Nesta seção iremos fornecer algumas desigualdades que são usadas com freqüência ao longo destelivro.

A desigualdade de Chebyshev:

P (|X − EX |> x)≤ x−2var(X ), x > 0.

A desigualdade de Cauchy-Schwarz:

E |X Y | ≤ (EX 2)1/2(EY 2)

1/2

A desigualdade de Jensen:Seja f uma função convexa sobre R. Se E |X | e E | f (X )| são finitos, então

f (EX )≤ E f (X ).

155

Page 156: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

A. Apêndice

Em particular,(E |X |q )1/q ≤ (E |X |p )1/p para 0< q < p.

Esta é a chamada desigualdade de Lyapunov.A desigualdade de Jensen permanece válida para esperanças condicionais: sendo F uma σ -

álgebra sobre Ω, tem-sef (E(X |F ))≤ E( f (X )|F ). (A.2)

Em particular,f (E(X |F ))≤ E(|X | |F ) e |E(X |F )|2 ≤ E(X 2|F ).

A.3. Não diferenciabilidade e variação ilimitada dos caminhos amos-trais brownianos

Seja B = (Bt , t ≥ 0) um movimento browniano. Relembre as definições de um processo H -auto-similar (1.12) na página 29 e de um processo com incrementos estacionários da página 24. Tambémsabemos que um movimento browniano é um processo 0.5=auto-similar com incrementos esta-cionários independentes; veja a seção 1.3.1. Mostraremos a não diferenciabilidade dos caminhosamostrais brownianos no contexto mais geral dos processos auto-similares.

Proposição A.3.1. (NÃO DIFERENCIABILIDADE DOS PROCESSOS AUTO-SIMILARES)Suponha que (Xt ) seja H -auto-similar com incrementos estacionários, para algum valor de H ∈ (0,1).Então, para todo t0 fixado,

limsupt↓t0

|Xt −Xt0|

t − t0=∞,

i.e., caminhos amostrais de processos H -auto-similares não são diferenciáveis em nenhum ponto comprobabilidade 1.

Demonstração. Sem perda de generalidade, consideremos o caso em que t0 = 0. Seja (tn) umaseqüência tal que tn ↓ 0. Então, pela H -auto-similaridade, X0 = 0 q.s., e portanto

P

lim

n→∞sup

0≤s≤tn

Xs

s

> x

!= lim

n→∞P

sup

0≤s≤tn

Xs

s

> x

!

≥ limsupn→∞

P

Xs

s

> x

!

= P (t H−1n|X1|> x)

= 1, x > 0.

Logo, com probabilidade 1, limsupn→∞ |Xtn/tn |=∞ para qualquer seqüência tn ↓ 0.

Proposição A.3.2. (VARIAÇÃO ILIMITADA DOS CAMINHOS AMOSTRAIS BROWNIANOS)Para quase todos caminhos amostrais brownianos,

v(B(ω)) = supr

n∑

i=1

|Bti(ω)−Bti−1

(ω)|=∞ q .s .,

156

Page 157: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

A.4. Demonstração da existência da integral estocástica geral de Ito

onde o supremo é tomado sobre todas as partições τ : 0= t0 < t1 . . . tn−1 < tn = T de [0,T ].

Demonstração. Por conveniência, suponha que T = 1. Suponha também que ν(B(ω)) <∞ paraum dado ω. Seja (τn) uma seqüência de partições τn : 0 = t0 < t1 < . . . < tn−1 < tn = 1, talque m.a.p.(τn)→ 0. Sabemos que ∆i B = Bti

− Bti−1. A seguinte cadeia de desigualdades pode ser

verificada:

Qn(ω) =n∑

i=1

(∆i B(ω))2

≤ maxi=1...n|∆i B(ω)|

n∑

i=1

|∆i B(ω)|

≤ maxi=1...n|∆i B(ω)|v(B(ω)). (A.3)

Uma vez que B possui caminhos amostrais contínuos com probabilidade 1, podemos assumir queBt (ω) é uma função contínua de t . Ela é também uniformemente contínua em [0,1] fato esseque, junto com m.a.p.(τn)→ 0, implica que maxi=1...n |∆i B(ω)| → 0. Assim, o segundo membrode (A.3) converge para zero, o que implica que

Qn(ω)→ 0. (A.4)

Por outro lado, sabemos da página 80 que QnP−→ 1 para uma subseqüência apropriada (nk ); veja

a página 154. Assim, (A.4) somente se torna possível em um conjunto de medida zero, e portanto

P (ω : v(B(ω)) =∞) = 1.

A.4. Demonstração da existência da integral estocástica geral de Ito

Na presente seção daremos uma demonstração da existência da integral estocástica de Ito. Istorequer algum conhecimento dos espaços L2 das funções de quadrado integrável. Além disto, ne-cessitaremos de alguns argumentos da teoria da medida. Se você acha que isto é demais, pule estaseção, mas uma breve olhadela na prova poderá ser de grande valia. Não daremos detalhes. Dequando em vez, faremos referência a outros livros.

Como de costume, B = (Bt , t ≥ 0) é um movimento browniano, e (Ft , t ≥ 0) é a filtração nat-ural correspondente. Seja C = (Ct , t ∈ [0,T ]) um processo estocástico satisfazendo ás Hipótesesda página 89, as quais reproduziremos aqui mais uma vez apenas por conveniência:

• Ct é uma função de s , s ≤ t .

•∫ T

0 EC 2s<∞.

Todos os processos estocásticos estão sendo supostos de coexistirem no mesmo espaço de proba-bilidade [Ω,F , P] (P é uma medida de probabilidade definida na σ -álgebraF ).

157

Page 158: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

A. Apêndice

Lema A.4.1. Se C satisfaz às Hipóteses, então existe uma seqüência (C (n)) de processos simples (vejana página 82 a definição) tal que

∫ T

0E[Cs −C (n)

s]2d s → 0. (A.5)

Uma demonstração deste lema pode ser encontrada em Kloeden e Platen (1992), lema 3.2.1.Assim, os processos simples C (n) são densos no espaço L2[Ω× [0,T ], d P × d t]. A relação

(A.5) significa exatamente isto: na norma deste espaço, C pode ser aproximado arbitrariamentepelos processos simples C (n).

Como de costume, denotamos por

It (C(n)) =

∫ t

0C (n)

sdBs , t ∈ [0,T ],

a integral estocástica de Ito do processo simples C (n). Ela está bem definida como uma soma deRiemann-Stieltjes; confronte com (2.11).

Lema A.4.2. Admitindo as Hipóteses, a seguinte relação é válida para todo n, k ∈N

E sup0≤t≤T

[It (C(n+k))− It (C

(n))]≤ 4E

∫ T

0[C(n+k)t −C

(n)t ]

2d t . (A.6)

Tanto I (C (n)) quanto I (C (n+k)) são martingais com respeito ao movimento browniano, eportanto I (C (n+k))− I (C (n)) = I (C (n+k))−C (n)) é um martingal com respeito a (Ft ).

Para um martingal (M , (Ft )) de natureza geral sobre [0,T ], a desigualdade maximal quadrá-tica de Doob (veja por exemplo Dellacherie e Meyer (1982), teorema 99 na página 164) nos dizque

Demonstração.E sup

0≤t≤T

M 2t≤ 4EM 2

T

Em particular,E sup

0≤t≤T

[It (C(n+k)−C (n))]2 ≤ 4E[IT (C

(n+k))−C (n))]2 (A.7)

Pela propriedade da isometria (2.14) aplicada ao processo simples I (C (n+k))− C (n)), o segundomembro fica assim

4E

∫ T

0[C(n+k)t −C

(n)t ]

2d t

o que, juntamente com (A.7) prova (A.6).

Uma vez que (A.5) é válida, (C (n)) é uma seqüência de Cauchy no espaço L2[Ω×[0,T ], d P×d t].Isto implica em particular que o segundo membro de (A.6) converge para zero. Assim, podemosencontrar uma subseqüência (kn) tal que

E sup0≤t≤T

[It (C(kn+1)−C (kn ))]2 ≤

1

2n .

158

Page 159: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

A.4. Demonstração da existência da integral estocástica geral de Ito

Isto, e a desigualdade de Chebyshev na página 154 implicam que, para todo ε > 0,

∞∑

n=1

P

sup

0≤t≤T

[It (C(kn+1))− It (C

(kn ))]2 > ε

!

≤1

ε2

∞∑

n=1

E sup0≤t≤T

[It (C(kn+1))− It (C

(kn ))]2 <∞.

Invocando o lema de Borel-Cantelli (veja por exemplo Karr (1993)) obtém=se que o processoI (C (kn )) converge uniformemente em [0,T ] para o processo estocástico, digamos, I (C ) com prob-abilidade 1. Uma vez que processos uniformemente convergentes possuem caminhos amostraiscontínuos, da mesma forma o possui o processo limite I (C ).

Agora, deixando k em (A.6) tender a infinito, concluímos que

E sup0≤t≤T

[It (C )− It (C(n))]2 ≤ 4E

∫ T

0[Ct −C

(n)t ]

2d t .

Pelo lema A.4.1, o segundo membro tende a zero quando n→∞, e portanto acabamos de provarque o limite I (C ) independe da particular escolha das seqüências aproximativas (C (n) de processossimples.

O processo limite I (C ) é o processo da integral estocástica de Ito desejada, e serádenotada por

It (C ) =

∫ t

0Cs dBs , t ∈ [0,T ].

Seus caminhos amostrais são contínuos com probabilidade 1.

Lema A.4.3. O par (It (C ), (Ft )) constitui um martingal.

Demonstração. Sabemos que (It (C(n))|(Fs )) é um martingal (veja a página 85) para todo n. Em

particular, ele é adaptado a (Ft ). Isto não se altera no limite. Além disto, para todo n

E(It (C(n))|Fs ) = Is (C

(n))) para s < t .

Usando o teorema da convergência dominada de Lebesgue e, se necessário, tomando uma sub-seqüência (kn) tal que I (C (kn )) convirja para It (C ) uniformemente para t com probabilidade 1,obtemos

limn→∞

E(It (C(kn ))|Ft ) = E(It (C

(kn )) = E(It (C )|Ft )

= limn→∞

Is (C(kn )) = Is (C ).

Logo, I (C ) é um martingal.

Lema A.4.4. A integral estocástica de Ito I (C ) satisfaz á propriedade da isometria:

E

∫ t

0Cs dBs

2

=

∫ t

0EC 2

sd s , t ∈ [0,T ]. (A.8)

159

Page 160: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

A. Apêndice

Demonstração. Sabemos que I (C (n)) satisfaz esta propriedade; veja (2.14). Por (A.6), (A.5) elevando em conta que a norma L2 é contínua, deduzimos que

E[It (C(n))]2 = E[It (C

(n)−C )+ It (C )]2 = E[It (C )]

2+ o(1),∫ t

0E[C (n)

s]2d s =

∫ t

0E[(C (n)

s−Cs )+Cs]

2d s =

∫ t

0EC 2

sd s + o(1).

Uma vez que ambos os segundos membros coincidem, pela propriedade da isometria para I (C (n))e fazendo n→∞, obtemos a relação de isometria desejada (A.8).

Lema A.4.5. Para um processo simples C , as somas de Riemann-Stieltjes particulares da definição(2.11) coincidem com a integral estocástica de Ito I (C ).

A demonstração utiliza o fato de que os processos simples C (n) são densos no espaço subja-cente L2.

A.5. O teorema de Radon-Nikodym

Seja [Ω,F ′] um espaço mensurável, i.e.,F ′ é uma σ -álgebra sobre Ω. Considere duas medidas µe ν sobre F ′. Diremos que µ é absolutamente contínua com respeito a ν (e designaremos este fatopela notação µ ν se

para todo A∈F ′ : ν(A) = 0 implica que µ(A) = 0.

Diremos que µ e ν são medidas equivalentes se µ ν e νµ.

O teorema de Radon-Nikodym:Suponha que µ e ν sejam duas medidas σ -finitas. (Em particular, esta condição estásatisfeita se elas são medidas de probabilidade.) Então µ ν é válida se e somentese existir uma função mensurável não negativa f tal que

µ(A) =

A

f (ω)d ν(ω), A∈F ′.

Se esta relação estiver satisfeita quando f é substituído por outra função não nega-tiva g , então

ν( f 6= g ) = 0.

A função ν -quase única em toda parte f é denominada densidade de µ com respeitoa ν .

Para uma demonstração deste resultado, veja Billingsley (1995) ou Dudley (1989), seção 5.5.

A.6. Prova da existência e unicidade da esperança condicional

Seja [Ω,F , P] um espaço de probabilidade, i.e., F é uma σ -álgebra sobre Ω e P uma medida deprobabilidade sobreF . Considere uma σ -álgebraF ′ ⊂F e denote por P ′ a restrição de P aF ′.Seja X uma variável aleatória sobre Ω.

160

Page 161: Conteúdo - Instituto de Matemática e Estatística | IME-USPdreifus/CEF/Mikosh.pdf · 1. Preliminares Os subconjuntos “convenientes” de Rsão os assim chamados conjuntos borelianos

A.6. Prova da existência e unicidade da esperança condicional

Teorema A.6.1. Se E |X |<∞, então existe uma variável aleatória Z tal que

(a) σ(Z)⊂F ′ e

(b) para todo A∈F ′, ∫A

Z(ω)d P (ω) =∫

AX (ω)d P A∈F ′.

Se (a) e (b) permanecerem verdadeiros quando Z for substituído por alguma variável aleatória Z ′ então

P ′(Z 6= Z ′) = 0. (A.9)

Z será chamado de esperança condicional de X dada a σ -álgebra F ′, e isto será denotado por Z =E(X |F ).

Demonstração. A) Suponha que X ≥ 0 quase seguramente com respeito a P . Considere um espaçode probabilidade (menor) [Ω,F ′, P ′] e defina a medida

ν(A) =

A

X (ω)d P (ω), A∈F ′.

Se P (A) = 0, então X IA = 0 quase seguramente com respeito a P , e portanto ν(A) = E(X IA) = 0.Segue-se então que ν P ′, onde ambas as medidas ν e P ′ encontram-se definidas sobre F ′. Emvirtude do teorema de Radom-Nikodym na página 160, existe uma variável aleatória não negativaZ sobre [Ω,F ′] tal que

ν(A) =

A

Z(ω)d P ′(ω), A∈F ′,

e esta variável aleatória Z é única no sentido de (A.9). Além disto, lembrando da definição da inte-gral e usando o fato de que σ(Z)⊂F ′, podemos mostrar que

∫A

Z(ω)d P ′(ω) =∫

AZ(ω)d P (ω).

B) Suponha que E |X | <∞. Escreva X = X+−X−, onde X+ =max(0,X ) e X− = −min(0,X ).Aplique a primeira parte do teorema a X+ e X− separadamente. Isto acarreta duas variáveisaleatórias não negativas Z+ e Z− tais que (a) e (b) estão satisfeitas se substituirmos Z por elas.Além disto, EX± = EZ± < ∞ uma vez que E |X | = EX+ + EX− < ∞. Logo Z± < ∞ quasesempre com respeito a P , e portanto podemos definir Z = Z+ − Z− que é a variável aleatóriadesejada.

161