43
Ergodicidade e Atratores Aleatórios para uma Família de ACP Cristian F. Coletti Ergodicidade e Atratores Aleatórios para uma Família de ACP

Ergodicidade e Atratores Aleatórios para uma Família de ACP

Embed Size (px)

Citation preview

Page 1: Ergodicidade e Atratores Aleatórios para uma Família de ACP

Ergodicidade e Atratores Aleatóriospara uma Família de ACP

Cristian F. Coletti

Ergodicidade e Atratores Aleatórios para uma Família de ACP

Page 2: Ergodicidade e Atratores Aleatórios para uma Família de ACP

2

Page 3: Ergodicidade e Atratores Aleatórios para uma Família de ACP

SUMÁRIO

1 Acoplamento 61.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.2 Eventos Acoplantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Exercícios 10

3 Percolação de Sítio 123.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.2 Notação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.3 O Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133.4 Ponto crítico e transição de fase . . . . . . . . . . . . . . . . . . . . . . 143.5 Continuidade pela direita da probabilidade de Percolação . . . . . . 15

4 Exercícios 17

5 Autômatos Celulares Probabilísticos 195.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195.2 O Processo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205.3 Definindo o processo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215.4 Operadores de transição . . . . . . . . . . . . . . . . . . . . . . . . . . 225.5 Ergodicidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

5.5.1 A medida de probabilidade invariante . . . . . . . . . . . . . . 235.6 Principais resultados e exemplos . . . . . . . . . . . . . . . . . . . . . 235.7 Exemplos e comparações com resultados conhecidos . . . . . . . . . 25

5.7.1 O modelo de Domany-Kinzel . . . . . . . . . . . . . . . . . . . 255.7.2 Exemplo bidimensional . . . . . . . . . . . . . . . . . . . . . . 265.7.3 Comparação com as condições de Dobrushin . . . . . . . . . . 26

5.8 Exemplos de autômatos celulares probabilísticos . . . . . . . . . . . . 275.8.1 Modelo do votante a vizinhos mais próximos . . . . . . . . . . 275.8.2 Modelo do votante com maioria determinística . . . . . . . . . 27

3

Page 4: Ergodicidade e Atratores Aleatórios para uma Família de ACP

Sumário

5.9 Ergodicidade de autômatos celulares probabilísticos . . . . . . . . . . 28

6 Atratores Aleatórios 316.1 Sistemas dinâmicos aleatórios . . . . . . . . . . . . . . . . . . . . . . . 31

6.1.1 Definições gerais . . . . . . . . . . . . . . . . . . . . . . . . . . 316.1.2 Conjuntos aleatórios, pontos de equilíbrio e atratores . . . . . 32

6.2 Sistemas dinâmicos aleatórios monótonos . . . . . . . . . . . . . . . . 346.2.1 Ergodicidade, monotonicidade e atratores . . . . . . . . . . . 356.2.2 Comentário Final . . . . . . . . . . . . . . . . . . . . . . . . . . 36

7 Apêndice 377.1 Probabilidade: Definições e propriedades . . . . . . . . . . . . . . . . 377.2 Propriedades de uma probabilidade . . . . . . . . . . . . . . . . . . . 387.3 Probabilidade condicional e independência . . . . . . . . . . . . . . . 387.4 Conjuntos limites e continuidade da probabilidade . . . . . . . . . . . 39

7.4.1 Continuidade por baixo da probabilidade . . . . . . . . . . . . 397.4.2 Continuidade por cima da probabilidade . . . . . . . . . . . . 39

7.5 Variáveis Aleatórias: Definições . . . . . . . . . . . . . . . . . . . . . . 397.6 Independência de variáveis aleatórias . . . . . . . . . . . . . . . . . . 40

7.6.1 Critério para independência no caso discreto: . . . . . . . . . 40

4

Page 5: Ergodicidade e Atratores Aleatórios para uma Família de ACP

RESUMO

Neste minicurso vamos estudar um tipo de processo markoviano em tempo dis-creto com espaço de estados a, bZ(a, b ∈ Z) e alcance de interação finito chamadosautomatas celulares probabilísticos (ACP) com raio um. Mais especificamente, osACPs são cadeias de Markov onde um número infinito de componentes evoluemem tempo discreto seguindo uma dinâmica estocástica local.

A importância destes processos deve-se a dois fatos: por um lado, eles constituemuma classe rica de processos markovianos capaz de gerar um grande número deproblemas matemáticos desafiantes e relevantes; por outro lado, são úteis para mo-delar sistemas físicos e biológicos.

Vamos focar nossa atenção no estudo de condições suficientes para a existência eergodicidade destes processos. Também será abordada a noção de atratores aleató-rios.

5

Page 6: Ergodicidade e Atratores Aleatórios para uma Família de ACP

1 ACOPLAMENTO

1.1 Introdução

Intuitivamente, acoplar significa construir duas variáveis aleatórias ou mais no mesmoespaço de probabilidade. Nesta seção buscamos formalizar esta ideia assim comoapresentar algumas aplicações desta teoria.

Definição 1 SejaX uma variável aleatória definida em um espaço de probabilidade (Ω,F ,P).Diremos que a variável aleatória X (definida em algum espaço de probabilidade) é uma cópiade X se, e somente se, elas têm a mesma distribuição.

Exemplo 1 Seja X uma variável aleatória com distribuição de Bernouilli de parâmetro p.Vamos construir uma cópia de X . Para isto considere uma variável aleatória U ∼ U([0, 1])

e definaX = 1U ≤ p.

Note queP[X = 1] = P[U ≤ p] = p = 1− P[X = 0].

Logo, X ∼ Bernoulli (p). Isto é, X é uma cópia da variável aleatória X .

Exemplo 2 SejamX e Y duas variáveis aleatórias com distribuição Bernouilli de parâmerosp e q com p < q. Queremos construir um acoplamento X, Y de X e Y em um espaço deprobabilidade comum tal que P[X ≤ Y ] = 1. Note que as variáves aleatórias X e Y nãoprecissam estar definidas no mesmo espaço de probabilidade. Neste caso não teriamos comocomparar as variáveis X e Y . Dai a importância de construir este acoplamento.

Seja U ∼ U([0, 1]). Defina novas variáveis aleatórias X, Y por

X = 1U ≤ p e Y = 1U ≤ q.

6

Page 7: Ergodicidade e Atratores Aleatórios para uma Família de ACP

1 Acoplamento

Logo,

P[X ≤ Y ] = P[U ∈ [0, 1]]

= 1,

(1.1)

como queriamos mostrar.

Exemplo 3 De fato a construção realizada no exemplo anterior pode ser estendida a qual-quer variável aleatória discreta. Para evitar problemas com a notação consideraremos apenaso caso em que a imágem de X seja finita. Seja X uma variável aleatória discreta assumindovalores em um conjunto finito xj : j = 1, . . . k com função de probabilidade p(j). Isto é,

p(j) = P[X = xj]

ek∑j=1

p(j) = 1.

Considere uma variável aleatória U ∼ U([0, 1]) e defina uma partição do intervalo [0, 1] daseguinte forma:

Seja A1 = [0, p(1)) e para j ≥ 1 considere

Aj = [

j−1∑l=1

pl,

j∑l=1

pl), j = 2, . . . , k.

Logo, defina X por

X =k∑j=1

xj1U ∈ Aj.

Assim,

P[X = xj] = P[U ∈ Aj]

=

j∑l=1

pl −j−1∑l=1

pl

= p(j).

Isto é, X é uma cópia de X .

7

Page 8: Ergodicidade e Atratores Aleatórios para uma Família de ACP

1 Acoplamento

Definição 2 Diremos que a família de variáveis aleatórias (Xλ)λ∈Λ (onde Λ é algum con-junto de índices) é um acoplamento da coleção de variáveis aleatórias (Xλ)λ∈Λ se, e somentese, Xλ = Xλ( em distribuição ) ∀ λ ∈ Λ.

1.2 Eventos Acoplantes

Seja (Xλ)λ∈Λ uma familia de variáveis aleatórias discretas. Suponhamos que todasas variáveis aleatórias assumen seus valores em um conjunto finito ou enumerávelA e denotemos por pλ a função de probabilidade da variável aleatória Xλ.

Nosso objetivo é acoplar as variáveis aleatórias Xλ de forma tal a maximizarmos aprobabilidade de todas as variavéis coincidirem.

Definição 3 Seja(Xλ

)λ∈Λ

um acoplamento das variáveis aleatórias (Xλ)λ∈Λ e seja C umevento. Diremos que C é um evento acoplante se

C ⊂ Xλ = Xλ ∀ λ, λ ∈ Λ.

Teorema 1 Seja (Xλ)λ∈Λ uma familia de variáveis aleatórias discretas assumindo seus va-lores em um conjunto finito ou enumerável A. Se C é um evento acoplante das variáveisaleatórias (Xλ)λ∈Λ então

P[C] ≤∑x∈A

infλ∈Λ

pλ(x). (1.2)

Prova 1 Seja(Xλ

)λ∈Λ

um acoplamento da variáveis aleatórias (Xλ)λ∈Λ. Notemos que se

x ∈ A e µ ∈ Λ então P[Xµ = x,C] é um limitante inferior do conjunto pλ(x) : λ ∈ Λ.Portanto P[Xµ = x,C] ≤ inf

λ∈Λpλ(x). Como P[C] =

∑x∈A

P[Xµ = x,C] concluimos que

P[C] ≤∑x∈A

infλ∈Λ

pλ(x), (1.3)

como queriamos mostrar.

Definição 4 Considere um acoplamento de variáveis aleatórias com evento acoplamente Ctal que P[C] =

∑x∈A

infλ∈Λ

pλ(x). Chamaremos a tal acoplamento, acoplamento maximal, e a C

um evento acoplante maximal.

Teorema 2 Seja (Xλ)λ∈Λ uma familia de variáveis aleatórias discretas assumindo seus va-lores em um conjunto finito ou enumerável A. Então existe um acoplamento maximal.

8

Page 9: Ergodicidade e Atratores Aleatórios para uma Família de ACP

1 Acoplamento

Prova 2 Seja c :=∑x∈A

infλ∈Λ

pλ(x).

1. Se c = 0 considere Xλ independentes e seja C = ∅.

2. Se c = 1 considere as Xλ idênticas e seja C = Ω.

3. Se 0 < c < 1 sejam I, V, e Yλ, λ ∈ Λ variáveis aleatórias independentes definidas por

• P[I = 1] = c = 1− P[I = 0].

• P[V = x] = infλ∈Λ

pλ(x)/c, x ∈ A.

• P[Yλ = x] = (pλ(x)− cP[V = x])/(1− c), x ∈ A.

Por fim, defina

Xλ =

V se I = 1,

Yλ se I = 0.

Logo,

P[Xλ = x] = P[V = x|I = 1]P[I = 1] + P[Yλ = x|I = 0]P[I = 0]

= P[V = x]P[I = 1] + P[Yλ = x]P[I = 0]

= (infλ∈Λ

pλ(x)/c)c+ ((pλ(x)− cP[V = x])/(1− c))(1− c)

= P[Xλ = x].

Observação 1 Na próxima seção construiremos várias realizações de um mesmo processoestocástico em um mesmo espaço de probabilidade utilizando as ferramentas apresentadasnesta seção. Acoplar duas ou mais realizações destes processos será fundamental para provarresultados que dizem respeito à ergodicidade do processo.

Observação 2 Nesta primeira seção introduzimos a poderosa ferramenta de acoplamentoque tem sido de grande utilidade para provar um grande número de resultados na área deProbabilidade.

Como já fora dito, acoplar é um método que consiste em estabelecer propriedades de variáveisaleatórias e processos estocásticos a través de uma construção comum em um único espaço deprobabilidade. O leitor certamente achará interesantes os trabalhos de Ferrari e Galves [21],Lindvall [27] e Thorisson [35].

9

Page 10: Ergodicidade e Atratores Aleatórios para uma Família de ACP

2 EXERCÍCIOS

1. Seja X uma variável aleatória com distribuição de Bernoulli de parâmetrop, p ∈ (0, 1). Utilizando uma variável aleatória uniforme U em [0, 1] construauma cópia de X diferente da apresentada no exemplo 1.

2. SejaX uma variável aleatória discreta assumindo valores em x0, x1, . . . , xn, . . ..Seja pX(j) = P[X = xj] sua função de probabilidade. Utilizando uma variávelaleatória uniforme U em [0, 1] construa uma cópia de X .

3. SejamX e Y duas variáveis aleatórias discretas assumindo valores em x0, x1, . . . , xnpara algum n ∈ N. Utilizando apenas uma variável aleatória U com distri-buição uniforme em [0, 1] costrua um acoplamento de X e Y e uma terceiravariável aleatória T assumindo valores em x0, x1, . . . , xn tal que

P[maxX, Y = T ] = 1

4. Sejam X e Y duas variáveis aleatórias assumindo valores inteiros não negati-vos e com função de probabilidade pX e pY respectivamente.

Suponha que P[X ≥ k] ≥ P[Y ≥ k] para cada k ∈ N0. Construa um acopla-mento de X e Y tal que P[X ≥ Y ] = 1.

5. Seja (Xn)n≥1 uma sequência de variáveis aleatórias IID comX1 ∼ Bernoulli (p).

Seja S0 = 0 e para n ≥ 1 seja Sn =n∑i=1

Xi. O processo (Sn)n≥0 assim definido

é conhecido pelo nome de passeio aleatório simples de parâmetro p. Quandop = 1/2 o passeio aleatório correspondente é chamado passeio aleatório sim-ples simétrico.

10

Page 11: Ergodicidade e Atratores Aleatórios para uma Família de ACP

2 Exercícios

a) Forneça uma construção deste processo utilizando apenas uma família devariáveis aleatórias IID (Un)n≥0 com U0 ∼ Uniforme ([0, 1]).

b) Considere dois passeios aleatórios simples Sn e S ′n com parâmetros p ep′ respectivamente. Mostre que é possível construir Sn e S ′n no mesmoespaço de probabilidade de forma tal que S0 = S ′0 e Sn ≤ S ′n para cadan ≥ 1.

c) Um resultado clásico na teoria de probabilidades diz que o passeio aleató-rio simples simétrico começando na origem retorna a origem com proba-bilidade 1. Utilize este fato para mostrar que se Sn é um passeio aleatóriosimples com parâmetro p ≤ 1/2 então o processo Sn começando na ori-gem retorna à origem com probabilidade 1.

11

Page 12: Ergodicidade e Atratores Aleatórios para uma Família de ACP

3 PERCOLAÇÃO DE SÍTIO

3.1 Introdução

A teoria de percolação (Galves e Andjel [1], Grimmett[15], Durrett [9], Fontes [22])tem sua origem num problema prático: a compreensão do fenômeno de infiltraçãode um gas atavés de um mateial poroso. Os poros podem ser vistos como canais quese unem as outros, formando uma espécie de labirinto. Se esses canais são suficien-temente largos e se comunicam bem entre si, então o gás penetra profundamente.Em caso contrário, o gás não vai além da superficie do material. O problema é darsentido formal a descrição feita acima.

3.2 Notação

Seja Zd = (x1, . . . , xd) : xi ∈ Z, i = 1, . . . , d. Para x, y ∈ Zd definimos

|x− y| =d∑i=1

|xi − yi|. (3.1)

Cada vetor de Zd será chamado de vértice. A seguir construimos um grafo dirigidocom conjunto de vértices V = Zd especificando uma família de arestas dirigidasA(V ) para o conunto de vértices V.

Começamos reescrevendo cada vértice x = (x1, . . . , xd) como x = (χ, t) onde χ =

(x1, . . . , xd−1) e t = xd. Definimos uma família de arestas A(V ) da seguinte forma:

e =< (χ, t), (χ, v) > ∈ A(V ) se e somente sed−1∑i=1

|xi − xi| ≤ 1 e v = t + 1. Vamos

denotar por ~G = (V,A(V )) o grafo dirigido resultante.

Observação 3 Se denotarmos por d(v) o grau do vértice v do grafo ~G temos que d(v) =

2d+ 1 para todo vértice de ~G.

12

Page 13: Ergodicidade e Atratores Aleatórios para uma Família de ACP

3 Percolação de Sítio

3.3 O Modelo

Considere o grafo dirigido ~G descrito acima. Cada vértice (sítio) de ~G estará abertocom probabilidade p e estará fechado com probabilidade 1 − p, onde p ∈ (0, 1)

é o parâmetro do modelo. Para formalizar esta descrição considere uma famíliaS = S((χ, t)) : (χ, t) ∈ V de variáveis aleatórias independentes assumindo os va-lores 0 e 1, com probabilidade p e 1− p respectivamente e seja (Ω,F ,P) o espaço deprobabilidade onde está definida a família S.

Definição 5 Dados dois pontos x = (χ, t), x = (χ, u) em V diremos que x e x estão conec-tados e escrevemos x → x, ou ainda (χ, t) → (χ, u), se e somente se existir um conjuntofinito de sítios x0, . . . , xn (para algum n) tal que:

1. x0 = x e xn = x

2. |xi − xi+1| ≤ 1, i = 0, 1, . . . n− 1

3. S(xi) = 1.

Observação 4 Quando C ⊂ Zd diremos que x → y em C se e somente se x e y estãoconectados utilizando apenas sítios de C.

Para cada x ∈ Zd definimos o aglomerado do sítio x por

Cx = y ∈ Zd : x→ y.

Para cada n ∈ N0 seja An o conjunto de vértices conectados com a origem atravésde, pelo menos, um caminho aberto de comprimento n. Isto é,

An = (x, n) ∈ V |(0, 0)→ (x, n).

Note que para todo n ∈ N0 tem-se [An 6= ∅] ⊇ [An+1 6= ∅]. Logo, 1 ≥ P[An 6=∅] ≥ P[An+1 6= ∅] ≥ 0. Como toda sequência monotona e limitada tem limite con-cluimos que lim

n→∞P[An 6= ∅] existe. Como a sequência de eventos [An 6= ∅], n ∈ N0

é decrescente concluimos, pela continuidade da probabilidade, que P[∩n∈N0An] =

limn→∞

P[An 6= ∅]. Como [|C| = ∞] = [∩n∈N0An] definimos a probabilidade de percola-ção por

θ(p) := Pp[|C| =∞],

onde C é o aglomerado da origem.

13

Page 14: Ergodicidade e Atratores Aleatórios para uma Família de ACP

3 Percolação de Sítio

3.4 Ponto crítico e transição de fase

Outro conceito de interesse na teoria de percolação é o de parâmetro crítico que édefinida em termos da função θ(p). Mais especificamente estamos interessados emdefinir a probabilidade crítica por

pc = supp ∈ (0, 1) : θ(p) = 0.

Para isto precisamos garantir que o supremo acima existe. Isto é garantido peloseguinte lema

Lemma 1 A função θ(p) é não decrescente.

Antes de provar este lema vamos realizar um acoplamento , em um mesmo espaçode probabilidade, dos modelos de percolação para distintos valores de p ∈ [0, 1].

Seja Uv|v ∈ V uma família de variáveis aleatórias IID com U0 ∼ U([0, 1]). Seja(Ω,F ,P) o espaço de probabilidade onde está definida esta família de variáveis ale-atórias uniformes.

Seja p ∈ [0, 1]. Diremos que um vértice v está aberto se, e somente se,

Uv ≤ p

e que está fechado em caso contrário. Desta forma podemos considerar o modelo depercolaçao associado a esta família de uniformes. Chamando C(p) ao aglomeradoda origem no modelo acima segue-se facilmente que θ(p) = P[|Cp| =∞].

Agora podemos proceder a provar a monotonicidade da função θ(p).

Prova 3 Sejam p, p ∈ [0, 1] tal que p ≤ p. Logo, como para qualquer vértice v ∈ V tem-seque Uv ≤ p implica em que Uv ≤ P concluimos que

C(p) ⊂ C(p).

Logo,θ(p) = P[|C(p)| =∞] ≤ P[|C(p)| =∞] = θ(p).

Sendo a função θ(p) monótona (limitada), o parâmetro crítico pc está bem definido.

Definição 6 Diremos que o modelo de percolação apresenta transição de fase se o parâmetrocrítico é não trivial. Isto é, se pc ∈ (0, 1).

14

Page 15: Ergodicidade e Atratores Aleatórios para uma Família de ACP

3 Percolação de Sítio

Estamos em condições de enunciar o seguinte

Teorema 3 O processo de percolação de sítios apresenta transição de fase;

1

3≤ pc ≤

3

4

Prova 4 Seja N(n) o número de caminhos abertos de comprimento n no modelo de percola-ção de sítio em ~G. Note que em ~G todo caminho é auto-evitante. Dai

limn→∞

P[N(n) ≥ 1] ≤ limn→∞

E[N(n)] ≤ limn→∞

pn3n = 0

desde que p < 1/3. Logo,limn→∞

P[N(n) ≥ 1] = 0.

Desta forma concluimos que pc(~G) ≥ 1/3.Por outro lado, Liggett estudou o problema de percolação de sítios no grafo G e mostrou quepc(G) ≤ 3/4.

Como ~G ⊂ G temos que pc(~G) ≤ pc(G) ≤ 3/4, como queriamos mostrar.

Observação 5 A prova de pc(G) ≤ 3/4 é técnica (e clássica) porém longa e foge do escopodestas notas. No entanto, convido o leitor interessado a debruçar-se no trabalho de Liggett.

3.5 Continuidade pela direita da probabilidade de

Percolação

Outra aplicação interessante feita através a de acoplamento é a da continuidade peladireita da probabilidade de percolação, isto é a continuidade pela direita da funçãoθ(p).

Proposição 1 A função θ(p) é continua pela direita.

Prova 5 Seja p ∈ [0, 1] e seja Cx(p) o aglomerado do sítio x quando a probabilidade de unvértice qualquer estar aberto é p. Dizemos que x está conectado com o infinito se, e somentese, |Cx(p)| = ∞ e denotamos este fato por x p↔ ∞. Por tanto θ(p) = P[0

p↔ ∞]. Seja(pn)n∈N0 uma sequência em [0, 1] tal que lim

n→∞pn = p e pn ≥ Pn+1. Logo,

limn→∞

θ(pn) = limpn↓p

P[0pn↔∞]

= P[0pn↔∞ ∀pn > p],

15

Page 16: Ergodicidade e Atratores Aleatórios para uma Família de ACP

3 Percolação de Sítio

já que a probabilidade é contínua com relação a eventos decrescentes. Agora tudo o que temosque provar é que 0

pn↔∞ ∀pn > p se, e somente se, 0p↔∞.

Suponha que 0p↔ ∞. Logo 0

pn↔ ∞ ∀pn > p. Resta provar que se 0pn↔ ∞ ∀pn > p então

0p↔∞.

Seja Bn = (x, y) ∈ Z× N0 | y ≥ |x| ∧ y ≤ n. Denote a fronteira de Bn por ∂Bn. Noteque ∂Bn = Bn+1 \Bn. Diremos que 0

p↔ ∂Bn se, e somente se, 0p↔ y para algum y ∈ ∂Bn.

É facil ver que0

p↔∞ se, e somente se, 0p↔ ∂Bn ∀ n ∈ N.

Suponha que 0pn↔ ∞ ∀pn > p. Seja l ∈ N e seja v = (v0, . . . , vm) um caminho conectando

a origem com ∂Bn que permanece em Bn+1. Seja M(v) := maxUvk | k = 0, . . . ,m omáximo das variáveis aleatórias uniformes nos vértices de v (ou peso de tal caminho). Comoo número de tais caminhos é menor ou igual que 3m+1 existe um caminho v com peso mínimo.Como 0

pn↔ ∞ ∀pn > p temos que M(v) ≤ p. Logo, 0p↔ ∂Bn. Como o raciocínio é válido

para todo n ∈ N0 conluimos que

limn→∞

θ(pn) = P[0pn↔∞ ∀pn > p],

para toda seguência (pn)n∈N0 em [0, 1] tal que limn→∞

pn = p e pn ≥ pn+1. De esta forma,concluimos que

limp↓p

θ(p) = θ(p),

como queriamos mostrar.

Observação 6 Esta é apenas uma pequena introdução à fascinante área da teoria de Perco-lação. Utilizando uma frase extraida do trabalho de Andjel e Galves [1]: o objetivo destasnotas não é outro senão atrair o leitor para a zona de audição do canto da sereia.

16

Page 17: Ergodicidade e Atratores Aleatórios para uma Família de ACP

4 EXERCÍCIOS

1. Seja α ∈ N. Considere a rede de Bethe S definida por

S = ∪∞n=0Sn

onde Sn = (n, i) : i = 1, . . . , αn, n ≥ 0.

Considere uma familia de variáveis aleatórias (Xs)s∈S IID comX(0,1) ∼ Bernoulli (p)

onde p ∈ (0, 1) e seja (Ω,F ,P) o espaço onde estão definidas estas variáveisaleatórias.

Definição 7 Seja (n, i) ∈ S. Chamamos aos pontos (n+1, (i−1)α+k), k = 1, . . . , α

de descendentes do ponto (n, i).

Seja (An)n≥0 uma família de conjuntos aleatórios definidas da seguinte forma.A0 = S0 e para n ≥ 1,

An = s ∈ S : s é descendente de algum t de An−1 tal que Xt = 1.

Mostre que:

a) Existe limn→∞

P[An 6= ∅] quando n→∞.

b) Defina γ(p) = limn→∞

P[An 6= ∅]. Mostre que γ(p) é monótona crescente emp.

c) Defina pc = supp ≥ 0 : γ(p) = 0. Mostre que se α ≥ 2 então pc ∈ (0, 1) eque γ(pc) = 0.

d) Mostre que se α = 1 então γ(p) = 0 para p < 1.

2. Seja (x, t) ∈ Z × N0 e associe a cada (x, t) uma variável aleatória Y(x,t) ∼Bernoulli (p). Vamos a supor que a familia Y(x,t) : (x, t) ∈ Z × N0 é uma

17

Page 18: Ergodicidade e Atratores Aleatórios para uma Família de ACP

4 Exercícios

familia de variáveis aleatórias IID. Seja (Ω,F ,P) o espaço de probabilidadeonde está definida esta familia de variáveis aleatórias.

Sejam x e y ∈ Z, s, t ∈ N. Diremos que (x, s) ⇒ (y, t), quando s = t e x = y ouquando s < t e existem x0, . . . , xn ∈ Z, onde n = t− s tais que:

a) x0 = x, xn = y,

b) xi+1 = xi ou xi+1 = xi + 1 e

c) Y(xi,ss+i) = 1, i = 0, 1, . . . n− 1.

Defina um processo estocástico (ηt)t∈N0 da seguinte forma:

η(A,s)t = y ∈ Z : Existe x ∈ A, tal que (x, s)⇒ (y, t)

Refaça a teoria deste capítulo para achar um valor pc ∈ (0, 1) tal que para todop < pc o processo se extingue. ,

3. Considere o grafo G = (Z,E) onde E = (x, y) ∈ Z × Z : |x − y|1 = 1 é o seuconjunto de vizinhos mais próximos.

A cada elo de E será atribuido aleatóriamente o status aberto ou fechado daseguinte maneira. Seja X = Xe, e ∈ E uma família de variáveis aleatórias IIDcom distribuição de Bernoulli de parâmetro p e seja Pp a medida de probabili-dade associada a X .

Xe = 1 indica que o elo e está aberto e Xe = 0 indica que o elo e está fechado.Um conjunto de elos de E, e1, . . . , en, n ≥ 1, onde ei = (xi, yi), i = 1, . . . , n,é dito caminho se x1, . . . , xn forem distintos e yi+1 = xi, i = 1, . . . , n − 1. Umcaminho é dito aberto se todos seus elos estiverem abertos.

Diremos que dois sitios da rede, x e y estão conectados (x ↔ y) se existir umcaminho aberto e1, . . . , en com x1 = x e yn = y. Denote por C o conjunto dossítios x que estão conectados com a origem.

Mostre que não há aglomerados infinitos quase-certamente se p < 1.

Observação 7 O caso unidimensional é realmente trivial. O caso interesante ocorrequando o problema acima é estudado na rede hipercúbica G = (Zd,E), d ≥ 2 onde ofenômeno de transição de fase é observado. Recomendo como introdução a este assuntoas notas em Teoria de Percolação de L. R. G. Fontes [22].

18

Page 19: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 AUTÔMATOS CELULARES PROBABILÍSTICOS

5.1 Introdução

Autômatos Celulares Probabilísticos são processos estocásticos markovianos a tempodiscreto que tem sido intensamente estudados desde pelo menos o trabalho deStavskaja e Pjatetskii-Shapiro [34] (1968). Esta clase de processos tem como espaçode estados um espaço produtoX = AZd ondeA é um conjunto finito e d é um inteiropositivo qualquer.

Podemos pensar a um autômato celular probabilístico como sendo um sistema departículas interagentes onde as partículas atualizam seus estados de forma inde-pendente. O objetivo deste minicurso é estudar condições de ergodicidade paraautômatos unidimensioanis de rádio um. Em palavras, um autômato celular pro-babilístico é ergódico se existe uma única medida invariante (isto é, se o sistemacomeça com esta medida (invariante) a distribuição do sistema ao longo do tempoé dado pela medida invariante) e começando de qualquer medida inicial o sistemaconverge à única medida invariante (Veja uma definição formal abaixo).

Recentemente, Coletti e Tisseur utilizando a técnica de dualidade generalizada (in-troduzida por Lopez et al. [30]) encontraram condições suficientes de ergodicidadepara uma certa família de autômatos celulares probabilísticos (atratívos). Nestasnotas revisaremos rápidamente estes resultados e logo nos concentraremos em umametodologia diferente para provar ergodicidade de sistemas estocásticos interagen-tes.

Por muito tempo se acreditou que autômatos celulares unidimensionais com ruidopositívo eram ergódicos. Porém, em 2002 P. Gacks encontrou um complicado con-traexemplo de um autômato unidimensional com ruido positívo que não esquece opassado e que começando de diferentes distribuições iniciais converge a diferentesmedidas invariantes .

19

Page 20: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

5.2 O Processo

Neste trabalho focaremos nossa atenção em autômatos celulares probabilísticos uni-dimensionais de radio um. Logo neste texto trataremos aos autômatos celularesprobabilísticos como procesos estocásticos a tempo discreto com espaço de estadoX = 0, 1Z, ao menos que o contrário seja explicitado.

Um estado o configuração deste processo é um elemento η ∈ X . Isto é, η é uma fun-ção com domínio o conjunto dos inteiros Z e com contradomínio o conjunto 0, 1.Os elementos de Z são tipicamente chamados de sítios. O estado de cada sítio x ∈ Zna configuração η ∈ X é denotado por η(x) ∈ 0, 1.

A partir de uam configuração η em X e de um sítio j ∈ Z definimos uma novaconfiguração ηj por

ηj(i) =

1− η(i) , se i 6= j

η(i) , se i = j.

Será útil também introoduzir o operador translação τi : Z→ Z definido por

τi(η)(j) = η(i+ j).

Em X consideramos a topologia produto usual e consideramos o espaço de BanachC(X) = f : X → R | f é contínua com a norma

||f || = supη∈X|f(η)|.

A seguir introduzimos uma forma de mensurar a dependência da configuração η

em um sítio i ∈ Z. Para f ∈ C(X), a dependência da configuração η no sítio i émensurada a través da grandeza

δif = supη∈Ω|f(ηi)− f(η)|.

em quanto que sua oscilação total é dada por

|||f ||| =∑i

δif.

Por fim, o conjuntoD(X) = f ∈ C(X) : |||f ||| <∞

contem, pelo menos, todas as funções cilíndricas, que são aquelas que dependen da

20

Page 21: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

configuração η apenas a través de um número finito de sítios.

5.3 Definindo o processo

Por fim, estamos em condições de definir o processo formalmente.Seja p0 : X → [0, 1], U ⊂ Z, |U | <∞ tal que

p0(ηj) = p0(η)

sempre que j /∈ U .Desta forma o alcance o radio do processo é definido como o menor número real

positivo tal queU ⊂ ([−r, r] ∩ Z)d .

Consideremos as translações pi de p0 definidas por

pi(η) = p0(τi(η)).

Uma vez defindida a família de funções pi : X → [0, 1] | i ∈ Z podemos definiruma família de medidas produto da seguinte forma. Para η ∈ X defina a medidaproduto p(dσ, η) com marginais

P[σ(i) = 1|η] = pi(η).

Note que se A ⊂ Z com |A| <∞ temos que∫ ∏i∈A

σ(i)p(dσ|η) =∏i∈A

pi(η).

Definição 8 O autômato celular probailístico determinado por p0 é o processo markoviano(ηn)n com espaço de estado X e probabilidades de transição p(dσ, η).

Notação 1 Seja

Ir := i = (i1, . . . , id) ∈ Zd : −r ≤ i1, . . . , id ≤ r.

Como há tão dois estados possíveis para cada sítio podemos caracterizar o autômato celular

21

Page 22: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

probabilístico utilizando a família de probabilidades de transição p(J) : J ∈ ℘(Ir), onde

p(J) := Pηt+1(z) = 1|ηt(z + j) = 1 : j ∈ J.

Observação 8 Logo, um autômato celular probabilístico com espaço de estados 0, 1Zd

está completamente caracterizado por um número positivo r chamado radio do autômato eum conjunto de probabilidades de transição p(J) : J ∈ ℘(Ir).

5.4 Operadores de transição

No espaço de Banach C(X) podemos definir um operador de transição P dado por

Pf(η) =

∫f(σ)p(dσ|η).

A partir deste operador e seus iterados podemos definir uma sequência de medidasde probabilidades em X da seguinte forma

νn = νn−1P = νP n, n ∈]N

e ν0 = ν.Para qualquer medida de probabilidade µ em X temos que∫

f(σ)µP (dσ) =

∫Pf(σ)µ(dσ).

Observação 9 Note que νn é simplesmente a distribuição do processo no instante n.

5.5 Ergodicidade

Para poder definir o conceito de ergodicidade precisamos intoduzir o conceito demedida invariante.

Definição 9 Seja µ uma medida de probabilidade em X . Diremos que µ é invariante parao autômato celular probabilístico com operador de transição P se, e somente se µ satisfaz aseguinte equação

µP = µ

22

Page 23: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

Observação 10 Note que µ é uma medida invariante para um autômato se, e somente se, oestado inicial do processo for escolhido de acordo com a medida µ e a distribuição do processonão mudar ao longo do tempo. Isto é, se νn = µ ∀ n ∈ N.

Agora podemos definir o conceito de ergodicidade.

Definição 10 Diremos que um autômato celular probabiístico é ergódico se, e somente se,para toda medida inicial µ há convergência a única medida invariante:

µn → ν, no sentido fraco

quando n ↑ ∞. Isto é, se

limn→∞

∫X

fdµn =

∫X

fdν,

para cada f ∈ Cb(X).

Observação 11 Pelo teorema de Tychonoff sabemos que o espaço de estado ou de configura-ções X = 0, 1Z é compacto. Assim sendo, temos que Cb(X) = C(X).

5.5.1 A medida de probabilidade invariante

Definição 11 Seja T uma transformação que preserva medida do espaço de probabilidade(X,F , µ), onde F é a σ-álgebra gerada pelos conjuntos cilíndricos em X . Dizemos que umamedida de probabilidade µ é T -mixing se ∀ U, V ∈ F

limn→∞

µ(U ∩ T−nV ) = µ(U)µ(V ).

Dado que a família dos conjuntos cilíndricos geram a σ-álgebra F , segue-se que amedida µ é T -mixing quando esta última reláCão seja satisfeita por qualquer par deconjuntos cilíndricos U e V (para mais detalhes veja [38]).

5.6 Principais resultados e exemplos

Um autômato probabilístico de radio r é chamado atrativo se para qualquer J ⊂ Ir ej ∈ Ir temos que

p(J ∪ j) ≥ p(J).

Aqui consideramos a seguinte subclase de autômatos probabilísticos atratívos

23

Page 24: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

Definição 12 Dizemos que um autômato celular probabilístico de dois estados e de rario rpertence a C se suas probabilidades de transição satisfazem

p(J) =∑J ′⊆J

λ(J ′)

para qualquer J ∈ ℘(Ir) onde λ é alguma aplicação de P(Ir)→ [0, 1). Ir.

A seguinte proposição dá condições suficientes para que um autômato celular pro-babilístico atratívo pertença a C.

Proposição 2 Um autômato celular probabilístico de dois estados e de rario r, η. pertence aC se suas probabilidades de transição satisfazerem as seguintes desigualdades:(a) para qualquer i ∈ Ir,

p(i) ≥ p(∅).

(b) Para qualquer 1 ≤ k ≤ |Ir| − 1 e para qualquer j0, . . . , jk ∈ Ir

p(j0, . . . , jk) ≥ (−1)kp(∅)−k−1∑n=0

(−1)k+1−n∑

l0,...,ln⊂j0,...,jk

p(l0, . . . ln).

Teorema 4 Seja η. um autômato celular probabilístico de dois estados, d-dimensional e deradio r que pertence a C. Se p(Ir) < 1 então η. é um autômato celular probabilístico ergódico.

Observação 12 Quando p(Ir) = 1 o autômato probabilístico pode não ser ergódico. Porexemplo, se λ(∅) = 0 existem pelo menos duas medidas invariantes. A saber, δ∞0∞ e δ∞1∞ .

Corolário 1 Nas condições do Teorema 4 (p(Ir) < 1), se λ(∅) = 0 então δ∞0∞ é a únicamedida invariante.

Teorema 5 Seja η. um autômato celular probabilístico unidimensional ∈ C de radio r comp(Ir) =: D ∈ [0, 1). Logo„ a única medida invariante µ é shift-mixing. Mais ainda, seD 6= 0, para qualquer par de cilíndros [U ]0 = [u0 . . . uk]0, [V ]0 = [v0 . . . vk′ ]0 e t ≥ |U |+ |V |temos que

|µ([U ]0 ∩ σ−t[V ]0)− µ([U ]0)× µ([V ]0)| ≤ exp (−a× t)×K(U, V ),

onde σ é o shift em 0, 1Z, a = 1/2r × ln(1/D) e K(U, V ) é uma constante que dependeapenas de U , V , D and r.

24

Page 25: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

Observação 13 Este útlimo resultado pode ser estendido a autóamtos celulares probabilís-ticos d-dimensionais.

5.7 Exemplos e comparações com resultados

conhecidos

5.7.1 O modelo de Domany-Kinzel

Este é um autômato celular probabilístico unidimensional η. de radio r = 1 introdu-zido em [7] com probabilidades de transição

Pηt+1(z) = 1|ηt(z − 1, z, z + 1) = 000 ou 010 = p(∅) = p(0) = a0,

Pηt+1(z) = 1|ηt(z − 1, z, z + 1) = 100 ou 110 = p(−1)

= p(−1, 0) = a1,

Pηt+1(z) = 1|ηt(z − 1, z, z + 1) = 001 ou 011 = p(1) = p(0, 1) = a1

e

Pηt+1(z) = 1|ηt(z − 1, z, z + 1) = 101 ou 111 = p(−1, 1)

= p(−1, 0, 1) = a2,

onde, para qualquer subconjunto V ⊂ Z, η(V ) ∈ 0, 1V denota a restrição de umaconfiguração η ∈ 0, 1Z ao conjunto de posições em V .Utilizando a proposição 2 temos que η. ∈ C desde que p(−1, 1) ≥ p(−1) +

p(1)−p(∅), que por sua vez é equivalente à condição a2 ≥ 2a1−a0. Do Teorema 4 oautômato probabilístico η. é ergódico se, e somente se, p(Ir) = p(−1, 0, 1) = a2 < 1.Do Teorema 5 a única medida invariante é shift-mixing com decaimento exponencialdas correlações espaciais. Mais especificamente, para qualquer par de cilindros [U ]0

e [V ]0 and para todo t ≥ |U |+ |V | temos que

|µ([U ]0 ∩ σ−t[V ]0)− µ([U ]0)× µ([V ]0)| ≤ K exp (−(1/2 ln (1/a2))t),

onde K pode ser calculada explicitamente.

25

Page 26: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

5.7.2 Exemplo bidimensional

Seja η um autômato probabilístico bidimensional, de radio um e com dois estadospossíver por cada sítio. Neste caso I1 = (l, k)| − 1 ≤ l, k ≤ 1 é um retângulo de 9

sítios. As probabilidades de transição p(J)|J ⊆ I1 of η. estão dadas por

p(J) = α

|J |∑k=0

C9k = α× 2|J |

onde C lk são os coeficientes binomiais.

Este autômato probabilístico pertence a C já que para qualquer J ⊆ I1 podemos es-crever λ(J) = α obtendo P (J) =

∑J ′⊆J λ(J ′). Este autômato é uma especie de gen-

ralização a duas dimensões do modelo de Domany-Kinzel com só um parâmetro. Acondição suficiente de ergodicidade é p(Ir) < 1 que por sua vez implica α × 29 < 1

(α < 2−9). A constante de decaimento de correlações é dada por a = 12

ln(1/(29×α)).

5.7.3 Comparação com as condições de Dobrushin

Em [8], Dobrushin da condições suficientes de ergodicidade para sistemas de partí-culas interagentes. Utilizando a notação introduzida por Coletti e Tisseur a referidacondição de Dobrushin poder ser traduzida como γ < 1 (veja [31] and [32]), onde

γ =∑j∈Ir

supJ⊆Ir|p(J ∪ j)− p(J)|.

No caso do modelo de Domany-Kinsel, o qual pertence à clase C, temos que

γ = supJ⊆Ir|p(J ∪ −1)− p(J)|+ sup

J⊆Ir|p(J ∪ 1)− p(J)| = 2(a2 − a1)

já que η. ∈ C (a2 ≥ 2a1 − a0). Se a2 < 1 (condição do Teorema 4) e 2(a2 − a1) ≥ 1 acondição de suficiência de Dobrushin não pode ser aplicada.

Já no caso do exemplo bidimensional temos que

γ = α

(9∑

k=1

k × C9k

).

Neste caso γ > p(Ir) e mesmo que γ < 1 a constante do decaimento de correlações12

ln(1/(p(Ir)) é mairo do que 12

ln(1/(γ)), que é a constante de correlações dada em

26

Page 27: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

[31].

De forma geral, se um autômato probabilístico pertence à C a condição de suficiên-cia p(Ir) < 1 pode ser rescrita como

p(Ir) =∑J⊆Ir

λ(J) < 1

e a condição de suficiência de Dobrushin pode ser rescrita como

γ =∑

J 6=∅, J⊆Ir

λ(J)× |J | < 1.

5.8 Exemplos de autômatos celulares probabilísticos

5.8.1 Modelo do votante a vizinhos mais próximos

O modelo do votante a vizinhos mais próximos é um autômato celular probabilístico(ηn)n com espaço de estados −1, 1Z e probabilidades de transição dadas por

px(.|η) =1

2

∑y||y−x|=1

|η(x)− η(x+ y)|2

.

Este sistema não é ergódico já que admite pelo menos duas medidas invariantes: asmedidas que dão massa total (probabilidade 1) às configurações todos um e todosmenos um respectivamente. Isto é, δ1 e δ−1 onde 1 ∈ −1, 1Z é definida como1(x) = 1 ∀ x ∈ Z. A configuração −1 é definida análogamente.

5.8.2 Modelo do votante com maioria determinística

Neste caso a probabilidade de transição do autômato celular probabilístico é dadapor

px(.|η) = 1∑

y||y−x|=1

|η(x)− η(x+ y)|2

> 1.

favorecendo mudanças do spin caso a maioria dos vizinhos mais próximos tiveremspins diferentes.

27

Page 28: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

5.9 Ergodicidade de autômatos celulares

probabilísticos

Estamos em condições de enunciar o resultado que motivou o título deste trabalho.Seja A um conjunto finito e seja X = AZ. Seja p = p(a|η) : a ∈ A e η ∈ X

uma família de probabilidades de transição de raio um. Como usual supomos que afamília p seja invariante por translações. Seja (ηn)n o autômato celular probabilísticocorrespondente à família p. Definimos o coeficiente de ergodicidade associado a ppor

α :=∑a∈A

infη∈X

p(a|η).

O seguinte resultado da uma condição suficiente para a ergodicidade de autômatoscelulares probabilísticos com coeficiente de ergodicidade α.

Teorema 6 Seja (ηn)n um autômato celular probabilístico atrativo, de raio um, com espaçode estados X e com probabilidades de transição invariante por translações p = p(a|η), a ∈A, η ∈ X. Suponha que o coeficiente de ergodicidade α seja tal que 1 − α < 1/3. Logo, oprocesso (ηn)n é ergódico.

A idéia que está por trás da construção do processo é a seguinte:

• Dada uma configuração inicial η ∈ X definimos η0 = η.

• A cada instante de tempo n, n ∈ N o valor do processo no sítio x ∈ Z é substi-tuido por uma variável aleatória Y(x,n) com função de densidade de probabili-dade

px(.|ηn−1).

A variável aleatória Y(x,n) é construida como uma função determinística devariável uniforme associada ao par (x, n) utilizando um acoplamento maximal(Y (x,n) : η ∈ X) para a família de variáveis aleatórias Y(x,n), η ∈ X com funçõesde desnsidade de probabilidade px(.|η), η ∈ X .

Sem mais delongas procedemos a provar o teorema.

Prova 6 Seja α o coeficiente de ergodicidade associado ao autômato celular probabilístico(ηn)n. A primeira etapa da prova consiste em realizar a construção gráfica do processo a qualnos proverá uma versão do processo de nosso interesse.

28

Page 29: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

Seja U(x, n) : (x, n) ∈ Z× ∈ N0 uma familia de variáveis aleatórias IID com U(0, 0) ∼U([0, 1]). Para cada (x, n) ∈ Z× ∈ N0 e cada η ∈ X podemos definir uma variável aleatóriadiscreta Y(x,n)|η com função de probabilidade (p(a|η) : a ∈ A) utilizando apenas a variávelaleatória U(x, n).

Desta forma, utilizando o acoplamento maximal para a família Y(z,n) : z ∈ Z, η ∈ Xpodemos definir o processo indutivamente para uma configuração inicial η dada.

A segunda parte da prova consiste em determinar a região de influência que determinaráo valor do processo no instante n no sítio z para n e z dados. A idéia e utilizar a teoriade percolação dessenvolvida nestas notas para provar que a região de influência é finita comprobabilidade um; isto é, o autômato esquece o passado.

Note que para determinar ηn(z), isto é o valor do processo no instante n no sítio z ∈Z devemos inspeccionar a estructura aleatória para atrás definida a partir da dinâmica doprocesso e do coeficiente de ergodicidade.

Sejam z ∈ Z e n ∈ N0 e seja U(z, n) a variável aleatória uniforme em [0, 1] associada aopar (z, n). Existem duas possibilidades: U(z, n) ≤ α ou U(z, n) > α.

Se U(z, n) ≤ α, defina

ηn(z) := α−1(U(z, n)),

onde α(x) é a função definida por

α(x) =∑a:a≤x

infη∈X

p(a|η)

Neste caso o valor de ηn(z) está bem definido e é apenas uma função da variável aleatóriaU(z, n).

Se U(z, n) > α, determine os valores do processo nos sítios z − 1, z, z + 1 no instante detempo n−1 e definimos o valor do processo no sitio z no instante n utilizando o acoplamentomaximal de forma análoga ao caso anterior.

Neste caso o valor de ηn(z) é uma função determinística de U(z, n) e de ηn−1(z−1), ηn−1(z)

e ηn−1(z + 1). O valor de ηn(z) está bem definido desde que os valores ηn−1(z − 1), ηn−1(z)

e ηn−1(z + 1) o estejam.Note que o esquema recursivo para definir o valor de ηn(z) origina um modelo de percolação

orientada para atrás no tempo.Para z ∈ Z seja V (z) = z − 1, z, z + 1. Para (n, z) definimos a primeira geração de

ancestros de (n, z) da seguinte forma: Se U(n, z) ≤ α definimos A(n,z)1 = ∅. Se U(n, z) > α

definimos A(n,z)1 = V (z).

Indutivamente, definimos a n-ésima geração de ancestros de (n, z), n ≥ 2 da seguinte

29

Page 30: Ergodicidade e Atratores Aleatórios para uma Família de ACP

5 Autômatos Celulares Probabilísticos

forma:A(n,z)n = ∪

x′∈A(n,z)n−1

A(n,z)1 .

O clan de ancestros de (n, z) é definido por

A(n,z) = ∪m≥1A(n,z)m

Diremos que há percolação orientada para atrás se A(n,z)m 6= ∅ para cada m ∈ N.

Observamos que este modelo de percolação corresponde-se exatamente ao modelo de perco-lação de sítios estudado na seção 3 com probabilidade do sítio estar aberto p = 1− α. Destaforma, se p < 1/3 não há percolação com probabilidade um. Desta forma vemos que de fatoo processo esquece o passado.

Por fim, observamos que sendo o autômato um processo atrativo temos que existem (emprincípio) duas medidas invariantes para o processo (Ver prova na próxima seção). Porém,pelo argumentado no parágrafo anterior estas duas distribuições coincidem. Provando, destaforma, a ergodicidade do processo.

Observação 14 Este tipo de construção para provar ergodicidade foi introduzido por Fer-rari [18], [19], [20] para o estudo de hidrodinâmica e ergodicidade em dinâmicas de Glauber-Kawasaky.

No caso de dinâmicas de Glauber com spins contínuos este tipo de idéias foi utilizada porGrynberg [16].

30

Page 31: Ergodicidade e Atratores Aleatórios para uma Família de ACP

6 ATRATORES ALEATÓRIOS

Por último, consideramos a noção de atrator aleatório para sistemas dinâmicos ale-atórios (processos estocásticos). O objetivo é apresentar a riqueza desta teoria paraque o leitor interessado se aprofunde nela e descobra a quantidade de problemas emaberto que existem na área. Isto tal vez possa ser explicado ao comparar a idade daprobabilidade com outras áreas da matemática. Deve ser levado em consideraçãoque só em 1933, com o trabalho de Kolomogorov, os conceitos probabilísticos foramdefinidos de forma rigorosa. Desde este ponto de vista, a probabilidade é vista comouma área moderna da Matemática.

Sem mais delongas vamos introduzir, então, o conceito de atrator para processosestocásticos. Primeiro, será necessário introduzir um pouco de notação.

6.1 Sistemas dinâmicos aleatórios

6.1.1 Definições gerais

Definição 13 Um sistema dinâmica métrico θ = ((Ω,F ,P), (θt)t∈T ) com conjunto de ín-dices temporal T (T = Z ou T = R) é um espaço de probabilidade (Ω,F ,P) junto com umafamília de transformações θt : Ω→ Ω, t ∈ T tal que:

1. (t, ω) 7→ θtω é mensurável

2. (θt)t∈T é um grupo a um parâmetro, isto é

θ0 ≡ IdΩ, θt θs = θt+s para todo s, t ∈ T

3. Para cada t ∈ T, θt preserva medida, isto é

P[θt ∈ B] = P[B] para cada B ∈ F .

Para a seguinte definição supomos que (X, d) é um espaço polonês. Isto é, X é um

31

Page 32: Ergodicidade e Atratores Aleatórios para uma Família de ACP

6 Atratores Aleatórios

espaço métrico completo e separável e seja B(X) a σ-álgebra de Borel correspon-dente.

Definição 14 Um sistema dinâmico aleatório com tempo T+ e espaço de estado X sobre umsistema dinâmico métrico θ, é uma aplicação mensurável

ϕ : T+ × Ω×X −→ X,

(t, ω, x) 7−→ ϕ(t, ω, x) ≡ ϕ(t, ω)x

tal que a família de aplicações ϕ(t, ω), t ∈ T, ω ∈ Ω satisfaz a propriedade do cociclo

ϕ(0, ω) = IdX , ϕ(t+ s, ω) = ϕ(t, θsω) ϕ(s, ω)

para cada s, t ∈ T e ω ∈ Ω.

O estado ϕ(t, θsω)x é o estado do sistema dinâmico após t unidades de tempo co-meçando no instante s no estado x. A propriedade do cociclo

ϕ(t+ s, ω) = ϕ(t, θsω) ϕ(s, ω)

diz que se começarmos no estado x no instante 0, logo o estado do sistema após s+ t

unidades de tempo é o mesmo que se começarmos no instante s no estado ϕ(s, ω)x

e esperarmos t unidades de tempo (propriedade de semifluxo).

6.1.2 Conjuntos aleatórios, pontos de equilíbrio e atratores

Definição 15 Seja (X, d) um espaço polonês e (Ω,F) um espaço mensurável. Um conjuntoaleatório D é uma aplicação

D : Ω −→ P(X)

tal que para cada ω ∈ Ω, D(ω) é um subconjunto fechado de X e, para cada x ∈ X aaplicação ω 7−→ d(x,D(ω)) é mensurável.

Um conjunto aleatório compacto D é um conjunto aleatório D tal que para cada ω ∈Ω, D(ω) é compacto.

Definição 16 Um conjunto aleatório D é dito ϕ-invariante se, para cada t ∈ T+ e ω ∈ Ω,temos

ϕ(t, ω)D(ω) = D(θtω).

32

Page 33: Ergodicidade e Atratores Aleatórios para uma Família de ACP

6 Atratores Aleatórios

Observação 15 Se na definição acima substituimos o = por ⊂ dizemos que D é ϕ-a frenteinvariante.

Definição 17 Um ponto de equilíbrio é um ponto aleatório que é ϕ-invariante.

Observação 16 Um ponto de equilíbrio e em sistemas dinâmicos aleatórios é o análogo depontos fixos em sistemas dinâmicos determinísticos.

A seguir introduzimos a noção de trajetórias pullback.

Definição 18 Seja ω ∈ Ω. A função t 7−→ ϕ(t, θ−tω) é chamada trajetória pullback come-çando em x.

Agora estamos em condições de discutir a noção de atratores aleatórios.

Definição 19 Seja B ⊂ P(X). Um B-atrator aleatório pullback para um sistema dinâmicoaleatório aleatório ϕ é um conjunto compacto aleatório A que é ϕ-invariante e atrai todoB ∈ B, isto é, para todo B ∈ B tem-se que

limt→∞

d(ϕ(t, θ−tω)B,D(ω)) = 0 q.c.

onde d(A,B) = supx∈A

d(x,B) = supx∈A infy∈B

d(x, y).

Observação 17 Se na definição acima B = B ⊂ X | B é limitado dizemos que A é umatrator global para ϕ.

Agora nosso propósito é provar a existência de atratores aleatórios. Porém mas umadefinição faz-se necesária.

Definição 20 Seja D um conjunto aleatório. O conjunto pullback, ω-limite de D é definidopor

ΩD(ω) = ∩T≥0∪t≥Tϕ(t, θ−tω)D(θ−tω).

Observação 18 Note que y ∈ ΩD(ω) se, e somente se, existem sequências (tn)n∈N ⊂T+ com lim

n→∞tn = ∞ e (xn)n∈N ⊂ X com xn ∈ D(θ−tnω) para cada n, tal que y =

limn→∞

ϕ(tn, θ−tnω)xn.

Teorema 7 Seja ϕ um sistema dinâmica aleatório com espaço de estados compacto X . Logo,cada ΩX é um B-atrator para cada família de conjuntos B.

33

Page 34: Ergodicidade e Atratores Aleatórios para uma Família de ACP

6 Atratores Aleatórios

Prova 7 Da compacidade de X segue-se que ΩX 6= ∅. Mais ainda, é uma multi-funçãoϕ-invariante que atrai todo subconjunto de X . Mais ainda, ΩX é um conjunto aleatóriocompacto. Como ϕ é mensurável e ϕ(t, ω) é contínua temos que para cada t fixo, a aplicaçãoω 7→ ϕ(t, θ−tω)X define um conjunto aleatório compacto. Mais ainda, a família de conjun-tos aleatórios ϕ(t, θ−t.)X; t ≥ 0 é decrescente em t. Utilizando a propriedade de cocíclo,para cada h > 0 temos

ϕ(t+ h, θ−t−hω)X = ϕ(t, θ−tω)ϕ(h, θ−t−hω)X

⊂ ϕ(t, θ−tω)X

Logo,ΩX(ω) = ∩t>0ϕ(t, θ−tω)X = ∩n∈Z+ϕ(n,θ−nω)X.

Logo, ΩX é um conjunto compacto aleatório.

6.2 Sistemas dinâmicos aleatórios monótonos

Nestas notas nos focamos em uma família restrita de sistemas dinâmicos aleatórios.A saber, sistemas monótonos.

Definição 21 Um sistema dinâmico aleatório ϕ é dito monótono se

x ≤ y implica ϕ(t, ω)x ≤ ϕ(t, ω)y para cada t ∈ T+ e ω ∈ Ω.

Para sistemas dinâmicos monótonos, se o espaço de estado têm um elemnto minimal0 e um elemento maximal 1 em X tal que 0 ≤ x ≤ 1 para cada x ∈ X e se todasequência monótona em X convergir a um ponto de X , então podemos obter doispontos de equilíbrio.

De fato, para ω ∈ Ω fixo a família de pontos em Xϕ(t, θ−tω)1t∈T+ é decrescenteem t. Isto é,

s ≤ t⇒ ϕ(s, θ−sω)1 ≥ ϕ(t, θ−tω)1.

Esta propriedade segue-se facilmente da propriedade do cociclo e da monotonici-dade de ϕ

ϕ(t, θ−tω)1 = ϕ(s, θ−sω)ϕ(t− s, θ−tω)1 (6.1)

≤ ϕ(t, θ−tω)1

34

Page 35: Ergodicidade e Atratores Aleatórios para uma Família de ACP

6 Atratores Aleatórios

Análogamente, prova-se que ϕ(t, θ−tω)0t∈T+ é crescente em t.Por tanto, para cada ω ∈ Ω os seguintes limites existem

σ+(ω) := limt→∞

ϕ(t, θ−tω)1 e σ−(ω) := limt→∞

ϕ(t, θ−tω)0.

A seguinte proposição mostra que σ+ e σ− são pontos de equilíbrio para ϕ.

Proposição 3 As variáveis aleatórias σ+ e σ− são pontos de equilíbrio para ϕ. Isto é,

ϕ(t, ω)σ+(ω) = σ+(θtω) e ϕ(t, ω)σ−(ω) = σ+(θtω)

para cada t ∈ T+ e ω ∈ Ω.

Prova 8 Para t e ω fixo, pela continuidade de ϕ(t, ω) temos que

ϕ(t, ω)σ+(ω) = ϕ(t, ω)( lims→∞

ϕ(s, θ−sω)1) (6.2)

= lims→∞

ϕ(t, ω)ϕ(s, θ−sω)1 (6.3)

= lims→∞

ϕ(t+ s, θ−sω)1 (6.4)

= lims→∞

ϕ(t+ s, θ−(t+s)ω)1 = σ+(θtω). (6.5)

Observação 19 Note que se ϕ é uma realização de um processo markoviano então as distri-buições de σ− e σ+ são medidas invariantes para o processo.

6.2.1 Ergodicidade, monotonicidade e atratores

Finalizamos esta modesta introdução aos atratores aleatórios mencionando a relaçãoexistente entre atratatores aleatórios para sistemas dinâmicos aleatórios, monotoni-cidade e ergodicidade.

Muitos autores tem provado a existência de atratores aleatórios para sistemas di-nâmicos aleatórios particulares utilizando fortemente alguma característica peculiardo processo em consideração tornando a prova obviamente processo dependente.Michael Scheutzow and Igor Chueshov ([5], [6]) vêm dessenvolvendo um trabalhosistemático na área de sistemas dinâmicos aleatórios; primeiro dando uma boa defi-nição de atrator aleatório já que ao contrário do que ocorre em sistemas dinâmicosclássicos mesmo a noção correta de atrator aleatório não é clara. Em segundo lugar,estão dedicados a tarefa de apresentar condições suficientes para a existência deatratores aleatórios gerais o suficiente como para que possam ser aplicadas a uma

35

Page 36: Ergodicidade e Atratores Aleatórios para uma Família de ACP

6 Atratores Aleatórios

determinada família de sistemas dinâmicos aleatórios e não apenas a um membrodesta família em particular.

Em particular, eles provam que certos sistemas dinâmicos aleatórios monótonose ergódicos possuim um único atrator aleatório. Antes de enunciar o resultado deChueshov e Scheutzow introduzimos um pouco de notação.

Seja V um espaço de Banach e seja V+ ⊂ V um cone. O cone V+ define uma ordemparcial em V da seguinte forma: x ≤ y se, e somente se y − x ∈ V+. O cone V+ é ditosólido se V+ 6= ∅. Para a, b ∈ V definimos o intervalo fechado [a, b] por

[a, b] = x ∈ V : a ≤ x ≤ b.

Se o cone V+ for sólido então qualquer conjunto limitado B ⊂ V está contido emalgum intervalo. Um cone V+ é dito normal se todo intervalo [a, b] for limitado. Oresultado de Chueshov e Scheutzow pode ser enunciado da seguinte forma:

Teorema 8 Considere um sistema dinâmico aleatório (sda) monótono e ergódico assumindovalores em um espaço de Banach V que admite um cone solido e normal V+. Logo, o sdapossui um único atrator aleatório fraco.

Observação 20 A importância deste resultado está em que para para uma família de siste-mas dinâmicos aleatórios o problema de achar seus atratores é transformado em um problemade determinar sua ergodicidade. Embora provar que um sda dado seja ergódico não é umatarefa simples, provar a existência de atratores é uma tarefa mais complicada ainda.

6.2.2 Comentário Final

As técnicas utilizadas na seção anterior para determinar a ergodicidade de autôma-tos celulares probabilísticos podem ser exploradas para determinar a existência deum único atrator forte para este tipo de processos. Isto constitue uma generaliza-ção do resultado de Chueshov e Scheutzow para uma família restrita de processosestocásticos.

36

Page 37: Ergodicidade e Atratores Aleatórios para uma Família de ACP

7 APÊNDICE

Neste apêndice o leitor encontrará os conceitos mínimos necessários para ler estasnotas. Desde já o conteúdo deste apêndice está longe de abordar todos os conceitosbásicos da probabilidade.

Para uma primeira introdução à área recomendo o livro de W. Feller [17]. Já parauma abordagem baseada em teoria da medida o leitor pode consultar o livro de NShiryaev [33]. Por outro lado, o conteudo de este apêndice corresponde a notas deaula escritas em co-autoria com E. Lebensztayn [4].

7.1 Probabilidade: Definições e propriedades

Um experimento é aleatório se, ao ser repetido nas mesmas condições, é impossívelprever antecipadamente seu resultado. Em contrapartida, um experimento é deter-minístico se, quando repetido nas mesmas condições, conduz ao mesmo resultado.

Denominamos espaço amostral o conjunto de todos os resultados possíveis de umexperimento aleatório, e o denotamos por Ω.

Definição 22 Uma probabilidade é uma função P a valores reais definida em uma classe Fde subconjuntos (eventos) de um espaço amostral Ω que satisfaz as seguintes condições:

1. 0 ≤ P[A] ≤ 1 para cada A ∈ F ,

2. P[Ω] = 1,

3. Aditividade enumerável: para qualquer sequência A1, A2, . . . ∈ F de eventos dois adois disjuntos,

P[∪∞i=1Ai] =∞∑i=1

P[Ai].

A tripla (Ω,F ,P) é chamada um espaço de probabilidade.

Observação 21 No caso de Ω finito ou infinito enumerável, podemos definir a probabilidadena clsse F de todos os subconjuntos de Ω, a qual é usualmente denotada por 2Ω ou P(Ω)

37

Page 38: Ergodicidade e Atratores Aleatórios para uma Família de ACP

7 Apêndice

(conjunto das partes de Ω). Neste caso, escrevendo Ω como Ω = ω1, ω2, . . ., associamos

a cada ωi, i = 1, 2, . . ., um número p(ωi) tal que p(ωi) ≥ 0 e∞∑i=1

p(ωi) = 1. Para i =

1, 2, . . .mp(ωi) é a probabilidade do evento simples ωi. A probabilidade de um eventoA ⊂ Ω é definida por

P[A] =∑i:ωi∈A

p(ωi).

Quando Ω é infinito não enumerável, é em geral impossível associar uma probabilidade bemdefinida a todos os subconjuntos de Ω. Define-se então uma probabilidade em uma classemais restrita de subconjuntos de Ω. Esta família é chamada σ-álgebra de subconjuntos de Ω.Para mais detalhes o leitor interessado deve aprofundar-se em estudos de teoria da medida.

7.2 Propriedades de uma probabilidade

1. P[∅] = 0.

2. Aditividade finita: Se A1, . . . , An são eventos dois a dois disjuntos, então

P[∪ni=1Ai] =n∑i=1

P[Ai].

3. P[Ac] = 1− P[A].

4. Se A,B ∈ F e A ⊂ B então P[A] ≤ P[B].

5. Subaditividade enumerável: Para qualquer sequência A1, A2, . . . de eventos,

P[∪∞i=1Ai] ≤∞∑i=1

P[Ai].

7.3 Probabilidade condicional e independência

Seja (Ω,F ,P) um espaço de probabilidade. Para eventos A,B com P[B] > 0, a pro-babilidade condicional de A dado que B ocorreu é definida por

P[A|B] =P[A ∩B]

P[B].

Por outro lado, dizemos que dois eventos A e B são independentes se P[A ∩ B] =

P[A]P[B].

38

Page 39: Ergodicidade e Atratores Aleatórios para uma Família de ACP

7 Apêndice

Os eventos A1, . . . , An são independentes se para qualquer escolha de k(2 ≤ k ≤ n)

e índices 1 ≤ i1 < i2 < . . . < ik ≤ n,

P[Ai1 ∩ Ai2 ∩ . . . ∩ Aik ] = P[Ai1 ]P[Ai2 ] . . .P[Aik ].

7.4 Conjuntos limites e continuidade da

probabilidade

Sejam A1, A2, . . . eventos em um espaço de probabilidade (Ω,F ,P).Por An ↑ A denotamos que

A1 ⊂ A2 ⊂ A3 ⊂ . . . e A = ∪∞n=1An.

Por An ↓ A denotamos que

A1 ⊃ A2 ⊃ A3 ⊃ . . . e A = ∪∞n=1An.

7.4.1 Continuidade por baixo da probabilidade

Se An ↑ A, então P[An] ↑ P[A] quando n→∞.

7.4.2 Continuidade por cima da probabilidade

Se An ↓ A, então P[An] ↓ P[A] quando n→∞.

7.5 Variáveis Aleatórias: Definições

Uma variável aleatória X em um espaço de probabilidade (Ω,F ,P) é uma função avalores reais definida em Ω, tal que

[X ≤ x] = ω ∈ Ω : X(ω) ≤ x ∈ F

para cada x ∈ R.As variáveis aleatórias que assumem valores em um conjunto finito ou infinito enu-

merável são chamadas discretas e aquelas que assumem valores em um intervalo dareta real são chamadas contínuas.

39

Page 40: Ergodicidade e Atratores Aleatórios para uma Família de ACP

7 Apêndice

Observação 22 Se X é uma variável aleatória assumindo valores em x1, x2, . . . ⊂ R talque X(ω) ∈ x1, x2, . . ., ∀ ω ∈ Ω então a função p(x) = P[X = x] é chamada função de

probabilidade de X . Note que∞∑i=1

p(xi) = P[Ω] = 1.

7.6 Independência de variáveis aleatórias

As variáveis aleatórias X1, . . . , Xn são independentes se para quaisquer conjuntosAi ⊂ R (borelianos), i = 1, . . . , n,

P[X1 ∈ A1, . . . , Xn ∈ An] =n∏i=1

P[Xi ∈ Ai].

7.6.1 Critério para independência no caso discreto:

As variáveis aleatórias discretas X1, . . . , Xn são independentes se, e somente se,

P[X1 = x1, . . . , Xn = xn] = P[X1 = x1] . . .P[Xn = xn]

para qualquer escolha de x1, . . . , xn.

40

Page 41: Ergodicidade e Atratores Aleatórios para uma Família de ACP

REFERÊNCIAS BIBLIOGRÁFICAS

[1] E. Andjel, A. Galves, Introdução à Teoria da Percolação, IMPA.

[2] A. Boborowski, Functional Analysis for Probability and Stochastic Processes,Cambridge, University Press (2005)

[3] C. F. Coletti, P. Tisseur, Invariant Measures and Decay of Correlations for aClass of Ergodic Probabilistic Cellular Automata. Journal of Statistical Physics,v. 140, p. 103-121, 2010.

[4] C. F. Coletti, E. Lebensztayn. Probabilidade: Teoria e Exercí-cios. Notas de Aula. Programa de Pós-Graduação do IME-USP,https://sites.google.com/site/lebensztayn/livro .

[5] I. Chueshov, Monotone random systems: theory and applications, Volume1779, Lecture notes on Mathematics, Springer.

[6] I. Chueshov, M. Scheutzow, (2004). On the structure of attractors and invariantmeasures for a class of monotone random systems, Dynamical Systems: AnInternational Journal, 19, 127144.

[7] E. Domany, W. Kinzel, Equivalence of cellular automata to ising models anddirected percolation, Phys. Rev. Lett. 53, 311-314 (1984).

[8] R. L. Dobrushin, Markov processes with a large number of locally interactingcomponents: Existence of a limit process and its ergodicity, Problems Inform.Transmission 7, 149-164 (1971)

[9] R. Durrett, Lectures Notes on Particle Systems and Percolation, Wadsworth andBrooks/Cole Advanced Books and Software, 1988.

[10] R. Durrett, Probability: Theory and Examples, Duxbury Press; 2 edition (Au-gust 30, 1995)

[11] R. Durrett, Ten Lectures on Particle Systems, Lecture Notes in MathematicsVolume 1608, Springer.

41

Page 42: Ergodicidade e Atratores Aleatórios para uma Família de ACP

Referências Bibliográficas

[12] P. Gacs, Reliable Cellular Automata with Self-Organization, Journal of Statisti-cal Physics, 103, 1-2 (2001) 45-267 (2001)

[13] L. F. Gray, A Reader’s Guide to Gacs’s ”Positive Rates” Paper, Journal of Stat.Phys. 103, 1-2 1-44 (2001)

[14] G. Grimmett, P. Hiemer, Directed Percolation and Random Walk, arXiv:math/0108062v1.

[15] G. Grimett, Percolation, Springer; 1 edition (April 1989).

[16] S. P. Grynberg, Construcción y simulación perfecta de campos markovianoscon spines acotados, Tese de doutorado em Matemática, UBA, 2009.

[17] W. Feller, An Introduction to Probability Theory and Its Applications, Vol. 1,3rd Edition, (1968).

[18] A. De Masi, P.A. Ferrari, J.L. Lebowitz, Reaction-diffusion equations for inte-racting particle systems, J. Stat. Phys. 44 3/4: 589-644, 1986.

[19] P. A. Ferrari, Ergodicity for spin systems with stirring, Ann. Probab. 18(4), 1523-1538 (1990).

[20] P. A. Ferrari, Ergodicity for a class of Probabilistic Cellular automata, Rev. Mat.Apl. 12 93-102 (1991)

[21] P. A. Ferrari, A. Galves, Coupling and Regeneration for Stochastic Processes,Notes for a minicourse presented in XIII Escuela Venezolana de Matematicas,2000, http://www.ime.usp.br/ pablo/publications.html .

[22] L. R. G. Fontes, Notas em Percolação, IMPA, http://www.ime.usp.br/ lre-nato/per.pdf .

[23] N. Konno, Dualities for a class of finite range probabilistic cellular automata inone dimension, Journal of Statistical Physics, 106, 5-6, 915-922 (2002)

[24] N. Konno, Self-duality for multi-state probabilistic cellular automata with finiterange interactions, Journal of Statistical Physics, 106, 5-6, 923-930 (2002)

[25] T. M. Liggett, Interacting particle systems. Springer-Verlag, New York (1985)

[26] T. M. Liggett, Survival of discrete time growth models, with application to ori-ented percolation, Ann. Appl. Prob., 5 (1995), 613-636.

42

Page 43: Ergodicidade e Atratores Aleatórios para uma Família de ACP

Referências Bibliográficas

[27] T. Lindvall, Lectures on the Coupling Method, Dover Publications (August 30,2002).

[28] F.J Lopez, G. Sanz, Stochastic Comparison for general Probabilistic Cellular Au-tomata, Statistics and Probability letters 46 401-410 (2000)

[29] F. J. Lopez, G. Sanz, Duality for general interacting particle systems, MarkovProcess and Relat. Fields 6 305-328 (2000)

[30] F.J Lopez, G. Sanz and M. Sobottka, Dualities for Multi-State Probabilistic Cel-lular Automata, Journal of statistical Mechanics P05006 (2008)

[31] C. Maes and S. Shlosman, Ergodicity of Probabilistic Cellular Automata: Aconstructive Criterion, Commun. Math. Phys. 135, 233-251 (1991)

[32] C. Maes and S. Shlosman, When is an Interacting Particle System Ergodic?,Commun. Math. Phys. 151, 447-466 (1993)

[33] A. N. Shyriaev, Probability (Graduate Texts in Mathematics) (v. 95), Springer;2nd edition (December 8, 1995).

[34] O. N. Stavskaja and I. I. Pjatetskii-Shapiro, Homogeneous networks of sponta-neously active elements, Problemy Kibernet. 20:91106 (in Russian) (1968)

[35] H. Thorisson, Coupling, Stationarity, and Regeneration. Probability and its Ap-plications. Springer.

[36] A. Toom, Stable an attractive trajectories in multicomponent systems, Advan-ces in Probabilities 6 549-575 (1980)

[37] A. L. Toom, N. B. Vasilyev, O. N. Stavskaya, G. L. Kurdyumov, S. A. Pirogov,Discrete local Markov Systems. In: R. L. Dobrushin, V. I. Kryukov, A. L. Toom(Eds.), Stochastic Cellular Systems: Ergodicity, Memory, Morphogenesis. Man-chester University Press, Manchester, pp. 1-182 (1990)

[38] P. Walters, An introduction to Ergodic Theory, Graduate Texts in Mathematica79, Springer (2000)

43