Determinação de Malhas de Falhas em Dados Sísmicos por...

Preview:

Citation preview

Determinação de Malhas de Falhas em Dados Sísmicos

por Aprendizado Competitivo

Marcos Machado

Orientador: Prof. Marcelo GattassTese de Doutorado

Dep. Informática / PUC-Rio14/03/2008

Sumário

1. Introdução1. Dados sísmicos2. Objetivo3. Métodos da literatura

2. Proposta: método baseado em Aprendizado Competitivo

3. Conclusões e trabalhos futuros

Aquisição sísmica

Dados sísmicos

-0,4-0,3-0,2-0,1

00,10,20,30,40,50,6

1

TempoAm

plitu

dea

bx

t

),,( yxtF

c

d

Interpretação sísmica

Reservatório

(Johann, 2003)

Interpretação sísmica

(Akintokunbo and Marfurt, 2007

Interpretação sísmica

(Akintokunbo and Marfurt, 2007

Falhas

Falha normal (a). Falha reversa (b).

Falhas

Falha gerando bom selante (a). Falha como mal selante (condutor) (b).

Atributos de falha

Atributos de falha

Atributos de Falha

Cubo de Coerência Cubo de Variância Semblance Atributo de realce de borda (Randen et al.,

2001) Coerência estimada pelo TEG (Bakker, 2002) Atributo de Falha pelo TEG (Bakker, 2002) Atributo de Caos (Randen et al., 2005) ...

Problema

Objetivo: extrair as superfícies associadas com as principais estruturas de falha.

Problema

Objetivo: extrair as superfícies associadas com as principais estruturas de falha.

Falhas vistas como tendências e não como superfícies contínuas bem definidas. => Métodos não-locais

Problema

Objetivo: extrair as superfícies associadas com as principais estruturas de falha.

Falhas vistas como tendências e não como superfícies contínuas bem definidas. => Métodos não-locais

Falhas podem gerar mesma assinatura de outros tipos de eventos. => Geometria

Processamento de imagens

Supressão de não-máximos(SNM) (Canny, 1986)

Afinamento de imagens binarizadas

Métodos de extração de falhas na literatura

(Forsyth et al., 2002)

Métodos de extração de falhas na literatura

Baseado em malhas Hale & Emanuel (2003)

(Hale & Emanuel, 2003)

Métodos de extração de superfícies de falha

Baseado em malhas Hale & Emanuel (2003)

Pré-processamento ≈ SNM !

1. Gerar grafo de falha:Growing Neural Gas (GNG).

Proposta

Proposta

1. Gerar grafo de falha:Growing Neural Gas (GNG).

2. Segmentar grafo.

Proposta

1. Gerar grafo de falha:Growing Neural Gas (GNG).

2. Segmentar grafo.

3. Gerar malha triangulada p/ cada superfície: Malhas Neurais Abertas (MNA).

Proposta

1. Gerar grafo de falha:Growing Neural Gas (GNG).

2. Segmentar grafo.

3. Gerar malha triangulada p/ cada superfície:Malhas Neurais Abertas (MNA).

Aprendizado Competitivo

Redes neurais não supervisionadas ou de aprendizagem auto-organizada.

Aprendizado Competitivo

Redes neurais não supervisionadas ou de aprendizagem auto-organizada.

Objetivo: distribuir N vetores em um espaço de dimensão n qualquer.

Aprendizado Competitivo

Redes neurais não supervisionadas ou de aprendizagem auto-organizada.

Objetivo: distribuir N vetores em um espaço de dimensão n qualquer.

Sinais de entrada , de acordo com função de probabilidade

np ξξ),(

ξ

Aprendizado Competitivo

Probabilidade1

0

Aprendizado Competitivo

Probabilidade1

0

Aprendizado Competitivo

Probabilidade1

0

ξ

Aprendizado Competitivo

Vizinhodo nó

vencedor Nó Vencedor

Probabilidade1

0

ξ

Aprendizado Competitivo

Exemplo: Self Organizing Feature Map (SOFM) (Kohonen, 1982)

Aprendizado Competitivo

Exemplo: Self Organizing Feature Map (SOFM) (Kohonen, 1982)

Problema: preservação de

topologia

Solução: Aprendizado Competitivo Hebbiano (CHL) (Martinetz, 1993)

Para cada entrada , as duas unidades cujos vetores de referência estão mais próximos de devem estar ligadas.

Preservação de topologia

ξξ

Aprendizado competitivo Hebbiano

Triangulação de DelaunayPolígonos de Voronoi

Triangulação de Delaunay induzidaPolígonos de Voronoi restritos

(Martinetz & Schulten, 1994)

Aprendizado competitivo Hebbiano

Distribuição de vértices não-densa:criação de aresta entre nós cujos poliedros de Voronoi restritos não são vizinhos.

Proposta

1. Gerar grafo de falha por GNG.

2. Segmentar grafo.

3. Malhas Neurais Abertas: construir malha triangulada para cada superfície.

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

2 nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

9 nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

34 nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

79 nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

100 nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

250 nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

367 nós

Growing Neural Gas (GNG)

GNG (Fritzke, 1995) = CHL + crescimento do número de nós

1000 nós

GNG Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor

GNG Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor

CHL (zera idade da aresta)

GNG Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor

CHL (zera idade da aresta)

Atualização do Erro local da unidade vencedora

GNG Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor

CHL (zera idade da aresta)

Atualização do Erro local da unidade vencedora

Incrementa idade das arestas incidentes ao vencedor (=>remoção)

GNG Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor

CHL (zera idade da aresta)

Atualização do Erro local da unidade vencedora

Incrementa idade das arestas incidentes ao vencedor (=>remoção)

Erros de todos os nós são depreciados

GNG Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor

CHL (zera idade da aresta)

Atualização do Erro local da unidade vencedora

Incrementa idade das arestas incidentes ao vencedor (=>remoção)

Erros de todos os nós são depreciados

Crescimento (de λ em λ ciclos...)

Inserção de unidade na vizinhança do nó de maior erro

GNG – custo computacional Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor O (n)

CHL (zera idade da aresta) O (1)

Atualização do Erro local da unidade vencedora O (1)

Incrementa idade das arestas incidentes ao vencedor (=>remoção) O (1)

Erros de todos os nós são depreciados O (n)

Crescimento (de λ em λ ciclos...)

Inserção de unidade na vizinhança do nó de maior erro O (n)

GNG – custo computacional Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor O (n)

CHL (zera idade da aresta) O (1)

Atualização do Erro local da unidade vencedora O (1)

Incrementa idade das arestas incidentes ao vencedor (=>remoção) O (1)

Erros de todos os nós são depreciados O (n)

Crescimento (de λ em λ ciclos...)

Inserção de unidade na vizinhança do nó de maior erro O (n)

-> Octree / grade regular dinâmica

GNG – custo computacional Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor O (n)

CHL (zera idade da aresta) O (1)

Atualização do Erro local da unidade vencedora O (1)

Incrementa idade das arestas incidentes ao vencedor (=>remoção) O (1)

Erros de todos os nós são depreciados O (n)

Crescimento (de λ em λ ciclos...)

Inserção de unidade na vizinhança do nó de maior erro O (n)

-> Octree / grade regular dinâmica

? Fila de prioridades

GNG – custo computacional Aprendizado (a cada ciclo...)

Adaptação do vencedor e do segundo-vencedor O (n)

CHL (zera idade da aresta) O (1)

Atualização do Erro local da unidade vencedora O (1)

Incrementa idade das arestas incidentes ao vencedor (=>remoção) O (1)

Erros de todos os nós são depreciados O (n)

Crescimento (de λ em λ ciclos...)

Inserção de unidade na vizinhança do nó de maior erro O (n)

-> Octree / grade regular dinâmica

-> Adiar

X Fila de prioridades

GNG

GNG

GNG

GNG

Parâmetros do GNG

Parâmetro Descrição Valores típicos

λ Intervalo em ciclos entre 2 inserções de nós 300

b Fator de adaptação do nó vencedor 0.05

n Fator de adaptação dos nós vizinhos ao venc. 0.0006

α Fator de decremento dos erros na inserção 0.5

β Fator de depreciação dos erros a cada ciclo 0.0005

amax Idade máxima de uma aresta do nó vencedor 88 ou 44

Objetivos de algoritmos de AC

Minimização do erroMaximização da Entropia

50% dos sinais de entrada

Mapear atributo de falha em probabilidade:

1

c

1

Coerência

Probabilidade

0

Geração do grafo de falhas por GNG

Mapear atributo de falha em probabilidade:

1

c

1

Coerência(1- Atributo de falha)

Probabilidade

0

Geração do grafo de falhas por GNG

1

c

1

Atributo de falha(1 – Coerência)

Probabilidade

0

Geração do grafo de falhas por GNG

Mapear atributo de falha em probabilidade:

Maximização da entropia Medida do erro local = número de sinais para os

quais a unidade foi vencedora.

1

c

1

Coerência

Probabilidade

0

Atributo de falha

0 0.5 1.0

Grafo de Falha por GNG

0 0.5 1.0

Proposta

1. Gerar grafo de falha por GNG.

2. Segmentar grafo.

3. Malhas Neurais Abertas: construir malha triangulada para cada superfície.

Problema das arestas frágeis

Segmentação pela orientação

Segmentação pela orientação

Segmentação pela orientação

Segmentação pela orientação

Segmentação pela orientação

Segmentação do grafo

1. Eliminação das arestas frágeis= segmentar grafo baseado no peso (tamanho)

das arestas Algoritmo FH (Felzenszwalb & Huttenlocher,

2004).

2. Segmentação pela orientação Análise de Componentes Principais:

Orientação local Medida de confiança desta orientação

Crescimento de regiões guiada pela orientação e pela confiança

Autovalores da matriz de covariância

32

32

planoC21

21

linhaC

contrário caso 0,

se , linhalinhaplanonormal

limCCC

Parâmetros de segmentação do grafo

Parâmetro Descrição Valores típicos

k Constante de tolerância FH ?

p Profundidade para pesquisa da vizinhança 2

limAng Ângulo limite entre nós vizinhos 0.3 rad (?)

limConf Confiança de normal mínima 0.45 (?)

mergMin Mergulho mínimo -

minNos Número mínimo de nós -

Proposta

1. Gerar grafo de falha por GNG.

2. Segmentar grafo.

3. Malhas Neurais Abertas: construir malha triangulada para cada superfície.

Mapeando subgrafo em atributo de falha

Growing cell structures

Growing Cell Structures

Malhas Neurais Abertas

Algoritmo de Aprendizado Competitivo.

Espaço de entradas M é uma superfície aberta sem buracos.

Objetivo: construir uma malha de triângulos representando M.

Malhas Neurais Abertas Modificação do Neural Meshes (Ivrissimtzis, Jeong e

Seidel, 2003).

Grafo ≡ malha de triângulos Início: 1 triângulo Não utiliza CHL

Uso de operações de refinamento e simplificação de malhas

Nós das bordas têm movimentos restritos para evitar colapso da malha.

Adaptação dos nós vizinhos ao vencedor = suavização da malha.

MNA: início = 1 triângulo

MNA

MNA

MNA

MNA

MNA

MNA: inclusão e remoção de nós

(Hoppe, 1998)

MNA: inclusão de nó

a

b

a

Divisão do vértice a

MNA: remoção de nó

ab

Colapso da aresta ab

MNA: remoção de nó

Identificação da aresta a remover minimizar uma medida de erro de conectividade

da malha

222 )id(1)val()id(1)val()id(4)val()val(31 ddccaba

22 )id(1)val(7)val()val(31 ccba

bordadenócaso4,

internonócaso6,)id(

xx

x

MNA: movimento dos nós da borda restritos

Nós da borda só podem se movimentar de forma a aumentar a área da superfície.

Suavização

Suav.de sinais pela eq. de difusão

Malhas (Taubin, 1995)

),,()),,(),,(( 2

2

2

2

tvutYtvu

vYtvu

uYD

),()0,,( vuXvuY

kjitkjikji yDhyy ,,2

,,1,,

xxx 2' D

n

kijkii k

w1

2 )( xxx

11

n

kkiw

Suavização de malhas

Suavização de malhas

Suavização de malhas

Suavização de malhas

Efeito do Laplaciano

Efeito do Laplaciano

Apenas componente tangencial do Laplaciano dos nós internos.

Efeito do Laplaciano

Componentes normal e tangencial do Laplaciano dos nós internos.

Efeito do Laplaciano

Componentes normal e tangencial do Laplaciano dos nós internose componente normal do Laplaciano dos nós de borda.

Efeito do Laplaciano

Exagero da suavização na direção normal

MNA Aprendizado (a cada ciclo...)

Adaptação do vencedor Borda: verificar restrição

Incrementar o contador de sinais do vencedor

Adaptação dos vizinhos do vencedor: Internos: Laplaciano tang. + Laplaciano norm. Borda: Laplaciano norm.

Contadores de todos os vértices são depreciados

Crescimento (de λ em λ ciclos...)

Inserção de vértice na vizinhança do nó de maior contador:divisão de vértice

Remoção (de μn em μn ciclos...)

Remoção de vértices que não foram ativados no período:colapso de aresta

Parâmetros MNA

Parâmetro Descrição Valores típicos

λ Intervalo em ciclos entre 2 inserções de nós 200

b Fator de adaptação do nó vencedor 0.06

nit Fator suav. nó interno pelo Laplaciano tang. 0.09

nin Fator suav. nó interno pelo Laplaciano normal 0.05

nb Fator suav. nó borda pelo Laplaciano normal 0.002

α Fator de depreciação dos ’s a cada ciclo 0.0005

Fator de intervalo entre remoção de nós 10

Método proposto

Atributo de Falha GNG Grafo Segmentação Grafo

Segmentado

MapeamentoGrafo-Volume

Malha deTriângulosMNAVolume

Segmentado

MapeamentoFalha-Prob.

VolumeProbabilidades

GrafoSegmentado

VolumeProbabilidades

Resultados

Resultados

Resultados

Resultados: SNM

Resultados: SNM x MNA

SNM: 8082

MNA: 420 (5% SNM)

Malhas geológicas

Simulação de fluxo de fluidos em reservatórios.

Deve ser adaptada à geologia da subsuperfície => malha não estruturada.

Acurácia dos cálculos => triângulos +/- equiláteros.

Malhas geológicas por GNG

Malhas geológicas por GNG

Mapeamento atributo de falha em probabilidade:

Minimização do erro Medida do erro local = distância euclidiana.

Malhas geológicas por GNG

Processo de Malhas Atômicasde Hale

Malha Geológica por GNG

(Agüero, 2005)

Conclusões

Pontos positivos:

Novo método de extração e visualização de superfícies de falha baseado em AC.

MNA permite gerar malha de triângulos com poucos vértices.

Novo método de geração de malhas geológicas.

Conclusões

Pontos negativos: Grande número de parâmetros. GNG e MNA são O (n 2). Poucos testes.

Trabalhos futuros

Testar estratégia com mais dados reais. Verificar se valores típicos podem ser

assumidos como constantes. Número de nós dos grafos. Tratamento de falhas que se cruzam.

Falhas que se cruzam

Falhas que se cruzam

Falhas que se cruzam

Falhas que se cruzam

Trabalhos futuros

Testar estratégia com mais dados reais. Verificar se valores típicos podem ser

assumidos como constantes. Número de nós dos grafos. Tratamento de falhas que se cruzam.

Intervenção do usuário.

Trabalhos futuros

Testar estratégia com mais dados reais. Verificar se valores típicos podem ser

assumidos como constantes. Número de nós dos grafos. Tratamento de falhas que se cruzam.

Intervenção do usuário.

Verificar comportamento para falhas lístricas.

Trabalhos futuros

Pesquisa: MNA e GNG com custo computacional

menor. MNA baseado na variação da normal

=> mais detalhes nas regiões de maior curvatura.

Uso de MNA sobre dados obtidos por SNM. Construção de um único algoritmo baseado

em AC para resolver os 3 passos.

Trabalhos futuros

Ferramentas de apoio: Alguns dos atributos de falha com correção

de mergulho estrutural. Filtragem direcional com preservação de

bordas. SNM.

Recommended