View
5
Download
0
Category
Preview:
Citation preview
Determinação de Malhas de Falhas em Dados Sísmicos
por Aprendizado Competitivo
Marcos Machado
Orientador: Prof. Marcelo GattassTese de Doutorado
Dep. Informática / PUC-Rio14/03/2008
Sumário
1. Introdução1. Dados sísmicos2. Objetivo3. Métodos da literatura
2. Proposta: método baseado em Aprendizado Competitivo
3. Conclusões e trabalhos futuros
Aquisição sísmica
Dados sísmicos
-0,4-0,3-0,2-0,1
00,10,20,30,40,50,6
1
TempoAm
plitu
dea
bx
t
),,( yxtF
c
d
Interpretação sísmica
Reservatório
(Johann, 2003)
Interpretação sísmica
(Akintokunbo and Marfurt, 2007
Interpretação sísmica
(Akintokunbo and Marfurt, 2007
Falhas
Falha normal (a). Falha reversa (b).
Falhas
Falha gerando bom selante (a). Falha como mal selante (condutor) (b).
Atributos de falha
Atributos de falha
Atributos de Falha
Cubo de Coerência Cubo de Variância Semblance Atributo de realce de borda (Randen et al.,
2001) Coerência estimada pelo TEG (Bakker, 2002) Atributo de Falha pelo TEG (Bakker, 2002) Atributo de Caos (Randen et al., 2005) ...
Problema
Objetivo: extrair as superfícies associadas com as principais estruturas de falha.
Problema
Objetivo: extrair as superfícies associadas com as principais estruturas de falha.
Falhas vistas como tendências e não como superfícies contínuas bem definidas. => Métodos não-locais
Problema
Objetivo: extrair as superfícies associadas com as principais estruturas de falha.
Falhas vistas como tendências e não como superfícies contínuas bem definidas. => Métodos não-locais
Falhas podem gerar mesma assinatura de outros tipos de eventos. => Geometria
Processamento de imagens
Supressão de não-máximos(SNM) (Canny, 1986)
Afinamento de imagens binarizadas
Métodos de extração de falhas na literatura
(Forsyth et al., 2002)
Métodos de extração de falhas na literatura
Baseado em malhas Hale & Emanuel (2003)
(Hale & Emanuel, 2003)
Métodos de extração de superfícies de falha
Baseado em malhas Hale & Emanuel (2003)
Pré-processamento ≈ SNM !
1. Gerar grafo de falha:Growing Neural Gas (GNG).
Proposta
Proposta
1. Gerar grafo de falha:Growing Neural Gas (GNG).
2. Segmentar grafo.
Proposta
1. Gerar grafo de falha:Growing Neural Gas (GNG).
2. Segmentar grafo.
3. Gerar malha triangulada p/ cada superfície: Malhas Neurais Abertas (MNA).
Proposta
1. Gerar grafo de falha:Growing Neural Gas (GNG).
2. Segmentar grafo.
3. Gerar malha triangulada p/ cada superfície:Malhas Neurais Abertas (MNA).
Aprendizado Competitivo
Redes neurais não supervisionadas ou de aprendizagem auto-organizada.
Aprendizado Competitivo
Redes neurais não supervisionadas ou de aprendizagem auto-organizada.
Objetivo: distribuir N vetores em um espaço de dimensão n qualquer.
Aprendizado Competitivo
Redes neurais não supervisionadas ou de aprendizagem auto-organizada.
Objetivo: distribuir N vetores em um espaço de dimensão n qualquer.
Sinais de entrada , de acordo com função de probabilidade
np ξξ),(
ξ
Aprendizado Competitivo
Probabilidade1
0
Aprendizado Competitivo
Probabilidade1
0
Aprendizado Competitivo
Probabilidade1
0
ξ
Aprendizado Competitivo
Vizinhodo nó
vencedor Nó Vencedor
Probabilidade1
0
ξ
Aprendizado Competitivo
Exemplo: Self Organizing Feature Map (SOFM) (Kohonen, 1982)
Aprendizado Competitivo
Exemplo: Self Organizing Feature Map (SOFM) (Kohonen, 1982)
Problema: preservação de
topologia
Solução: Aprendizado Competitivo Hebbiano (CHL) (Martinetz, 1993)
Para cada entrada , as duas unidades cujos vetores de referência estão mais próximos de devem estar ligadas.
Preservação de topologia
ξξ
Aprendizado competitivo Hebbiano
Triangulação de DelaunayPolígonos de Voronoi
Triangulação de Delaunay induzidaPolígonos de Voronoi restritos
(Martinetz & Schulten, 1994)
Aprendizado competitivo Hebbiano
Distribuição de vértices não-densa:criação de aresta entre nós cujos poliedros de Voronoi restritos não são vizinhos.
Proposta
1. Gerar grafo de falha por GNG.
2. Segmentar grafo.
3. Malhas Neurais Abertas: construir malha triangulada para cada superfície.
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
2 nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
9 nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
34 nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
79 nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
100 nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
250 nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
367 nós
Growing Neural Gas (GNG)
GNG (Fritzke, 1995) = CHL + crescimento do número de nós
1000 nós
GNG Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor
GNG Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor
CHL (zera idade da aresta)
GNG Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor
CHL (zera idade da aresta)
Atualização do Erro local da unidade vencedora
GNG Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor
CHL (zera idade da aresta)
Atualização do Erro local da unidade vencedora
Incrementa idade das arestas incidentes ao vencedor (=>remoção)
GNG Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor
CHL (zera idade da aresta)
Atualização do Erro local da unidade vencedora
Incrementa idade das arestas incidentes ao vencedor (=>remoção)
Erros de todos os nós são depreciados
GNG Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor
CHL (zera idade da aresta)
Atualização do Erro local da unidade vencedora
Incrementa idade das arestas incidentes ao vencedor (=>remoção)
Erros de todos os nós são depreciados
Crescimento (de λ em λ ciclos...)
Inserção de unidade na vizinhança do nó de maior erro
GNG – custo computacional Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor O (n)
CHL (zera idade da aresta) O (1)
Atualização do Erro local da unidade vencedora O (1)
Incrementa idade das arestas incidentes ao vencedor (=>remoção) O (1)
Erros de todos os nós são depreciados O (n)
Crescimento (de λ em λ ciclos...)
Inserção de unidade na vizinhança do nó de maior erro O (n)
GNG – custo computacional Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor O (n)
CHL (zera idade da aresta) O (1)
Atualização do Erro local da unidade vencedora O (1)
Incrementa idade das arestas incidentes ao vencedor (=>remoção) O (1)
Erros de todos os nós são depreciados O (n)
Crescimento (de λ em λ ciclos...)
Inserção de unidade na vizinhança do nó de maior erro O (n)
-> Octree / grade regular dinâmica
GNG – custo computacional Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor O (n)
CHL (zera idade da aresta) O (1)
Atualização do Erro local da unidade vencedora O (1)
Incrementa idade das arestas incidentes ao vencedor (=>remoção) O (1)
Erros de todos os nós são depreciados O (n)
Crescimento (de λ em λ ciclos...)
Inserção de unidade na vizinhança do nó de maior erro O (n)
-> Octree / grade regular dinâmica
? Fila de prioridades
GNG – custo computacional Aprendizado (a cada ciclo...)
Adaptação do vencedor e do segundo-vencedor O (n)
CHL (zera idade da aresta) O (1)
Atualização do Erro local da unidade vencedora O (1)
Incrementa idade das arestas incidentes ao vencedor (=>remoção) O (1)
Erros de todos os nós são depreciados O (n)
Crescimento (de λ em λ ciclos...)
Inserção de unidade na vizinhança do nó de maior erro O (n)
-> Octree / grade regular dinâmica
-> Adiar
X Fila de prioridades
GNG
GNG
GNG
GNG
Parâmetros do GNG
Parâmetro Descrição Valores típicos
λ Intervalo em ciclos entre 2 inserções de nós 300
b Fator de adaptação do nó vencedor 0.05
n Fator de adaptação dos nós vizinhos ao venc. 0.0006
α Fator de decremento dos erros na inserção 0.5
β Fator de depreciação dos erros a cada ciclo 0.0005
amax Idade máxima de uma aresta do nó vencedor 88 ou 44
Objetivos de algoritmos de AC
Minimização do erroMaximização da Entropia
50% dos sinais de entrada
Mapear atributo de falha em probabilidade:
1
c
1
Coerência
Probabilidade
0
Geração do grafo de falhas por GNG
Mapear atributo de falha em probabilidade:
1
c
1
Coerência(1- Atributo de falha)
Probabilidade
0
Geração do grafo de falhas por GNG
1
c
1
Atributo de falha(1 – Coerência)
Probabilidade
0
Geração do grafo de falhas por GNG
Mapear atributo de falha em probabilidade:
Maximização da entropia Medida do erro local = número de sinais para os
quais a unidade foi vencedora.
1
c
1
Coerência
Probabilidade
0
Atributo de falha
0 0.5 1.0
Grafo de Falha por GNG
0 0.5 1.0
Proposta
1. Gerar grafo de falha por GNG.
2. Segmentar grafo.
3. Malhas Neurais Abertas: construir malha triangulada para cada superfície.
Problema das arestas frágeis
Segmentação pela orientação
Segmentação pela orientação
Segmentação pela orientação
Segmentação pela orientação
Segmentação pela orientação
Segmentação do grafo
1. Eliminação das arestas frágeis= segmentar grafo baseado no peso (tamanho)
das arestas Algoritmo FH (Felzenszwalb & Huttenlocher,
2004).
2. Segmentação pela orientação Análise de Componentes Principais:
Orientação local Medida de confiança desta orientação
Crescimento de regiões guiada pela orientação e pela confiança
Autovalores da matriz de covariância
32
32
planoC21
21
linhaC
contrário caso 0,
se , linhalinhaplanonormal
limCCC
Parâmetros de segmentação do grafo
Parâmetro Descrição Valores típicos
k Constante de tolerância FH ?
p Profundidade para pesquisa da vizinhança 2
limAng Ângulo limite entre nós vizinhos 0.3 rad (?)
limConf Confiança de normal mínima 0.45 (?)
mergMin Mergulho mínimo -
minNos Número mínimo de nós -
Proposta
1. Gerar grafo de falha por GNG.
2. Segmentar grafo.
3. Malhas Neurais Abertas: construir malha triangulada para cada superfície.
Mapeando subgrafo em atributo de falha
Growing cell structures
Growing Cell Structures
Malhas Neurais Abertas
Algoritmo de Aprendizado Competitivo.
Espaço de entradas M é uma superfície aberta sem buracos.
Objetivo: construir uma malha de triângulos representando M.
Malhas Neurais Abertas Modificação do Neural Meshes (Ivrissimtzis, Jeong e
Seidel, 2003).
Grafo ≡ malha de triângulos Início: 1 triângulo Não utiliza CHL
Uso de operações de refinamento e simplificação de malhas
Nós das bordas têm movimentos restritos para evitar colapso da malha.
Adaptação dos nós vizinhos ao vencedor = suavização da malha.
MNA: início = 1 triângulo
MNA
MNA
MNA
MNA
MNA
MNA: inclusão e remoção de nós
(Hoppe, 1998)
MNA: inclusão de nó
a
b
a
Divisão do vértice a
MNA: remoção de nó
ab
Colapso da aresta ab
MNA: remoção de nó
Identificação da aresta a remover minimizar uma medida de erro de conectividade
da malha
222 )id(1)val()id(1)val()id(4)val()val(31 ddccaba
22 )id(1)val(7)val()val(31 ccba
bordadenócaso4,
internonócaso6,)id(
xx
x
MNA: movimento dos nós da borda restritos
Nós da borda só podem se movimentar de forma a aumentar a área da superfície.
Suavização
Suav.de sinais pela eq. de difusão
Malhas (Taubin, 1995)
),,()),,(),,(( 2
2
2
2
tvutYtvu
vYtvu
uYD
),()0,,( vuXvuY
kjitkjikji yDhyy ,,2
,,1,,
xxx 2' D
n
kijkii k
w1
2 )( xxx
11
n
kkiw
Suavização de malhas
Suavização de malhas
Suavização de malhas
Suavização de malhas
Efeito do Laplaciano
Efeito do Laplaciano
Apenas componente tangencial do Laplaciano dos nós internos.
Efeito do Laplaciano
Componentes normal e tangencial do Laplaciano dos nós internos.
Efeito do Laplaciano
Componentes normal e tangencial do Laplaciano dos nós internose componente normal do Laplaciano dos nós de borda.
Efeito do Laplaciano
Exagero da suavização na direção normal
MNA Aprendizado (a cada ciclo...)
Adaptação do vencedor Borda: verificar restrição
Incrementar o contador de sinais do vencedor
Adaptação dos vizinhos do vencedor: Internos: Laplaciano tang. + Laplaciano norm. Borda: Laplaciano norm.
Contadores de todos os vértices são depreciados
Crescimento (de λ em λ ciclos...)
Inserção de vértice na vizinhança do nó de maior contador:divisão de vértice
Remoção (de μn em μn ciclos...)
Remoção de vértices que não foram ativados no período:colapso de aresta
Parâmetros MNA
Parâmetro Descrição Valores típicos
λ Intervalo em ciclos entre 2 inserções de nós 200
b Fator de adaptação do nó vencedor 0.06
nit Fator suav. nó interno pelo Laplaciano tang. 0.09
nin Fator suav. nó interno pelo Laplaciano normal 0.05
nb Fator suav. nó borda pelo Laplaciano normal 0.002
α Fator de depreciação dos ’s a cada ciclo 0.0005
Fator de intervalo entre remoção de nós 10
Método proposto
Atributo de Falha GNG Grafo Segmentação Grafo
Segmentado
MapeamentoGrafo-Volume
Malha deTriângulosMNAVolume
Segmentado
MapeamentoFalha-Prob.
VolumeProbabilidades
GrafoSegmentado
VolumeProbabilidades
Resultados
Resultados
Resultados
Resultados: SNM
Resultados: SNM x MNA
SNM: 8082
MNA: 420 (5% SNM)
Malhas geológicas
Simulação de fluxo de fluidos em reservatórios.
Deve ser adaptada à geologia da subsuperfície => malha não estruturada.
Acurácia dos cálculos => triângulos +/- equiláteros.
Malhas geológicas por GNG
Malhas geológicas por GNG
Mapeamento atributo de falha em probabilidade:
Minimização do erro Medida do erro local = distância euclidiana.
Malhas geológicas por GNG
Processo de Malhas Atômicasde Hale
Malha Geológica por GNG
(Agüero, 2005)
Conclusões
Pontos positivos:
Novo método de extração e visualização de superfícies de falha baseado em AC.
MNA permite gerar malha de triângulos com poucos vértices.
Novo método de geração de malhas geológicas.
Conclusões
Pontos negativos: Grande número de parâmetros. GNG e MNA são O (n 2). Poucos testes.
Trabalhos futuros
Testar estratégia com mais dados reais. Verificar se valores típicos podem ser
assumidos como constantes. Número de nós dos grafos. Tratamento de falhas que se cruzam.
Falhas que se cruzam
Falhas que se cruzam
Falhas que se cruzam
Falhas que se cruzam
Trabalhos futuros
Testar estratégia com mais dados reais. Verificar se valores típicos podem ser
assumidos como constantes. Número de nós dos grafos. Tratamento de falhas que se cruzam.
Intervenção do usuário.
Trabalhos futuros
Testar estratégia com mais dados reais. Verificar se valores típicos podem ser
assumidos como constantes. Número de nós dos grafos. Tratamento de falhas que se cruzam.
Intervenção do usuário.
Verificar comportamento para falhas lístricas.
Trabalhos futuros
Pesquisa: MNA e GNG com custo computacional
menor. MNA baseado na variação da normal
=> mais detalhes nas regiões de maior curvatura.
Uso de MNA sobre dados obtidos por SNM. Construção de um único algoritmo baseado
em AC para resolver os 3 passos.
Trabalhos futuros
Ferramentas de apoio: Alguns dos atributos de falha com correção
de mergulho estrutural. Filtragem direcional com preservação de
bordas. SNM.
Recommended