Thiago Broerman Cazes
Interpretação Baseada em Conhecimento de Imagens de Sensores Remotos de Alta Resolução
Dissertação de Mestrado
Dissertação apresentada ao Programa de Pós-graduação em Engenharia Elétrica da PUC-Rio como requisito parcial para a obtenção do título de Mestre em Ciências da Engenharia Elétrica
Orientador: Raul Queiroz Feitosa Co-orientador: Luiz Felipe Guanaes Rego
Rio de Janeiro, 09 de Setembro de 2005
A-PDF Merger DEMO : Purchase from www.A-PDF.com to remove the watermark
Thiago Broerman Cazes
Interpretação Baseada em Conhecimento de Imagens de Sensores Remotos de
Alta Resolução
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo Programa de Pós-Graduação em Engenharia Elétrica do Departamento de Engenharia Elétrica do Centro Técnico Científico da PUC-Rio. Aprovada pela Comissão Examinadora abaixo assinada.
Dr. Raul Queiroz FeitosaOrientador
Departamento de Engenharia Elétrica - PUC-Rio
Dr. Luiz Felipe Guanaes RegoCo-Orientador
Departamento de Geografia - PUC-Rio
Dra. Marley Maria Bernardes Rebuzzi VellascoDepartamento de Engenharia Elétrica - PUC-Rio
Dr. Herman Johann Heinrich KuxINPE
Prof. José Eugenio Leal Coordenador Setorial do Centro
Técnico Científico - PUC-Rio
Rio de Janeiro, 09 de setembro de 2005
Todos os direitos reservados. É proibida a reprodução total ou
parcial do trabalho sem autorização da universidade, do autor e do orientador.
Thiago Broerman CazesGraduação em Engenharia Elétrica com Ênfase em Sistemas e Computação na UERJ. Objetivando título de Mestre em Métodos de Apoio a Decisão no Departamento de Engenharia Elétrica da PUC-RJ atuando em pesquisa na área de métodos automáticos de interpretação em sensoriamento remoto. Toma parte do projeto ECOWATCH que envolve instituições brasileiras e alemãs e é gerido pelo programa PROBRAL.
Ficha Catalográfica CDD: 621.3
Cazes, Thiago Broerman Interpretação baseada em conhecimento de imagens de sensores remotos de alta resolução / Thiago Broerman Cazes ; orientador: Raul Queiroz Feitosa ; co-orientador: Luiz Felipe Guanaes Rego. – Rio de Janeiro : PUC, Departamento de Engenharia Elétrica, 2005. 94 f. ; 30 cm Dissertação (mestrado) – Pontifícia Universidade Católica do Rio de Janeiro, Departamento de Engenharia Elétrica. Inclui referências bibliográficas. 1. Engenharia elétrica – Teses. 2. Sensoriamento remoto. 3. Imagens de alta resolução. 4. Interpretação de imagens baseada em conhecimento. 5. Classificação de imagens. 6. IKONOS. I. Feitosa, Raul Queiroz. II. Rego, Luiz Felipe Guanaes. III. Pontifícia Universidade Católica do Rio de Janeiro. Departamento de Engenharia Elétrica. VI. Título.
Agradecimentos
Ao meu orientador Prof. Raul Queiroz Feitosa;
Ao meu co-orientador Prof. Luiz Felipe Guanaes Rego;
A toda a equipe do projeto ECOWATCH;
Aos professores que participaram da Comissão examinadora;
Aos meus amigos da PUC-RIO;
A CAPES, ao DAAD e ao CNPQ pelo apoio financeiro;
Aos alunos de graduação Marlene, Daniele e Ricardo em geografia pelo apoio no procedimento de interpretação visual e apoio nos procedimentos específicos de cartografia;
Aos meus pais, familiares e amigos.
Resumo
Cazes, Thiago Broerman; Feitosa, Raul Queiroz . Interpretação Baseada em Conhecimento de Imagens de Sensores Remotos de Alta Resolução Rio de Janeiro, 2005, 94 p. Dissertação de Mestrado – Departamento de Engenharia Elétrica, Pontifícia Universidade Católica do Rio de Janeiro.
A cada dia mais e mais satélites de alta resolução têm se tornado disponíveis,
criando grande demanda por novos métodos de interpretação baseados em
conhecimento. Estes métodos emulam parcialmente o trabalho do especialista em
análise visual de imagens. Nesse contexto, o presente trabalho apresenta um modelo de
classificação baseado no conhecimento do especialista aplicado a imagens de alta
resolução. O modelo de interpretação consiste de três fases. A primeira inclui o
conhecimento espectral e a informação de textura. Na segunda fase dados de SIG
(sistema de informação geográfico) são combinados com o resultado da análise
espectral através de regras nebulosas. Na terceira e última fase é introduzido o
conhecimento multitemporal através de uma estimativa das possibilidades de transição
entre classes de uma mesma área em um dado intervalo de tempo. Para validação desse
modelo experimentos foram realizados em imagens IKONOS e fotos aéreas de 1999,
2001 e de 2002 da área do Parque Estadual da Pedra Branca, que é um importante
fragmento da Floresta Atlântica situado no estado do Rio de Janeiro, Brasil.
Palavras-Chaves
Sensoriamento remoto; Imagens de alta resolução; Interpretação de imagens
baseada em conhecimento; Classificação de imagens; IKONOS.
Abstract
Cazes, Thiago Broerman; Feitosa, Raul Queiroz (Advisor). Knowledge-based Interpretation of High Resolution Remote Sensing Images Rio de Janeiro, 2005, 94 p. MSc. Dissertation – Department of Electrical Engineering, Pontifical Catholic New high resolution satellites for commercial purposes became available in the
few years. This increases the need of new automatic knowledge based image
interpretation methods. Such methods partially emulate the reasoning of an image
analyst during the visual image interpretation. The present work falls into this context
and proposes an automatic classification model for high resolution remotely sensed
images. The model consists of three stages. In the first stage only spectral and textural
information are used for classification. In the second stage GIS (geographic information
system) data are combined with the result of the spectral analysis by means of fuzzy
rules. In the third stage the multitemporal knowledge is introduced by estimating class
transition possibilities within a given time span. To validate the proposed model
experiments were performed based on IKONOS images from 2001 and 2002 as well as
aerial photos from 1999 of the Pedra Branca Park, which is an important Atlantic Forest
fragment in the State Rio de Janeiro in Southeast Brazil.
Keywords
Remote sensing; High Resolution Images; Knowledge-based interpretation; Image
Classification; IKONOS.
Sumário
1 Introdução 13 1.1 Objetivos 15 1.1.1 Objetivo Geral 15 1.1.2 Específico 16 1.2 Organização 16
2 Fundamentos Teóricos 17 2.1 Sensoriamento remoto 17 2.1.1 Sensoriamento remoto em imagens de alta resolução 19 2.1.2 Pré-processamento 22 2.2 Métodos computacionais 24 2.2.1 Classificação de padrões 24 2.3 Segmentação 33 2.3.1 Histórico 33 2.3.2 Segmentação baseada em crescimento de regiões 34 2.3.3 Segmentação em múltiplas escalas 35 2.4 Parâmetros de textura 36
3 Estado da arte em classificação de imagens de alta resolução 37 3.1 Métodos baseados em pixels 37 3.2 Classificação baseada em objetos 40 3.3 Classificação Multitemporal 42
4 Modelo proposto 45 4.1 Introdução 45 4.2 Descrição geral do modelo 45 4.2.1 Fase 1: Classificação automática supervisionada baseada em dados
espectrais e textura 47 4.2.2 Fase 2: Classificação baseada em regras do especialista 47 4.2.3 Fase 3: Representação de conhecimento multitemporal 48
5 Avaliação experimental 51 5.1 Descrição da área de estudo e preparação dos dados 51 5.1.1 Parque Estadual da Pedra Branca 52 5.1.2 Imagens Utilizadas 56 5.1.3 Preparação dos dados 58 5.1.4 Segmentação 59 5.1.5 Definição das classes 60 5.1.6 Processo de classificação visual 64 5.2 Fase 1 – Classificação Espectral e Textura 68 5.2.1 Dados utilizados 68 5.2.2 Resultados 69 5.3 Fase 2 – Classificação estrutural baseada em regras 70
5.3.1 Atributos utilizados na classificação estrutural 71 5.3.2 Regras 73 5.3.3 Ajuste das funções de pertinência 74 5.3.4 Resultados da classificação estrutural baseada em regras 75 5.4 Fase 3 – Classificação multitemporal 77 5.4.1 Resultados do classificador multitemporal 82 5.5 Conclusões 86
6 Comentários finais 87
Referências 89
Lista de Figuras
Figura 1 – Exemplo da influência da refletância e do comprimento de onda em
diferentes tipos de cobertura de solo [] 18
Figura 2 – resposta espectral relativa ao comprimento de onda na banda pancromática
IKONOS [16] 21
Figura 3 – resposta espectral relativa, conforme o comprimento de ondas para o sensor
multiespectral IKONOS [16] 21
Figura 4 – Representação do problema da topografia em captura de imagens de sensores
remotos 23
Figura 5 – Modelo de neurônio artificial não linear [22] 26
Figura 6 – Funções de ativação: (a) tangente hiperbólica sigmóide (tansig) e (b)
sigmóide logarítmica (logsig) a direita. 27
Figura 7 – Arquitetura de uma rede neural do tipo MLP com uma camada oculta 27
Figura 8 – Representação de um individuo e genes em algoritmos genéticos 31
Figura 9 – demonstração do operador genético de crossover simples de um ponto. 32
Figura 10 – Modelo de interpretação baseado em conhecimento para imagens de alta
resolução. 46
Figura 11 - diagrama detalhado do procedimento de interpretação na fase 2. 48
Figura 12 – Exemplo de diagrama de transição de estados para 4 classes 49
Figura 13 – Mapa representativo do Parque Estadual da Pedra Branca localizado no sul
do Eestado do Rio de Janeiro. 52
Figura 14 – Imagem IKONOS Multiespectral (4m de resolução) da área do Parque
Estadual da Pedra Branca no ano de 2001. Em azul o recorte correspondente a
Figura 15 e Figura 16 mostrado apenas para exemplificar a riqueza de informação
contida em imagens de alta resolução. 53
Figura 15 – Detalhe da área marcada em azul na Figura 14. Bandas visíveis (RGB).
Observa-se a expansão urbana e as áreas de vegetação. 54
Figura 16 – Detalhe da área marcada em azul na Figura 14. Destaque na banda
infravermelha. Composição (NRG) realçando a vegetação. 54
Figura 17 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a área da
represa facilmente observável a partir da imagem de satélite. 55
Figura 18 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a vegetação
densa típica da Mata Atlântica. 55
Figura 19 – Foto do Parque Nacional da Pedra Branca; detalhe da expansão urbana
sobre a área do parque. 56
Figura 20 – Representação da imagem IKONOS 57
Figura 21 – Ilustração gerada com a foto aérea de 1999 e o DTM da área de estudo
utilizado no processo de ortoretificação. 58
Figura 22 – Comparação entre as segmentações em uma área da imagem selecionada; a)
imagem, segmentação com parâmetro de escala b) 90, c) 60 e d) 30. 60
Figura 23 - Classificação Visual da imagem IKONOS de 2001. 66
Lista de Tabelas
Tabela 1 – Características da legenda utilizada no processo de classificação. 64
Tabela 2 – Percentual de área na imagem classificada coberta por cada classe da legenda
(imagens de 1999 e 2001 classificação visual) 65
Tabela 3 – Número de segmentos gerados por classe da legenda (imagens de 1999 e
2001, classificação visual) 65
Tabela 4 – Alterações reais detectadas pela classificação visual entre os anos de 2001 e
1999, relativo ao numero de segmentos. 67
Tabela 5 – Alterações reais detectadas pela classificação visual entre os anos de 1999 e
2001, percentual de mudança em relação ao ano de 1999. 67
Tabela 6 – Matriz de confusão da classificação espectral da imagem de 2001 após a
primeira fase. Resultados apresentados em percentual relativo a imagem de
referência. 70
Tabela 7 – Configuração dos sistemas neuro-fuzzy. 74
Tabela 8 – Matriz de confusão de uma classificação típica após a Fase 2. Resultado
percentual relativo a referencia de uma interação. 76
Tabela 9 – Transições entre classes para a área de teste. 80
Tabela 10 – Configuração dos sistemas neuro-fuzzy. 81
Tabela 11 – Matriz de transição nebulosa. Valores em zero indicam transições
impossíveis. 83
Lista de Gráficos
Gráfico 1 – Taxa de erro médio de omissão por classe após a classificação
supervisionada com atributos espectrais e textura. 69
Gráfico 2 – Erro de omissão médio por classe após a FASE 2. (resultado após 20
execuções) 75
Gráfico 3 – Erro de classificação global após a FASE 2. (resultado após 20 execuções)
77
Gráfico 4 – Erro de classificação global após a inclusão de conhecimento multitemporal
de maneira CRISP. (resultado após 20 execuções) 82
Gráfico 5 – Evolução do algoritmo genético durante a sua evolução. 84
Gráfico 6 – Avaliação do erro de omissão após a inclusão da informação multitemporal
nebulosa. 84
Gráfico 7 – Taxa de erro global após a classificação por inclusão de dados
multitemporais nebulosos. 85
13
1 Introdução
As técnicas de sensoriamento remoto estão em constante processo de evolução
permitindo acurácia cada vez melhor na descriminação de classes de uso e cobertura do solo [1].
Uma grande gama de novos sensores comerciais vem sendo desenvolvida com
resolução espacial de poucos metros, em alguns casos até mesmo com menos de 1 metro.
Sensores como o IKONOS com resolução de 1m na banda pancromática ou o QUICKBIRD
com 60cm, permitem um desenvolvimento sem precedentes na área de sensoriamento remoto
em imagens de alta resolução.
Além da resolução espacial observa-se uma grande evolução nos sensores orbitais
também em termos de resolução espectral e radiométrica. Sensores com centenas de bandas
espectrais permitem a captura de imagens em diferentes faixas do espectro eletromagnético com
elevada resolução radiométrica em cada uma de suas bandas.
Isso tudo implica em um enorme aumento da complexidade e do volume de dados
disponível em escala mundial, o que faz aumentar a demanda por ferramentas automáticas
capazes de interpretar a massa de dados produzida.
Uma das aplicações mais importantes de sensores remotos são atividades de
planejamento ligadas a preservação ambiental. Monitoramento de queimadas,
acompanhamento de áreas de risco e planejamento de expansão urbana sobre áreas de
florestas são alguns exemplos dessas aplicações.
Nesse contexto tem crescido o interesse mundial por métodos ou sistemas
baseados no conhecimento [2, 3, 4, 5, 6 e 7]. Esses sistemas buscam reproduzir em um
ambiente computacional o raciocínio, muitas vezes subjetivo, do foto-interprete. Ainda
não existem métodos que consigam realizar toda a tarefa de interpretação independente
da interação do ser humano, ou seja, completamente automáticos. Contudo, pesquisas
vêem apontando para um aumento significativo dos níveis de automatização de vários
passos envolvidos no processo de interpretação.
O presente trabalho se insere nesta linha de pesquisa que procura desenvolver novos
métodos automáticos de interpretação de imagens de sensores remotos, especialmente sensores
de alta resolução espacial. Mais especificamente este trabalho investiga métodos
automáticos de classificação com ênfase nos métodos baseados em conhecimento.
14
Para avaliar as técnicas estudadas no âmbito desta pesquisa, foi escolhido como
sítio alvo uma área representativa da Mata Atlântica no Estado do Rio de Janeiro.
Inúmeras são as razões que justificam esta escolha. Primeiramente a Mata Atlântica é o
bioma brasileiro mais devastado. Inicialmente esta mata ocupava a região costeira do
país do Ceará ao Rio Grande do Sul em área aproximada de 1.000.000 km2. Atualmente
está restrita a manchas distribuídas por vários Estados, ocupando área aproximada de
91.000 km2. No Estado do Rio de Janeiro encontramos atualmente 19.000 km2
ocupados com a Mata Atlântica1 . Este nível de devastação pode ser explicado tanto
pelo valor econômico de suas espécies florestais, como pela intensa ocupação humana
já que aproximadamente 70% da população brasileira vive em seu entorno, o que
implica em todo tipo de pressão antrópica [8, 9].
A Mata Atlântica, definida pela UNESCO como uma Reserva da Biosfera2, é
uma das florestas mais ricas do mundo em termos de diversidade biológica, com
elevados índices de endemismo: 30% das espécies arbóreas, 150 tipos de pássaros e 50
tipos de pequenos animais, entre outros. É responsável pela manutenção de nascentes de
rios que abastecem cerca de 10.000.000 pessoas. Além de ter efeito muito positivo sobre
a sustentação e estabilidade de encostas íngremes. Sua existência também contribui para
a qualidade de vida da população que vive em seu entorno, principalmente, por seu
valor estético, criando uma paisagem equilibrada e saudável. O Rio de Janeiro,
juntamente com os estados do Espírito Santo e da Bahia, são apontados como centros de
endemismo de flora e fauna Atlântica [10].
A preservação deste bioma necessariamente envolve o conhecimento da
distribuição espacial destes remanescentes (land-cover), assim como a dinâmica de sua
transformação temporal (land-cover change). As tecnologias orbitais são
reconhecidamente capazes de produzir este tipo de mapeamento e vêm sendo utilizadas
para este fim com resultados práticos como, por exemplo, a série de mapeamentos
desenvolvidos pela Fundação SOS Mata Atlântica3 e pelo Instituto Nacional de
Pesquisas Espaciais - INPE.
Nas últimas décadas o mapeamento do padrão de cobertura do espaço
geográfico vem sendo produzido a partir de imagens de média resolução como a série
LANDSAT. Os mapas de cobertura produzidos a partir dessas imagens geram produtos
1 Atlas dos Remanescentes Florestais da Mata Atlântica – Período 1995/2000 – Fundação SOS Mata Atlântica 2 http://www.unicamp.br/nipe/rbma/
15
compatíveis com a escala 1:50.000 ou menores em função de sua resolução espacial de
30 m × 30 m. Esses mapas permitem uma visão geral do problema, mas dificultam, pela
escala, a definição mais precisa dos limites do processo de mudança, dificultando a
definição de parâmetros operacionais que permitam ações objetivas na solução de
problema locais [11].
Os novos sensores orbitais com resolução espacial de poucos metros
possibilitam a produção de mapeamentos em escalas maiores que permitem uma
compreensão detalhada tanto do padrão de cobertura do espaço como, com o passar do
tempo, do nível de alteração deste padrão [12]. Em função das resoluções espacial,
espectral e radiométrica dessas imagens será possível identificar classes mais finas que
as produzidas pelos sistemas orbitais anteriores, o que permitirá, consequentemente,
uma melhor compreensão dos processos ambientais nas áreas sob risco e uma definição
mais direcionada e mais fundamentada das ações que visam a sua preservação.
É, portanto, importante, através de um processo ordenado e sistemático de
pesquisa, avaliar a eficiência do processo de classificação de imagens orbitais de alta
resolução em termos de acurácia e detalhamento de classes qualitativas de cobertura,
visando aumentar o conhecimento do padrão de cobertura dos remanescentes de Mata
Atlântica no Estado do Rio de Janeiro e contribuir com tecnologias de ponta para sua
conservação.
1.1 Objetivos
1.1.1 Objetivo Geral
O objetivo principal desse trabalho é avaliar um modelo baseado em
conhecimento para a interpretação automática de imagens de sensores remotos de alta
resolução. Embora o modelo tenha elementos de aplicabilidade geral, o trabalho foi
direcionado a fragmentos florestais da Mata Atlântica, mais especificamente ao Parque
Nacional da Pedra Branca no Município do Rio de Janeiro, RJ, Brasil.
3 http://www.sosmatatlantica.org.br/
16
1.1.2 Específico
São objetivos específicos deste trabalho:
• Construir um modelo de classificação que leve em conta três
modalidades de conhecimento: espectral, estrutural (ou contextual) e
multitemporal;
• Avaliar a contribuição individual de cada uma das modalidades de
conhecimento para o desempenho da classificação de imagens de alta
resolução.
1.2 Organização
Este trabalho está organizado em seis capítulos descritos mais detalhadamente a
seguir.
O capítulo 2 descreve os principais métodos de interpretação baseados em
conhecimento pesquisados atualmente, com foco em imagens de alta resolução. Nesse
capítulo são abordados assuntos como interpretação baseada em pixels ou objetos,
segmentação e multitemporalidade.
O capítulo 3 apresenta de forma introdutória os conceitos teóricos usados neste
trabalho. Esse capítulo se divide em duas partes. A primeira introduz conceitos básicos
sobre sensoriamento remoto necessários para um bom entendimento do modelo
apresentado. A segunda parte trata de métodos computacionais utilizados na
implementação dos modelos.
No quarto capítulo é apresentado o modelo de interpretação baseado em
conhecimento proposto neste trabalho.
O capítulo 5 descreve os experimentos realizados para avaliar os métodos
propostos no trabalho. A área de estudo e a base de dados são descritos, assim como os
procedimentos de pré-processamento das imagens. Esse capítulo também apresenta a
legenda da aplicação escolhida, os procedimentos de segmentação das imagens e a
metodologia de classificação visual realizada por um especialista, que produziu os
dados de referência para a avaliação dos métodos propostos no trabalho. O capítulo
termina apresentando e discutindo os resultados experimentais.
No sexto e último capítulo é realizada uma análise global dos resultados e são
apresentadas conclusões e propostas para trabalhos futuros.
17
2 Fundamentos Teóricos
A presente pesquisa tem um caráter claramente multidisciplinar. Por isso foi
introduzido neste documento o presente capítulo, cujo propósito é apresentar os
fundamentos básicos teóricos e algumas técnicas das áreas relacionadas que são
essenciais para a compreensão dos modelos e procedimentos apresentados nesse
trabalho.
Leitores já iniciados nos temas aqui abordados poderão prescindir da leitura da
seção correspondente ao capítulo sem prejuízo para a compreensão do restante deste
trabalho.
Na primeira parte do capítulo é apresentada uma breve introdução sobre
sensoriamento remoto e técnicas de processamento de imagens de sensores remotos,
principalmente em alta resolução. Detalhes de correção geométrica e topográfica são
apresentados.
Na segunda parte são apresentados algoritmos específicos de classificação
supervisionada utilizados durante o trabalho. Também são descritos modelos de
classificação baseados em lógica nebulosa e sistemas neuro-fuzzy e algoritmos
genéticos utilizados para otimização de parâmetros.
O algoritmo de segmentação ou extração dos objetos a partir de imagens de
sensores remotos é descrito na terceira parte do capítulo.
Na quarta e última parte apresenta-se uma breve descrição dos parâmetros de
Haralick [37], utilizados como atributos de textura ao longo desse trabalho.
2.1 Sensoriamento remoto
Sensoriamento Remoto é a técnica ou arte de obter informações sobre objetos,
áreas e fenômenos através da análise de informações obtidas sem contato direto com o
objeto, área ou fenômeno de estudo [1]. Nesse contexto a análise de uma foto de uma
determinada área geográfica pode ser denominada de sensoriamento remoto.
18
A principal ferramenta do sensoriamento remoto é o sensor de captação da
imagem a ser analisada. Atualmente, existe uma grande variedade de sensores ativos e
passivos para a captação de imagens [13]. Sensores ativos emitem energia em um
determinado comprimento de onda e a captam de volta após ser refletida pelo material
analisado. Através de medidas realizadas na emissão e captação é possível a estimação e
criação de imagens remotas. Sensores passivos não emitem radiação, mas simplesmente
captam a reflexão da radiação, principalmente a radiação eletromagnética solar, sobre os
objetos. Esse trabalho concentrara-se em sensores passivos, sensíveis a radiações
eletromagnéticas.
Esses sensores baseiam-se na propagação da energia eletromagnética e na sua
interação com alvos naturais. Em poucas palavras a energia eletromagnética emitida
pelo sol atinge alvos naturais e é refletida por esses, sendo então capturada por sensores
remotos transportados por satélites, aeronaves, balões meteorológicos, etc. Essa reflexão
eletromagnética sofre alguns fenômenos devidos à interação com a cobertura do solo ou
à dispersão ou absorção pela atmosfera. As influências da atmosfera não são tratadas
nesse trabalho e podem ser melhor estudadas em [1].
Ao atingir alguma região da superfície da Terra a radiação eletromagnética sofre
interações de acordo com as características físico-químicas da cobertura do solo ou da
composição do objeto; como resultado uma parte da energia eletromagnética é refletida
e uma outra parte é absorvida pela superfície. Em termos gerais, tipos diferentes de
cobertura de solo oferecem comportamentos diferentes, conforme o comprimento de
onda por ele atingido pelo alvo, como o apresentado na Figura 1.
Figura 1 – Exemplo da influência da refletância e do comprimento de onda em diferentes tipos de cobertura de solo [14]
19
Os sensores remotos passivos que detectam energia eletromagnética refletida ou
emitida pelo alvo permitem medir a proporção de energia refletida da superfície
terrestre que os atinge, num determinado comprimento de onda.
2.1.1 Sensoriamento remoto em imagens de alta resolução
Os estudos em sensoriamento remoto em alta resolução espacial começaram a
ganhar força quando câmeras a bordo de aviões foram utilizadas para a obtenção
fotografias aéreas. Durante anos as tecnologias tanto de obtenção quanto de
processamento e análise dessas imagens se desenvolveram intensamente, inicialmente
nos setores militares e em seguida na administração pública e em setores privados [15].
Os mapas produzidos por fotos aéreas podem ser obtidos em diferentes escalas,
dependendo basicamente do tipo de câmera utilizada e da altitude do sobrevôo.
O grande problema detectado com as imagens aéreas são os seus elevados custos
de obtenção e a complexidade que cresce com a área a ser analisada. A análise de uma
área relativamente grande com fotos aéreas é um processo caro e trabalhoso
principalmente pelo complexo processo de obtenção que envolve um plano de vôo
preciso e o controle necessário para garantir a homogeneidade na aquisição das
imagens.
Com o avanço das tecnologias espaciais especialmente a partir de 1972, e o
desenvolvimento de câmeras e sensores digitais, foi possível a aquisição de imagens a
partir de satélites não militares. O programa LANDSAT surgiu ainda em 1972 com o
objetivo de produzir imagens de toda a superfície do globo terrestre de maneira contínua
e sistemática, e a custos razoáveis.
Desde o início da utilização não-militar de sensores remotos baseados em
satélites, um grande número de diferentes sensores foram desenvolvidos. Estes sensores
passam a forçar os desenvolvimentos científicos, e tecnológicos, tanto no que se refere a
resolução espacial quando a resolução radiométrica. As imagens geradas estão sendo
utilizadas amplamente, principalmente em tarefas de planejamento. A maior
periodicidade na obtenção das imagens tornou possível uma análise de séries históricas
em determinadas regiões que mostram claramente tendências de alteração de padrões de
ocupação de solo. Com esses dados é possível um melhor planejamento a longo e médio
20
prazo de atividades que impactam direta ou indiretamente no padrão de cobertura do
solo.
Os sensores remotos baseados em satélites tornaram possível uma utilização
mais ampla e democrática da informação e do sensoriamento remoto como um todo.
Porém, o tipo de informação extraída depende fundamentalmente do tipo de imagem
obtida. Em outras palavras, uma imagem LANDSAT consegue representar objetos não
menores do que 900 m2, assim como uma imagem de um satélite de metrologia como o
AVHRR consegue representar informações a partir de 1Km2.
Em meados de 1999 ocorreu um marco na área de sensoriamento remoto para
aplicações não militares. O IKONOS, o primeiro satélite de alta resolução destinado
exclusivamente para sensoriamento remoto e voltado a objetivos civis foi lançado. Com
a resolução espacial de 1m no modo pancromático, as imagens IKONOS trouxeram
para o mundo do sensoriamento remoto uma nova gama de possibilidades. Pela primeira
vez era possível, de forma sistemática, em alguns casos à custos inferiores aos das fotos
aéreas, a identificação e representação de objetos com até 1m2.
O satélite IKONOS realiza a órbita em torno da Terra em aproximadamente 98
minutos em uma altitude de aproximadamente 680 km [16]. Lançado em uma órbita em
sincronia com o sol o IKONOS consegue passar por uma dada longitude em
praticamente o mesmo horário local (10h30min AM) diariamente. Com isso o IKONOS
é capaz de produzir imagens de 1m de resolução de uma determinada área geográfica a
cada 3 dias.
21
Figura 2 – resposta espectral relativa ao comprimento de onda na banda pancromática IKONOS [16]
Figura 3 – resposta espectral relativa, conforme o comprimento de ondas para o sensor multiespectral IKONOS [16]
O satélite IKONOS produz dois tipos de imagens bem distintas em termos de
resolução espectral e espacial. Com a resolução de apenas 1m por pixel a imagem
22
pancromática possui uma faixa de sensibilidade eletromagnética que cobre todo o
espectro visível (Figura 2). A imagem multiespectral IKONOS possui uma resolução
um pouco menor, 4 m por pixel, porém essa imagem possui quatro bandas de detecção
oferecendo uma faixa dinâmica mais ampla em cada uma dessas bandas (Figura 3).
Todas as imagens IKONOS são geradas com uma resolução radiométrica de 11-
bits e 8-bits. A resolução radiométrica de 11-bits permite uma faixa dinâmica de níveis
muito maior, podendo chegar a 2048 níveis em cada banda. A resolução de 8-bits é
fornecida por compatibilidade com softwares existentes. O processamento com 11bits
fornece uma maior riqueza de detalhes já que são 1048 níveis de cinza e não 256 como
no caso das imagens LANDSAT.
Assim como o IKONOS, outros satélites de alta resolução já foram e outros
serão ainda lançados voltados a propósitos não militares. O QUIKCKBIRD, por
exemplo, já operacional e trabalhando em uma resolução espacial de até 60cm e o
SPOT 5 com uma resolução de até 2.5m já estão operacionais comercialmente.
O governo Brasileiro mostra o seu envolvimento com sensoriamento remoto em
imagens de alta resolução através de um programa em conjunto com o Governo Chinês
chamado CBERS (China-Brazil Earth Resources Satellite). Através desse programa
satélites com câmeras de médias resoluções já se encontram operacionais. Esse mesmo
programa promete colocar em órbita os satélites CBERS-3 e CBERS-4 em 2008 e 2010
respectivamente. Esses satélites devem operar com câmeras de média resolução capazes
de produzir imagens com ate 5m de resolução espacial na banda pancromática, e ainda
com uma taxa de revista (período no qual o satélite passa no mesmo local) de
aproximadamente cinco dias.
2.1.2 Pré-processamento
Para que várias imagens de sensores remotos sejam integradas entre si e com
outros dados geográficos em um ambiente SIG (Sistema Geográfico de Informação), é
necessário um processo prévio de correção.
O processo de georeferenciação é o responsável por converter as coordenadas
das imagens de sensores remotos para uma base geográfica real. Esse processo associa à
posição de cada pixel da imagem a coordenada geográfica do ponto imageado. Isso
permite, por exemplo, a integração da informação contida na imagem com dados de SIG
23
disponíveis em todo o mundo. O georeferenciamento parte normalmente de pontos na
imagem, cuja coordenada geográfica é bem conhecida, os chamados pontos de controle
ou GCPs (“ground control points”). Os GCPs podem ser obtidos através de coleta de
campo por GPS (Global Position System ou Sistema de Posicionamento Global) ou até
mesmo a partir de algum dado já georeferenciado. Em outras palavras, os GCPs são um
conjunto de pontos, facilmente identificáveis, em que se pode definir o posicionamento
real ou geográfico de alguma maneira específica. A partir desses pontos procedimentos
matemáticos são aplicados com o objetivo de realizar uma reamostragem na imagem
como um todo segundo um sistema de coordenadas geográficas. Como resultado do
georeferenciamento obtém-se uma nova imagem, denominada de “imagem retificada”,
ou “georeferenciada”.
Um outro problema com imagens de satélite diz respeito à altimetria. Em regiões
muito montanhosas ou em uma escala muito fina o tamanho de um pixel pode não estar
compatível com a realidade apresentada em campo.
Figura 4 – Representação do problema da topografia em captura de imagens de sensores remotos
A Figura 4 ilustra o problema decorrente da elevação do terreno relacionado na
captura de imagens de sensores remotos. Um pixel de 1m (área em azul) representa na
realidade ou geograficamente falando uma área maior (em vermelho).
A solução para o problema da correção altimétrica está na georetificação em
conjunto com a correção altimétrica com base no modelo digital de terreno, ou DTM
(Digital Terrain Model). Esse processo é comumente chamado de “ortoretificação”. O
DTM é uma representação digital da superfície com informações altimétricas, que pode
1pixel = 1m
Sensor remoto
24
ser obtido a partir de isolinhas, ou seja, das curvas de nível da região estudada. Por ser
digital possui uma resolução espacial e radiométrica assim como as imagens. A
resolução, principalmente a espacial, do DTM utilizado afeta a qualidade da
ortoretificação.
Além de alterar propriedades geométricas nas imagens capturadas, a topografia
traz consigo outros efeitos, como a iluminação e a reflectância dos objetos. Técnicas de
correção topográficas também são utilizadas para amenizar esses problemas. Essas
técnicas levam em conta, além do DTM, vários outros fatores, tais como a posição do
sol no ato da captura da imagem e a altitude do sensor.
Uma descrição detalhada dos procedimentos específicos, para a ortorretificação
e para a correção topográfica, pode ser encontrada em [15, 17, 18 e 19].
2.2 Métodos computacionais
Esta seção aborda os fundamentos e as técnicas de processamento de imagem,
inteligência computacional e reconhecimento de padrões necessários para a
compreensão do restante do trabalho.
2.2.1 Classificação de padrões
O processo de classificação de padrões é o procedimento computacional capaz
de atribuir a diferentes grupos ou classes alguns determinados padrões apresentados. Por
exemplo, um procedimento que separe laranjas podres de laranjas sadias pode ser
considerado um procedimento de classificação de padrões onde os padrões são os
objetos analisados (laranjas). Os inúmeros fatores que tipicamente se usam para
diferenciar uma laranja podre de uma sadia, por exemplo, o cheiro, a cor, a textura
dentre outros são conhecidos como atributos dos padrões analisados.
Os procedimentos de classificação podem ser divididos em dois grandes
conjuntos. Primeiro pode-se definir um grupo de procedimentos que não necessita de
dados de treinamento, ou seja, não é necessária a apresentação das classes dos de uma
parte do conjunto de padrões (conjunto de treinamento) de cada uma das classes para
25
que as mesmas sejam reconhecidas. Esses procedimentos normalmente trabalham
dividindo o conjunto de padrões segundo os atributos apresentados ao sistema e são
denominados “métodos de classificação não supervisionados”.
Um outro conjunto de métodos e algoritmos trabalha de maneira supervisionada,
ou seja, existe uma fase de ajuste de parâmetros dos procedimentos denominada de fase
de treinamento onde as classes de cada padrão são apresentadas ao modelo. Assim como
o ser humano, que tem que aprender alguma tarefa, esses métodos utilizam-se da fase de
treinamento para “aprender” a como diferenciar as classes apresentadas ao sistema com
base no conjunto de atributos disponíveis. Esses métodos são mais robustos em termos
de desempenho de classificação e em tarefas especificas de classificação de imagens
sensores remotos tem mostrado melhor desempenho segundo a literatura exposta no
Capitulo 2.
Nesse trabalho foi abordado um modelo de classificação supervisionada baseado
em Redes Neurais Artificiais.
Em um segundo momento é abordado métodos supervisionados baseados em
lógica nebulosa (ou lógica nebulosa) nas tarefas de classificações de padrões. Esse tipo
de procedimento depende da elaboração de regras de inferência por um especialista.
Essas regras interagem sobre os atributos dos padrões analisados inferindo a classe de
cada padrão.
No final desse capítulo serão apresentadas resumidamente as teorias sobre
sistemas neuro-fuzzy e algoritmos genéticos. Esses métodos serão utilizados mais a
frente no modelo proposto, neste trabalho.
2.2.1.1 Redes neurais artificiais
O cérebro humano pode ser visto como um processador de informações
altamente complexo, não-linear e paralelo [20]. Por causa dessa capacidade de
aprendizado e generalização o funcionamento dos neurônios tem sido estudado e com o
objetivo de reproduzi-los em ambientes computacionais.
O neurônio artificial é uma unidade de processamento de informação
fundamental para a operação das chamadas “Redes Neurais Artificiais” [20].
26
Figura 5 – Modelo de neurônio artificial não linear [20]
O modelo de um neurônio artificial é apresentado na Figura 5. O neurônio
artificial consiste de m entradas ponderadas pelos pesos wk1..m e então somadas numa
junção aditiva. Esses pesos são conhecidos como pesos sinápticos e são responsáveis
pela capacidade de modelar e aprender de uma rede neural. Uma função de ativação é
colocada em seguida ao somador, essa função é dita como restritiva segundo [20], o que
em linhas gerais significa que ela limita o intervalo permissivo de saída do neurônio a
que se referencia. O modelo prevê ainda um ajuste denominado bias que tem o efeito de
aumentar ou diminuir o valor aplicado à função de ativação [20].
Em termos matemáticos pode-se definir a operação no neurônio k da Figura 5,
que possui as entradas j (j=1,2,....m) através das seguintes equações:
∑ ==
m
j jkjk xwu1
Eq.(1)
kkk buv += Eq.(2)
( )kk vy ϕ= Eq.(3)
A função de ativação φ(.) é responsável pela definição da saída de um neurônio
em termos de uma entrada v. Essas funções podem ser representadas de inúmeras
maneiras. Mais comumente, e nesse trabalho, utilizam-se funções sigmóides (Figura 6).
Pesos sinápticos
vk
wk1
Σ φ(.)
wk2
wk3
wkm
Bias (bk)
Função de ativação
Saída yk
x1
x2
x3
xm
Junção aditiva
Entrada
27
Basicamente o tipo de funções de ativação limita o comportamento no intervalo de
saída. A função tangente hiperbólica sigmóide (tansig) por exemplo pode ter uma saída
variando entre -1 e 1, enquanto a sigmóide logarítmica (logsig) tem uma saída sempre
entre 0 e 1.
-3 -2 -1 0 1 2 3-1
-0.5
0
0.5
1tansig
-3 -2 -1 0 1 2 3-1
-0.5
0
0.5
1logsig
(a) (b) Figura 6 – Funções de ativação: (a) tangente hiperbólica sigmóide (tansig) e (b) sigmóide logarítmica (logsig) a direita.
Uma vez definida a característica de um neurônio pode-se definir a arquitetura
de uma rede neural ligando neurônios entre si através dos pesos sinápticos. A
configuração apresentada neste trabalho é a de uma rede neural de múltiplas camadas
conhecida como “Perceptrons de múltiplas camadas” ou MLP (multilayer perceptrons).
Essa configuração é ilustrada na Figura 7.
Figura 7 – Arquitetura de uma rede neural do tipo MLP com uma camada oculta
Camada de entrada Camada
escondida
Camada de saída
Sinal de entrada
Sinal de saída
28
As redes MLPs consistem de um conjunto de unidades sensoriais, ou neurônios,
arrumados em camadas, conforme o apresentado na Figura 7. Tem-se uma camada de
entrada com nós não computacionais, uma ou mais camadas ocultas com nós
computacionais e ainda uma camada de saída com nós também computacionais. Nesse
trabalho exploram-se apenas redes neurais do tipo MLP com uma camada oculta. Os
nós chamados computacionais realizam algum tipo de processamento, conforme o
modelo do neurônio apresentado anteriormente. Os nós não computacionais são apenas
entradas ou saídas de dados e não realizam qualquer processamento.
Cada arco que liga um neurônio a outro em uma rede MLP possui um peso
sináptico associado denotado por wji. Esse peso pode ser entendido como um peso que
associa à entrada do neurônio j a saída do neurônio i. Em uma rede neural do tipo MLP
existe um grande número de pesos a serem definidos ou estimados. O algoritmo de
retropropagação, ou BP (backpropagation), é um processo supervisionado de
aprendizado baseado no gradiente descendente que estima os valores dos pesos
sinápticos a partir de padrões de treinamento. Nesse algoritmo o erro de previsão se
propaga da camada de saída para a camada oculta, procurando assim o melhor conjunto
de valores para os pesos de toda a rede. Uma descrição detalhada do algoritmo de
retropropagação é relativamente complexa e não foge ao escopo desse trabalho. Esse
procedimento pode ser encontrado com mais detalhes de implementação em [20].
Um outro ponto interessante utilizado nesse trabalho sobre as redes neurais diz
respeito à relação entre saída da rede neural e a probabilidade a posteriori. Segundo
Haykin em [20] um classificador MLP aproxima de fato as probabilidades das classes a
posteriori, desde que o tamanho do conjunto de treinamento seja suficientemente
grande, garantindo que o processo de aprendizado por retropropagação não caia em um
mínimo local.
2.2.1.2 Lógica nebulosa
A lógica nebulosa permite a expressão de forma clara e simples da incerteza e
imprecisão inerentes às avaliações de um especialista, cuja experiência se deseja
modelar num sistema de classificação baseado em conhecimento. Em outras palavras, a
lógica nebulosa pode ser vista como uma maneira de expressar incerteza [21]. A lógica
29
nebulosa permite representar valores de pertinência (grau de verdade) intermediários
entre os valores de verdadeiro e falso da lógica clássica (bivalente).
As variáveis de entrada em um sistema nebuloso são mapeadas em conjuntos
nebulosos por meio de funções de pertinência. O mapeamento de uma entrada em um
conjunto nebuloso gera um grau de pertinência dessa entrada ao conjunto nebuloso.
Por meio de regras SE-ENTÃO o sistema é capaz de expressar condições de
pertinência. Tais regras são formuladas da seguinte forma: SE (ANTECEDENTES)
ENTÃO (CONSEQUENTE). Nessa formulação os ANTECEDENTES expressam as
condições a serem satisfeitas que resultam em um desdobramento representado pelo
CONSEQUENTE da regra.
Através dos mecanismos da lógica nebulosa é possível a criação de sistemas de
inferência nebulosa capazes de realizar tarefas complexas, como modelagem,
classificação e previsão. Esse trabalho se concentra na elaboração de sistemas nebulosos
voltados para a tarefa de classificação de padrões.
2.2.1.3 Sistema neuro-fuzzy
O grande problema dos sistemas de classificação nebulosos está na quantidade
de parâmetros livres a serem estimados para um funcionamento adequado do modelo.
Esses parâmetros livres se encontram na formação das funções de pertinência dos
antecedentes e dos conseqüentes. Em outras palavras para se criar uma regre nebulosa
do tipo SE ALGO FOR ALTO ENTAO A SAIDA E BAIXA precisa definir-se que tipo
de função e quais os parâmetros das funções de pertinência ALTO e BAIXO nesse
contexto.
Nesse contexto introduzem-se os sistemas adaptativos neuro-fuzzy. Unindo a
flexibilidade dos sistemas fuzzy com a arquitetura de Redes Neurais. A idéia central por
trás do algoritmo neuro-adaptativo de treinamento utilizado no ANFIS (adaptive-
network-based fuzzy inference system) [22] é o aprendizado por meio de dados de
treinamento por um algoritmo de retropropagação do erro [23] em conjunto com um
método dos mínimos quadráticos. Esse método é muito semelhante ao utilizado para a
aprendizagem em redes neurais artificiais.
Os sistemas ANFIS possuem uma arquitetura em rede similar a arquitetura das
redes neurais artificiais, que mapeiam um conjunto de entradas em uma saída. Esse
30
mapeamento e feito através de funções de pertinência fuzzy. Os dados de entrada então
são mapeados pelas funções de pertinência relacionadas a entrada e então por outras
funções de pertinência associadas as saídas. Todas essas funções de pertinência
possuem uma serie de parâmetros livres. A computação desses parâmetros e facilitada
nos sistemas do tipo ANFIS pelo calculo do vetor de gradiente do erro relacionado a
saída. Em outras palavras um sistema ANFIS computa os parâmetros das funções de
pertinência nebulosa interativamente durante a fase de treinamento calculando a
resposta obtida pelo sistema e a resposta esperada. E então pelo erro entre essas
respostas o sistema automaticamente se adapta modificando os parâmetros das funções
de pertinência fuzzy relacionadas com os antecedentes o os conseqüentes obtendo assim
uma nova resposta para o sistema. Esse procedimento e executado com os dados de
treinamento até que não se tenha mais diminuição significativa do erro relativo a saída
esperada.
Para testar a capacidade de generalização do sistema fuzzy é utilizado um
conjunto de dados de validação. Esses dados tem o mesmo formato que os dados de
treinamento e os de teste. Geralmente procura-se um sistema de inferência fuzzy capaz
de mapear uma dada entrada em uma saída de forma eficiente. O modelo dos sistemas
ANFIS é fixo, ou seja, depois de treinado o sistema não modifica mais os seus
parâmetros. Dessa forma existe uma tendência de overfit aos dados de treinamento o
que pode causar um desempenho ruim durante os dados de teste. Nesse caso os dados de
validação são usados e aplicados ao sistema de inferência fuzzy a cada passo do
treinamento. Esse resultado e monitorado e tipicamente quando o erro de validação
aumenta o sistema de inferência pode ser considerado em sua etapa de máxima
generalização e o treinamento para.
Uma particularidade do sistema ANFIS e que se trata de um sistema fuzzy do
tipo Takagi-Sugeno [24]. A principal conseqüência desse tipo de sistema e que somente
é possível à representação de uma saída. Esse tipo de sistema foi desenvolvido
inicialmente para previsão. Na pratica podemos ter em um sistema ANFIS inúmeras
entradas, inúmeras regras porem apenas uma saída. Esse fato é altamente relevante
nesse trabalho de classificação de padrões e define a arquitetura do classificador
baseado em regras apresentado nesse trabalho.
31
2.2.1.4 Algoritmos Genéticos
Algoritmo genético é um método de resolução de problemas de otimização
baseado nos conceitos do processo biológico de evolução das espécies conhecido como
a seleção natural. A teoria da seleção natural das espécies foi desenvolvido por C.
Darwin muito tempo antes do descobrimento de mecanismos genéticos [25]. A hipótese
inicial de Darwin supõe que qualidades ou características de dois ou mais indivíduos se
unem ou se fundem em seus filhos formando indivíduos que de alguma forma herdam
características, sejam qualidades ou defeitos de seus parentes mais próximos.
Em algoritmos genéticos o vocabulário vem diretamente da genética natural.
Indivíduos são soluções possíveis para um determinado problema. Esses indivíduos
possuem um conjunto de características que pode ser denominado como o cromossomo
do indivíduo. Cada característica individual de um cromossomo em um indivíduo é
denominada gene [26], conforme a Figura 8.
Figura 8 – Representação de um individuo e genes em algoritmos genéticos
Um conjunto de indivíduos em uma mesma geração é denominado de população
e pode ser entendido como um conjunto de soluções potenciais para um determinado
problema proposto.
Um processo evolucionário roda em uma população de cromossomos ou
indivíduos correspondendo a uma procura de soluções sub-ótimas em um espaço de
soluções potenciais [26]. Esse processo equilibra o interesse da busca de uma solução
ótima e o interesse de exploração do espaço de soluções. Através das gerações a
população evolui para uma solução ótima ou sub-ótima.
Individuo
Característica 1
Característica 2Característica n
. . .
Genes
32
Os algoritmos genéticos utilizam regras para a criação de indivíduos em uma
próxima geração a partir de indivíduos de uma geração corrente. Essas regras podem ser
divididas em métodos de seleção e operadores genéticos.
O método de seleção indica a regra de escolha dos pais ou indivíduos que
contribuirão para a criação da nova geração. Somente aos indivíduos selecionados são
aplicados os operadores genéticos. Para que seja possível a avaliação dos indivíduos é
necessário introduzir o conceito de função de avaliação. Essa função tem como entrada
os genes de um indivíduo e indica a qualidade do indivíduo em uma população. Em
outras palavras a função de avaliação é capaz de avaliar diferentes soluções para um
problema e indicar qual é a melhor ou a menor, segundo algum critério utilizado.
Os operadores genéticos mais comuns são mutação e o crossover. Na mutação
um gene ou uma característica de um determinado indivíduo é alterado, em geral
aleatoriamente, com o objetivo de gerar um novo indivíduo em uma nova população. O
crossover por sua vez, é a mistura de características de dois ou mais indivíduos de uma
geração para produzir um indivíduo na próxima geração com características misturadas.
Existem vários tipos de crossover, nesse trabalho utiliza-se somente crossover de um
ponto e mutações de maneira aleatória. O crossover de um ponto realiza a mistura de
maneira simples do material genético dos indivíduos. Na Figura 9 é exemplificado o
crossover de um ponto. O individuo A em verde é “misturado” com o individuo B em
amarelo. Um ponto de corte nos dois indivíduos é definido, em geral aleatoriamente. A
partir desse ponto de corte são construídos dois indivíduos filhos que herdam o material
genético dos dois pais relacionados. Dessa maneira os indivíduos gerados carregam as
características ou genes, dos seus pais para a próxima geração.
Figura 9 – demonstração do operador genético de crossover simples de um ponto.
Ponto de crossover
Individuo A
Individuo B Indivíduos Filhos AB
CROSSOVER
33
2.3 Segmentação
2.3.1 Histórico
O processo de segmentação é um pré-requisito para a análise baseada em
objetos.
A tarefa de segmentação divide a imagem em objetos ou segmentos. O nível
dessa divisão depende do que se pretende expressar no procedimento de classificação. A
tarefa de segmentação pode ser considerado “boa”, ou “aceitável”, quando os objetos de
interesse do problema estiverem isolados, o que permitirá em tese discriminar
adequadamente as classes da legenda [27].
As técnicas de segmentação procuram delimitar na imagem regiões com
propriedades comuns. Podem-se dividir a maioria dos métodos de segmentação atuais
em dois principais grupos de algoritmos: o primeiro são os métodos baseados em
crescimento de regiões; e o segundo formado pelos métodos de agrupamento e divisões
sucessivas de objetos [28].
Na abordagem de dividir e agrupar, conhecida como “Split and Merge”, os
algoritmos subdividem ou agrupam segmentos sucessivamente. A decisão se um objeto
deve ser subdividido, ou dois objetos adjacentes devem ser agrupados, baseia-se na
avaliação de uma função de custo. As diferentes funções de custo definem as variantes
dos algoritmos do tipo dividir e agrupar.
As técnicas do tipo crescimento de região ou “region growing” consideram
como ponto de partida cada pixel como um objeto. Objetos adjacentes são agrupados
formando objetos cada vez maiores. A cada passo do algoritmo a decisão de agrupar ou
não objetos adjacentes leva em conta algum critério de homogeneidade do novo objeto
que se formaria após o agrupamento. Os critérios de homogeneidade são específicos de
cada algoritmo adotado.
Existem outros métodos mais particulares de segmentação. Esses métodos não
se baseiam especificamente nem em crescimento de regiões e nem em agrupamento e
divisão de objetos. Dentre eles destacam-se os métodos baseados em morfologia
matemática, como o watersheds.
O método de segmentação alternativo baseado no divisor de águas (watersheds)
é descrito sucintamente em [27]. Esse método utiliza a magnitude do gradiente da
34
imagem no seu critério de segmentação [29]. Ainda em [30] Beucher e Lanteujoul
utilizam o algoritmo de watersheds com sucesso para a detecção de fraturas em imagens
de micrografias de aço e detecção de bolhas em radiografia. Em 1991 [31] Beucher
aplica o algoritmo de watersheds para a segmentação de imagens de sensores remotos e
trata de um problema particular desta classe de algoritmos conhecido como super
segmentação. Em [28] o algoritmo de watersheds é utilizado especificamente para
segmentação de imagens de alta resolução.
Um método de segmentação não convencional, baseado nas caracteristicas
morfológicas dos componentes conectados foi proposto em [32]. Esse método parte dos
resíduos de duas operações morfológicas sucessivas de abertura (opening) e fechamento
(closing) [27]. O método foi testado em imagens de alta resolução tanto em áreas de
campo quanto em áreas urbanas, mostrando um ótimo desempenho comparado com
outros métodos de segmentação mais comuns. Uma melhor descrição das formas foi
alcançada e o método intrinsecamente reduz o efeito da super segmentação devido a
detalhes de implementação. Porém nesse método o custo computacional é bastante
elevado, conforme mostram os experimentos apresentados no artigo, principalmente se
houver nas imagens áreas muito uniformes em termos espectrais. Nesses casos os
algoritmos de watersheds tendem a ter um desempenho melhor.
Vários algoritmos de segmentação são comparados em [33]. O estudo destacou
dois softwares: o eCognition e o SPRING 4.04. Ambos baseiam-se em crescimento de
região, embora o SPRING ofereça também uma opção de segmentação por
watersheads, um método que será abordado mais adiante nesta seção. Nesse trabalho
também foram avaliados algoritmos de softwares como: Data Dissection Tools5,
CAESAR 3.16, InfoPACK 1.07 e Image Segmentation (componente para o ERDAS
Imagine)8.
2.3.2 Segmentação baseada em crescimento de regiões
Nesse trabalho utilizaremos um processo de segmentação baseado em
crescimento de regiões desenvolvido por [34] e implementado comercialmente no
4 INPE - http://www.dpi.inpe.br/spring 5 INCITE, Stirling University – http://www.incite.org.uk/projects 6 N.A. Software Ltd. – http://www.nasoftware.co.uk 7 InfoSAR Ltd. - http://www.infosar.co.uk
35
software eCognition [35]. O procedimento pode ser descrito como um algoritmo de
aglomeração de objetos. Inicialmente cada pixel é tratado como único objeto. Através
de passos interativos esses objetos são agrupados com os seus vizinhos formando
objetos cada vez maiores. Em cada passo é agrupado somente um dos vizinhos do
objeto analisado, a escolha de qual vizinho será agrupado segue o critério de
homogeneidade local. Em termos práticos o objeto é unido com o seu vizinho que
oferece menor incremento possível na homogeneidade do objeto resultante. O processo
de crescimento do objeto para quando o incremento de homogeneidade devido à união
dos vizinhos é maior que uma determinada função de custo. Essa função é provida para
o algoritmo como um parâmetro de escala.
O cálculo da homogeneidade local do objeto é realizado levando em conta n
fatores espectrais e de forma do objeto. Em termos de forma dois parâmetros são
analisados, a suavidade das bordas e a compactação do objeto gerado como um todo.
Mais detalhes sobre esses cálculos podem ser obtido em [34]
Esse processo de segmentação permite uma variação no tamanho dos segmentos
gerados a partir de um controle sobre o parâmetro de escala. Sendo assim a sua
expansão para um procedimento em múltiplas escalas é simples e intuitiva, tornando o
algoritmo muito produtivo para o processamento de imagens de alta resolução.
2.3.3 Segmentação em múltiplas escalas
A representação de objetos em múltiplas escalas é natural para o ser humano e
crucial para todo o processo de reconhecimento, principalmente em imagens de alta
resolução. Por exemplo, ao olhar um objeto como uma laranja muito de perto somente
observa-se apenas a sua textura e não é possível a associar aquela superfície a uma
casca de laranja. Ao se afastar um pouco do objeto analisado é possível definir que
aquele objeto é de fato uma laranja.
A idéia da segmentação multi-escala é agrupar objetos de uma determinada
escala em objetos maiores em uma escala maior. Essa aglomeração é realizada
respeitando os mesmo critérios do procedimento de segmentação inicial porém
mudando o parâmetro de escala na análise.
8 USDA Forest Service, Remote Sensing Application Center – http://www2.erdas.com/SupportSite/
36
Desta forma os objetos da imagem, ou segmentos, estão unidos por uma relação
hierárquica. Nessa relação temos vários níveis de segmentações elaboradas com
parâmetros de escalas diferentes. Em linhas gerais cada objeto tem um super-objeto em
um nível superior que o contém; e ainda contém inúmeros objetos em um nível abaixo
do seu, os chamados sub-objetos.
2.4 Parâmetros de textura
Além de informações espectrais, a textura é uma característica muito importante
para a discriminação das classes na tarefa de classificação de cobertura de solo.
Os parâmetros de Haralick têm sidos amplamente utilizados na classificação de
imagens de sensores remotos (por exemplo [36 , 45, 46 e 47]).
Os parâmetros de Haralick se baseiam na computação da matriz de co-
ocorrência de níveis de cinza da imagem (GLCM – “gray level cooccurrence matrix”) .
A matriz GLCM representa a freqüência de ocorrência de pares de valores de tom de
cinza em uma determinada relação espacial. A partir da matriz GLCM uma série de
parâmetros estatísticos pode ser extraída. Destes somente os seguintes parâmetros ou
índices foram analisados nesse trabalho:
• Homogeneidade
• Contraste
• Dissimilaridade
• Entropia
• Segundo momento angular
• Média
• Desvio Padrão
• Correlação
A descrição detalhada dos cálculos dos parâmetros de Haralick pode ser
encontrada em [37].
37
3 Estado da arte em classificação de imagens de alta resolução
Com a recente disponibilidade de imagens de alta resolução produzidas por
sensores orbitais como IKONOS e QUICKBIRD se tornou-se possível modelar com
maior nível de detalhes características da cobertura do solo do que era possível com
imagens de média ou baixa resolução. Imagens IKONOS, por exemplo, têm pixels de
1m por 1m, no caso da banda pancromática. Essa resolução é o suficiente para
visualizar com detalhes, por exemplo, o teto de uma casa, árvores, jardins e ruas.
Graças à elevada resolução espacial é possível consolidar a informação contida
em imagens de alta resolução com dados de um SIG que normalmente se encontraram
disponíveis em escalas grandes, principalmente trabalhando a níveis locais.
Nesse contexto uma série de trabalhos têm sido desenvolvidos utilizando
diferentes técnicas automáticas de representação e interpretação em imagens de alta
resolução. Essas técnicas envolvem não somente diferentes modelos de tratamento de
dados, mas também englobam diferentes métodos de representação da informação
relevante para a tarefa de interpretação.
Esse capítulo aborda o estado da arte em classificação de imagens de alta
resolução. O capítulo inicia com métodos baseados em pixel, e passa depois para uma
abordagem mais generalista e mais moderna baseada em objetos ou segmentos. O
procedimento de segmentação e as diferentes formas de representação de conhecimento
são também considerados neste capítulo. Por último uma descrição dos métodos atuais
de representação de conhecimento multitemporal é apresentada.
3.1 Métodos baseados em pixels
Métodos automáticos de classificação baseados em pixels foram amplamente
utilizados em procedimentos de classificação em média e baixa resolução e têm sido
utilizados ainda em imagens de alta resolução. A tarefa de classificação de imagens de
alta resolução pode ser considerada difícil, tendo em vista a elevada complexidade e
38
composição dos tipos de cobertura do solo que podem ser discriminados nesse tipo de
imagem, como se demonstra, por exemplo em [38].
Várias abordagens foram realizadas utilizando apenas dados espectrais e
classificadores como o de máxima probabilidade e distância euclidiana [39]. Em [40,
41, 42, 56 e 57 diversos métodos de classificação baseados em lógica nebulosa, foram
utilizados para a classificação de imagens de alta resolução. Tais métodos baseados
somente na informação espectral alcançam resultados modestos, quando aplicados a
imagens de alta resolução [42].
O conhecimento estrutural e contextual foi considerado em [43] utilizando uma
análise de vizinhança dos pixel. A informação numa vizinhança em torno de cada pixel
foi usada para extrair dados sobre o relacionamento espacial entre os pixels, gerando
desta forma um atributo de contexto. Esse método foi avaliado utilizando imagens
IKONOS pancromáticas e fotos aéreas em conjunto com um classificador baseado em
redes neurais. Os resultados demonstraram claramente os benefícios do uso dos
atributos de contexto.
Um novo método multi-escala foi proposto em [44] que combina imagens
IKONOS pancromáticas e multiespectrais com fotografias aéreas. Neste trabalho o
conjunto de dados é então tratado por classificadores de máxima probabilidade e
classificadores baseados em arvore de regressão (CART). O resultado desse trabalho
deu uma medida objetiva da importância da resolução espacial na tarefa de
interpretação. O trabalho mostra ainda que a informação multi-escala pode ser utilizada
com uma espécie de contexto no processo de classificação. Foi mostrado, por exemplo,
que imagens com 1m de resolução favorecem a interpretação de alguns tipos de classes,
por exemplo, sombreamento entre as árvores
A utilização da informação de textura na classificação de imagens de sensores
remotos também vem sendo bem explorada desde há muito tempo.
Um [45] novo método de representação da textura foi proposto baseado no
conceito de visões de um determinado padrão de textura. Basicamente o conceito
aplicado é que uma determinada classe possui inúmeros padrões de textura e ainda que
cada um desses padrões possui algumas visões. Essas visões foram obtidas com dados
de treinamento e através de uma serie de parâmetros de textura. Foi desenvolvido então
um algoritmo de classificação semelhante ao KNN, o K-View. Esse método em linhas
gerais atribui o padrão analisado a classe que possui “visões” mais semelhantes. Esses
métodos de extração de textura e de classificação foram aplicados a imagens de satélite
39
de alta resolução resultando num incremento significativo da capacidade de
discriminação de classes de cobertura de solo.
Em [46] análise de textura foi aplicada em imagens IKONOS e QUICKBIRD
para mapeamento de árvores, pomares e plantações de café em Uganda. Foram
utilizados parâmetros de textura de Haralick, calculados com base na matriz de
coocorrência de níveis de cinza ou GLCM (gray-level cooccurrence matrix). Os
resultados relatados no trabalho foram muito positivos principalmente no que disse
respeito ao reconhecimento de árvores e pomares. Porém o autor relata uma dificuldade
para determinar a dimensão ideal da vizinhança em torno de cada pixel a ser usada no
cálculo dos atributos de textura. Um outro trabalho [47] reafirma a importância da
informação de textura no processo de classificação, e ressalta igualmente a necessidade
de uma escolha adequada do tamanho dessas janelas de análise.
Além dos estudos sobre atributos muito se tem investigado sobre diferentes
modelos de classificadores para as aplicações em sensoriamento remoto.
Uma comparação entre métodos estatísticos e redes neurais aplicados
diretamente em classificação de imagens de sensores remotos é descrita em [48]
utilizando múltiplas fontes de dados LANDSAT MMS e dados topográficos. Os
experimentos mostraram que os modelos baseados em redes neurais têm taxas de
reconhecimento potencialmente superiores aos métodos estatísticos convencionais, mas
perdem em termos de desempenho computacional. Esse baixo desempenho se justifica
pelo elevado número de padrões que se tem em imagens de alta resolução, o que onera
principalmente a fase de treinamento da rede neural. Os experimentos também
mostraram a importância de se condicionar os dados adequadamente quando se utilizam
redes neurais. Pequenas mudanças no condicionamento dos dados podem alterar
sensivelmente o resultado da classificação.
Em [49] foi utilizado um método estatístico multivariado baseado em SVD
(Ssingular Vvalue Ddecomposition) e análise de vetores chaves (key vector analysis)
oferecendo uma solução alternativa a redes neurais artificiais para a classificação de
imagens aéreas de alta resolução. A justificativa dada pelos autores para a procura de
um método alternativo as redes neurais foi mais uma vez o baixo desempenho
computacional das redes neurais, quase sempre devido à fase de treinamento, e a alta
sensibilidade das redes neurais aos seus pesos iniciais, que são gerados de forma
randômica, na maioria dos casos.
40
Imagens de alta resolução espectral, obtidas a partir de sensor aerotransportado,
AVIRIS, de 1991 foram analisadas em [50]. Esse tipo de imagem possui 224 canais, ou
bandas espectrais, o que impossibilita, ou pelo menos torna difícil, uma análise
estatística multivariada. A solução adotada pelo autor foi reduzir a dimensionalidade
dos dados e aplicar em seguida um classificador não paramétrico. Foram utilizadas,
mais uma vez, redes neurais artificiais como métodos não paramétricos de classificação.
Para a redução de dimensionalidade foi utilizado um método chamado de DBFE
(Ddecision Bboundary Ffeature Eextraction) [51][52][53]. A dimensionalidade foi
reduzida de 224 para 35 e 36 bandas em dois experimentos realizados. Vários
classificadores estatísticos foram comparados com as redes neurais artificiais para
avaliar como cada um se comportava diante da redução de dimensionalidade dos dados.
Classificadores baseados em redes neurais se mostraram superiores em termos de
reconhecimento global. Os experimentos realizados mostraram ainda uma “singular”
dificuldade do algoritmo de máxima verossimilhança nos casos em que determinadas
classes possuem poucos padrões de treinamento, o que impossibilita uma boa estimação
da matriz de covariância.
3.2 Classificação baseada em objetos
Os métodos de interpretação e classificação baseados em pixels têm se
mostrados insatisfatórios para imagens de alta resolução. Imagens de alta resolução
classificadas por métodos baseados em pixel tendem a mostrar pixels isolados como
uma classe claramente inserida em uma área que representa uma outra classe [54].
Por outro lado surge a abordagem baseada em objetos que supõe uma pré-
organização dos pixels em grupos, denominados objetos ou segmentos. O processo de
extração ou formulação de grupos ou segmentos é conhecido como segmentação. A
análise por segmentos pode realmente simplificar a complexidade de informação
contida em um pixel de uma imagem, especialmente em imagens de alta resolução,
tanto espacial quanto radiométrica [55].
Do ponto de vista da arquitetura do classificador a classificação de segmentos é
idêntica à classificação baseada em pixels. A diferença principal é que o padrão é um
segmento e não um pixel. Por esse motivo a maioria das técnicas para a classificação
baseada em pixels, em princípio, funciona bem para a classificação de objetos. A maior
41
diferença está nos atributos ou no conhecimento que se pode expressar utilizando uma
abordagem por segmentos.
Com o objetivo de investigar novas metodologias de classificação explorando
dados de SIG para a cidade do Rio de Janeiro, Rego [56] e [57] adota imagens IKONOS
tanto multiespectrais quanto pancromática. A partir desses dados o autor desenvolve
uma metodologia de classificação baseada em atributos espectrais, contextuais e
estruturais para imagens de alta resolução para a área de estudo. Ainda nesse trabalho
foram utilizadas regras nebulosas para expressar o conhecimento impreciso do
especialista. O autor alcança melhor desempenho através de métodos baseados em
segmentos do que por meio de métodos baseados em pixels. Os resultados mostram
ainda que a inclusão de conhecimento do especialista através de classificadores
baseados em regras nebulosas foi capaz de aumentar significativamente a discriminação
de classes que se confundiam no espaço de atributos puramente espectral e estrutural.
Em [58] uma metodologia orientada a objetos foi aplicada para classificar
imagens de sensores diferentes, KOMPSAT-1 e SPOT-5. A legenda continha 5 classes
de cobertura do solo. O resultado da classificação automática foi comparado com a
classificação visual da cena do KOMPSAT-1. Os resultados mostram que a abordagem
baseada em objetos não só foi capaz de prover uma diferenciação mais rápida e precisa
das classes básicas como foi capaz de, facilmente, se adaptar a outras imagens tomadas
em datas diferentes em resoluções espaciais diferentes.
Como objetivo de investigar o método de classificação orientado a objetos na
discriminação de diferentes tipos de cobertura de solo em áreas urbanas utilizando
imagens de alta resolução, em [59] utilizam-se imagens pancromáticas e multiespectrais
IKONOS na cidade de Vienna. A validação baseou-se em dados oficiais, classificados
manualmente a partir de ortofotos, por um especialista. Nos experimentos executados
obteve-se um erro de 43%, em termos de número de objetos. Por outro lado se
analisarmos a área dos objetos classificados corretamente, observamos que essa
representa 72% da área total. Essa observação sugere que objetos com áreas menores
estão sujeitos a mais erros em termos de classificação do que objetos com áreas
maiores.
Imagens SAR (Synthetic Aperture Radar) foram analisadas em [60] com o
objetivo de desenvolver mapas urbanos de alta resolução. O trabalho foi realizado no
eCognition incluindo a segmentação hierárquica em três níveis. Características
radiométricas e polarimétricas foram utilizadas em conjunto com características
42
estruturais como forma e tamanho. Para a validação dos resultados foram utilizados
dados oficiais em uma escala compatível com dados SAR. Neste trabalho não foi
possível separar algumas classes baseando-se somente nos dados polarimétricos e
radiométricos provindos diretamente do SAR, porém quando agregados às
características contextuais oriundas do processo de segmentação, como forma ou
tamanho dos objetos, as mesmas classes foram distinguidas mais claramente.
Em [38] foi utilizada uma abordagem “mista”, baseada em pixel e em objetos ao
mesmo tempo. Inicialmente os pixels da imagem foram classificados utilizando tanto
dados espectrais quanto contextuais a partir de um classificador baseado em regras
nebulosas. A imagem então foi segmentada e as informações, tais como forma e outros
atributos estruturais, foram então adicionadas ao conjunto de regras nebulosas,
elaborando uma nova classificação. O desempenho melhorou quanto à taxa de
reconhecimento global. Segundo os experimentos somente com a informação de pixels
e as regras nebulosas o desempenho é de 10 a 20% maior se comparado a um
classificador de máxima verossimilhança. Quando se introduz a análise baseada em
objetos o desempenho final aumenta mais ainda, chegando a taxas de reconhecimento
de até 86%.
3.3 Classificação Multitemporal
A utilização de imagens multitemporais foi abordada em [61] de forma a
representar múltiplas imagens de instantes de tempo distinos como uma série de
camadas ou bandas em uma imagem multi-canais. A partir dessa representação,
métodos tradicionais baseados em classificadores de máxima probabilidade e dados
espectrais foram utilizados normalmente. A estratégia básica no método proposto
baseia-se em uma classificação em dois estágios, no primeiro estágio realiza-se as
classificações em cada instante de tempo individualmente para que no segundo estagio a
decisão final seja tomada através da combinação dos resultados. O artigo propõe três
modos de combinação do resultado multitemporal: no primeiro, chamado de adição de
probabilidade ou LA (likelihood addition) a decisão é tomada para a classe que possui a
soma do maior valor nos scores de classificação; o segundo método, denominado de
maioria de probabilidade ou LM (likelihood majority), atribui a classificação final à
classe com maior freqüência nas classificações anteriores; o terceiro e último método
43
utilizado a decisão baseia-se na combinação de regras de Dempster’s onde a decisão é
tomada onde a medida de aceitabilidade se mostra máxima.
Em [62] o método anteriormente apresentado foi expandido com a utilização de
matrizes de coocorrência como atributos espaciais e classificadores baseados em redes
neurais artificiais. Nesse trabalho dois tipos de redes neurais foram utilizados, a com
treinamento com retropropagação do erro e uma rede neural nebulosa. Dois modelos
também foram apresentados: o primeiro baseado em uma rede neural única para a
análise das matrizes de coocorrência de todas as imagens avaliadas; o segundo modelo
utiliza uma série de redes neurais organizadas em dois estágios, onde cada rede neural
no primeiro estágio realiza a classificação da matriz de coocorrência da imagem de cada
um dos ano de análise, e então a rede no segundo estágio toma a decisão de
classificação baseada nos resultados obtidos das redes do primeiro estagio. Os
resultados obtidos mostram um grande incremento de desempenho da tarefa de
classificação quando comparado com o método original apresentado em [61].
Em [1] um método de segmentação baseado em conhecimento é proposto. Nesse
método é utilizado para a segmentação dados de SIG, conhecimento específico do
especialista e dados de série temporais. Nesse trabalho os autores concluem que
sistemas baseados em conhecimento utilizados para a tarefa de segmentação oferecem
segmentos mais bem delineados e por conseqüência uma classificação mais precisa.
Quanto a avaliação multitemporal, o artigo indica que a segmentação usando uma série
temporal tende a convergir para uma segmentação ótima conforme o número de
imagens da série. Ainda nesse trabalho os autores enfrentam problemas sérios de erro de
registro nas imagens de foto aéreas e propõe a utilização de imagens de satélite de alta
resolução para resolução desses problemas.
Os dados multiespectrais são tratados em [63] como um conjunto de dados
multidimensionais assim como todas as bandas das imagens LANDSAT analisada. O
método apresentado extrai atributos do conjunto de dados multidimensionais. A idéia
principal é extrair atributos como uma combinação linear de componentes ortogonais de
variação dos dados. É demonstrado que com a utilização de dados multitemporais o
sistema foi capaz de reconhecer mais facilmente os objetos a serem classificados, ou
seja, com menos número de atributos extraídos.
Em [64] e [65] redes neurais artificiais são apresentadas como soluções
vantajosas em termos de desempenho global de classificação se comparado com
métodos estatísticos.
44
Em [66] propõe-se um classificador que leva em conta relações estruturais e
temporais analisando a interdependência temporal e espacial entre os pixels de uma
imagem. O contexto espacial é utilizado para estimar a probabilidade a priori e o
conhecimento multitemporal como a probabilidade de transição entre as classes em um
determinado intervalo de tempo. O classificador apresentado é testado com imagens bi
temporais LANDSAT e mostra um incremento significativo no desempenho da
classificação se comparado com métodos tradicionais de máxima verossimilhança.
Em [67] e [68] o conhecimento multitemporal foi empregado por meio de
diagramas de transição de estado entre as classes da legenda em um determinado
intervalo de tempo. Esses diagramas expressam a possibilidade de transição de uma
classe para uma outra classe determinada. Os resultados de ambos os trabalhos mostram
que houve um grande incremento no desempenho da classificação em relação à
classificação sem informação multitemporal. Porém, em ambos os trabalhos houve
dificuldade em modelar as possibilidades de transições entre as classes e foram
definidos valores experimentais. Esta abordagem é estendida em [69] e [70] utilizando
algoritmos genéticos para estimar os valores dos parâmetros de transição. Isso resultou
numa melhora significativa no desempenho de classificação.
45
4 Modelo proposto
4.1 Introdução
Este capítulo apresenta o modelo proposto no trabalho para interpretação de
imagens de sensores remotos baseada em conhecimento.
4.2 Descrição geral do modelo
O modelo proposto é orientado a objetos, o que envolve a segmentação prévia da
imagem.
Com a segmentação devidamente realizada parte-se para os procedimentos de
classificação. O modelo de classificação divide-se em três fases, como mostra a Figura
10.
46
Imagem (t)
Segmentação
Classificação espectralClassificação
Fase 1 (t)
Classificação baseada em regras do especialista
Base de regras
ClassificaçãoFase 2 (t)
Classificação baseada em conhecimento multitemporal
Base de conhecimento multitemporal
ClassificaçãoFase 3 (t)
Fase
3Fa
se 2
Fase
1
Classificação referência (t-∆t)
Atributos espectraisAtributos de textura
Dados Estruturais, Contexto e SIG
Segmentos (t)
DefuzzyficaçãoClassificação Final(t)
Figura 10 – Modelo de interpretação baseado em conhecimento para imagens de alta resolução.
Os dados de entrada para o modelo apresentado e a imagem a ser analisada
obtida em um determinado instante de tempo t e a classificação de uma imagem da
mesma área obtida em um instante de tempo anterior t-∆t.
Na primeira fase do modelo realiza-se uma classificação supervisionada dos
segmentos baseando-se na informação espectral e nos atributos de textura. A
classificação produz para cada objeto um vetor com os graus de pertinência a cada uma
das classes da legenda.
Da segunda fase em diante utilizam-se modelos de conhecimento de um
especialista. Computacionalmente esse conhecimento é modelado por meio de regras
47
nebulosas. Agrega-se ao resultado produzido na primeira fase dados de SIG e outros
atributos estruturais relacionados à forma e arranjo espacial dos segmentos..
Na terceira e última fase aplica-se o conhecimento multitemporal. Este se baseia
na classificação da área de estudo em um instante de tempo anterior t-∆t e utiliza
estimativas de possibilidades de transições entre classes durante o intervalo de tempo
∆t .
Após a terceira fase é realizada a defuzzificação que gera o resultado final da
classificação.
Os resultados produzidos por uma fase são usados como entrada para a fase
seguinte. A primeira fase prevê a utilização de algum método supervisionado
absolutamente convencional. Nas seções seguintes descrevem-se as fases 2 e 3 do
modelo.
4.2.1 Fase 1: Classificação automática supervisionada baseada em dados espectrais e textura
Nessa Fase um classificador supervisionado é introduzido ao modelo para prover
uma primeira classificação com base em dados espectrais e parâmetros de textura. Os
padrões classificados constituem-se dos segmentos ou objetos representados pela
segmentação da imagem original. A resposta espectral (nas bandas disponíveis) é
medida como uma media no objeto.
Esse classificador então e treinado por um conjunto de treinamento previamente
selecionado. Uma vez treinado os dados de teste são classificados obtendo o resultado
da classificação da primeira fase.
4.2.2 Fase 2: Classificação baseada em regras do especialista
48
Figura 11 - diagrama detalhado do procedimento de interpretação na fase 2.
A Figura 11 mostra a fase 2 do modelo proposto. Em linhas gerais a
classificação nesta fase é feita por um conjunto de regras nebulosas elaboradas pelo
especialista, que têm como entrada o resultado da classificação na fase 1, atributos de
contexto, dados de SIG e atributos estruturais dos objetos. O conjunto de regras é
especifico a imagem ou mesmo a região analisada, podendo assim ser considerado
como uma entrada do procedimento. Esse conjunto de regras mapeia a entrada do
sistema (todos os atributos disponíveis) as saídas (classes) coerentes.
Entre os parâmetros que podem ser utilizados para a criação da base de regras
destacam-se: os atributos de contexto; atributos estruturais, por exemplo,
excentricidade, área, relação da área com o perímetro e dados gerais de SIG.
O classificador baseado em regras nebulosas envolve uma série de funções de
pertinência cuja forma é definida por um conjunto de parâmetros. Os valores adequados
para estes parâmetros são freqüentemente definidos pelo método tradicional de
tentativa-e-erro. Neste trabalho eles são estimados por um método automático de ajuste.
4.2.3 Fase 3: Representação de conhecimento multitemporal
Na terceira fase do modelo proposto inclui-se o conhecimento multitemporal no
processo de classificação automática. O conhecimento multitemporal é modelado
conforme a proposta em [68], [69] e [70], isto é, através das possibilidades de transição
49
entre classes em um determinado intervalo de tempo. Um diagrama de transição de
estados, como o da Figura 12, representa pictoricamente o modelo de conhecimento
multitemporal para um dado intervalo ∆t.
ω1
ω2 ω3
ω4
ef
b
g
a c
d
Figura 12 – Exemplo de diagrama de transição de estados para 4 classes
Os nós ω1, ω2, ω3 e ω4 correspondem às classes da legenda e os arcos às
mudanças de classes que podem ocorrer em um determinado intervalo de tempo ∆t.
Associa-se a cada arco da Figura 12 um valor entre 0 e 1, representado na figura
pelas letras a, b, c, d, e, f e g, que expressam as possibilidades de ocorrência da
correspondente transição; zero indica transição impossível e 1 a transição com maiores
chances de ocorrência.
O diagrama de transição de estados define a chamada Matriz de Transição
{ }n
j,iij 1==Τ τ , onde cada linha corresponde à classe do objeto no instante t-∆t e as
colunas às classes a que o mesmo objeto pode pertencer num instante posterior t. Os
elementos da matriz são as respectivas possibilidades de transição τij. A matriz de
transição relativa ao diagrama da Figura 12 é dada por:
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
=Τ
degafeb
000000000
Eq.(4)
A classificação multitemporal admite conhecida a classificação ωi do segmento
no instante anterior. Os valores de pertinências produzidos nesta terceira fase são dados
pelo produto de cada elemento da i-ésima linha da matriz de transição pelo
correspondente valor de pertinência produzido na fase 2. Se, por exemplo,
50
( )nx,...,xx 12 = é o vetor com os valores de pertinência gerados na fase 2 em relação a
cada uma das n classes, as pertinências da fase 3 em que se explora a informação
multitemporal será dada por:
( ),,...,, 32
321
31
3ninii xxxx τττ= Eq.(5)
Uma questão relevante a esta altura, diz respeito à estimativa dos valores de
possibilidade de transição τij. Isto se faz com o auxílio de um especialista conhecedor da
dinâmica das classes na área alvo. Ele indica as transições impossíveis, e, portanto com
possibilidade nula, e para cada classe de partida a transição mais provável, que recebe
possibilidade igual a 1.
Resta estimar ainda as possibilidades de ocorrências das demais transições
possíveis. Neste trabalho consideram-se duas abordagens. A primeira abordagem, que
chamaremos de crisp, consiste em simplesmente atribuir valor 1 a todas as transições
possíveis. Esta alternativa tem meramente o efeito de reduzir o espaço de busca na
classificação.
A segunda alternativa, que chamaremos nebulosa, admite valores entre 0 e 1
para as possibilidades de transição. Estes valores podem ser estimados através de
tentantivas-e-erros ou utilizando algum método de busca automático. No presente
trabalho utiliza-se o mesmo procedimento adotado em [69], baseado em algoritmos
genéticos.
51
5 Avaliação experimental
Nesse capítulo são apresentados os procedimentos experimentais para validar o
Modelo de Interpretação de Imagens proposto e apresentado no Capítulo 4.
Na avaliação do procedimento automático de classificação/ interpretação
proposto, foi escolhido como indicador de desempenho o erro médio de omissão. Esta
escolha deveu-se a que este índice independe da distribuição inicial dos dados de teste.
De fato, em nossa base de dados existe uma grande diferença entre o número de
segmentos disponíveis em cada uma das classes da legenda. A classe Água, por
exemplo, possui apenas quatro segmentos no ano de 2001, enquanto a classe Floresta é
representada por mais de 700 segmentos no mesmo período. Nesse cenário a taxa de
acerto global não indicaria um desempenho igual em todas as classes.
5.1 Descrição da área de estudo e preparação dos dados
A área de estudo selecionada para esse trabalho compreende cerca de 49km2 que
inclui o Parque Estadual da Pedra Branca no Estado do Rio de Janeiro, Brasil. Esta área
indica um dos últimos remanescentes florestais de Mata Atlântica situada no estado do
Rio de Janeiro,
A seção 5.1.1 apresenta a área de estudo assim como uma discussão sobre
fatores sócios econômicos relacionados à expansão urbana e preservação de áreas
nativas de Mata Atlântica. .
Na seção 5.1.2 são apresentadas as imagens utilizadas nesse trabalho. Em
seguida são descritos os procedimentos de preparação (seção 5.1.3) e correção dos
dados e o processo de segmentação utilizado para a extração dos objetos a serem
classificados (seção 5.1.4).
As classes de cobertura de solo analisadas são detalhadamente descritas na seção
5.1.5 e o procedimento de classificação visual realizado para a elaboração de dados de
referência são apresentados na seção 5.1.6.
52
5.1.1 Parque Estadual da Pedra Branca
A área do Parque Estadual da Pedra Branca foi escolhida para esse trabalho
devido a sua grande importância para o estado do Rio de Janeiro em termos ecológicos
e aos problemas acarretados pela sua proximidade com áreas urbanas altamente
povoadas. Problemas como a degradação do solo e a expansão urbana desordenada em
áreas internas ao parque vêm reduzindo drasticamente a área de Mata Atlântica nativa
do Parque.
Nesse contexto um monitoramento regular dessa área é muito importante para o
planejamento de medidas de preservação, que uma vê aplicadas com sucesso poderão
ser estendidas a outros fragmentos da Mata Atlântica.
Figura 13 – Mapa representativo do Parque Estadual da Pedra Branca localizado no sul do Eestado do Rio de Janeiro.
O Parque Estadual da Pedra Branca compreende uma área de 12.500 hectares
coberta por vegetação típica da Mata Atlântica situada no maciço da Pedra Branca
acima dos 100m de altitude, conforme representado na Figura 13. A área se situa entre
as latitudes 22º53’ e 23º sul e 43º23’ e 43º32’ oeste. O Parque é cercado pelos bairros de
Guaratiba a oeste, Bangu e Realengo ao norte, Jacarepaguá ao leste, Barra da Tijuca ao
sudoeste e sul, Recreio dos Bandeirantes e Grumari ao sul e Campo Grande ao noroeste
[57].
53
Na área analisada a temperatura média anual é de 22ºC, chegando a picos de
40ºC no verão, e abaixo de 18ºC no inverno. A densidade pluviométrica varia de 1.500
a 2.500mm de chuvas, tendo o verão como a estação de maiores chuvas. As variações
microclimáticas são resultado direto da proximidade da cidade com o mar, da influência
da área urbana e do processo abusivo de desflorestamento [57].
Na Figura 14 a imagem do satélite IKONOS na banda multiespectral do ano de
2001 é apresentada com detalhe marcado em azul e reproduzido na Figura 15 e Figura
16 em composições RGB e NRG respectivamente. Nessas imagens pode-se observar o
alto índice de cobertura de vegetação remanescente na área do parque, assim como a
expansão urbana sobre a área de vegetação.
Figura 14 – Imagem IKONOS Multiespectral (4m de resolução) da área do Parque Estadual da Pedra Branca no ano de 2001. Em azul o recorte correspondente a Figura 15 e Figura 16
54
mostrado apenas para exemplificar a riqueza de informação contida em imagens de alta resolução.
Figura 15 – Detalhe da área marcada em azul na Figura 14. Bandas visíveis (RGB). Observa-se a expansão urbana e as áreas de vegetação.
Figura 16 – Detalhe da área marcada em azul na Figura 14. Destaque na banda infravermelha. Composição (NRG) realçando a vegetação.
55
Figura 17 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a área da represa facilmente observável a partir da imagem de satélite.
Figura 18 – Foto da área do Parque Nacional da Pedra Branca. Detalhe para a vegetação densa típica da Mata Atlântica.
56
Figura 19 – Foto do Parque Nacional da Pedra Branca; detalhe da expansão urbana sobre a área do parque.
Nas Figura 17, Figura 18 e Figura 19 são apresentadas fotografias tomadas
durante a visita à área de estudo realizada no início do ano de 2005. Essas fotografias,
mesmo não tendo sido tomadas na mesma época que a imagem de satélite, permitem
observar o alto índice de vegetação nativa e a expansão urbana acelerada em torno do
Parque.
5.1.2 Imagens Utilizadas
Foram utilizadas imagens de sensores remotos de alta resolução, obtidas em
junho de 1999 e março de 2001 de uma área de aproximadamente 13 Km2. Essa área
cobre uma grande parcela do Parque Estadual da Pedra Branca e também a sua
vizinhança, composta de áreas urbanas e industriais.
Os dados selecionados compreendem uma imagem IKONOS do ano de 2001 do
sensor multiespectral, ou seja, com quatro bandas espectrais: vermelho, azul, verde e
infravermelho. Essas imagens têm resolução espacial de 4m. As imagens utilizadas têm
57
uma resolução radiométrica de 11 bits em cada banda espectral, como indicado na
Figura 20.
Figura 20 – Representação da imagem IKONOS multiespectral
Foi utilizada ainda uma foto área do ano de 1999 com resolução original de
aproximadamente 0,63 m por pixel e que foi reamostrada para uma resolução
compatível com as imagens IKONOS. O procedimento de reamostragem foi efetuado
no software ERDAS [71] e as imagens validadas visualmente.
A foto aérea, apesar de possuir uma resolução espacial de menos de 1 mo, elas
apresentam pelo menos três desvantagens principais com relação às imagens IKONOS
multiespectrais. A primeira, e mais evidente, é que imagens aéreas são capturadas
geralmente no espectro visível, e não têm a informação na região do infravermelho. A
segunda desvantagem é que a resolução radiométrica de 8 bits é menor do que nas
imagens IKONOS. O terceiro aspecto diz respeito à geometria de aquisição de imagens
aéreas e o ângulo de visada das imagens analisadas; satélites estão a uma altitude muito
maior do que aviões, o que diminui efeitos relacionados ao ângulo de captura dos
sensores em relação ao solo.
Os experimentos descritos neste trabalho não utilizam, contudo, em nenhum de
seus passos automáticos diretamente a resposta espectral da imagem aérea, mas apenas.
a classificação dessa imagem. As imagens aéreas foram analisadas somente na etapa de
classificação visual para a elaboração de dados de referência.
Infravermelho próximo Azul Verde Vermelho
11bits – 2048 níveis representados
Quatro bandas espectrais
58
5.1.3 Preparação dos dados
No processo de preparação de dados a principal atividade foi a correção
geométrica e topográfica das imagens. O processo de correção geométrica ou
georeferenciamento consiste basicamente em registrar a imagem com base em um
sistema de coordenada fixo, conforme descrito na seção 2.1.2 utilizando dados de
altimetria.
A imagem de referência utilizada foi foto aérea de 1999 por possuir uma
resolução espacial mais elevada. Essa imagem já se encontrava corretamente
referenciada e com as devidas correções topográficas.
Figura 21 – Ilustração gerada com a foto aérea de 1999 e o DTM da área de estudo utilizado no processo de ortoretificação.
59
5.1.4 Segmentação
A segmentação, conforme descrita na seção 2.3, é o processo de subdividir a ser
analisada em objetos discretos. A segmentação pode levar em conta informações
espectrais e relações de formas dos objetos gerados.
O algoritmo utilizado para a segmentação nesse trabalho é do tipo crescimento
de regiões, conforme implementado no software e-Cognition 4.0.
A determinação do parâmetro de escala, assim como todos os outros parâmetros
de segmentação é por si só um processo complexo. A dificuldade de definir uma
segmentação “ideal” é um problema que ainda não foi resolvido no mundo do
sensoriamento remoto e é muito dependente do tipo de análise a ser efetuada.
Em [56] um trabalho foi realizado em uma parte da área de estudo descrita nesse
trabalho. Esse procedimento de classificação baseou-se também em objetos obtidos pelo
software eCognition. Nesse trabalho foram analisados visualmente por um especialista
os resultados da segmentação produzida por diversos valores dos parâmetros do
algoritmo de segmentação. Esses estudos foram realizados em uma área muito
semelhante à desse trabalho, além de tratar de classes similares às classes consideradas
nesta dissertação. Por isso foram utilizados no presente trabalho os mesmos valores dos
parâmetros de segmentação sugeridos em [56].
Foi utilizado então parâmetro de escala igual a 90 e fatores de cor/forma de 0.2 e
suavidade/compactação de 0.5. Uma explicação mais detalhada sobre esses parâmetros
encontra-se em [34] e [35].
Para a realização de uma análise de contexto foi utilizada, assim como em [56],
uma série de segmentações hierárquicas com diferentes valores de escala, seguindo o
procedimento apresentado na seção 2.3.3.. Na
Figura 22 é apresentado um exemplo de uma área da imagem e a segmentação
em múltiplas escalas. Observa-se o aumento do tamanho médio dos objetos gerados,
conforme o aumento do fator de escala escolhido.
60
a b
c d Figura 22 – Comparação entre as segmentações em uma área da imagem selecionada; a) imagem, segmentação com parâmetro de escala b) 90, c) 60 e d) 30.
5.1.5 Definição das classes
As classes da legenda são apresentadas na Tabela 1. Para cada classe são
mostrados exemplos retirados das imagens IKONOS do ano de 2001. Esses exemplos
sempre são apresentados na composição vermelho, verde e azul (ou RGB) e na
composição infravermelho, vermelho e verde (ou NRG).
61
CLASSE Características predominantes
Água Inclui lagoas rios e canais
(RGB) (NRG)
Campo
Áreas, quase em sua totalidade, origem antrópica, incluindo campos
de capim-colonião, de outras gramíneas, de dicotiledôneas
herbáceas, e macega ou ainda áreas de solo exposto, seja por
ocorrência de terraplenagem, deslizamentos ou outras causas e as
áreas de mineração - pedreiras, saibreiras. Inclui campos altos e
campos baixos.
Campo Baixo (RGB) – campo baixo Campo Baixo (NRG) – campo baixo
Campo Alto (RGB) – campo alto Campo Alto (NRG) – campo alto
62
CLASSE Características predominantes
Campo Alagado
Áreas com vegetação arbustivo-herbácea - nativa, secundária ou
invasora - sobre solos encharcados, seja por deficiência de
drenagem ou por afloramento de lençol freático.
(RGB) (NRG) Floresta
Floresta Ombrófila Densa - Mata Atlântica - pouco alterada ou não
alterada, fitofisionomia nativa do Município, podendo também ser
uma Floresta Alterada tardia que inclui diversas fitofisionomias
associadas à alteração das florestas nativas, como raleamento por
corte seletivo, ou pequenas áreas de desmatamento, além de
associadas às diversas fases sucessionais que seguem a supressão
total ou parcial da floresta nativa. Inclui também os bananais que
ocupam diversos trechos das encostas.
Floresta Alterada (RGB) Floresta Alterada (NRG)
Floresta (RGB) Floresta (NRG)
63
CLASSE Características predominantes
Floresta Urbana
Áreas com vegetação de campo e porte arbóreo nos grandes parques
públicos da cidade ou em áreas predominantemente urbanas.
(RGB) (NRG) Urbano
Grupo heterogêneo de alvos espectrais característicos de áreas
urbanas densas.
(RGB) (NRG)
Rocha Afloramentos de rocha de origem natural e costões rochosos.
(RGB) (NRG)
64
CLASSE Características predominantes
Campo Urbano
Áreas de campo nitidamente inseridas em contexto urbano.
(RGB) (NRG)
Tabela 1 – Características da legenda utilizada no processo de classificação. 5.1.6 Processo de classificação visual
Como parte desse trabalho foi realizada em conjunto com alunos de graduação e
pós-graduação do Departamento de Geografia da PUC-RJ a classificação visual das
duas imagens utilizadas nesse trabalho.
Esse procedimento teve dois propósitos. O primeiro foi gerar dados de
treinamento e de referência para a análise de desempenho do modelo proposto. O
segundo propósito foi levantar o conhecimento utilizado pelo especialista durante o
procedimento de classificação visual.
O processo de classificação visual das imagens foi realizado no software
eCognition [35].
Além das próprias imagens a serem classificadas foram utilizados pelo
especialista dados de apoio como imagens pancromáticas com 1 m de resolução dos
anos de 2001 e 2002, dados de SIG, além do conhecimento prévio da área de estudo.
O processo de classificação visual das três imagens tomou cerca de quatro
meses. Para reduzir o efeito da subjetividade foram geradas chaves de classificação
65
contendo a descrição detalhada de cada classe da legenda e do raciocínio aplicado para
reconhecê-las.
Os resultados da classificação visual são apresentados na Tabela 2 e na Tabela 3
em termos da área em metros quadrados, e número de objetos ou segmentos de cada
classe.
Classe Imagem de
1999 (%)Imagem de
2001 (%)Água 0,3% 0,2%Campo Alagado 0,7% 1,1%Campo 8,1% 10,5%Floresta alterada 2,4% 2,4%Floresta 72,1% 70,2%Urbano 5,1% 6,5%Rocha 3,1% 2,5%Campo Urbano 8,1% 6,5%
Tabela 2 – Percentual de área na imagem classificada coberta por cada classe da legenda (imagens de 1999 e 2001 classificação visual)
Classe Imagem de
1999Imagem de
2001Água 13 4Campo Alagado 11 9Campo 419 431Floresta alterada 196 169Floresta 771 795Urbano 345 402Rocha 96 68Campo Urbano 278 251Total 2129 2129
Tabela 3 – Número de segmentos gerados por classe da legenda (imagens de 1999 e 2001, classificação visual) A
Figura 23 apresenta, como exemplo, o resultado da classificação visual numa
subárea da imagem IKONOS do ano de 2001. Analisando mais detalhadamente a
classificação visual realizada pelo especialista nota-se que uma grande parte da área de
estudo corresponde às classes Campo e Floresta. Esse fato é justificado pela área de
estudo cobrir um Parque sob preservação ambiental, o que, de alguma forma, limita a
expansão urbana nessa área.
66
Figura 23 - Classificação Visual da imagem IKONOS de 2001.
67
Classificação 1999
Água Campo
Alagado Campo Floresta Urbana Floresta Urbano Rocha Campo
Urbano
Água 4 0 0 0 0 0 0 0Campo Alagado 0 5 0 0 0 0 0 4Campo 0 0 260 3 119 18 19 12Floresta Urbana 0 0 7 93 10 24 0 35Floresta 6 0 111 4 614 30 18 12Urbano 1 1 24 46 16 227 2 85Rocha 0 0 5 0 6 0 57 0
Cla
ssifi
caçã
o 20
01
Campo Urbano 2 5 12 50 6 46 0 130 Tabela 4 – Alterações reais detectadas pela classificação visual entre os anos de 2001 e 1999, relativo ao numero de segmentos. Classificação 1999
Água Campo
Alagado Campo Floresta Urbana Floresta Urbano Rocha Campo
Urbano
Água 30,8 0,0 0,0 0,0 0,0 0,0 0,0 0,0Campo Alagado 0,0 45,5 0,0 0,0 0,0 0,0 0,0 1,4Campo 0,0 0,0 62,1 1,5 15,4 5,2 19,8 4,3Floresta Urbana 0,0 0,0 1,7 47,4 1,3 7,0 0,0 12,6Floresta 46,2 0,0 26,5 2,0 79,6 8,7 18,8 4,3Urbano 7,7 9,1 5,7 23,5 2,1 65,8 2,1 30,6Rocha 0,0 0,0 1,2 0,0 0,8 0,0 59,4 0,0
Cla
ssifi
caçã
o 20
01 (%
)
Campo Urbano 15,4 45,5 2,9 25,5 0,8 13,3 0,0 46,8 Tabela 5 – Alterações reais detectadas pela classificação visual entre os anos de 1999 e 2001, percentual de mudança em relação ao ano de 1999.
Analisando as classificações de 1999 e 2001 é possível montar a matriz de
transição dos segmentos entre os períodos considerados. Essa matriz é apresentada na
Tabela 4. Na diagonal dessa matriz estão destacados os segmentos que permanecem na
mesma classe nos dois períodos analisados. Observa-se como uma característica
importante a ser salientada a grande transição existente entre Floresta e Campo tanto de
1999 para 2001 quanto de 2001 para 1999.
Um outro importante ponto revelado pela matriz de transição é a perda de áreas
floresta para áreas urbanas (edificações e campos urbanos), mostrando o avanço urbano
sobre o Parque mesmo se tratando de uma área de preservação ambiental protegida por
lei.
68
5.2 Fase 1 – Classificação Espectral e Textura
Métodos convencionais de classificação baseados na resposta espectral pura e
simples, ou mesmo quando se utilizam atributos de textura, não apresentam
desempenho satisfatório em imagens de alta resolução. Um dos propósitos deste
trabalho é avaliar a esperada superioridade de métodos mais sofisticados de
classificação baseados em conhecimento. Afim de obter uma classificação espectral e de
textura o mais eficiente possível foi adotado um método baseado em Redes Neurais
Artificiais para classificação de padrões.
Redes neurais artificiais vêem se mostrando eficientes em tarefas complexas de
classificação de imagens de sensores remotos, segundo a literatura.
Nesse trabalho utiliza-se um classificador baseado em redes neurais do tipo
perceptrons de múltiplas camadas (multilayer perceptrons ou MLP) em conjunto com
algoritmo de treinamento baseado em retro propagação do erro (Backpropagation ou
simplesmente BP)
5.2.1 Dados utilizados
A base de dados utilizada no classificador supervisionado baseado em redes
neurais refere-se aos valores espectrais, ou seja, a resposta media espectral em cada um
dos segmentos analisados; e ainda as medidas de textura obtidas a partir dos parâmetros
de Haralick.
Nesse trabalho os atributos para representar textura foram escolhidos
empiricamente por análise visual. A escolha recaiu sobre parâmetros de Haralick, mais
especificamente Homogeneidade, Dissimilaridade e Correlação média considerando
todas as bandas da imagem. Os parâmetros foram calculados utilizando o software
eCognition.
Foram utilizados 50 segmentos por classe durante a fase de treinamento
totalizando 400 segmentos no conjunto de treinamento. Em algumas classes foi
necessário replicar os dados para que atingissem tal número. Foram selecionados
69
também 50 padrões por classe para a validação. O demais padrões formaram o conjunto
de teste..
O classificador baseado em redes neurais foi configurado com 10 neurônios na
camada oculta todos configurados com funções de transferência tangente hiperbólica. .
Na camada de entrada tem-se 7 entradas relativas às quatro respostas espectrais e três
parâmetros de textura selecionados. Já na camada de saída tem-se 8 neurônios que
representam cada um uma das classes da legenda configurados com funções de
transferência logarítmica. O algoritmo de treinamento utilizado atualiza os pesos e os
valores dos bias da rede de acordo com o gradiente descendente por retropropagação,
utilizando momento e uma taxa de aprendizado adaptativa.
Inicialmente a taxa de aprendizado foi configurada com o valor de 0,01 e o
treinamento e executado durante 1000 épocas no máximo.
5.2.2 Resultados
0,00%
10,00%
20,00%
30,00%
40,00%
50,00%
60,00%
70,00%
80,00%
90,00%
100,00%
Erro de omissão por classe
Erro % 40,00% 52,50% 88,05% 66,67% 36,67% 29,75% 79,12% 94,16% 60,86%
Agua Campo Alagado
Campo Floresta Urbana
Floresta Urbano Rocha Campo Urbano
Media
Gráfico 1 – Taxa de erro médio de omissão por classe após a classificação supervisionada com atributos espectrais e textura.
Os resultados do classificador supervisionado baseado em redes neurais
artificiais mostram um baixo desempenho na classificação de áreas de Rocha, Campo e
Campo Urbano principalmente. Esse fato pode ser justificado devido à real confusão
espectral e em termos de textura dessas classes. Na verdade a classe Campo Urbano não
70
pode realmente ser diferenciada de Campo somente com dados espectrais, no caso, o
que a caracteriza é a proximidade com a área urbana. No caso da Rocha acontece o
mesmo já que espectralmente se confunde com o Campo. O que caracteriza a Rocha
neste caso é a declividade,.
No caso de classes com identificação mais imediata, como o Campo Alagado, o
Urbano e até mesmo a Floresta, a classificação supervisionada obteve resultados
razoáveis. Ainda no caso da Floresta Urbana ocorre o mesmo que com o Campo
Urbano, isto é, não é possível a identificação sem a utilização da informação de
proximidade com a classe Urbana.
A taxa de erro global de classificação foi de 55,48%. Essa alta taxa de erro pode
ser justificada pela dificuldade de separação em classes com muitos segmentos, como
Floresta e Campo.
5.3 Fase 2 – Classificação estrutural baseada em regras
Na segunda fase do modelo proposto, o conhecimento do especialista é
acrescido ao procedimento de classificação usando para isso regras nebulosas. O
objetivo é modelar o raciocínio do analista humano para melhorar o resultado de
classificação baseada somente na informação espectral e textura apresentada na fase 1.
Classificação de referência
Água Campo
Alagado Campo Floresta Urbana Floresta Urbano Rocha Campo
Urbano
Água 60,0 20,0 13,8 11,2 15,2 10,9 26,5 11,3Campo Alagado 20,0 47,5 3,3 4,5 1,2 4,2 17,4 5,2Campo 0,0 0,0 12,0 15,2 7,2 1,4 5,0 6,3Floresta Urbana 0,0 10,0 22,7 33,3 7,5 4,9 13,2 18,4Floresta 10,0 2,5 32,3 15,0 63,3 2,1 9,4 4,9Urbano 0,0 5,0 5,3 10,1 2,4 70,2 5,0 45,4Rocha 10,0 7,5 7,3 5,1 2,2 2,6 20,9 2,7C
lass
ifica
ção
FASE
1 (%
)
Campo Urbano 0,0 7,5 3,3 5,5 1,0 3,6 2,6 5,8 Tabela 6 – Matriz de confusão da classificação espectral da imagem de 2001 após a primeira fase. Resultados apresentados em percentual relativo a imagem de referência.
O resultado da classificação espectral na Fase 1 é apresentado em maiores detalhes pela matriz de confusão mostrada na
Tabela 6. Nessa matriz são apresentados o percentual dos segmentos
classificados em uma determinada classe (na horizontal) e pertencentes na referência
71
(ou verdade de campo) a uma outra classe (na vertical). Assim, na diagonal dessa matriz
são apresentados os acertos de classificação em cada uma das classes.
O procedimento da Fase 2 tem então o objetivo de, através da utilização de
outros dados como altimetria, forma e contexto, elaborar regras que sejam capazes de
reduzir os erros de classificação e melhorar a classificação da primeira fase. Algumas confusões, marcadas na
Tabela 6 em vermelho, foram escolhidas para o tratamento via regras de
inferência com o objetivo de diminuir o erro de omissão em cada uma das classes. Estas
confusões foram escolhidas por orientação de um fotointérprete, conhecedor da região,
que considerou possível resolvê-las a partir de regras usando os dados disponíveis..
Na seção 5.3.1 são descritos os dados e atributos utilizados para a elaboração das
regras de inferência. A seguir são descritas as regras e a implementação dos sistemas
nebulosos de classificação nas seções 5.3.2 e 5.3.3 respectivamente. Por último na seção
5.3.4 são apresentados os resultados dos experimentos.
5.3.1 Atributos utilizados na classificação estrutural
Os atributos de entrada para as regras podem ser divididos em dois conjuntos.
O primeiro conjunto de atributos deriva do resultado da primeira fase, mais
especificamente dos valores de pertinência de cada segmento produzidos pela rede
neural.
Os atributos do segundo grupo são calculados a partir da própria imagem ou de
dados de SIG, como descrito abaixo:
NDVI – índice de vegetação - indica a quantidade de vegetação em uma
determinada área. O seu cálculo está descrito na Eq.(6) onde NIR é o valor
de intensidade da banda infravermelha da imagem e RED a intensidade da
banda que representa espectralmente o vermelho;
)()()(
REDNIRREDNIRiNDVI
+−
= Eq.(6)
72
Contexto Urbano – indica o grau de ocupação urbana na área do segmento
analisado. O contexto Urbano é avaliado considerando a proximidade do
objeto analisado a objetos e áreas de ocupação urbana. Para isso foi utilizada
a técnica de segmentação hierárquica em que cada segmentação em uma
escala mais alta gera objetos maiores, que contém os objetos menores dos
níveis abaixo deste - produzidos com fator de escala mais baixos. Maiores
detalhes sobre segmentação em múltiplas escalas ou hierárquica são
apressentados no capítulo 2.3.3 e também em [35].
Através da segmentação hierárquica são gerados vários níveis ou camadas de
segmentações em diferentes escalas. Essas segmentações são aqui
denominadas segundo o fator de escala utilizado para obtê-la. Foram
utilizados fatores 120, 180, 270 e 360. Um segmento representado na escala
360, por exemplo, contém vários segmentos menores gerados na escala 120,
180 e 270.
Para medir o grau de ocupação urbana na escala 90, por exemplo, mede-se o
percentual da área do objeto nessa escala que é coberto por objetos urbanos
(definidos na fase 1) na escala 30. Da mesma forma para medir o grau de
ocupação urbana na escala 180 mede-se o percentual de área coberta por área
urbana na segmentação de escala 30.
Quatro parâmetros foram medidos nas escalas anteriormente mencionadas e
foram denominados como Contexto Urbano 120, Contexto Urbano 180,
Contexto Urbano 270 e Contexto Urbano 360;
Contexto de Vegetação – indica o grau de vegetação em torno do objeto
analisado em quatro escalas, assim como no contexto urbano. A extração do
parâmetro contexto de vegetação segue o mesmo procedimento para medida
do contexto urbano, considerando-se porém a área relativa coberta por
vegetação em cada objeto. Os parâmetros gerados são denominamos da
seguinte forma: Contexto de Vegetação 90, Contexto de Vegetação 180,
Contexto de Vegetação 270 e Contexto de Vegetação 360;
Altura – é calculada pela média de altura no segmento analisado, baseando-
se no DTM (Digital Terrain Model ou Modelo Digital de Terreno);
Declividade – a declividade não era um dado diretamente disponível; foi
utilizado em seu lugar o desvio padrão da altura dentro do objeto analisado.
73
5.3.2 Regras
O conhecimento do especialista foi modelado no procedimento de interpretação
automática através de regras nebulosas no formato SE(condição) ENTAO(conseqüente.
O primeiro conjunto de regras atua apenas nos segmentos classificados como
Campo na Fase 1. As regras nesse conjunto foram criadas para dirimir a confusão entre
Rochas e Campo. A informação de altimetria e declividade, permite solucionar esse
tipo de confusão para uma boa parte dos segmentos. A conhecimento no caso consiste
em que Rochas normalmente têm uma declividade mais elevada, quando comparada
com Campo. Na verdade na região analisada os Campos em geral são formados por
acúmulo de matéria orgânica sobre as Rochas, e em áreas de alta declividade não é
possível esse acúmulo, o que deixa as Rochas expostas.
O segundo conjunto de regras atua nos objetos atribuídos à Classe Floresta
Urbana na fase 1 com a finalidade de resolver a confusão com Campo, Floresta e
Campo Urbano. Com relação à Floresta o critério discriminante é a proximidade a área
Urbana ou a contexto urbano. Com relação ao Campo o índice de Vegetação (NDVI) foi
utilizado critério de divisão. No caso do Campo Urbano o NDVI e o contexto urbano
foramutilizados em conjunto.
O terceiro conjunto de regras atua nos segmentos previamente classificados
como Floresta objetivando os mesmos critérios da segunda regra.
O quarto conjunto atua sobre a classe Urbano objetivando somente a confusão
com Campo urbano e as variáveis de critério utilizadas foram o contexto urbano e o
NDVI.
O quinto conjunto de regras age sobre a classe Rocha visando a confusão com
Campo, Campo Urbano e Urbano. Foi utilizado o NDVI, a declividade e o contexto
urbano para a discretizacao.
Finalmente o ultimo conjunto age sobre a classe Campo Urbano e na confusão
com Floresta, Floresta Urbana, Campo e Urbano. Uma serie de variáveis são utilizadas
entre eles o contexto urbano e o contexto de vegetação, a altimetria e o NDVI.
Neste trabalho todas as regras nebulosas foram modeladas utilizando duas
funções de pertinência por entrada. Esses conjuntos foram criados a partir de funções
gaussianas.
74
5.3.3 Ajuste das funções de pertinência
Resta agora definir o que é alto (a) ou baixo (a) para relevo, contexto, NDVI
dentre outros parâmetros. Em outras palavras o formato das funções de pertinência
nebulosa (membership functions) tem que ser escolhidos e ajustados. Como foram
escolhidas funções de pertinência gaussianas, estes parâmetros são a média e o desvio
padrão das gaussianas.
Nesse trabalho a estimativa dos parâmetros das funções de pertinência nebulosas
foi realizada utilizando um sistema neuro-fuzzy denominado ANFIS (seção 2.2.1.3). O
sistema neuro-fuzzy ajusta os parâmetros relativos ao formato das funções de
pertinência e aos pesos de cada regra no procedimento de classificação. Para isso é
utilizado um conjunto de treinamento e um algoritmo de retropropagação do erro. Em
nossos experimentos foi utilizado como treinamento uma parcela da imagem de 2001,
no caso a mesma utilizada na primeira fase do experimento. Os restantes dos segmentos
foram utilizados como um conjunto de teste.
Toda a implementação do sistema de inferência nebulosa, assim como o
procedimento de ajuste automático dos parâmetros, foi realizada no MATLAB na
versão 7.0.4.
Em termos de implementação foram utilizados sistemas neuro-fuzzy distintos
para cada grupo de regras apresentado anteriormente. Dessa maneira a otimização dos
parâmetros dos sistemas nebuloso se restringe a dados de atuação distintos, diminuindo
o espaço de busca. Cada um desses sistemas pode então possuir duas saídas (0 e 1)
indicando cada um dos conseqüentes.
Os parâmetros dos sistemas neuro-fuzzy utilizados em todos os sistemas
nebulosos apresentados estão descritos
Configuração dos sistemas neuro-fuzzy (ANFIS)
Numero de Épocas 100
Tamanho do passo inicial 0,01
Incremento e Decremento 10%
Tabela 7 – Configuração dos sistemas neuro-fuzzy.
75
O conjunto de treinamento utilizado e o mesmo da primeira fase porem sem a
replicação dos dados feita para garantir o mesmo numero de padrões em cada uma das
classes.
5.3.4 Resultados da classificação estrutural baseada em regras
0,0%
20,0%
40,0%
60,0%
80,0%
100,0%
Erro médio de omissão após a inferência de regras da FASE 2
FASE2 FASE1
FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%
FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%
Agua Campo Alagado
Campo Floresta Urbana
Floresta Urbano Rocha Campo Urbano
Media
Gráfico 2 – Erro de omissão médio por classe após a FASE 2. (resultado após 20 execuções)
Os resultados apresentados no Gráfico 2 mostram claramente um incremento de
desempenho, no que se diz respeito a diminuição do erro de classificação em cada
classe, após a inclusão do conhecimento do especialista modelado por regras nebulosas.
As classes afetadas pelo procedimento da Fase 2 claramente tiveram o seu erro
de classificação ou omissão, reduzidos significativamente. A maior redução ocorre na
classe Campo onde antes 88% dos segmentos eram classificados erroneamente, após a
Fase 2 cerca de 58% são classificados erroneamente. Embora esse valor ainda seja alto,
verifica-se que a inclusão do conhecimento através de regras nebulosas traz um
melhoria importante de desempenho.
O mesmo ocorre porém com menos intensidade, nas classes Floresta, Floresta
Urbana e Campo Urbano. No caso destas duas classes que estão intimamente ligadas
com a informação de contexto urbano (Floresta Urbana e Campo Urbano) as regras
76
nebulosas baseadas em informação de contexto principalmente foram realmente capazes
de identificar e separar os segmentos relativos às classes citadas.
Em algumas classes como Urbano e Rocha o erro após a Fase 2 teve um ligeiro
acréscimo, possivelmente porque não havia dados de treinamento suficientes para estes
casos, ou ainda porque as regras elaboradas não são capazes de resolver as confusões
entre as classes para estes casos.
Observa-se pela Tabela 8 uma confusão grande entre Urbano e Campo Urbano e entre
Rocha e Campo mesmo após a aplicação das regras.
As classes não afetadas pelo procedimento da segunda fase continuam
naturalmente com o mesmo erro de omissão. Classificação de referência
Água Campo
Alagado Campo Floresta Urbana Floresta Urbano Rocha Campo
Urbano
Água 50,0 0,0 0,5 1,2 0,2 0,0 0,0 0,0 Campo Alagado 0,0 50,0 4,7 6,0 2,0 4,5 23,5 2,4 Campo 0,0 25,0 41,4 17,9 12,8 5,0 32,4 18,4 Floresta Urbana 0,0 0,0 7,9 40,5 2,5 8,5 2,9 12,0 Floresta 0,0 0,0 31,2 9,5 73,3 1,5 5,9 4,8 Urbano 0,0 0,0 5,1 4,8 3,1 64,2 2,9 34,4 Rocha 50,0 0,0 4,7 2,4 2,9 0,0 11,8 1,6 C
lass
ifica
ção
FASE
2 (%
)
Campo Urbano 0,0 25,0 4,7 17,9 3,1 16,4 20,6 26,4 Tabela 8 – Matriz de confusão de uma classificação típica após a Fase 2. Resultado percentual relativo a referencia de uma interação.
77
0,00%
10,00%
20,00%
30,00%
40,00%
50,00%
60,00%
Taxa de erro global, comparação Fase 1 e Fase 2
FASE2 44,32%
FASE1 55,48%
Taxa global de erro
Gráfico 3 – Erro de classificação global após a FASE 2. (resultado após 20 execuções)
O erro global de classificação teve um decréscimo significativo após a inclusão
das regras da segunda fase. Esse decréscimo está sem duvida ligado principalmente ao
incremento na taxa de reconhecimento na classe Floresta que representa uma grande
proporção dos segmentos .
5.4 Fase 3 – Classificação multitemporal
A terceira Fase da classificação inclui o conhecimento multitemporal no
processo de interpretação, conforme o apresentado em seções anteriores. Os
experimentos realizados para esta fase compreendem 4 tarefas:
1. Construção do diagrama de transição,
2. Preparação dos dados,
3. No caso de conhecimento temporal nebuloso, estimativa das
possibilidades de transição, e
4. Avaliação de desempenho.
78
A primeira tarefa consiste em representar o conhecimento multitemporal através
de um diagrama que indica as transições de classes possíveis em um determinado
intervalo de tempo.
O diagrama de transição para esse trabalho foi elaborado por um especialista
conhecedor da área de teste. Devido ao grande número de classes da legenda nesse
trabalho, as transições são apresentadas na Tabela 9, onde a primeira coluna
corresponde à classe em um instante anterior ao analisado (t-∆t), a segunda coluna ao
rótulo do arco da transição e a terceira coluna à classe no instante analisado (t). Essa
tabela foi elaborada durante entrevistas com o especialista em classificação de imagens
de sensores remotos e com amplo conhecimento da área de estudo e de sua dinâmica ao
longo do tempo.
79
Classe em t-1 Transição Classe em t Causas
τ1 Água -
τ2 Campo Alagado Aterramento natural, secagem de rios e mananciais.
τ3 Campo Aterramento natural, secagem de rios e mananciais.
τ4 Urbano Aterramento urbano para construção
Água
τ5 Campo Urbano Aterramento urbano para construção
τ6 Campo Alagado -
τ7 Campo Aterramento natural, secagem de rios e mananciais.
τ8 Urbano Aterramento não natural seguido de construção.
Campo Alagado
τ9 Campo Urbano Aterramento não natural.
τ10 Campo -
τ11 Campo Alagado Alagamento
τ12 Floresta Crescimento de espécies arbóreas
τ13 Urbano Crescimento urbano
τ14 Campo Urbano Crescimento urbano ao redor da área
τ15 Floresta Urbana Crescimento urbano ao redor da área e ainda crescimento de vegetação arbórea na área.
Campo
τ16 Rocha Desmatamento ou deslizamento de área de campo sobre rocha
τ17 Urbano Crescimento urbano
τ18 Campo Urbano Derrubada de árvores em áreas urbanas Floresta Urbana
τ19 Floresta Urbana -
τ20 Campo Desmatamento
τ21 Floresta -
τ22 Urbano Desmatamento com crescimento urbano
τ23 Campo Urbano Desmatamento com crescimento urbano ao redor da área
Floresta
τ24 Floresta Urbana Crescimento urbano ao redor da área
τ25 Urbano -
Urbano τ26 Campo urbano Desocupação urbana ou demolição para construção o que causa uma resposta característica de campo
τ27 Floresta Urbana Desocupação urbana com replantio de espécies arbóreas
τ28 Campo Urbano Desocupação urbana
Rocha
τ29 Campo Acumulo de matéria orgânica causa crescimento de vegetação sobre rochas.
80
Classe em t-1 Transição Classe em t Causas
τ30 Rocha -
τ31 Urbano Crescimento urbano
τ32 Campo Urbano -
Campo Urbano
τ33 Floresta Urbana Crescimento de vegetação arbórea em áreas de campo urbano
Tabela 9 – Transições entre classes para a área de teste.
A partir da Tabela 9 é possível montar a matriz de transição crisp, que indica
transições possíveis e impossíveis com “1” e “0” respectivamente, como mostrado a
seguir.
⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢
⎣
⎡
=Τ
1010100011100100101000001011110010101000111111101010011010100111
crisp
Semelhantemente, a matriz de transição nebulosa toma a seguinte forma:
⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢
⎣
⎡
=Τ
3303203100030292800270026025000002402322212000190180170001615141312111009080076050400321
τττττττττττττττττττττττττττττττττ
nebuloso
Onde os parâmetros não nulos são números reais no intervalo (0,1].
As linhas correspondem ao instante anterior (t-∆t) e as colunas ao instante
81
analisado (t). A ordem das classes, tanto nas linhas quanto nas colunas, segue a ordem
de classificação definida pelas classes para todo o processo (Água, Campo Alagado,
Campo, Floresta Urbana, Floresta, Urbano, Rocha e Campo Urbano).
Tratando-se do conhecimento multitemporal crisp pode-se passar diretamente
para a tarefa 4 da avaliação. Já o conhecimento multitemporal nebuloso requer que
antes se estimem os valores das possibilidades de transição.
Esta tarefa de estimação dos valores de probabilidade utilizou o mesmo conjunto
de treinamento de dados anteriormente selecionado e utilizado durante a Fase 1 e Fase
2.
O especialista da área identificou para cada classe da legenda a transição mais
freqüente que recebeu o valor de possibilidade igual a 1. Isso fez com que matriz de
transição tivesse valor 1 em toda a sua diagonal. Restaram então 25 valores de transição
para serem estimados. Um algoritmo genético (GA) é então aplicado sobre os dados de
1999 e 2001 visando minimizar o erro médio de omissão, usando como referência a
classificação visual da imagem de 2001 e os dados de treinamento anteriormente
selecionados. A configuração do GA utilizado nesse trabalho esta descrito na Tabela 10.
Configuração do sistema de otimização baseado em algoritmos genéticos
Cromossomo 27 genes ou parâmetros a serem estimados
Números reais entre 0 e 1
Função de avaliação Minimizar o erro médio de omissão entre as classes
Tamanho da população 100 ( população inicial randômica)
Numero de gerações 100
Substituição por geração 80%
Operações de cruzamento Crossover simples de um ponto
Crossover aritmético
Operações de mutação Mutação simples
Creep Pequeno (0,2)
Creep Grande (0,8)
Tabela 10 – Configuração dos sistemas neuro-fuzzy.
Os valores de possibilidade de transição estimados a partir dos dados de
treinamento foram então aplicados aos dados de teste e o resultado final apresentado
nesse capitulo.
82
5.4.1 Resultados do classificador multitemporal
Uma série de experimentos foi realizada para avaliar a contribuição do
conhecimento multitemporal e nebuloso, conforme mostrado nas seções a seguir.
5.4.1.1 Contribuição do conhecimento multitemporal crisp
0,0%
10,0%
20,0%
30,0%
40,0%
50,0%
60,0%
70,0%
80,0%
90,0%
100,0%
Erro médio de omissão apos a inclusao o conhecimento multitemporal crisp
FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%
FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%
FASE3 - CRISP 40,00% 50,00% 60,00% 35,71% 29,21% 33,83% 73,53% 71,20% 49,19%
Agua Campo Alagado
Campo Floresta Urbana
Floresta Urbano Rocha Campo Urbano
Media
Gráfico 4 – Erro de classificação global após a inclusão de conhecimento multitemporal de maneira CRISP. (resultado após 20 execuções)
Os resultados da inclusão do conhecimento multitemporal crisp mostram um
aumento significativo de desempenho, ou seja, a diminuição do erro de omissão médio
em cerca de cinco pontos percentuais. Algumas classes, como Floresta Urbana e Rocha
foram mais afetadas. Essas classes claramente se beneficiam de informação
multitemporal. No caso da Rocha, ela tende a não se alterar ao longo do tempo e no
caso de Floresta Urbana, que compreende parques e jardins, ocorre o mesmo.
Na média, no entanto, o erro de omissão cai significativamente após a inclusão
do conhecimento multitemporal, mesmo usando a modelo crisp.
83
5.4.1.2 Contribuição do conhecimento multitemporal nebuloso
No segundo experimento aplicou-se o conhecimento multitemporal nebuloso. A
Tabela 11 mostra os valores da matriz de transição obtida pelo algoritmo genético com
base nos dados de treinamento.
t
Água Campo Campo Urbano
Floresta Urbana Floresta Urbano Rocha
Campo Urbano
Água 1,00 0,33 0,49 0,00 0,00 0,16 0,00 0,18Campo Urbano 0,00 1,00 0,13 0,00 0,00 0,21 0,00 0,76Campo 0,00 0,11 1,00 0,29 0,29 0,49 0,58 0,39Floresta Urbana 0,00 0,00 0,00 1,00 0,00 0,50 0,00 0,69Floresta 0,00 0,00 0,49 0,77 1,00 0,19 0,00 0,41Urbano 0,00 0,00 0,00 0,69 0,00 1,00 0,00 0,50Rocha 0,00 0,00 0,16 0,00 0,00 0,25 1,00 0,30
t-∆t
Campo Urbano 0,00 0,00 0,00 0,76 0,00 0,28 0,00 1,00 Tabela 11 – Matriz de transição nebulosa. Valores em zero indicam transições impossíveis.
A função objetivo do algoritmo genético, conforme citado anteriormente, é a
taxa média de acerto entre as classes. No Gráfico 5 é apresentado um exemplo retirado
dos experimentos realizados que retrata a evolução do algoritmo genético durante a sua
evolução. Observa-se um incremento significativo na função de avaliação a cada
geração.
84
0 10 20 30 40 50 60 70 80 90 1000.74
0.745
0.75
0.755
0.76
0.765
0.77
Geração
Ava
liaçã
o
GRÁFICO DE DESEMPENHO
Gráfico 5 – Evolução do algoritmo genético durante a sua evolução.
0,0%
10,0%
20,0%
30,0%
40,0%
50,0%
60,0%
70,0%
80,0%
90,0%
100,0%
Erro médio de omissão apos a inclusao do conhecimento multitemporal nebuloso
FASE1 40,0% 52,5% 88,0% 66,7% 36,7% 29,8% 79,1% 94,2% 60,9%
FASE2 40,0% 52,5% 58,6% 59,5% 26,7% 35,8% 88,2% 73,6% 54,4%
FASE3 - CRISP 40,0% 50,0% 60,0% 35,7% 29,2% 33,8% 73,5% 71,2% 49,2%
FASE3 - NEBULOSA 40,0% 50,0% 44,7% 29,8% 35,5% 39,8% 44,1% 60,8% 43,1%
AguaCampo Alagado Campo
Floresta Urbana Floresta Urbano Rocha
Campo Urbano Media
Gráfico 6 – Avaliação do erro de omissão após a inclusão da informação multitemporal nebulosa.
Observa-se pelo Gráfico 6 que após a inclusão da informação multitemporal
nebulosa o erro médio de omissão entre as classes tem um declínio significativo. A
maior parte das classes apresenta uma queda significativa no seu erro de omissão.
85
Se comparado com a Fase 1 a inclusão do conhecimento multitemporal pode
oferecer uma queda de quase 17% em termos de erro de omissão. E em algumas classes
como Rocha essa queda pode chegar a cerca de 35%.
Nas classes Floresta e Urbano porém ocorre um ligeiro acréscimo no erro de
omissão. Esse fato pode estar relacionado com a escolha pelo especialista das transições
possíveis.
0,00%
10,00%
20,00%
30,00%
40,00%
50,00%
60,00%
Taxa de erro global, comparação Fase 1, Fase 2 e Fase 3
FASE1 55,48%
FASE2 44,32%
FASE3 - NEBULOSA 40,81%
Taxa global de erro
Gráfico 7 – Taxa de erro global após a classificação por inclusão de dados multitemporais nebulosos.
O Gráfico 7 mostra que apesar de todo o procedimento ser focado na diminuição
da taxa média de erro entre as classes, indicadores como a taxa global de acerto também
se comportam de maneira favorável.
86
5.5 Conclusões
Os experimentos realizados e descritos neste capítulo levaram algumas
observações e conclusões que cabem ressaltar ao final desta seção.
Em primeiro lugar se confirmou a tese de que métodos convencionais de
classificação baseados apenas na informação espectral, trazem resultados insatisfatórios
quando aplicados a imagens de alta resolução. De fato, ao se introduzir conhecimento
prévio no processo de classificação obteve-se um aumento importante de desempenho
da classificação.
Nos experimentos realizados o conhecimento multitemporal se mostrou mais
efetivo do que o conhecimento monotemporal. Sem dúvida o modelo de conhecimento
monotemporalcriado neste trabalho é passível de ser aperfeiçoado, e os experimentos
não permitem avaliar todo o potencial do método de classificação estrutural.
Outro aspecto diz respeito à dificuldade para a aquisição de conhecimento. A
modelagem de conhecimento através de regras se faz a partir séries de entrevistas com o
analista, num processo longo e trabalhoso, além de estar sujeito à imprecisão inerente à
subjetividade do processo de interpretação das imagens.
O conhecimento multitemporal, na forma em que foi apresentado neste trabalho,
é, ao contrário, fácil de se obter junto ao analista, já que se resume a discriminar entre
transições de classe possíveis e impossíveis.
Um outro comentário se refere ao volume de dados necessários para o ajuste dos
parâmetros do modelo. O modelo de conhecimento requer uma imagem e a
correspondente classificação de referência. O modelo multitemporal nebuloso requer
além destas, ainda a classificação de uma imagem anterior da mesma área. O método
multitemporal crisp, não requer uma classificação anterior, já que não se estimam os
valores de possibilidade de transição, mas tem desempenho inferior ao do modelo
nebuloso.
Finalmente cabe mencionar que o método multitemporal nebuloso, admite que
os valores de possibilidade de transição é estável ao longo do tempo. Esta é uma
hipótese que não foi questionada neste trabalho e que não necessariamente se aplica a
todos os problemas de interpretação de imagens de sensores remotos.
87
6 Comentários finais
O objetivo desse trabalho foi avaliar a contribuição de diversas formas de
conhecimento em um sistema automático de classificação aplicado a imagens de
sensores remotos de alta resolução. O conhecimento empregado foi dividido em três
modalidades expressas em três fases do processo de classificação. Na primeira houve o
emprego de classificação espectral; na segunda a inclusão de informações de contexto e
estruturais em conjunto com o conhecimento do especialista modelado por regras
nebulosas, e na terceira fase a inclusão de conhecimento multitemporal por meio de
diagramas de transição de classes.
A inclusão do conhecimento específico, através de regras elaboradas pelo
especialista, ofereceu um ganho importante na taxa global de acerto. O modelo neuro-
fuzzy para otimização dos parâmetros dessas regras mostrou-se eficiente.
A inclusão de conhecimento multitemporal trouxe também um aumento do
desempenho da classificação. O ganho de desempenho obtido pela inclusão do
conhecimento multitemporal foi, contudo, maior do que o ganho obtido pela inclusão
do conhecimento monotemporal.
Cabe relevar que essa análise está condicionada à área de estudo selecionada. A
área do Parque da Pedra Branca sofre poucas alterações em um intervalo de tempo
reduzido uma vez que é uma área de preservação ambiental. Com isso é uma área
pouco suscetível a mudanças bruscas nas características de cobertura do solo, fato esse
que sem dúvida aumenta o impacto do conhecimento multitemporal.
Os resultados mostram que o melhor desempenho foi alcançado quando foi
utilizado o conhecimento prévio envolvendo relativo a variáveis espectrais e contextuais
em conjunto com o conhecimento multitemporal.
É importante ressaltar que todos os procedimentos aqui abordados visam a
elaboração de um modelo de classificação para a área de estudo analisada. Outras áreas
podem vir a utilizar o mesmo método de modelagem, porém as regras, como as da fase
2 ou o diagrama de transição da fase 3, são paraticulares para uma determinada área de
estudo.
88
Vários trabalhos podem ser desenvolvidos sobre a mesma temática seguindo a
linha aqui proposta. Provavelmente o desempenho na primeira fase não aumentaria
muito qualquer que fosse a informação incluída no classificador espectral
supervisionado. Isso pode ser justificado pela complexidade das classes da legenda e do
uso de imagens de alta resolução.
Finalmente é importante mencionar que não foi um objetivo central deste
trabalho construir um modelo de conhecimento contextual/espacial elaborado. É,
portanto, razoável admitir que os ganhos de desempenho obtidos nesta etapa podem ser
significativamente mais elevados do que o alcançado em nossos experimentos, desde de
se crie um conjunto de regras mais elababorado.
89
Referências
1 CORR, D.G.; TAILOR, A.M.; CROSS, A.; MASON, D.C.; PETROU, M.; HOGG,
D.C.; LAWRENCE. D.H. Progress In Automatic Analysis of Multitemporal Remotely-Sensed Data. In: IGARSS 1988 - International Geoscience And Remote Sensing Symposium, Edinburgh, Scotland, sep. 13-16 1988. Proceedings of IGARSS 1988, p. 1175-1178, 1988.
2 BÜCKNER, J.; STAHLHUT, O.; PAHL, M.; LIEDTKE, C.-E. A Knowledge Based Automatic Image Data Analyzer for Remote Sensing Data. In: ICSC CONGRESS ON COMPUTATIONAL INTELLIGENCE METHODS AND APPLICATIONS 2001 - CIMA 2001, 2001, Bangor, Wales, Reino Unido. Proceedings (CD ROM) of The Congress on Computational Intelligence Methods and Applications 2001 – CIMA 2001. International Computing Sciences Conventions – University of Wales in Bangor, U.K, 2001.
3 LIEDTKE, C.-E.; BÜCKNER, J.; GRAU, O.; GROWE, S.; TÖNJES, R. AIDA: A System for the Knowledge Based Interpretation of Remote Sensing Data, In: THIRD INTERNATIONAL AIRBORNE REMOTE SENSING CONFERENCE AN EXHIBITION, 1999, Copenhagen, Dinamarca, Proceedings of the Third International Airborne Remote Sensing Conference and Exhibition, Environmental Research Institute of Michigan, AGU, 1997.
4 NIEMANN, H.; SAGERER G.; SCHRODER, S.; KUMMERT, F. ERNEST:A Semantic Network System for Pattern Understanding. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 12, n. 9, set 1990.
5 CLEMENT, V.; GIRAUDON, G.; HOUZELLE, S.; SANDAKLY F. Interpretation of Remotely Sensed Images in a Context of Mutisensor Fusion Using a Multispecialist Architecture. IEEE Transactions on Geoscience and Remote Sensing, v. 31, n. 4, p. 779-791, jul 1993.
6 MATSUYAMA, T.; HWANG, V. Advances in computer vision and machine intelligence. SIGMA, a knowledge-based aerial image understanding system. New York: Plenum, 1990. ISBN: 030643301X
7 MCKEOWN, D. M.; HARVEY, W.A.; MCDERMOTT, J. Rule Based interpretation of aerial imagery. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 7, v. 5, p. 570-585, 1985.
8 THOMAS W.W.; CARVALHO, A.M.V.; AMORIM, A.M.A.; GARISON, J.; ARBELÁZ, A.L. Plant endemism in two forests in southern Bahia, Brazil. Biodiversity and Conservation 7, p. 311-322, CIFOR/UNESCO, 1998.
9 SIPS, P. The Atlantic Forest of South Bahia, Brazil: Hotspot within a Hotspot. European Tropical Research Network. n. 29, p. 41- 43, 1999. Disponivel em: <http://www.etfrn.org/etfrn/newsletter/nl29_oip.html#theatl >
10 MORI, S. A.; BOOM, B.M.; PRANCE, G.T. Distribution and conservation of easter Brazilian coastal forest tree species. Brittonia, 33, p. 233-245, 1981.
90
11 Rio de Janeiro (Estado) Secretaria Municipal de Meio Ambiente. Relatório Técnico,
SMAC. 2000. Mapeamento e caracterização de usos das terras e cobertura vegetal no município do Rio de Janeiro entre os anos de 1984 e 1999. Rio de Janeiro, 2000.
12 ANTUNES, A. F. Classificação de ambiente ciliar baseada em orientação a objetos em imagens de alta resolução. Curitiba, 2003. Tese ( Pós Graduação em Ciências Geodésicas 0) - Universidade Federal do Paraná.
13 CAMPBEL, J.B. Introduction to Remote Sensing. 3.ed. New York: Guilford Publications, 2002. 621p. ISBN 1572306408
14 RST - The Remote Sensing Tutorial. Disponível em: <http://rst.gsfc.nasa.gov/Homepage/Homepage.html> Acesso em: 01 jul. 2005.
15 LILLESEND, T.M.; KIEFER, R.W. Remote Sensing and Image Interpretation. 4th ed., New York: Wiley , 1999. ISBN: 0471255157
16 SPACE IMAGING WEB SITE. Informações sobre o sensor IKONOS. Disponível em: < http://www.spaceimaging.com/ >. Acesso em: 20 jul. 2005.
17 CIVCO, D.L. Topographic normalization of Landsat Thematic Mapper digital imagery, Photogrammetric Engineering and Remote Sensing, v. 55, n. 9, p. 1303-1309, 1989.
18 MATHER, P.M. Computer processing of remotely sensed images. John Wiley and Sons Ltd. 1987. ISBN: 0471906484.
19 RICHARDS, J.A.; JIA, X. Remote Sensing Digital Image Analysis : An Introduction, 4th ed, Springer, 2005. ISBN: 3540251286.
20 HAYKIN, S. Redes Neurais: Princípios e práticas. 2. ed. Porto Alegre: Bookman, 2001. ISBN: 85-7307-718-2.
21 ELKAN, C.; BERENJI, H.R.; CHANDRASEKARAN, B.; SILVA, C.J.S.; ATTIKIOUZEL, Y.; DUBOIS, D.; PRADE, H.; SMETS, P.; FREKSA, C.; GARCIA, O.N.; KLIR, G.J.; Bo YUAN; MAMDANI, E.H.; PELLETIER, F.J.; RUSPINI, E.H.; TURKSEN, B.; VADIEE, N.; JAMSHIDI, M.; Pei-Zhuang WANG; Sie-Keng TAN; Shaohua TAN; YAGER, R.R.; ZADEH, L.A. The paradoxical success of fuzzy logic. IEEE Expert, v.9, n. 4, p.3-49, ago. 1994.
22 JANG, J.-S. R., ANFIS: Adaptive-Network-based Fuzzy Inference Systems. IEEE Transactions on Systems, Man, and Cybernetics, v. 23, n. 3, p. 665-685, mai. 1993.
23 CHEN, Mu-Song. A comparative study of learning methods in tuning parameters of fuzzy membership functions. In: 1999 IEEE International Conference on Systems, Man, and Cybernetics, 12-15 Oct. 1999. IEEE SMC '99 Conference Proceedings, v. 3, p.40-44, oct. 1999.
24 SUGENO, M., Industrial applications of fuzzy control, Elsevier Science Pub. Co., 1985.
25 SVIREZHEV, Yu.M.; PASSEKOV, V.P. Fundamentals of Mathematical Evolutionary Genetics, Londres: Kluwer Academic Publisher, Mathematics and Its Applications (Soviet Series), v. 22, 1989.
26 MICHALEWICZ, Z., Genetic Algorithms + Data Structures = Evolution Programs, 3rd ed., Springer, 1998. ISBN: 3540606769.
91
27 GONZALEZ, R.C., WOODS, R.E. Digital Image Processing. 2. ed. New Jersey:
Prentice Hall, 2001. ISBN 0-201-18075-8
28 MOHAN, B.K.; KADAM, S.U.; RAO E.P. Segmentation of High Resolution Imagery. Map Asia 2003, GISdevelopment.NET. Disponível em: <http://www.gisdevelopment.net/>
29 PESARESI, M.; BENEDIKTSSON, J.A. A New Approach for the Morphological Segmentation of High-Resolution Satellite Imagery. IEEE Transactions on Geosciences and Remote Sensing, v. 29 , n. 2 , p. 309 – 320, fev. 2001.
30 BEUCHER, S.; LANTEUJOUL, C. Use of watersheds in contour detection. In: International Workshop on Image Processing, real-time edge and motion detection/estimation, Rennes, France, Sept. 17-21 1979. Proceedings of International Workshop on Image Processing, real-time edge and motion etection/estimation, sept. 1979.
31 BEUCHER, S. The watersheds transformation applied to image segmentation. In: 1Oth Pfefferkorn Conf. on Signal and Image Processing in Microscopy and Microanalysis, Cambridge, UK, Sept. 16-19 1991. Scanning Microscopy International 6, p. 299-314.
32 PESARESI, M.; BENEDIKTSSON, J.A. A New Approach for the Morphological Segmentation of High-Resolution Satellite Imagery. IEEE Transactions on Geosciences and Remote Sensing, v. 29 , n. 2 , p. 309 – 320, Feb. 2001.
33 MEINEL G., NEUBERT M. A comparison of segmentation programs for high resolution remote sensing. In: XXth Congress of the International Society for Photogrammetry and Remote Sensing, Istanbul. International Archives of Photogrammetry and Remote Sensing, v. 35, Part B, p. 1097-1105, 2004.
34 BAATZ, M.; SCHÄPE, A. Multiresolution Segmentation: an optimization approach for high quality multi-scale image segmentation. In: Angewandte Geographische Informationsverarbeitung XII, eds. Strobl, J., Blaschke, T.& Griesebner, G. Wichmann-Verlag: Heidelberg. Proceedings of Angewandte Geographische Informationsverarbeitung XII, p. 12-23, 2000. Disponível em: <http://www.agit.at/papers/2000/baatz_FP_12.pdf >
35 DEFINIENS e-Cognition Professional, version 4.0: multiscale image interpretation software. DEFINIENS IMAGING, 2004. Manual disponível em: <http://www.definiens-imaging.com/>.
36 BARALDI, A.; PARMIGGIANI, F. An Investigation of the Textural Characteristics Associated with Gray Level Cooccurrence Matrix Statistical Parameters. IEEE Transactions on Geoscience and Remote Sensing, v. 33, n. 2, p. 293 – 303, Mar. 1995.
37 HARALICK, R.M.; SHANMUGAM, K.; DINSTEIN, J. Textural features for image classification. IEEE Transactions on System, Man and Cybernetics, v. 3, n. 6, p. 610-621, Nov. 1973.
38 MASUOKA P.M. Use of IKONOS and LANDSAT for malaria control in the Republic of Korea. Remote Sensing of Environment 88, p. 187–194, 2003.
39 JENSEN, J.R.; Introductory Digital Image Processing: A Remote Sensing Perspective, 2nd ed. Upper Saddle River, NJ: Prentice-Hall, 1996.
92
40 SHACKLFORD, A.K.; DAVIS, C.H. A Hierarchical FUZZY Classification
Approach for High-Resolution Multispectral Data Over Urban Areas, IEEE Transactions on Geosciences and Remote Sensing, v. 41, p.2354-2363, Sept. 2003.
41 MELGANI, F.; Al HASHEMY, B.A.R.; TAHA, S.M.R. An explicit FUZZY supervised classification method for multispectral remote sensing images, IEEE Transactions on Geosciences and Remote Sensing, v. 38, p.287-295, Jan. 2000.
42 SHACKLFORD, A.K., DAVIS, C.H. A fuzzy classification approach for high-resolution multispectral data over urban areas, In: IGARSS 2002 - International Geoscience And Remote Sensing Symposium, Toronto, ON, Canada, June 24-28, 2002. Proceedings of IGARSS 2002, v. 2, p. 1621-1623, Jun. 2002.
43 BINAGHI, E.; GALLO, I.; PEPE, M. A cognitive Pyramid for Contextual Classification of Remote Sensing Images, IEEE Transactions on Geosciences and Remote Sensing, v. 41, p.2906-2922, Dec. 2003.
44 SUGUMARAN, R.; PAVULURI, M.K. The Use of High-Resolution Imagery for Identification of Urban Climax Forest Species Using Traditional and Rule-Based Classification Approach, IEEE Transactions on Geosciences and Remote Sensing, v. 41, p.1933-1939, Sept. 2003.
45 SHISONG Y.; CHIH-CHENG, H. Texture classification in remotely sensed images, In: IEEE Southeast Conference. 5 – 7 April 2002, Columbia, SC. Proceedings of IEEE Southeast p. 62 – 66, Apr. 2002.
46 LELONG, C.C.D.; THONG-CHANE, A. Application of textural analysis on very high resolution panchromatic images to map coffee orchards in Uganda, In: IGARSS 2003 - International Geoscience And Remote Sensing Symposium, July 21-25 2003. Proceedings of IGARSS 2003, v. 2, p. 1007 – 1009, 2003.
47 PESARESI, M. Textural classification of very high-resolution satellite imagery: Empirical estimation of the interaction between window size and detection accuracy in urban environment, In: ICIP99 - International Conference on Image Processing, Kobe, 24-28 Oct. 1999. Proceedings of ICIP99, Kobe , v. 1, p. 114 – 118, Oct. 1999.tober 1999, Vol.1, 25AP3.3, pp.114-118
48 BENEDIKTSSON, J.A.; SWAIN, P.H.; ERSOY, O.K. Neural Network Approaches Versus Statistical Methods In Classification Of Multisource Remote Sensing data. IEEE Transactions on Geosciences and Remote Sensing, v. 28 , n. 4 , p. 540 – 552, jul. 2003.
49 HERRIES, G.M.; SELIGE, T.M. Characterization of agricultural land using signal processing and cognitive learning techniques. In: IGARSS 1997 - International Geoscience And Remote Sensing Symposium, Toronto, ON, Canada, August 3-8, 1997. Proceedings of IGARSS 1997, v. 2, p. 1032 – 1034, Ago. 1997.
50 BENEDIKSSON, J.A.; SVENSSON, J.R.; AMASON, K. Classification and feature extraction of AVIRIS data. IEEE Transactions on Geosciences and Remote Sensing, v. 33 , n. 5 , p. 1194 – 1205, Sept. 1995.
51 LEE, C.; LANDGREBE, D.A. Feature extraction based on decision boundaries. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 15, n. 4 , pp. 388 – 400, Apr. 1993.
93
52 LEE, C.; LANDGREBE, D.A. Decision boundary feature extraction for neural
networks. IEEE Transactions on Neural Networks, v. 8 , n. 1, p. 75 – 83, Jan. 1997.
53 LEE, C.; LANDGREBE, D.A. Decision boundary feature extraction for nonparametric classification. IEEE Transactions on Systems, Man and Cybernetics, v. 23 , n. 2 , p. 433 – 444, Mar./Apr. 1993.
54 BLASCHKE, T.; STROBL. J. What is wrong with pixel? Some recent developments Interfacing remote sensing and GIS. GeoBIT/GIS 6, p. 12-17, 2001.
55 SMITH, G.M.; HOFFMANN, A. 2001: An Object based Approach to Urban Feature Mapping, In: 2nd International Symposium Remote Sensing of Urban Areas, Regensburg, Germany, 22-23 June, 2001. Proceedings of Symposium on Remote Sensing of Urban Areas, Jun. 2001.
56 REGO, L.F.G.; KOCH, B. Automatic classification of land cover with high resolution data of the Rio de Janeiro City Brazil, In: 2nd GRSS/ISPRS Joint Workshop on Remote Sensing and Data Fusion over Urban Areas, Berlin, Germany, 22-23 Mai. 2003. Proceedings of 2nd GRSS/ISPRS Joint Workshop on Remote Sensing and Data Fusion over Urban Areas, p. 172 – 176, Mai. 2003.
57 REGO, L.F.G. Automatic land-cover Classification Derived from High-Resolution IKONOS Satellite Image in the Urban Atlantic Forest in Rio de Janeiro, Brazil, by Means of an Objects-Oriented Approach, Ph.D. Thesis, Universitat Freiburg (Germany)
58 KRESSLER, F.P.; KIM Y.S.; STEINNOCHER, K.T. Object-oriented land cover classification of panchromatic KOMPSAT-1 and SPOT-5 data. In: IGARSS 2003 - International Geoscience And Remote Sensing Symposium, Jul. 21-25 2003. Proceedings of IGARSS 2003, v. 6, p.3471 – 3473, 2003.
59 KRESSLER, F.P.; BAUER, T.B.; STEINNOCHER, K.T. Object-oriented per-parcel land use classification of very high resolution images. In: IEEE/ISPRS Joint Workshop on Remote Sensing and Data Fusion over Urban Areas, nov. 8-9 2001. Proceedings of IEEE/ISPRS Joint Workshop on Remote Sensing and Data Fusion over Urban Areas, p.164 – 167, Nov. 2001.
60 CORR, D.G.; WALKER, A.; BENZ, U.; LINGENFELDER, I.; RODRIGUES, A. Classification of urban SAR imagery using object oriented techniques. In: IGARSS 2003 - International Geoscience And Remote Sensing Symposium, July 21-25 2003. Proceedings of IGARSS 2003, v. 1, p. 188 - 190, 2003.
61 HONG, S.; FUKUE, K.; SHIMODA, H.; SAKATA, T. Multitemporal Satellite Images for Land Cover Classification. In: IGARSS 1991 - International Geoscience And Remote Sensing Symposium. Proceedings of IGARSS 1991, p. 1831-1834, 1991.
62 KUSHARDONO, D.; FUKUE, K.; SHIMODA, H.; SAKATA, T. Comparison of Multi-Temporal Image Classification Methods. In: IGARSS 1995 - International Geoscience And Remote Sensing Symposium, Jul. 10-14 1995. Proceedings of IGARSS 1995, v. 2, p. 1282-1284, 1991.
63 FUJIMURA, S.; KIYASU, S. Classification of Terrain Objects using Hyper-Dimensional (Multi-Temporal Multi-Spectral) Images Through Purpose-Oriented
94
Feature Extraction. In: IGARSS 1999 - International Geoscience And Remote Sensing Symposium, Jun 28-Jul 02 1999. Proceedings of IGARSS 1999,v. 2, p. 1192-1194, 1988.
64 KAMATA, S.-I.; NIJIMI, M.; KAWAGUCHI, E. A multi-temporal classification of multi-spectral images using a neural network. In: 12th IAPR International Conference on Pattern Recognition, out. 9-13 1994. Proceedings of the 12th IAPR International, v. 2, p. 470 – 472, 1999.
65 KAMATA, S.-I; KAWAGUCHI, E. A Neural Net Classifier for Multi-Temporal LANDSAT Images Using Spatial and Spectral Information. In: International Joint Conference on Neural Networks, 1993. Proceedings of 1993 International Joint Conference on Neural Networks, p. 2199-2202, 1993.
66 JEON, B.; LANDGREBE, D.A. Classification with spatio-temporal interpixel class dependency contexts. IEEE Transactions on Geosciences and Remote Sensing, v. 30, n. 4, p. 663 – 672, Jul. 1992.
67 MÜLLER, S.; MOTA, G.L.A.; LIEDTKE, C.-E. Multitemporal Interpretation of Remote Sensing Data. In: XXth ISPRS Congress, Jul. 12-23 2004 Istanbul, Turkey. Proceedings of ISPRS. v. 35, part B4, p. 1244-1248, 2004.
68 MOTA, G.L.A. Knowledge-based Interpretation of Multitemporal Low Resolution Satellite Images. Rio de Janeiro, 2004. 206p. Ph.D Electrical Engineering Thesis - Pontifical Catholic University of Rio de Janeiro, Rio de Janeiro, Brazil.
69 CAMPOS, V.O.; FEITOSA, R.Q.; MOTA, G. L.A.; PACHECO, M A.C.; COUTINHO, H.L.C. Um Método para Modelagem do Conhecimento Multitemporal no Processo de Classificação Automática de Imagens de Sensores Remotos. In: XII SBSR – Simpósio Brasileiro de Sensoriamento Remoto, Goiânia, GO, Brazil, Abr. 16-21 2005. Revista Brasileira de Cartografia, No 57/01, 2005. p. 28-35. ISSN 1808-0936. Disponível em: <http://www2.prudente.unesp.br/rbc/_2005/57_1_05.htm>. Acesso em 23 de maio de 2005.
70 CAMPOS, V. O.; FEITOSA, R. Q.; MOTA, G. L. A.; PACHECO, M A.C.; COUTINHO, H. L. C; Um método para modelagem de conhecimento multitemporal no processo de classificação automática de imagens de sensores remotos. In: Simpósio Brasileiro de Sensoriamento Remoto, 12. (SBSR), 16-21 Abr. 2005, Goiânia. Anais XII Simpósio Brasileiro de Sensoriamento Remoto, São José dos Campos: INPE, 2005a. Artigos, p. 4021-4028. CD-ROM.
71 LEICA GEOSYSTEMS, ERDAS Imagine, version 8.7: geographic imaging software. [S.I.] Leica Geosystems GIS & Mapping, 2003.