64
UNIVERSIDADE FEDERAL DO PARÁ PROCESSAMENTO DIGITAL DE IMAGENS – PDI

Processamento Digital de Imagens - PDI

Embed Size (px)

Citation preview

Page 1: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

1

UN

IVER

SID

AD

E FE

DER

AL

DO

PA

RÁPR

OCE

SSA

MEN

TO D

IGIT

AL

DE

IMA

GEN

S –

PDI

Page 2: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

2

Fábio Marcelo BreunigGabriel Pereira

AEDI - UFPA2012

Processamento Digital de Imagens – PDI

UN

IVER

SID

AD

E FE

DER

AL

DO

PA

RÁA

SSES

SORI

A D

E ED

UCA

ÇÃO

A D

ISTÂ

NCI

A

Page 3: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

3

FÁBIO MARCELO BREUNIG1 Prof. Adjunto Dr. Centro de Educação Superior do Norte do RS / Universidade Federal de Santa Maria

– CESNORS/UFSM. Sala 59, bloco de apoio 4, CESNORS. Linha sete de Setembro, s/n. Frederico Westphalen, RS. CEP: 98400-000.

GABRIEL PEREIRA22 Doutorando em Sensoriamento Remoto do Instituto Nacional de Pesquisas Espaciais (INPE) e em

Geografia Física na Universidade de São Paulo (USP). Sec. PG-SER, Av. dos Astronautas, Jardim da Granja, São José dos Campos, SP. CEP: 12227-010.

RESUMO O processamento digital de imagens (PDI) é multidisciplinar e é empregado em várias áreas do conhecimento. Na área de ciências exatas e da Terra, sua utilização geralmente está vinculada ao tratamento de imagens de satélite, aerotransportadas ou fotografias. Nesse sentido, o escopo do presente texto abrange as principais aplicações do PDI, conceitos básicos sobre imagens e resoluções características dos sensores. Devido a grande utilização, são brevemente apresentados os sensores Ikonos, TM Landsat, MODIS e Hyperion, que se destacam entre as distintas categorias de sensores de imageamento. Na sequência são tratados os assuntos relacionados ao pré-processamento de imagens como a correção radiométrica, correção atmosférica e correção geométrica. Na sequencia, algumas técnicas de realce e extração de informações de imagens são apresentadas: avaliação de histogramas, contraste, transformação IHS, operações matemáticas, filtragem de imagens, segmentação e classificação. Por fim, alguns métodos de avaliação temporal de dados são discutidos, seguidos de algumas aplicações do PDI.

Page 4: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

4

Sumário 2

Lista de Figuras 5

Lista de Tabelas 8

1. Introdução ao Processamento Digital de Imagens (PDI) 9 1.1. Conceitos básicos de imagem digital 10 1.2. Características das imagens de sensor 11 1.3. Sistemas de imageamento 16 1.3.1. Ikonos 21 17 1.3.2. Landsat 21 17 1.3.3. MODerate-resolution Imaging Spectroradiometer (MODIS) 18 1.3.4. Hyperion/EO-1 19

2. Técnicas de correção de imagens e análise de imagens 19 2.1. Correção radiométrica 19 2.2. Correção atmosférica 20 2.3. Correção geométrica 21 2.4. Histograma da imagem e mudança de contraste 23 2.5. Fatiamento de imagens 24 2.6. Filtragem no domínio espacial e no domínio da frequência 24 2.6.1. Filtros no domínio espacial 25 2.6.2. Filtros no domínio da frequência 30 2.7. Cor no processamento de imagens 33 2.8 Transformações IHS 35 2.9 Operações matemáticas com imagens 37 2.10 Segmentação: detecção de bordas e crescimento de regiões 39 2.11. Classificação de padrões nas imagens 42

3. Análise temporal de imagens 46 3.1 Análise Harmônica 46 3.2 Transformada de Wavelet (TW) 48 3.3 Principais componentes 48

4. Aplicações do PDI (Estudo de Casos) 51

5. Considerações Finais 56

6. Bibliografia 57 Atividades 63

Exercícios de fixação (teóricos) 63

Exercícios práticos 63

Page 5: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

5

Lista de Figuras

Figura 1. Efeito de diferentes resoluções espaciais sobre a identificação de alvos. Imagem da câmera de alta resolução espacial HRC (High Resolution Camera), a bordo do satélite CBERS-2b (China-Brazil Earth Resources Satellite) ou Satélite Sino-Brasileiro de Recursos Terrestres de 25 de setembro de 2008, da região de Querência – MT. 14

Figura 2. O campo de visada instantâneo (IFOV) representado pelo ângulo A. A área em amarelo refere-se a uma aproximação do elemento de resolução formado. 15

Figura 3. Ilustração (esquerda) do conceito de campo de visada instantâneo efetivo (EIFOV) e (direita) o aspecto de borrado de diferentes sensores. As figuras foram elaboradas com bandas espectralmente parecidas. 16

Figura 4. Cubo hiperespectral do sensor AVIRIS referente à imagem de Moffet Field Airport (California). 18

Figura 5. Espectros de reflectância gerados a partir de distintos sensores, com diferentes resoluções espectrais. 19

Figura 6. Níveis de cinza para sensores que geram imagens com 7, 8, 9 e 10 bits. 19

Figura 7. Efeito da resolução radiométrica sobre as imagens. 20

Figura 8. Sequência do lançamento e tempo de vida dos satélites da série Landsat. O gráfico inclui os satélites planejados para dar continuidade ao programa. 22

Figura 9. Imagem original da banda 10 do Hyperion com colunas sem dados (à esquerda). Aplicação da correção do efeito stripping sobre uma imagem do sensor Hyperion (à direita). 25

Figura 10. Janelas atmosféricas e principais gases responsáveis pela absorção da radiação eletromagnética presentes na atmosfera. 26

Figura 11. Imagem sem correção de rolamento (roll), arfagem (pitch) e guinada (yaw) (esquerda). Com correção geométrica aplicada (direita). 27

Figura 12. Distribuição dos pontos de controle selecionados sobre a imagem de referência Geocover (esquerda) e sobre a imagem a ser registrada (direita). 29

Figura 13. Histograma e imagem antes da aplicação do contraste (à esquerda) e após a aplicação do contraste linear no aplicativo SPRING (à direita). 30

Figura 14. Aplicação do fatiamento sobre uma imagem TM, com um total de cinco fatias. Distribuição espacial dos pixels (esquerda) e distribuição no histograma dos pixels com os respectivos limites (direita). 31

Figura 15. Convolução de uma imagem de tamanho (11x9) por uma máscara de 3x3, que engloba os oito vizinhos mais próximos e o próprio ponto (centro). O ponto g(2,2) representa uma combinação dos pesos dados à máscara destacada em cinza na imagem . 32

Page 6: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

6

Figura 16. Projeção da máscara 3x3 sobre a imagem de entrada. 33

Figura 17. (a) Banda 8 do ETM+/Landsat 7 original; (b) Filtro passa-baixas (filtro de média), máscara 5x5; (c) Filtro passa-baixas (média ponderada), máscara 3x3 ; (d) Filtro passa-alta 3x3; (e) Filtro 3x3 direcional de borda, orientação oeste; e (f) Filtro 3x3 não-direcional de borda, intensidade alta. 37

Figura 18. (a) Banda 8 original do ETM+/Landsat 7; (b) Filtro para detecção de bordas de Roberts; (c) Filtro para detecção de bordas de Sobel; (d) Filtro morfológico da mediana; (e) Filtro morfológico de erosão; e (f) Filtro morfológico de dilatação. 38

Figura 19. Filtragem no domínio da frequência. 40

Figura 20. (a) Banda 1 do sensor ETM+/Landsat 7 em tons de azul; (b) Banda 2 do sensor ETM+/Landsat 7 em tons de verde; (c) Banda 3 do sensor ETM+/Landsat 7 em tons de vermelho. (d) Imagem colorida resultante da ponderação das cores azul, verde e vermelho para cada pixel. 42

Figura 21. Imagem ETM+/Landsat 7 para Belém, Pará. (a) Composição cor verdadeira (banda 1 no azul, banda 2 no verde e banda 3 no vermelho); (b) Composição falsa cor (banda 3 no azul, banda 4 no verde e banda 5 no vermelho); (c) Composição falsa cor (banda 7 no azul, banda 5 no verde e banda 4 no vermelho) 43

Figura 22. Espaço de cores IHS. 45

Figura 23. (a) Componente intensidade originada da composição colorida 1B2G3R do sensor ETM+/Landsat 7; (b) Componente saturação originada da composição colorida 1B2G3R do sensor ETM+/Landsat 7; (c) Componente matiz originada da composição colorida 1B2G3R do sensor ETM+/Landsat 7. 46

Figura 24. (a) Composição falsa cor (banda 3 no azul, banda 4 no verde e banda 5 no vermelho) com resolução espacial de 30m; (b) Fusão pelo processo IHS originando uma imagem com 15m de resolução espacial. 47

Figura 25. (a) Imagem resultante da diferença entre a banda 2 e a banda 5 do sensor ETM+/Landsat 7; e (b) NDVI para a região de Belém, Pará (tons claros representam vegetação densa e cores escuras ausência de vegeteção). 50

Figura 27. Contornos (em vermelho) provenientes do processo de segmentação por crescimento de regiões, implementado no SPRING, sobrepostos à imagem de Belém do Pará (ETM+/Landsat 7). (a) Similaridade = 1 e área mínima (pixels) = 1; (b) Similaridade = 1 e área mínima (pixels) =10; (c) Similaridade =4 e área mínima (pixels) =16; e (d) Similaridade = 5 e área mínima (pixels) =50. 52

Figura 28. Resultado de uma classificação genérica no aplicativo SPRING. (a) Imagem cor verdadeira do sensor ETM+/Landsat 7 (1B2G3R); e (b) Atribuição de classes aos elementos da cena (processo automático sem interação com o usuário). 54

Figura 29. Classificação realizada no SPRING (Vermelho – Áreas Urbanas; Verde – Formações vegetais; e Azul – Hidrografia). (a) Imagem falsa cor ETM+/Landsat 7 (3B4G5R); (b) Classificação pelo algoritmo K-Médias; (c) Classificação pelo algoritmo MAXVER; e (d) Classificação pelo algoritmo MAXVER-ICM. 57

Figura 30. Classificação realizada no SPRING (Vermelho – Áreas Urbanas; Verde – Formações vegetais; e Azul – Hidrografia). (a) Imagem falsa cor ETM+/Landsat 7 (3B4G5R); (b) Classificação pelo algoritmo

Page 7: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

7

Isoseg; e (c) Classificação pelo algoritmo Bhattacharya. 59

Figura 31. Imagem referente ao primeiro harmônico para o ano de 2003 e respectivo diagrama contendo o primeiro harmônico (linha azul), segundo harmônico (linha vermelha) e terceiro harmônico (linha verde). 61

Figura 32. Gráfico do índice de vegetação NDVI e espectro de potência para a classe ecótono (a) e para formações florestais (b). 62

Figura 33. (a) Imagem do sensor MODIS para o ano de 2009 (ano de menor alagamento), composição 1B2R6G (vegetação em tons de vermelho, hidrografia em preto); (b) Imagem do sensor MODIS para o ano de 2000 (ano de maior alagamento), composição 1B2R6G (vegetação em tons de vermelho, hidrografia em preto); (c) e (d) Mapa da variabilidade temporal da reflectância no infravermelho próximo obtida a partir da utilização da técnica ACP (segunda e terceira componentes principais, respectivamente). 65

Figura 34. Composição colorida das três primeiras componentes principais, originadas a partir das imagens fração vegetação provenientes dos dados de reflectância de superfície do MODIS/TERRA. 67

Figura 35. Mapeamento das cicatrizes de queimadas no ano de 2005 na região Amazônica utilizando o MLME. 68

Figura 36. Utilização da técnica AHP para o mapeamento das das áreas suscetíveis a escorregamentos da bacia do rio forquilhas. 69

Figura 37. Classes de tipos de cobertura vegetal e aplicação do Índice de Vegetação da Razão Simples (SR) (A) e Índice de Vegetação por Diferença Normalizada (NDVI) (B) 71

Figura 38. Classes de tipos de cobertura vegetal e aplicação do Índice de Vegetação Ajustado para o Solo (C) e Índice de Vegetação Melhorado (EVI) (D). 71

Figura 39. Lineamentos extraídos da imagem CBERS-2B para a região do núcleo soerguido da Serra da Cangalha, Tocantins. 72

Page 8: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

8

Lista de Tabelas

Tabela 1. Características das imagens do sensor de alta resolução espacial a bordo do satélite Ikonos. 21

Tabela 2. Principais características do sensor TM a bordo do satélite Landsat 5. 22

Tabela 3. Especificações técnicas das bandas do visível, infravermelho próximo (IVP) e infravermelho de ondas curtas (SWIR) do MODIS/Terra voltadas às aplicações terrestres. 23

Tabela 4. Filtros passa-baixas, também conhecidos como filtros de média, pois aplicam o mesmo peso a todos os vizinhos do pixel central. 34

Tabela 5. Filtros passa-baixas, conhecidos como filtros de média ponderada. 35

Tabela 6. Exemplos de Filtros passa-alta (Manual do Spring, 2012). 35

Tabela 7. Exemplos de Filtros passa-alta direcionais de borda (Manual do Spring, 2011). 36

Tabela 8. Filtros passa-alta, pré-definidos no SPRING. 36

Page 9: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

9

1. Introdução ao Processamento Digital de Imagens (PDI)

O processamento digital de imagens (PDI) é um ramo da computação aplicada que visa fornecer métodos e aplicativos para o tratamento de imagens das mais diversas naturezas, de forma a aumentar a capacidade de interpretação e extração de informações. Inicialmente a ciência se pautava na interpretação visual e na descrição manual dos fatos e objetos. Com a invenção da fotografia, uma nova forma de registro passou a integrar os anais da ciência (Mather, 1999). Na década de 1920 o PDI era utilizado em jornais para melhorar a qualidade das fotografias. A partir das explorações da Lua (1964) teve inicio a utilização do PDI para melhorar a qualidade das informações de imagens da Lua e da Terra. Assim, o PDI passou a ser amplamente utilizado paralelamente aos estudos de sensoriamento remoto. Cabe destacar que não são apenas as ciências exatas e da terra que fazem uso do PDI (p.ex. Geologia, Geografia, Oceanografia, Agronomia, Engenharia Florestal, etc.), mas também ciências da saúde (imagens médicas), comunicação (imagens fotográficas), biológicas (mapeamento e identificação de alvos microscópicos), entre outras. Com o conjunto de aplicações vislumbrado para o PDI, podemos ter ideia da sua importância. Nesse texto daremos maior enfoque nas geociências e aplicações.

Com os avanços de hardware, a capacidade de processamento de dados tem aumentado junto com o aumento da quantidade de informações disponibilizadas pelos sensores remotos. Nesse sentido, o aumento da resolução espacial, espectral, radiométrica e temporal passou a demandar uma enorme capacidade de processamento, aliado a novas técnicas de extração de informações das imagens. Todos os procedimentos de PDI têm inicio com a definição do alvo a ser imageado, a coleta/observação, a digitalização e o armazenamento dos dados, o processamento propriamente dito e a visualização ou gravação do produto final que será fornecido ao usuário.

Para que seja feito o processamento de imagens digitais, é necessário que haja imagens dessa natureza. Esse produto (a imagem), na área de geociências e estudos ambientais, normalmente é advindo de sensores remotos. Assim, conhecer as características desses sensores é fundamental para que possamos interpretar corretamente as informações contidas nas imagens ou então melhorar a qualidade da imagem de forma a permitir uma melhor percepção humana ou computacional das informações contidas na imagem. Dessa forma as principais características dos sensores serão discutidas nesse texto.

Após serem digitalizadas e armazenadas no disco do usuário, as imagens podem passar, basicamente por três processos associados ao PDI chamados de “pré-processamento”, “análise dos dados” e “interpretação/aplicação”. Essas etapas serão discutidas ao longo do texto. Serão abordados conceitos básicos sobre o processamento de imagens digitais, procurando apresentar, concomitantemente, exemplos práticos. Na etapa do pré-processamento serão abordados temas como a correção radiométrica, geométrica e atmosférica das imagens. Além disso, o uso de técnicas básicas associadas à avaliação de histogramas e ao realce por contraste, junto com a filtragem de imagens. Ainda serão discutidos temas como cor em PDI, transformações do espaço de cores (IHS, RGB) entre outras.

A análise dos dados envolve a extração de informações a partir das imagens pré-processadas na etapa anterior. Assim, passaremos a abordar nessa etapa temas como operações matemáticas sobre imagens, segmentação e classificação de imagens. Ciente da atual demanda por estudos temporais serão discutidos temas como a análise temporal de imagens. A grande disponibilidade de dados (inúmeros sensores e a perspectiva temporal) se constitui num novo desafio para o PDI. Nesse contexto, serão feitas discussões sobre as formas de integração de informações derivadas de imagens obtidas com distintas características radiométricas, geométricas e atmosféricas.

Por fim, o texto abordará usuais aplicações de PDI, especialmente na área de geociências e estudos ambientais. Nesse sentido, as técnicas de interpretação de imagens e os métodos de avaliação serão discutidos

Page 10: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

10

em conjunto com os métodos de visualização como telas digitais, impressões e mapas de diferentes naturezas. Cabe destacar que os limites entre as fases do PDI não são um consenso no meio acadêmico (Gonzalez e Woods, 2008). Além da classificação apresentada acima, podemos também dividir o PDI de acordo com a complexidade dos processamentos (Gonzalez e Woods, 2008): baixo (pré-processamento); médio (análise) e alto nível (interpretação).

1.1- Conceitos básicos de imagem digital Como vimos, o uso do PDI não se restringe às imagens de sensoriamento remoto. Uma das primeiras imagens digitais foi gerada pela indústria jornalística para a transmissão de imagens pelos cabos submarinos que ligam Londres e Nova Iorque, na década de 1920. Após as primeiras transmissões com quatro níveis de cinza, as imagens digitais evoluíram para 15 níveis em 1929 (Gonzalez e Woods, 2008). Nessa área do sensoriamento remoto, a origem esteve associada à transmissão de dados de satélites para a Terra, com baixa qualidade (projeto telemetered). Para aumentar a qualidade das imagens, técnicas de PDI começaram a ser produzidas e utilizadas. Outro significativo impulso ocorreu com o programa Landsat, em 1972. Novas ferramentas e técnicas de análise passaram a ser desenvolvidas, de forma a permitir explorar imagens de várias bandas e diferentes sensores.

O programa Landsat foi o primeiro a gerar imagens digitais que recobriam o planeta inteiro. Por fim, o terceiro significativo impulso nas pesquisas e uso do PDI ocorreu com a popularização dos computadores pessoais. Esse fato permitiu uma ampliação do uso de técnicas de PDI, nos meios acadêmicos e empresariais, de forma que atualmente quase todos os usuários, independente de sua formação, podem fazer uso de técnicas de PDI para melhorar a qualidade de imagens digitais, tratar imagens de satélite, fazer mapeamentos ou extrair informações a partir de imagens (Sabins, 2007). Detalhes sobre o histórico do PDI pode ser encontrado em Gonzalez e Woods (2008) e sobre as origens do sensoriamento remoto e fotografias em Reeves et al., (1975) e Jensen (2010).

Uma imagem digital é definida por Gonzalez e Woods (2008) como sendo “uma função bidimensional, f(x,y), onde x e y são coordenadas espaciais (planas), e a amplitude de f para um par de coordenadas (x,y) é chamado de intensidade ou nível de cinza da imagem naquele ponto”. A partir dessa definição, formal, podemos concluir que uma imagem digital nada mais é que uma matriz de ordem m x n (as coordenadas) onde m refere-se ao número de linhas e n ao número de colunas. O ponto em que as coordenadas se cruzam refere-se ao valor de nível de cinza (NC; também conhecido como número digital – ND). Esse nível de cinza pode representar dados de reflectância, emissividade, altitude, classes temáticas, entre outros.

Os elementos, tipicamente regulares (quadrados), que constituem uma imagem são conhecidos como “elementos de cena” (pixel, pl. pixels). Normalmente quanto maior o número de pixels que recobrem uma determinada área, maior será a capacidade de resolver os alvos da cena, conforme veremos adiante na definição das resoluções. Cada pixel representa uma determinada área do alvo e, utilizando as transformações cartográficas adequadas, podem-se extrair medidas precisas a partir de imagens, sejam elas adquiridas em nível terrestre, aéreo ou orbital.

Muitas imagens aéreas ou fotografias históricas estão armazenadas em formato analógico. Para que possamos utilizar as técnicas de PDI e garantir a preservação da cena, essas imagens precisão ser digitalizadas. Esse processo de conversão de informações analógicas para digital é conhecido como digitalização. Para tal, são utilizados scanners (rastreadores óticos) de diferentes tamanhos e é definida uma resolução normalmente chamada de dpi (pontos por polegada (ppp), em inglês dots per inch (dpi), ou simplesmente de resolução). Esses pontos referem-se ao número de pixels (densidade) que serão gerados para cada polegada linear. Quanto maior o número de dpi, maior e mais precisa será a cena no formato digital. Cabe destacar que não basta aumentar o fator dpi para aumentar a escala das cenas. Essa será dependente da imagem original.

Page 11: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

11

Uma vez disponível em formato digital, a imagem por ser gravada, transmitida, transformada, tratada e visualizada de forma rápida e confiável.

1.2. Características das imagens de sensor As características que diferem um sensor de outro são dadas basicamente pelas resoluções que este possui. Dependendo das aplicações para as quais o sensor é concebido, as resoluções se diferenciam significativamente. As resoluções dependem tanto das propriedades técnicas dos sensores quanto das características da órbita do satélite ou plataforma orbital, e são normalmente utilizadas para caracterizar uma imagem. No sensoriamento remoto, as resoluções mais conhecidas referem-se à resolução espacial, espectral, radiométrica e temporal (ou repetitividade do sensor) (Crósta, 1993). Assim, essas características costumam ser utilizadas para classificar os sensores em sensores de alta, média ou baixa resolução espacial, sensores de caráter monocromático, multiespectral ou hiperespectral, ou de acordo com o número de níveis de cinza ou o tempo entre as revisitas. Em síntese, o termo resolução pode ser interpretado como a capacidade que um determinado sensor possui de resolver uma determinada tarefa. Isso se aplica a definição de dpi, resoluções do sensoriamento remoto, bem como imagens de outras naturezas em termos de aplicação.A resolução espacial refere-se à capacidade que um determinado sensor possui de distinguir e medir alvos do terreno. Nesse ponto é importante destacar que o tamanho do pixel da imagem nem sempre corresponde à resolução espacial do sensor. Esses conceitos tendem a apresentar medidas distintas especialmente nas imagens do sensoriamento remoto ativo (RADAR, SAR). Quanto melhor resolução espacial (também chamada de alta resolução espacial), algo em torno de 1 metro, melhor podemos identificar os alvos na superfície e fazer as respectivas medidas sobre estes. À medida que a resolução espacial é degradada para uma média resolução espacial (tipicamente em torno de 10 metros) ou baixa resolução espacial (500, 1000 metros ou mais) a mistura de alvos aumenta e a imagem começa da permitir a identificação de alvos cada vez mais grosseiros.

A seleção do sensor é uma das primeiras tarefas que o usuário deverá fazer. Esse procedimento sempre deve se pautar na definição clara dos objetivos e no conhecimento técnico sobre os sensores disponíveis no mercado. Com base na Figura 1, gerada a partir de uma imagem da câmera de alta resolução espacial HRC (High Resolution Camera), a bordo do satélite CBERS-2b (China-Brazil Earth Resources Satellite) ou Satélite Sino-Brasileiro de Recursos Terrestres, percebemos que a degradação de 2,5 metros para 5 e 10 metros não apresentou grande perda de informação na imagem aqui apresentada. Sabemos que a imagem de 10 metros permitirá uma identificação menos precisa dos dados e que a imagem de 2,5 metros permite que a imagem seja ampliada bastante. Contudo, a medida que passamos de 10 para 50 metros, a degradação da imagem começa a ficar bastante perceptível, especialmente nos alvos lineares (estradas, carreadores, bordas, etc.). Quando a imagem é degradada para 100 e 250 metros, ainda podemos identificar os grandes alvos presentes na cena. Por outro lado, verifica-se uma enorme perda de informações quando a resolução espacial é degradada para 500, 1000 e 5000 metros, ao ponto de toda a área ser representada por apenas quatro pixels, e não permitindo sequer a extração de dados gerais.

A Figura 1 ilustra o efeito de diferentes resoluções espaciais para a identificação de um alvo. Destaca-se que apenas a resolução espacial foi degradada. Assim, verifica-se que à medida que a resolução espacial é degradada, ocorre uma redução na capacidade de identificação de alvos e na capacidade de fazer medidas precisas sobre a imagem. É importante lembrar que, dependendo da aplicação, diferentes resoluções espaciais são recomendadas. Por exemplo, para estudar áreas urbanas ou fazer um cadastro urbano, será necessária uma imagem de alta resolução espacial (5 metros ou menos). Nos estudos agrícolas e ambientais, normalmente imagens de 15, 30, 50 e até 100 metros são adequadas, tendo em vista a demanda temporal e espectral. Por fim, para estudos em escala sinótica, imagens de baixa resolução são bastante adequadas por permitirem um amplo recobrimento e uma alta repetitividade.

Page 12: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

12

Figura 1. Efeito de diferentes resoluções espaciais sobre a identificação de alvos. Imagem da câmera de alta resolução espacial HRC (High Resolution Camera), a bordo do satélite CBERS-2b (China-Brazil Earth

Resources Satellite) ou Satélite Sino-Brasileiro de Recursos Terrestres de 25 de setembro de 2008, da região de Querência – MT.

O campo de visada instantâneo, conhecido como IFOV (Instantaneous Field Of View) refere-se ao ângulo formado entre a projeção geométrica do elemento detector sobre a superfície imageada num determinado instante a uma determinada altitude (Figura 2). O conceito de IFOV é conhecido ainda como resolução espacial nominal. Assim, o tamanho da área imageada pelo detector num instante depende da altitude do satélite, da abertura focal e do tamanho do elemento detector.

Page 13: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

13

Figura 2. O campo de visada instantâneo (IFOV) representado pelo ângulo A. A área em amarelo refere-se a uma aproximação do elemento de resolução formado.

Outro conceito bastante importante refere-se ao campo de visada instantâneo efetivo (EIFOV - Effective Instantaneous Field of View). O EIFOV permite ao usuário conhecer as reais dimensões dos elementos que são passíveis de identificação e mensuração em uma cena, avançando sobre o conceito do IFOV (resolução espacial nominal). O EIFOV considera o IFOV e a função de espalhamento pontual (point-spread function – PSF) que será discutida em breve (Figura 3, esquerda). Como resultado, o EIFOV fornece a resolução em metros dos alvos que realmente podem ser identificados. Em termos visuais, podemos dizer que o EIFOV “elimina” o aspecto borrado normalmente presente nas imagens de satélite (Figura 3, direita).

Page 14: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

14

Figura 3. Ilustração (esquerda) do conceito de campo de visada instantâneo efetivo (EIFOV) e (direita) o aspecto de borrado de diferentes sensores. As figuras foram elaboradas com bandas espectralmente

parecidas. Fonte: Adaptado de INPE (2003).

A resposta espacial de um alvo é formada não apenas pela radiância derivada da área referente ao pixel ou ao IFOV. Existe uma contribuição dos pixels adjacentes, da atmosfera, distorções derivadas dos movimentos do satélite e da Terra, entre outros. Quando os sensores são construídos, a resolução espacial nominal normalmente é determinada em laboratório, contudo, não considera os efeitos acima mencionados. Assim, é utilizada a função de espalhamento pontual (point-spread function – PSF), que estabelece o limite de corte para determinar a resolução espacial efetiva da imagem (Figura 3). A PSF combina os efeitos da cena propriamente dita, atmosfera, ótica, detector, movimento e eletrônica (Bensebaa, 2005; Bensebaa et al., 2007). Dessa forma, é possível saber a resolução espacial efetiva num dado instante. Finalmente, a PSF é a transformada Fourier inversa da Função de Transferência de Modulação (MTF) (Carvalho et al., 2009; Fonseca, 1988).

Outro conceito relacionado ao tamanho da área imageada refere-se ao campo de visada do sensor (Field of View - FOV). Em geral, a largura do FOV depende da aplicação para a qual o sensor é concebido (Novo, 2008). Quando são voltados para gerar imagens de alta resolução espacial, o FOV normalmente é de poucos quilômetros (p.ex. 10 km). Sensores de média resolução como o TM a bordo do Landsat 5 possuem um FOV de 185 km, bastante apropriados para aplicações agrícolas e ambientais. Por fim, existem os sensores de amplo campo de visada, recobrindo até milhares de quilômetros, como, por exemplo, o MODIS com 2400 km de FOV. Nas imagens de amplo campo de visada, apesar de reduzirem o tempo entre as revisitas, é importante que o usuário considere a geometria de aquisição dos dados (espalhamento frontal ou retroespalhamento e os ângulos associados).

A resolução espectral refere-se à capacidade do sensor de gerar imagens com radiância derivada de uma determinada faixa do espectro eletromagnético (faixa de comprimentos de onda). Em outras palavras, a resolução espectral refere-se ao número de bandas e a largura espectral das bandas (Jensen, 2009). Não existe um consenso na literatura para classificar os sensores de acordo com o número de bandas, contudo, basicamente são aceitos três grandes divisões:

• Monocromático: Sensores que possuem apenas uma única banda que pode recobrir uma ampla faixa do espectro eletromagnético. Esses sensores são utilizados para gerar imagens com alta resolução espacial. • Multiespectral: Sensores que produzem imagens de múltiplas bandas do espectro eletromagnético. São típicos sensores multiespectrais o sensor Thematic Mapper (TM) a bordo do satélite Landsat 5, que produz sete bandas, que recobrem as faixas do visível, infravermelho próximo, médio e termal. Esses sensores normalmente possuem bandas bastante largas em termos espectrais. • Hiperespectral: São sensores que geram dezenas ou centenas de imagens que recobrem o espectro eletromagnético de forma quase contínua e em intervalos espectrais de poucos nanômetros (p.ex. 10 nm). O exemplo mais conhecido é do sensor hiperespectral AVIRIS (Airborne Visible / Infrared Imaging Spectrometer) com 224 bandas e do orbital Hyperion com 196 bandas calibradas. Imagens hiperespectrais normalmente são representadas pelo cubo hiperespectral (Figura 4).

Page 15: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

15

Figura 4. Cubo hiperespectral do sensor AVIRIS referente à imagem de Moffet Field Airport (California). Fonte: Rice (2012).

A Figura 5 ilustra a resolução espectral de diferentes sensores e as limitações associadas ao número de bandas. À medida que o número de bandas aumenta, melhor são reproduzidas as feições espectrais dos alvos. Além do número de bandas, é importante que um sensor compreenda as faixas espectrais fora da região do visível, como por exemplo, o infravermelho próximo e médio. Os espectros medidos em laboratório tendem a apresentar milhares de bandas, contíguas e com largura de um ou dois nm, permitindo a identificação de feições específicas. A medida que a banda é “alargada” as feições espectrais começam a ser mascaradas, de forma a dificultar a identificação do alvo.

Figura 5. Espectros de reflectância gerados a partir de distintos sensores, com diferentes resoluções espectrais. Fonte: Galvão (2003)

Page 16: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

16

A amostragem de imagens normalmente é uniforme (m linhas e n colunas) e a quantização refere-se à capacidade que o sensor possui de discretizar determinadas quantidades de energia que atinge o detector. Normalmente a quantização é referenciada como resolução radiométrica e é medida pelo número de níveis de cinza que o sensor pode gerar (Crosta, 1993; Jensen, 1986; 2009). Como exemplo, temos sensores que geram imagens com 256 níveis de cinza (8 bits = 28 NC = (2^0) + (2^2) + (2^3) + (2^4) + (2^5) + (2^6) + (2^7) + (2^1) = 0 a 255). A Figura 6 ilustra o número de bits e níveis de cinza associados. Na Figura 7 é possível perceber que à medida que os níveis de quantização (resolução radiométrica) aumentam, a imagem apresenta mais informações sobre o alvo. Nesse caso, houve uma redução da saturação ao aumentar a resolução radiométrica de oito para 11 bits.

Figura 6. Níveis de cinza para sensores que geram imagens com 7, 8, 9 e 10 bits. Fonte: Jensen (2009).

Figura 7. Efeito da resolução radiométrica sobre as imagens. Fonte: Melo (2002).

1.3. Sistemas de imageamento Há um grande número de sistemas imageadores voltados para o sensoriamento remoto. Não obstante os sistemas fotográficos, os sistemas são baseados em três modelos práticos para a captura e registro digital das imagens de sensores eletro-ópticos: sistemas de imageamento por quadro; varredura mecânica e

Page 17: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

17

varredura eletrônica. No primeiro caso, toda a imagem é adquirida de forma quase instantânea. Os sistemas de varredura mecânica fazem uso de um espelho que oscila perpendicularmente a direção de deslocamento do satélite, projetando a radiância sobre o conjunto de detectores. Por fim, os sistemas de varredura eletrônica utilizam um arranjo linear de detectores que cobrem todo o FOV e formam a imagem à medida que o satélite se desloca (Novo, 2008).

Uma enorme quantidade de sistemas de imageamento está disponível atualmente, mas devido ao caráter sintético desse material, apenas alguns serão apresentados. Novo (2008) apresenta uma breve discussão sobre vários sistemas. Entre os sistemas de imageamento mais conhecidos e que se enquadram em distintas categorias do sensoriamento remoto podemos citar: Ikonos, programa Landsat, MODIS e Hyperion.

1.3.1. Ikonos O primeiro lançamento com sucesso do satélite Ikonos ocorreu em 1999 e passou a gerar imagens comerciais a partir de 2000. Foi o primeiro satélite de alta resolução espacial privado com fins comerciais. A Tabela 1 sintetiza as principais características do satélite Ikonos. O satélite opera a uma altitude nominal da 680 km, em uma órbita sol-síncrona com inclinação de 98,1º. Como o sensor é de alta resolução espacial, o tempo de revista normalmente é prejudicado. Contudo, com a possibilidade de apontamento lateral (off nadir de até 60º), esse tempo é de aproximadamente 3 dias. As aplicações dessas imagens são muitas: agricultura, estudos em áreas urbanas, desastres naturais, mineração, defesa, energia, mapeamentos topográficos e de uso e cobertura do solo, geração de modelos digitais do terreno, entre muitas outras (Novo, 2008; SIB, 2012).

Tabela 1. Características das imagens do sensor de alta resolução espacial a bordo do satélite Ikonos.

Banda Comprimento de onda (µm)

Resolução espacial nominal

Resolução Radiométrica

FOV ao nadir

1 0.45-0.52 (azul) 4 metros 11 bit 11,3 km2 0.52-0.60 (verde) 4 metros 11 bit 11,3 km3 0.63-0.69 (ver-

melho)4 metros 11 bit 11,3 km

4 0.76-0.90 (infraver-melho próximo)

4 metros 11 bit 11,3 km

PAN 0.45-0.90 (PAN) 1 metros 11 bit 11,3 kmFonte: Adaptado de Novo (2008).

1.3.2. Landsat O programa Landsat é constituído por uma série de sete satélites. Ele começou a ser planejando ainda na década de 60 e o primeiro satélite entrou em operação em 1972. Na época chamado de Earth Resources Technology Satellite 1 (ERST-1) e rebatizado para Landsat em 1975. A bordo desse satélite estavam os sensores Return Beam Vidicon Camera (RBV) e o MultiSpectral Scanner (MSS), que recobriam a faixa do visível e do infravermelho próximo (IVP). Esses sensores estiveram a bordo dos satélites Landsat 2 (1975) e Landsat 3 (1978). Em 1982 foi lançado do Landsat 4 que manteve o sensor MSS mas apresentou um grande avanço com o sensor Thematic Mapper (TM), que ampliou o recobrimento espectral para a faixa do infravermelho de ondas curtas (SWIR) e melhorou a resolução espacial. Em 1993 e 1999 foram lançados os satélites Landsat 6 e 7, respectivamente, como o sensor Enhanced Thematic Mapper plus (ETM+) (Figura 8). Todos os sensores da série Landsat são de varredura mecânica. O grande destaque é o sensor TM do Landsat

Page 18: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

18

5, que já operou por mais de 25 anos, superando em muito sua vida útil planejada de três anos. Esse acervo atualmente está disponível gratuitamente em diversos servidores para qualquer usuário e representam uma série histórica única. A Tabela 2 apresenta as principais características do sensor TM Landsat 5.

Figura 8. Sequência do lançamento e tempo de vida dos satélites da série Landsat. O gráfico inclui os satélites planejados para dar continuidade ao programa. Fonte: USGS (2012).

Tabela 2. Principais características do sensor TM a bordo do satélite Landsat 5.Banda Res.

Espacial (m)Res.

Espectral (µm)Res.

RadiométricaTempo de revisita

(dias)

1 – Azul 30 0.45 – 0.52 8 162 – Verde 30 0.52 – 0.60 8 16

3 – Vermelho 30 0.63 – 0.69 8 164 – IVP 30 0.76 – 0.90 8 16

5 – SWIR 1 30 1.55 – 1.75 8 166 – Termal 120 10.40 – 12.50 8 167 – SWIR 2 30 2.08 – 2.35 8 16

Fonte: USGS (2012).

1.3.3. MODerate-resolution Imaging Spectroradiometer (MODIS)

O MODIS está a bordo dos satélites Terra e Aqua, que passam sobre o equador aproximadamente às 10h30min e 13h30min, respectivamente. As 36 bandas estão distribuídas no intervalo espectral de 0,405 a 14,385 μm (incluindo o infravermelho termal – TIR). A resolução radiométrica das 36 bandas é de 12 bits. A resolução espacial do MODIS é de 250 (duas bandas), 500 (cinco bandas) e 1000 (29 bandas) metros. Com os dados gerados pelos sensores MODIS, espera-se compreender melhor os fenômenos dinâmicos em escala global, com enfoque nas três grandes áreas: terra, atmosfera e oceanos (Xiong e Barnes, 2005; Hall, 2006; NASA, 2009).

Uma inovação associadas às imagens MODIS refere-se ao fato de todos os produtos serem fornecidos com parâmetros auxiliares de qualidade (p.ex., ângulos zenitais e azimutais do sensor e do Sol), calculados diariamente ou em composições de vários dias. As imagens de reflectância de superfície são corrigidas quanto à influência da atmosfera com base em uma atualização do modelo de transferência radiativa Second Simulation of the Satellite Signal in the Solar Spectrum - 6S (Vermote et al., 1997; Vermote e Vermeulen, 1999).

Devido ao amplo campo de visada nominal de 55° para cada lado, o MODIS recobre uma faixa de

Page 19: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

19

visada de 2330 km (passando pelo nadir), e o tempo de revisita varia de um a dois dias (conforme a latitude) (NASA, 2009). As características das bandas no visível e do infravermelho próximo (VNIR) e do SWIR são apresentadas na Tabela 3

Tabela 3. Especificações técnicas das bandas do visível, infravermelho próximo (IVP) e infravermelho de ondas curtas (SWIR) do MODIS/Terra voltadas às aplicações terrestres.

Banda λ inferior (nm) λ superior (nm) λ central (nm) Resolução espa-cial (m)

Relação sinal ruído

3 459 479 465,6 500 3284 545 565 553,6 500 3301 620 670 645,5 250 1862 841 876 856,5 250 5175 1230 1250 1241,6 500 1616 1628 1652 1629,1 500 4727 2105 2155 2114,1 500 147

Fonte: Adaptado de Xiong et al. (2005) e NASA (2009). λ = comprimento de onda.

1.3.4. Hyperion/EO-1 Lançado a bordo do satélite Earth Observing-1 (EO-1), em 2000, o Hyperion/EO-1 é o primeiro sensor hiperespectral em nível de coleta orbital. O satélite possui órbita Sol-síncrona com 98,2° de inclinação e uma altitude nominal de 705 km. O sensor foi concebido para gerar dados hiperespectrais calibrados para serem utilizados nas investigações científicas e em caráter experimental. Para imagear a superfície o sensor utiliza a tecnologia pushbroom com resolução espacial de 30 metros. A faixa imageada possui 7,7 km de largura com comprimento nominal de 42 km. O tempo de revisita do sensor é de 16 dias, mas dependendo do ângulo de apontamento lateral, esse intervalo de tempo pode ser reduzido (Barry, 2001; Pearlman et al., 2003).

Fisicamente, o sensor é formado por três subsistemas: conjunto eletrônico; eletrônica de crio-refrigeração e conjunto de sensores. Na faixa espectral de 400 e 2400 nm, o Hyperion gera 242 bandas contíguas (sendo que apenas 196 são radiometricamente calibradas) com 10 nm de largura e com resolução radiométrica de 12 bits (Barry, 2001; Pearlman et al., 2003). O sensor possibilita o cálculo de vários índices de vegetação de bandas estreitas, associados com os parâmetros e constituintes bioquímicos e biofísicos da cultura agrícola (p.ex., clorofila, conteúdo de água das folhas, lignina, celulose, IAF), que podem ser potencialmente correlacionados com a produtividade.

2. Técnicas de correção de imagens e análise de imagens Nesta seção serão discutidas as principais correções de imagens e os métodos de extração/análise de informações derivadas das imagens.

2.1. Correção radiométrica É comum a geração de imagens com falhas em linhas específicas, conhecidas como stripping e a ausência de informações de uma determinada coluna (dropedlines). A origem desses problemas está relacionada ao funcionamento dos detectores, corrente escura, calibração, a efeitos atmosféricos, erros na transmissão dos dados ou então erros esporádicos. Assim, a correção desses efeitos é fundamental para que os métodos de análise e extração de informações não sejam prejudicados.

Page 20: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

20

Os problemas com colunas (stripping) sem informação são comuns nas imagens do Hyperion (como em outras imagens) e podem ser resolvidos através da interpolação com base nas colunas adjacentes (Goodenough et al., 2003). Outros filtros mais sofisticados estão disponíveis hoje, como funções de regressão inversa (Chander et al., 2002) eficientemente aplicadas a banda 6 do TM Landsat. Outra prática é filtros sobre a imagem convertida para o domínio das frequências (Aizenberg e Butakoff, 2002). Um exemplo de correção do efeito stripping pode ser visto na Figura 9, onde foi aplicada a correção do efeito stripping sobre a banda 10 do sensor Hyperion.

Figura 9. Imagem original da banda 10 do Hyperion com colunas sem dados (à esquerda). Aplicação da correção do efeito stripping sobre uma imagem do sensor Hyperion (à direita).

Fonte: Tsai et al. (2005).

2.2. Correção atmosférica Como a radiação não atravessa a atmosfera sem interagir com os gases nela presentes, as imagens de satélite orbitais sofrem uma degradação da qualidade que pode interferir na interpretação ou extração de medidas precisas (em feições espectrais). Os principais gases e as janelas atmosféricas disponíveis para o sensoriamento remoto ótico são apresentados na Figura 10. Para resolver esses problemas, inicialmente foram propostos modelos empíricos, que se baseavam nas informações contidas na própria imagem para executar a correção. Como esse tipo de correção empírica corrigia apenas os efeitos aditivos, os modelos de transferência radiativa da atmosfera foram propostos, passando a modelar também os efeitos multiplicativos (Mather, 1999).

A técnica de correção mais conhecida foi proposta por Chaves (1988) e se baseia na subtração do pixel escuro (DOS – Dark Object Subtraction). Nesse tipo de correção, o usuário usará o histograma de frequência dos níveis de cinza para verificar os valores mais baixos e aplicar as correções junto com alguns coeficientes empíricos. O modelo se baseia no fato de que algumas partes da cena com sombra ou água (dependendo da banda) deveriam ter reflectância nula (zero). Contudo, geralmente verifica-se que isso não ocorre. Assim, com base nos valores médios dos pixels mais escuros (associados à sombra ou água), define-se os coeficientes da correção atmosférica.

Page 21: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

21

Figura 10. Janelas atmosféricas e principais gases responsáveis pela absorção da radiação eletromagnética presentes na atmosfera.

Fonte: Adaptado de Sabins (2009).

Os modelos de transferência radiativa simulam a absorção e espalhamento da radiação na atmosfera, permitindo correções mais realísticas em relação aos modelos empíricos. Esses modelos exigem que o usuário conheça alguns parâmetros da atmosfera no momento da aquisição da imagem (visibilidade, presença de vapor d’água, etc), do sensor (funções de repostas das câmeras, largura da faixa espectral das bandas, resolução espacial, etc.) e do satélite (altitude, hora do imageamento), entre outros. Contudo, nem sempre é possível conhecer todos esses parâmetros. Assim, os principais modelos disponíveis atualmente utilizam valores tabelados e equações gerais para derivar esses parâmetros. Entre os modelos de transferência radiativa mais conhecidos e utilizados atualmente destacam-se o 6S (Second Simulation of Satellite Signal in the Solar Spectrum) (Kotchenova et al., 2006) e o MODTRAN (MODerate resolution atmospheric TRANsmission) (Berk et al., 1998). Cabe lembrar que existem vários outros modelos de transferência radiativa disponíveis.

2.3. Correção geométrica Imagens brutas costumam apresentar distorções associadas aos movimentos da Terra, sensor e satélite que inviabilizam seu uso e a integração em um ambiente de Sistema de Informações Geográficas (SIG). Assim, a correção geométrica visa eliminar essas distorções e permitir a integração de informações. A Erro! Fonte de referência não encontrada. ilustra o efeito do rolamento (roll), arfagem (pitch) e guinada (yaw) sobre uma imagem e a sua respectiva correção. As distorções geométricas tem origem nos parâmetros de efemérides do satélite (posição, velocidade, atitude), do sensor (dependo o tipo de varredura: mecânica ou eletrônica) e no modelo da Terra (Rotação, esfericidade, relevo) (D’Alge, 2012).

Page 22: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

22

Figura 11. Imagem sem correção de rolamento (roll), arfagem (pitch) e guinada (yaw) (esquerda). Com correção geométrica aplicada (direita).

Fonte: Green (2003).

A correção geométrica de imagens envolve procedimentos aplicados à correção interna (entre os pixels) e externos (em relação a um sistema de referência). Em geral, a correção interna é feita antes da entrega da imagem para o usuário. Por outro lado, nem todas as cenas são entregues com a correção dos ajustes externos (georreferenciadas). Esses procedimentos de transformações envolvem uma etapa onde os valores de nível de cinza devem ser reamostrados. Isso normalmente é feito através de algoritmos de interpolação como: “Vizinho mais próximo”, “Bilinear”, “Convolução cúbica”. Em geral, o primeiro altera menos as características espectrais da imagem ao passo que os dois últimos tendem a gerar uma imagem visualmente melhor, contudo, com maior mistura espectral. Após a realização da correção geométrica, é importante fazer uma avaliação e validação dos resultados.

Existem basicamente três grupos de modelos de correção geométrica: polinomiais (registro), correções independentes e o fotogramétrico. Além desses, ainda destacamos a Orto-retificação. Como o presente texto refere-se a uma síntese e a passos introdutórios do PDI, vamos discutir em mais detalhe o método baseado nas equações polinomiais, normalmente chamado do registro de imagens.

Em termos práticos, o registro de imagens é feito utilizando-se uma referência georreferenciada e depois fazendo a associação de coordenadas entre pontos facilmente identificáveis tanto na referência quanto na imagem a ser corrigida (identificação de pontos homólogos). Até pouco tempo era comum utilizar cartas topográficas da Divisão de Serviço Geográfico (DSG) do exército ou visitas a campo para fazer medidas de posicionamento. Atualmente, a maioria dos registros é feita utilizando imagens previamente registras (ou orto-retificadas). Assim, basta identificar postos homólogos em ambas as imagens e aplicar as correções através de funções polinomiais. Uma das bases orto-retificadas mais utilizadas e difundidas é a Geocover 2000 (disponível em: < https://zulu.ssc.nasa.gov/mrsid/mrsid.pl >) (NASA, 2004)

Após a obtenção da referência, o usuário deverá identificar os pontos homólogos e gerar os pontos de controle. Em geral, recomenda-se o uso de mais de 20 pontos de controle (depende da situação) distribuídos de forma não sistemática e que recubram todos os setores da imagem (Figura 12). Normalmente a qualidade do registro é fornecida pelo calculo do RMS (Erro médio quadrático - Root mean square error). Nesse sentido, recomendam-se valores de RMS inferiores a um, ou seja, com erro inferior a um pixel.

Page 23: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

23

Figura 12. Distribuição dos pontos de controle selecionados sobre a imagem de referência Geocover (esquerda) e sobre a imagem a ser registrada (direita).

2.4. Histograma da imagem e mudança de contraste Histogramas são muito utilizados na análise exploratória da estatística descritiva. Quando tratamos de imagens, essa aplicação não diverge. Assim, os histogramas de frequência representam uma contagem do número de pixels com um determinado nível de cinza (eixo y) ao longo de todo intervalo da resolução radiométrica (normalmente 0 a 255 no caso de imagem 8 bits) (Figura 13). Assim, o usuário poderá avaliar quantitativamente a distribuição dos níveis de cinza, que em última instância, representam a reflectância dos alvos dentro da cena. Quando um histograma está muito concentrado, a imagem tende a apresentar pouca variância e assim um baixo contraste. Esse histograma pode ainda ser utilizado para identificar pixels espúrios, dados saturados, ou então, definir o valor no nível de cinza para ser utilizado nos modelos de correção atmosférica empíricos.

Figura 13. Histograma e imagem antes da aplicação do contraste (à esquerda) e após a aplicação do contraste linear no aplicativo SPRING (à direita).

Fonte: Adaptado de Santos et al. (2010).

Conforme comentamos acima, histogramas muito concentrados (Figura 13a), podem ser ajustados através da aplicação de funções de reamostragem lineares ou não (Figura 13b) de forma a realçar a imagem.

Page 24: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

24

Assim, aplicar uma função de reamostragem à imagem de saída pode facilitar a interpretação visual ou então, destacar a presença de alvos específicos. Cabe destacar que o realce por contraste deve ser realizado banda a banda. Na Figura 13 verifica-se que ocorre uma grande contração de pixels referentes à água com baixos valores de reflectância.

Existem muitas funções para gerar imagens contrastadas (Santos et al., 2010): linear; mínimo – máximo, raiz quadrada, quadrado, logaritmo, negativos, equalização, entre outros. Esses modelos estão implementados na maioria dos softwares de PDI.

2.5. Fatiamento de imagens O fatiamento consiste em uma divisão equidistante ou não dos níveis de cinza em fatias que abrangem determinado número de níveis de cinza. O grupo de pixels dentro de um intervalo de nível de cinza é então realçado com cores de forma a permitir uma fácil identificação visual. Esse fatiamento pode ser realizado automaticamente, onde o sistema distribui um determinado número de fatias de forma a abranger todo o intervalo de níveis de cinza presente na imagem. Outra forma consiste em fazer uma distribuição das fatias de forma equidistribuída, ou seja, o mesmo número de pixels para cada fatia. O fatiamento representa uma forma rápida e simples de classificar a imagem e permite extrair informações gerais (Figura 14).

Figura 14. Aplicação do fatiamento sobre uma imagem TM, com um total de cinco fatias. Distribuição espacial dos pixels (esquerda) e distribuição no histograma dos pixels com os respectivos limites (direita).

2.6. Filtragem no domínio espacial e no domínio da frequência As técnicas de filtragem têm como objetivo principal tornar uma imagem mais adequada a uma aplicação específica quando comparada à imagem original. Entretanto, nem sempre uma melhoria realizada em determinada imagem ou produto orbital será útil para todas as análises (Gonzalez e Woods, 2008). Desta forma, um processamento aplicado a uma imagem de baixa resolução espacial para minimizar as distorções geométricas introduzidas no processo de aquisição destes dados pode não ser a melhor alternativa para corrigir as distorções geométricas em sensores de alta resolução espacial.

De um modo geral, podemos dividir as técnicas de filtragem em duas categorias principais: I) filtragem no domínio da frequência; e II) filtragem no domínio espacial. Os filtros que atuam no domínio da frequência são baseados na modificação da transformada de Fourier ou Wavelet (ondeleta) da imagem. Por outro lado, os filtros que atuam no domínio espacial interagem diretamente com os valores da imagem e são baseados na manipulação direta dos pixels. Como discutido anteriormente, uma imagem digital, obtida por sensoriamento remoto, nada mais é que uma matriz de ordem m x n. Desta forma, após um determinado processamento podemos expressar a nova imagem como:

( , ) [ ( , )]g x y T f x y=

em que representa a imagem de entrada (original), é a imagem resultante do processamento realizado na imagem de entrada e representa a operação matemática realizada na imagem de entrada (Gonzalez e Woods,

Eq. (1)

Page 25: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

25

2008). Para entender a função dos filtros no processamento digital de imagens de sensoriamento remoto, torna-se necessário o conhecimento da operação matemática denominada “Convolução”. De um modo genérico, a convolução é definida pela equação:

em que h é o núcleo da convolução, cx é a origem do núcleo em relação à coluna, cy é a origem do núcleo em relação à linha e i e j representam a posição do pixel na matriz (colunas e linhas, respectivamente). Uma maneira de interpretar a equação acima consiste em considerar cada pixel da imagem resultante como uma média ponderada dos vizinhos mais próximos na imagem de entrada, onde os pesos para cada vizinho são definidos a partir de uma máscara (às vezes chamado de kernel ou janela) de tamanho definido pelo usuário representado pelo h, como mostra a Figura 15.

Figura 15. Convolução de uma imagem de tamanho (12x10) por uma máscara de 3x3, que engloba os oito vizinhos mais próximos e o próprio ponto (centro). O ponto g(2,2) representa uma combinação dos pesos

dados à máscara destacada em cinza na imagem .

2.6.1. Filtros no domínio espacial

No processamento digital, algumas operações de vizinhança atuam diretamente nos valores do pixel da imagem a partir de um filtro, como exemplificado em cinza na Figura 15. Nos filtros, os valores que irão determinar os pesos que o compõe são denominados de coeficientes (Gonzalez e Woods, 2008). O processo de filtragem dos dados no domínio espacial consiste em mover uma máscara por toda a imagem. Desta forma, para cada ponto, o resultado do filtro corresponderá a uma ponderação pré-definida. Em filtros lineares, o valor resultante na nova imagem é originado pela soma dos produtos dos coeficientes do filtro em relação ao pixel central e aos seus vizinhos, como exemplificado na Figura 16.

Eq. (2)

Page 26: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

26

Figura 16. Projeção da máscara 3x3 sobre a imagem de entrada.

O nível de cinza de um ponto no centro da máscara (em cinza) será calculado a partir da ponderação dos valores dos coeficientes (v1, v2, ..., v9) e dos valores dos níveis de cinza dos vizinhos (em preto) e do próprio ponto (em cinza). Segundo Gonzalez e Woods (2008) o processo de aplicação de filtros lineares é similar ao conceito aplicado aos filtros no domínio da frequência denominado de convolução. Assim, a filtragem espacial é comumente mencionada como “convolução de uma máscara com a imagem de entrada”. Do mesmo modo, filtros não lineares utilizam uma máscara com os vizinhos mais próximos e percorrem a imagem toda, assim como demonstrado no método linear. Porém, ao invés de utilizar valores para os coeficientes, que atuam como um peso para cada pixel vizinho, neste método, são utilizadas variáveis estatísticas como, por exemplo, média, mediana, variância, entre outras.

Na literatura é comum separar os filtros no domínio espacial e no domínio da frequência em quatro classes principais: I) passa-baixa; II) passa-alta; III) passa-banda; e IV) rejeita-faixa (ou passa-faixa). Desta forma, cada classe de filtros possui atributos próprios, por exemplo, os filtros passa-banda e rejeita-faixa permitirá a passagem de frequências em determinadas bandas ou rejeitarão/atenuarão determinadas faixas específicas, respectivamente.

Consequentemente, um filtro com a característica de passa-baixas, como o próprio nome indica, dará ênfase às baixas frequências, suavizando as altas frequências (associadas geralmente aos detalhes da imagem). O efeito de um filtro passa-baixas é o da suavização dos elementos que compõem a imagem, causando o efeito indesejado de reduzir a resolução espacial, uma vez que há uma atenuação de transições abruptas (bordas). Ainda, outro efeito de um filtro passa-baixas é a diminuição dos ruídos na imagem. A Figura 17b exemplifica o efeito de um filtro passa-baixas aplicado à imagem ETM+/Landsat sete sobre a cidade de Belém, Pará (Figura 17a) utilizando uma máscara de 5x5 (exemplo 2, abaixo). A Tabela 4 exemplifica alguns filtros passa-baixas com diferentes dimensões (Manual do Spring, 2011). Quanto maior for a máscara do filtro passa-baixas, mais borrada será a imagem resultante e mais ruídos serão eliminados.

Page 27: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

27

Tabela 4. Filtros passa-baixas, também conhecidos como filtros de média, pois aplicam o mesmo peso a todos os vizinhos do pixel central.

Ainda, é possível encontrar filtros passa-baixas que utilizam pesos distintos em relação à distância do valor central, estes são conhecidos como filtros de média ponderada (pela distância), exemplificados na tabela abaixo e visualizados na Figura 17c a partir do exemplo 2 (Tabela 5).

Tabela 5. Filtros passa-baixas, conhecidos como filtros de média ponderada.

Uma das utilidades dos filtros passa-altas é realçar bordas ou feições em forma de linhas ou manchas (Manual do Spring, 2011). Desta forma, vários SIGs possuem filtros específicos para o realce de bordas. Nestes, cada pixel central na máscara é influenciado consideravelmente pelos valores de nível de cinza dos vizinhos. Assim, a influência dos pixels vizinhos será determinada pelos pesos dados pelo usuário e pela direção preferencial de interesse. A Tabela 7 mostra alguns exemplos de filtros 3x3 que tem como objetivo realçar as bordas em determinada direção. A Figura 17e mostra a cidade de Belém, Pará após a utilização de um filtro 3x3 com orientação oeste (exemplo 3, Tabela 7).

Page 28: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

28

Tabela 7. Exemplos de Filtros passa-alta direcionais de borda (Manual do Spring, 2011).

Alguns SIGs possuem máscaras para o realce não-direcional de bordas pré-definidas. O SPRING sugere 3 tipos, que correspondem à intensidade dos níveis de cinza na imagem resultante. A Figura 17f exemplifica o uso de um filtro passa-alta não-direcional de borda 3x3, com intensidade alta (Tabela 8, exemplo 1).

Tabela 8. Filtros passa-alta, pré-definidos no SPRING.

Acima foram mencionados os filtros lineares. Diferentemente destes tipos de filtros, os filtros não-lineares são utilizados para modificar a imagem original, minimizando/realçando ruídos e bordas. Entre os principais filtros não-lineares pode-se citar os filtros para detecção de borda (com processos diferentes dos filtros lineares) e filtros morfológicos (mediana, erosão e dilatação). No SPRING, estão disponíveis dois filtros para a detecção de bordas, denominados Roberts e Sobel. O filtro para detecção de bordas de Roberts apresenta a desvantagem de realçar bordas com mesma magnitude de formas diferenciadas, fator este dependente da direção preferencial (Figura 18b). O filtro de Sobel possui a característica de realçar feições verticais e horizontais, sem realçar pontos isolados (Figura 18c). Maiores detalhes sobre filtros não-lineares para detecção de borda pode ser encontrado na literatura (Seara, 1998; Gonzalez et al., 2004; Gonzalez e Woods, 2008; Manual do SPRING, 2011).

Page 29: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

29

Figura 17. (a) Banda 8 do ETM+/Landsat 7 original; (b) Filtro passa-baixas (filtro de média), máscara 5x5; (c) Filtro passa-baixas (média ponderada), máscara 3x3 ; (d) Filtro passa-alta 3x3; (e) Filtro 3x3 direcional

de borda, orientação oeste; e (f) Filtro 3x3 não-direcional de borda, intensidade alta.

Os filtros morfológicos não-lineares da mediana, de erosão e dilatação são utilizados para realçar as propriedades geométricas presentes nas imagens. O filtro morfológico da mediada é utilizado para eliminação e suavização dos ruídos presentes na imagem (Figura 18d). Os filtros morfológicos de erosão e dilatação ocasionam efeitos de erosão nas partes claras da imagem, escurecendo-a, e dilatação nas partes escuras, clareando-a, respectivamente. A Figura 18 ilustra os efeitos do operador morfológico de erosão (Figura 18e) e dilatação (Figura 18f).

Page 30: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

30

Figura 18. (a) Banda 8 original do ETM+/Landsat 7; (b) Filtro para detecção de bordas de Roberts; (c) Filtro para detecção de bordas de Sobel; (d) Filtro morfológico da mediana; (e) Filtro morfológico de

erosão; e (f) Filtro morfológico de dilatação.

2.6.2. Filtros no domínio da frequência

Os filtros que atuam no domínio da frequência são baseados na transformada de Fourier (equação 3) da imagem, ou seja, a imagem é transformada do domínio espacial para o domínio da frequência. Em muitos programas de processamento de imagens, é comum o uso da transformada rápida de Fourier para decompor as informações de uma determinada imagem em uma imagem complexa no domínio da frequência (Figura 19b). O uso da transformada rápida de Fourier origina uma imagem que contêm as informações das componentes verticais e horizontais da frequência. O resultado deste processamento é uma imagem na qual

Page 31: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

31

o brilho médio da imagem é mostrado no centro (baixa frequência) e pixels afastados do centro da imagem representam componentes com alta frequência.

Eq. (3)

Consequentemente, filtros podem ser aplicados diretamente no resultado da transformada rápida de Fourier. Define-se um raio a partir do centro para eliminar a alta frequência (atuando como um filtro passa-baixa). Desta forma, à medida que se aumenta o raio do filtro, as frequências mais altas são introduzidas no processo de filtragem, este procedimento pode originar filtros passa-média/baixa. Após a seleção do tamanho do raio (Figura 19c), realiza-se a transformação inversa, retornando os dados para o domínio espacial (Figura 19d). Maiores detalhes deste método por ser encontrado em Gonzalez e Woods (2008).

A Figura 19a mostra a banda pancromática do sensor ETM+ a bordo do Landsat 7 para a cidade de Belém, Pará. A Figura 19b corresponde à imagem resultante da transformada rápida de Fourier realizada no aplicativo ENVI. A partir da imagem no domínio da frequência, delimitaram-se vários raios para a aplicação do filtro (Figura 19c, e, g). Como procedimento final inverte-se a transformada rápida de Fourier, resultando em novas imagens no domínio espacial (Figura 19d, f e h). Nas figuras analisadas, é possível notar que à medida que o raio diminui (selecionando cada vez mais regiões com baixa frequência), a imagem apresenta o efeito de suavização e perda de resolução espacial.

Page 32: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

32

Figura 19. Filtragem no domínio da frequência.

Page 33: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

33

2.7. Cor no processamento de imagens No sistema visual humano, a retina é formada por inúmeros fotorreceptores, como os cones (coloridos), responsáveis pela visão diurna, e pelos bastonetes, responsáveis pela visão noturna (cinza), ambos sensíveis a luz e que transformam a energia eletromagnética em energia neural, produzindo a imagem no plano focal. A percepção da cor está relacionada ao comprimento de onda da energia que chega aos olhos, que podem ser misturadas gerando, desta forma, inúmeras cores (Gonzalez e Woods, 2001).

As cores podem ser usadas tanto para a visualização de imagens multiespectrais como para a identificação e extração de objetos de interesse em uma imagem a partir de técnicas de processamento. O olho humano é menos sensível às variações de tons de cinza que os atuais sensores artificiais, sendo capaz de discriminar apenas algumas dezenas de níveis de cinza enquanto que os sensores são capazes de discriminar milhares de tons coloridos (Fonseca, 2000).

Em uma imagem colorida composta por três bandas, cada pixel desta imagem é representado numericamente por níveis de cinza correspondente à interação da radiação eletromagnética com o alvo, sendo assim, as cores visualizadas na formação de uma imagem colorida será determinada pela ponderação de cada valor para o mesmo pixel, ou seja, no sistema R (red – vermelho), G (green – verde) e B (blue – azul), cada banda da imagem (256 tons) possui uma intensidade de acordo com a reflectância do pixel. A Figura 20 mostra três bandas (b1, b2 e b3) do sensor ETM+/Landsat 7 na qual foram atribuídas as componentes R(b3), G(b2) e B(b1). Consequentemente, a imagem colorida final refere-se à junção das três bandas que receberam cores distintas (definidas pelo usuário). Analogamente, podemos comparar este processo ao de formação de cores para pintar casas, suponha que tenhamos um pote com tinta azul, um com verde e outro com vermelho, desta forma, se inserirmos mais vermelho do que azul e verde, a tinta será em tons de vermelho, se a maior quantidade de tinta for verde, a tinta terá tons de verde e assim por diante. Ressalta-se que na formação das imagens no olho humano, a acuidade visual é mais sensível à cor vermelha (Gonzalez e Woods, 2001).

Figura 20. (a) Banda 1 do sensor ETM+/Landsat 7 em tons de azul; (b) Banda 2 do sensor ETM+/Landsat 7 em tons de verde; (c) Banda 3 do sensor ETM+/Landsat 7 em tons de vermelho. (d) Imagem colorida

Page 34: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

34

resultante da ponderação das cores azul, verde e vermelho para cada pixel.

As cores em imagens de satélite podem ser compostas pela cor verdadeira, na qual a região do espectro eletromagnético referente ao azul, verde e vermelho recebem as mesmas componentes (B, G e R, respectivamente) (Figura 21a) e pela falsa cor (contendo informações que não são obtidas pelo olho humano, como, por exemplo, bandas espectrais na região do infravermelho). Por exemplo, ao se associar as bandas 5, 4 e 3 do sensor ETM+/Landsat 7 aos canais R, G e B, respectivamente, gera-se uma imagem colorida cujas cores não correspondem ao visualizado pelo olho humano, esta composição é denominada de falsa-cor, conforme Figura 21b. De um modo geral, o usuário pode atribuir as três componentes (R,G,B) para quaisquer três bandas de uma imagem, estas, devem ser selecionadas previamente de acordo com o objetivo do trabalho, fazendo com que a composição colorida traduza a informação espectral desejada.

Figura 21. Imagem ETM+/Landsat 7 para Belém, Pará. (a) Composição cor verdadeira (banda 1 no

Page 35: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

35

azul, banda 2 no verde e banda 3 no vermelho); (b) Composição falsa cor (banda 3 no azul, banda 4 no verde e banda 5 no vermelho); (c) Composição falsa cor (banda 7 no azul, banda 5 no verde e banda 4 no

vermelho)

A atribuição de cores nas imagens de satélites é muito importante devido ao estudo acerca de vários componentes do ambiente. Como exemplo, pode-se citar as aplicações em diferentes bandas do sensor TM e ETM+, dentre elas: faixa espectral do azul (banda 1) (mapeamento de águas costeiras, diferenciação entre solo e vegetação e diferenciação de vegetação conífera e decídua); faixa espectral do verde (banda 2) (mapeamento da vegetação e da qualidade da água); faixa espectral do vermelho (banda 3) (absorção da clorofila, diferenciação e estudo de espécies vegetais, estudo sobre áreas urbanas, uso do solo, agricultura e qualidade da água); faixa espectral do infravermelho próximo (banda 4) (delineamento de corpos d’água, mapeamento geomorfológico e geológico, áreas queimadas e úmidas, estudo sobre vegetação e agricultura); faixa espectral do infravermelho médio (banda 5) (uso do solo, medidas sobre a umidade da vegetação, diferenciação de nuvens e neve, estudo sobre vegetação e agricultura); faixa espectral do infravermelho termal (banda 6) (mapeamento de estresse térmico em plantas, estudo sobre correntes marinhas, propriedades termais do solo e demais mapeamentos termais); e faixa espectral do infravermelho médio (banda 7) (identificação de minerais e mapeamento hidrotermal).

2.8 Transformações IHS A visualização das imagens em sensoriamento remoto é realizada a partir das componentes R, G e B, porém, o sistema visual humano interpreta a cor como uma combinação de três componentes conhecidas por intensidade (intensity – I), matiz (hue – H) e saturação (saturation - S), conhecidas por IHS, que podem ser manipuladas e analisadas individualmente, ao passo que o sistema RGB estão intrinsecamente interligados (Gonzalez e Woods, 2001).

A intensidade é a medida da energia total envolvida em todos os comprimentos de onda, sendo responsável pela sensação de brilho dessa energia incidente sobre o olho; a matiz de um objeto está relacionada com a medida do comprimento de onda médio da energia refletida ou emitida por eles, definindo, assim, a cor do objeto; e a saturação, ou pureza da cor, expressa o intervalo de comprimentos de onda ao redor do comprimento de onda predominante no qual a energia é refletida ou transmitida, sendo que uma saturação alta resulta em uma cor pura e uma saturação baixa indica uma mistura de comprimentos de onda produzindo tons pastéis (apagados). Assim, o sistema IHS descreve as sensações subjetivas de brilho, cor e pureza da cor, respectivamente (Gonzalez e Woods, 2001).

O sistema IHS pode ser representado como um cone, como mostra a Figura 22a, ao invés de uma amostra radial, como mostra a Figura 22b, que representa o espaço RGB. Este sistema utiliza coordenadas cilíndricas polares para representar as cores, sendo que a distância de um ponto (eixo central do cone) até a origem ou ápice do cone representa a intensidade ou brilho; a distância radial do ponto até o eixo central do cone representa a saturação da cor; e a matiz é representada como uma sequência radial ao redor dos círculos de saturação e do eixo de intensidade. Na prática a matiz varia de 0 a 255, porém, devido às características das imagens digitais, seu valor representa um ângulo que varia de 0° a 360°, sendo: 0° (cor verde, NC=0), 120° (cor vermelho, NC=255), 240° (cor azul, NC=170) e 360° (cor verde novamente, NC=255) (Fonseca, 2000).

Page 36: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

36

Figura 22. Espaço de cores IHS.Fonte. Adaptado de Fonseca (2000).

Atualmente, grande parte dos SIGs e aplicativos de processamento digital de imagens contém um módulo na qual o usuário converte as imagens multiespectrais para as componentes IHS, para isto basta o usuário selecionar uma imagem colorida em que 3 bandas estão associadas às cores RGB e iniciar os processamentos. O resultado deste processo são três novas imagens que representam a intensidade, a saturação e a matiz (Figura 23). Posteriormente, cada uma das componentes pode ser processada independentemente, aplicando-se técnicas de contraste, classificações, segmentações, entre outras. A última etapa do processo envolve uma reversão das imagens I, H e S para as coordenadas RGB, uma vez que os monitores de vídeo dos sistemas de processamento de imagens trabalham somente nesse sistema (Fonseca, 2000).

Figura 23. (a) Componente intensidade originada da composição colorida 1B2G3R do sensor ETM+/Landsat 7; (b) Componente saturação originada da composição colorida 1B2G3R do sensor ETM+/Landsat

7; (c) Componente matiz originada da composição colorida 1B2G3R do sensor ETM+/Landsat 7.

Dentre as aplicações da utilização da transformação IHS, pode-se citar a fusão de imagens multiespectrais com uma banda pancromática com resolução espacial melhor que as bandas multiespectrais. No caso da fusão da banda pancromática do sensor ETM+/Landsat 7 com resolução espacial de 15m com as bandas multiespectrais de 30m, o procedimento envolve as seguintes etapas: I) calcular as componentes H, S e I a partir das três bandas selecionadas do ETM+; II) aplicar o aumento de contraste nas componentes H, S e na imagem pancromática; III) substituir a componente intensidade (originada pelas bandas multiespectrais) pela imagem pancromática e aplicar a transformação inversa IHS para RGB, obtendo-se, desta forma, uma composição colorida com a resolução espectral correspondente às três bandas ETM+ (30 metros) e a resolução

Page 37: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

37

espacial da imagem pancromática (15 metros), conforme exemplificado na Figura 24. O resultado auxilia significativamente na interpretação das imagens. Nesse ponto é importante destacar que não é indicado qualquer alteração nas componentes espectrais de imagens, seja por transformações de cores, filtragens ou realces, quando o objetivo é fazer uma análise espectral. Isso porque essas transformações podem afetar a resposta espectral e influenciar nos resultados.

Figura 24. (a) Composição falsa cor (banda 3 no azul, banda 4 no verde e banda 5 no vermelho) com resolução espacial de 30m; (b) Fusão pelo processo IHS originando uma imagem com 15m de resolução

espacial.

Ainda, outros exemplos podem ser salientados. Dentre eles, quando a imagem apresentar cores distintas em áreas de baixo brilho, estas cores podem ser melhor discriminadas a partir do aumento de contraste da componente I na transformação IHS; quando a composição colorida possuir diferentes cores misturadas com branco, o aumento de contraste ou dos valores de níveis de cinza da componente S pode tornar estas cores mais perceptíveis ao intérprete; ainda, pode-se usar diferentes funções de transformações para alterar o contraste da componente S, obtendo-se desta forma diferentes efeitos nas cores (Fonseca, 2000).

2.9 Operações matemáticas com imagens Operações matemáticas são utilizadas frequentemente em processamento digital de imagens com o intuito de analisar imagens multiespectrais e multitemporais. O procedimento envolve a utilização de duas ou mais imagens georreferenciadas de uma mesma área, sendo a operação realizada pixel a pixel a partir de uma regra matemática definida pelo usuário, resultando em uma imagem proveniente da combinação das bandas originais. Estas operações permitem a compressão dos dados, além de diminuir o número de bandas e melhor discriminar pequenos detalhes presentes em cada uma, entretanto, ocasionando perda da informação original (Manual do SPRING, 2011).

Para melhorar a qualidade de contraste da imagem, estas operações podem ser realizadas a partir de um fator de ganho (multiplicativo) ou offset (aditivo), definido a partir da habilidade do usuário em definir as operações e as características espectrais das bandas utilizadas, sendo que a operação de adição é utilizada para realçar as similaridades existentes entre duas bandas e as operações de subtração, multiplicação e divisão são utilizadas para realçar as diferenças espectrais (Fonseca, 2000, Manual do SPRING, 2011).

A adição é uma operação linear e é a forma mais simples de operação entre imagens, utilizada

Page 38: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

38

para a obtenção da média aritmética entre as imagens, para minimizar a presença de ruído e para integrar imagens resultantes de diferentes processamentos. Nas imagens ópticas, geralmente o ruído eletrônico não é correlacionado entre as diferentes bandas espectrais, ou seja, o ruído pode estar presente em um pixel de uma determinada banda, sem estar presente nas demais. Assim, a realização da média aritmética entre duas bandas resultará na redução do ruído, pois os valores dos níveis de cinza desses pixels serão determinados pela média dos pixels que apresentam e não apresentam ruído (Fonseca, 2000).

Em relação à redefinição de uma nova banda multiespectral, este procedimento se torna útil na identificação de um objeto ou fenômeno que seja caracterizado por feições espectrais largas no intervalo de comprimento de ondas, extrapolando uma ou mais bandas de um sensor. Segundo Fonseca (2000) pode-se utilizar a adição para a combinação de resultados de outros tipos de processamento. Pode-se exemplificar através da adição de uma imagem original com a mesma imagem submetida a um filtro de convolução para realce de bordas, resultando em uma imagem com ótimas características de interpretação devido à combinação da informação tonal da imagem original com a informação textural da imagem filtrada.

Da mesma forma que a adição, a subtração também representa uma operação linear, e conhecendo-se as curvas de comportamento espectral dos alvos de interesse e o intervalo espectral das bandas dos sensores, torna-se possível a definição das bandas a serem utilizadas para realçar as diferenças espectrais. Dentre as aplicações utilizando a subtração, pode-se citar a identificação de diferenças sutis, a detecção de mudanças no uso e cobertura da terra (Gonzalez et al., 2004; Gonzalez e Woods, 2008) e a correção atmosférica através do modelo DOS (seção 2.2).

A partir da subtração, podem-se identificar diferentes tipos de cobertura vegetal, calculando a diferença entre as bandas referentes ao infravermelho termal e ao infravermelho médio (próximo a 2,2µm), a quantidade de vegetação presente, a partir da diferença entre o infravermelho médio (próximo a 2,2µm) e bandas próximas a 1,6µm, entre outros (Fonseca, 2000). Outro exemplo pode ser citado pela identificação de minerais formados por óxidos de ferro, que apresentam reflectância alta na faixa do vermelho e reflectância baixa na faixa do azul do espectro eletromagnético, assim, a diferença entre essas faixas provocará o realce das áreas com solos ricos em material ferruginoso (Crosta, 1993).

A razão entre bandas, ou divisão, consiste de uma operação não-linear, utilizada para realçar as diferenças espectrais de duas ou mais bandas, caracterizando determinadas feições da curva de assinatura espectral de alguns alvos. Entre os fatores limitantes no uso desta operação pode-se citar a interferência do espalhamento atmosférico, resultando em valores de níveis de cinza que não representam a diferença de reflectância entre os alvos. Desta forma, qualquer operação matemática na qual se deseje extrair parâmetros físico-químicos e biológicos deve ser realizada sobre a imagem em reflectância de superfície, na qual os efeitos de saturação, escalonamento da radiância pelo sensor, influência atmosférica, entre outros, foram eliminados da análise.

Dentre algumas aplicações utilizando a razão entre bandas, pode-se citar a redução do efeito de iluminação, a redução do efeito atmosférico, o realce de alvos de interesse e cálculos de índices de vegetação. A razão entre bandas também pode ser usada para realçar alvos de interesse. Por exemplo, pode-se calcular a razão entre a banda posicionada na região do espectro eletromagnético referente ao verde e ao infravermelho médio (centrada em 1,6µm), resultando na identificação de corpos d’água e apresentando informações sutis sobre as terras úmidas (Figura 25a).

No cálculo de índices de vegetação, a razão entre bandas tem sido muito utilizada na estimação de biomassa e cobertura vegetal, pois a razão entre as bandas do visível e do infravermelho próximo do EEM resulta no realce das diferenças espectrais entre solos e vegetação. Dentre os índices de vegetação existentes, o mais simples é composto pelo SR (Single Ratio; equação 4; Rouse et al., 1973) e NDVI (Normalized

Page 39: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

39

Difference Vegetation Index; equação 5; Rouse et al., 1973).

SR= ρ_nir/ρ_red Eq. (4)

em que ρ_nir e ρ_red representam a reflectância nas bandas infravermelho próximo e vermelho, respectivamente. Outro índice de vegetação pode ser exemplificado pelo índice de vegetação por diferença normalizada (NDVI), muito útil no monitoramento da cobertura da vegetação, dado por:

NDVI= (ρ_nir- ρ_red)/(ρ_nir+ ρ_red ) Eq. (5)

Na Figura 25b pode ser visualizado uma imagem com a aplicação do NDVI, calculado pela razão entre as bandas 3 e 4 do sensor ETM+/Landsat 7 após a conversão dos níveis digitais em reflectância da superfície. Nesta figura percebe-se que as áreas mais claras indicam a presença de vegetação enquanto que as áreas mais escuras indicam a ausência de vegetação.

Figura 25. (a) Imagem resultante da diferença entre a banda 2 e a banda 5 do sensor ETM+/Landsat 7; e (b) NDVI para a região de Belém, Pará (tons claros representam vegetação densa e cores escuras ausência de

vegetação).

2.10 Segmentação: detecção de bordas e crescimento de regiões

A segmentação é a subdivisão das imagens em regiões que correspondem às áreas de interesse da aplicação, podendo ser realizada por crescimento de regiões ou pela detecção de bordas. As regiões são um conjunto de pixels espalhados bidimensionalmente na imagem e são uniformes em relação a um dado conjunto

Page 40: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

40

de atributos que podem ser extraídos e usados posteriormente no processo de análise das características dos alvos, como, por exemplo, a área, a forma, os parâmetros estatísticos e a textura, (Fonseca, 2000; Gonzalez e Woods, 2001).

As bordas caracterizam os contornos dos objetos, assim, a segmentação a partir da detecção de bordas torna-se bastante útil para a identificação dos objetos na imagem. No método de detecção de bordas, um mapa de bordas é originado a partir da extração de bordas entre regiões homogêneas. Ainda, os pontos da borda são definidos pela posição dos pixels com variações abruptas dos níveis de cinza (regiões de alta frequência espacial), caracterizando as transições entre objetos diferentes. Dentre as técnicas de segmentação baseadas em bordas, podem-se citar as que são detectadas pelos operadores gradientes seguidos de uma limiarização, como o Sobel, Roberts e Laplaciano. A Figura 26 mostra um mapa de bordas obtido pelo operador laplaciano da gaussiana.

Destaca-se como limitação deste método a presença de “buracos” nas bordas, permitindo que duas regiões diferentes sejam agregadas. Ainda, esta técnica é sensível às variações locais dos níveis de cinza, fazendo com que os contornos geralmente não sejam fechados (Fonseca, 2000).

Figura 26. Mapa de bordas obtido pelo operador laplaciano da gaussiana.

A técnica por crescimento de regiões é um processo de agrupamento das regiões espacialmente adjacentes seguindo algum critério de similaridade, dividindo a imagem em um número de regiões homogêneas e identificadas por um rótulo, resultando em uma imagem rotulada. No início do processo, a região pode ser um pixel ou um conjunto de pixels, e para cada região, são calculados atributos espectrais como a média, a variância e a textura. Ainda, a agregação das regiões pode ser realizada em muitos SIGs, como o SPRING, a partir da utilização de parâmetros de similaridade e área, que são definidos pelo usuário, baseados em um teste de hipótese estatístico que verifica a média entre as regiões (Bins et al., 1996), conforme pode ser visualizado na Figura 27.

Page 41: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

41

Figura 27. Contornos (em vermelho) provenientes do processo de segmentação por crescimento de regiões, implementado no SPRING, sobrepostos à imagem de Belém do Pará (ETM+/Landsat 7). (a) Similaridade = 1 e área mínima (pixels) = 1; (b) Similaridade = 1 e área mínima (pixels) =10; (c) Similaridade =4 e área

mínima (pixels) =16; e (d) Similaridade = 5 e área mínima (pixels) =50.

A figura acima apresenta o resultado da segmentação na imagem do sensor ETM+ abordo do satélite Landsat 7, submetidas à diferentes valores de similaridade e área. A Figura 27a mostra que ao se adotar valores muito baixos para a similaridade e área mínima, o algoritmo de segmentação por crescimento de regiões implementado no SPRING separa praticamente cada pixel da imagem em regiões distintas ao seu vizinho mais próximo. Entretanto, à medida que aumenta os parâmetros de similaridade e área mínima, elementos similares são introduzidos na mesma região. Desta forma, pode-se concluir que a separação de regiões na imagem, independente do sensor utilizado, dependerá da aplicação e da acurácia necessária ao trabalho.

Segundo Fonseca (2000) o processo de segmentação por crescimento de regiões pode ser explicado, de modo simplificado, pelos seguintes passos: I. O algoritmo particiona a imagem em células padrões (um ou mais pixels); II. Cada célula padrão é analisada em relação à célula vizinha para verificar o grau de similaridade (definido pelo usuário). Caso as células forem similares, estas são agrupadas e os parâmetros estatísticos para a nova região são recalculados; III. Após a etapa II, o algoritmo continua com a análise no restante da imagem, examinando todos os vizinhos que possam ser agrupados, rotulando o segmento de uma região completa; e IV. Toda a área da imagem é processada, originando uma imagem rotulada na qual todos os pixels estão presentes (sem buracos);

No SPRING, a segmentação entre duas regiões A e B somente serão agrupadas se a média das

Page 42: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

42

regiões A e B forem similares; se a medida de similaridade satisfizer o limiar estabelecido e se A e B forem mutuamente próximas. Dentre as limitações desta técnica, destaca-se a geração de erros nos contornos das regiões, pois os pixels de borda podem ser agregados a uma das regiões vizinhas de forma aleatória (Manual do SPRING, 2011).

2.11. Classificação de padrões nas imagens A classificação é o processo de extração de informações em imagens com o objetivo de reconhecer padrões e/ou objetos homogêneos (que possuam o mesmo significado). Entre as principais utilizações dos classificadores implementados nos SIGs e aplicativos de processamento digital de imagem, pode-se destacar o mapeamento de áreas da superfície terrestre, resultando em uma imagem temática, ou mapa temático, em que um grande número de níveis de cinza nas diversas bandas espectrais são transformados em um pequeno número de classes de uso e cobertura da terra, originando uma única imagem.

Os símbolos gráficos ou cores representam os pixels classificados, estando eles associados a uma determinada classe definida pelo usuário como, por exemplo, área urbana, vegetação, hidrografia, áreas agrícolas, entre outras (Manual do SPRING, 2011), conforme demonstrado na Figura 28.

Figura 28. Resultado de uma classificação genérica no aplicativo SPRING. (a) Imagem cor verdadeira do sensor ETM+/Landsat 7 (1B2G3R); e (b) Atribuição de classes aos elementos da cena (processo

automático sem interação com o usuário).

No processamento de imagens de sensoriamento remoto, a classificação pode ser obtida de forma automática, realizada pelo computador, o qual envolve a análise individual dos atributos estatísticos de cada pixel e seus vizinhos na imagem, e pela fotointerpretação, na qual o usuário extrai as informações a partir da interpretação visual da imagem, sendo essas duas abordagens muitas vezes complementares. O computador é capaz de calcular medidas de áreas mais precisas que o fotointérprete, devido ao tratamento isolado de cada

Page 43: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

43

pixel, além de ser possível a utilização de mais do que três bandas espectrais (Jensen, 1986).

O processo de classificação automática pode ser dividido em classificação supervisionada e classificação não supervisionada. Os algoritmos de classificação não supervisionada são métodos de agrupamento baseados em alguma medida de similaridade entre os pixels, ou seja, pixels ou regiões serão agrupados ou rotulados como pertencentes à mesma classe se a medida de similaridade entre eles satisfazer os critérios estatísticos estabelecidos. Nesse tipo de classificação cada pixel da imagem é associado a uma classe espectral sem que o usuário tenha um conhecimento prévio do número ou da identificação das diferentes classes presentes na imagem, realizado a partir de algoritmos de agrupamento (Erthal et al., 1993). Na sequência desse tipo de classificação, o usuário deverá fazer o re-mapeamento das classes, atribuindo um significado (p. ex. solo exposto, urbano, água, etc.).

Por outro lado, na classificação supervisionada, o usuário seleciona amostras representativas para cada uma das classes que se deseja identificar na imagem, descritas por seus parâmetros estatísticos e estimados a partir do conjunto de amostras de treinamento previamente selecionadas, que podem ser definidas utilizando dados de campo, fotos aéreas ou interpretação visual da imagem a ser classificada (Fonseca, 2000).

Ainda, os classificadores podem ser divididos em: I) classificadores pixel a pixel, que utilizam apenas a informação espectral isolada de cada pixel para identificar as regiões homogêneas; e II) classificadores por regiões, que utilizam a informação espectral de cada “pixel” e a informação espacial que envolve a relação entre os “pixels” e seus vizinhos. Esta classificação é realizada a partir do particionamento da imagem em regiões (segmentação) e posterior associação a uma determinada classe (Fonseca, 2000).

Dentre os classificadores pixel a pixel, pode-se citar a Classificação por Máxima Verossimilhança (MAXVER), a Classificação por Máxima Verossimilhança Interated Conditional Modes (MAXVER-ICM), e o classificador baseado na forma do espectro chamado SAM (spectral angle mapper), todos supervisionados, e o K-médias (não supervisionado). Ainda, podem-se citar os classificadores por regiões Bhattacharya (supervisionado) e o Isoseg (não supervisionado). Na literatura podem-se encontrar diversos classificadores, daremos ênfase aos mencionados acima devido a sua diversificada aplicação e a sua disponibilidade em aplicativos gratuitos.

O K-Médias (Figura 29b) é o algoritmo mais popular para a realização de tarefas de agrupamento, empregando o método de partição. Este classificador utiliza dados numéricos a partir da seleção de k elementos para a formação inicial de centroides do grupo (elementos centrais). Posteriormente à seleção dos centroides, é realizado o cálculo da distância de cada elemento em relação a eles, em que a menor distância encontrada para originar o agrupamento é considerada. Finalmente, o processo é concluído quando todos os elementos estiverem agrupados.

Este algoritmo apresenta atributos confiáveis, entretanto, são identificados alguns problemas, devido principalmente ao fato do usuário ter que especificar o número de grupos, sendo necessária a realização de diversos experimentos; por ser sensível aos ruídos, pois uma pequena quantidade de dados inconsistentes ou diferentes em relação ao conjunto de dados formado pode influenciar na formação dos grupos; e por exigir que os dados sejam do tipo numérico ou binário (Rabelo, 2007).

O MAXVER é um método de classificação “pixel a pixel” que considera a ponderação das distâncias entre as médias dos níveis digitais das classes a partir de parâmetros estatísticos. Para que a classificação seja precisa, é necessário um número razoavelmente elevado de “pixels” para cada conjunto de treinamento, que definem o diagrama de dispersão das classes e suas distribuições de probabilidade, considerando a distribuição de probabilidade normal para cada classe do treinamento (Manual do SPRING, 2011).

Page 44: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

44

O critério de decisão deve ainda incorporar o conceito de limiar de decisão, que indica a porcentagem de pixels da distribuição de probabilidade de uma classe que será classificada como pertencente a esta classe. Um limiar de 99% englobará 99% dos pixels, sendo que 1% será ignorado, compensando a possibilidade de alguns pixels terem sido introduzidos por engano em determinada classe ou estarem no limite entre duas classes. Consequentemente, um limiar de 100% resultará em uma imagem classificada sem rejeição, ou seja, todos os pixels serão classificados.

Para diminuir a confusão entre as classes, é aconselhável a aquisição de amostras significativas de alvos distintos, além de uma avaliação das amostras a partir da matriz de análise, que indica quais amostras selecionadas pelo usuário resultaram em maior confusão. Uma matriz de classificação ideal deve apresentar os valores da diagonal principal próximos a 100%, indicando que não houve confusão entre as classes (Fonseca, 2000; Manual do SPRING, 2011).

Enquanto o classificador MAXVER associa classes considerando pontos individuais da imagem, o classificador MAXVER-ICM considera também a dependência espacial na classificação. Primeiramente, a imagem é classificada pelo MAXVER atribuindo classes aos “pixels”, considerando os valores de níveis digitais. Posteriormente, é levada em consideração a informação contextual da imagem, ou seja, a classe atribuída depende tanto do valor observado nesse “pixel” quanto das classes atribuídas aos seus vizinhos. Este processo é finalizado quando a porcentagem de pixels reclassificados definida pelo usuário é satisfeita (Manual do SPRING, 2011). Um exemplo da classificação MAXVER, MAXVER ICM e K-Médias pode ser visualizado na Figura 29e Figura 29d, respectivamente. Ressalta-se que o treinamento das amostras foi efetuado apenas para fins de exemplificação, podendo, desta forma, apresentar erros na atribuição de uso e cobertura da terra para a cidade de Belém e áreas circunvizinhas. Ainda, todas as classificações não apresentam análises quanto à incerteza e acurácia.

Figura 29. Classificação realizada no SPRING (Vermelho – Áreas Urbanas; Verde – Formações vegetais; e Azul – Hidrografia). (a) Imagem falsa cor ETM+/Landsat 7 (3B4G5R); (b) Classificação pelo algoritmo

K-Médias; (c) Classificação pelo algoritmo MAXVER; e (d) Classificação pelo algoritmo MAXVER-

Page 45: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

45

ICM.

Diferente dos classificadores mencionados acima, o Isoseg é um algoritmo de agrupamento não supervisionado aplicado sobre um conjunto de regiões (resultantes de uma segmentação), caracterizadas por sua média, matriz de covariância e área. É uma técnica para classificação que procura agrupar regiões a partir de uma medida de similaridade entre elas. A medida de similaridade utilizada pelo classificador é conhecida como distância de Mahalanobis, que utiliza atributos estatísticos como a média e a matriz de covariância das regiões avaliadas (Fonseca, 2000).

Neste classificador, primeiramente, é definido um limiar de aceitação, dado em porcentagem, com o qual é calculada uma distância mínima entre as regiões pertencentes à mesma classe, sendo que quanto maior for limiar, menor será a distância entre as regiões e, portanto, maior será o número de classes diferentes detectadas pelo algoritmo. Posteriormente é realizada a detecção das classes, em que as regiões são ordenadas em ordem decrescente de área e é iniciado o procedimento de agrupamento para classes, em que atribuído um novo rótulo para a região de maior área que ainda não tenha sido classificada.

Finalmente, é realizada uma competição entre as classes, que consiste na reclassificação de todas as regiões usando no calculo da distância entre as médias e matrizes de covariância dos agrupamentos obtidos na etapa anterior, repetindo-se o processo até que a média das classes não se altere, estando todas as regiões associadas a uma classe no final do processo (Fonseca, 2000; Manual do SPRING, 2011). O resultado da classificação por Isoseg é apresentado na Figura 30b.

O classificador Bhattacharya é um classificador por regiões que mede a separabilidade estatística entre um par de classes espectrais a partir da medida da distância de Bhattacharya, ou seja, mede a distância média entre as distribuições de probabilidades de classes espectrais. Ao contrário do Isoseg, que é um classificador automático, o classificador Bhattacharya necessita da interação do usuário para o treinamento das amostras separadas por regiões formadas na segmentação de imagens (Manual do SPRING, 2011). Desta forma, o resultado da classificação dependerá dos valores de similaridade e área mínima adotada no processo de segmentação. O resultado da classificação por Bhattacharya é apresentado na Figura 30c.

Page 46: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

46

Figura 30. Classificação realizada no SPRING (Vermelho – Áreas Urbanas; Verde – Formações vegetais; e Azul – Hidrografia). (a) Imagem falsa cor ETM+/Landsat 7 (3B4G5R); (b) Classificação pelo algoritmo

Isoseg; e (c) Classificação pelo algoritmo Bhattacharya.

3. Análise temporal de imagens Atualmente, existem várias técnicas para a análise de séries temporais de dados orbitais, entre estas se destacam: Transformada de Fourier / Análise Harmônica, Transformada de Wavelet (ondeleta), Principais componentes, entre outras.

3.1 Análise Harmônica Como descrito no tópico 2.6.2, a transformada de Fourier é utilizada para decompor as informações espaciais de um determinado dado em uma imagem complexa no domínio da frequência. Em termos práticos, podemos dizer que a transformada de Fourier, aplicada às séries temporais, permite decompor as variações temporais de uma determinada série, como, por exemplo, índices de vegetação, precipitação, reflectância da superfície, em sinais que representam as oscilações anuais, semestrais, trimestrais, entre outras, ou seja, seus componentes harmônicos (amplitude e fase).

Segundo Gonzalez e Woods (2008) na análise de números complexos, em muitos casos é conveniente expressar a transformada de Fourier em coordenadas polares (equação 6):

Eq. (6)em que as equações abaixo (7 e 8) representam os valores de amplitude e fase, respectivamente.

Page 47: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

47

Eq. (7)

Eq. (8)

Desta forma, a análise harmônica permite expressar uma função complexa em função das ondas senoidais e cossenoidais, definidos pelos valores de amplitude e fase. Consequentemente, a amplitude relaciona-se com a metade do valor na qual a função é maximizada e a fase representa o deslocamento entre a origem e o pico da onda, variando entre 0 e 2π (Davis, 1986). Segundo Lacruz et al. (2005) cada termo indica o número de ciclos completados por uma onda em determinado intervalo de tempo. Assim, o primeiro harmônico tem um período T (onda anual) característico da série temporal total; o segundo harmônico possui um período igual à metade do primeiro harmônico T/2 (semestral) e assim sucessivamente. Ressalta-se que os três primeiros harmônicos são satisfatórios para delinear a função periódica. Para maiores informações consultar Panofsky e Brier (1968), Wilks (1995), Jakubauskas et al. (2001) e Lacruz e Santos (2007).

A Figura 31 mostra um exemplo extraído de Lacruz et al. (2005) contendo uma imagem referente à análise harmônica dos dados de EVI (índice de vegetação melhorado) para o ano de 2003 em uma área de pastagem na Floresta Nacional de Tapajós, Santarém, Pará. Esta figura indica que as principais variações na área estudada pelos autores possuem características semestrais, como indicado no primeiro harmônico (linha azul no diagrama) com pico entre maio/junho.

Segundo os autores, as variáveis amplitude e fase podem indicar os tipos de mudanças que estão ocorrendo em determinada área. Assim, mudanças sazonais na amplitude estão relacionadas com variações nas condições fenológicas da vegetação (estresse hídrico, aridez, inundações, entre outros) ou no uso e cobertura da terra. Variações na fase indicam alteração da data de plantio ou de colheita (para áreas agrícolas) e variações no vigor vegetativo (florestas). Ainda, mudanças em ambas as variáveis estão relacionadas com mudanças no manejo da terra, variações climáticas regionais, alterações na vegetação e regeneração da vegetação após um episódio de queimada.

Figura 31. Imagem referente ao primeiro harmônico para o ano de 2003 e respectivo diagrama contendo o primeiro harmônico (linha azul), segundo harmônico (linha vermelha) e terceiro harmônico (linha verde).

Fonte: Adaptado de Lacruz et al. (2005).

Page 48: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

48

3.2 Transformada de Wavelet (TW) A transformada de wavelet (TW) é um método quantitativo de decomposição de variâncias derivados de séries temporais que permite decompor e recompor dados de sensoriamento remoto em diferentes escalas temporais, no domínio da frequência, em que cada escala é representada por uma frequência específica. Esse método pode ser denominado de técnica de análise conservativa da variância, pois a soma das variâncias originadas no domínio da frequência é igual à variância total da série temporal não transformada (Torrence and Webster, 1999). Cabe destacar que a TW é utilizada em muitas outras aplicações, que fogem do escopo do texto.

A TW é utilizada para converter séries temporais em uma série com os coeficientes da wavelet, na qual cada um destes representa a amplitude relacionada com uma função wavelet em uma dada posição (Clemen, 1997). Cada coeficiente gerado pela TW representa a melhor correlação entre a função escolhida e a relação da variabilidade temporal dos dados analisados. Um exemplo de aplicativo que possui um módulo para análise de séries temporais a partir da TW é denominado IDL Wavelet Toolkit. Este programa utiliza as transformações contínuas e discretas (Daubechies, 1992; Mallat, 1989), indicando no eixo x a intensidade temporal (mensal) e no eixo y a escala de variação temporal (inverso da frequência). Nos gráficos originados por este programa, a escala de cores representa a potência, valor absoluto ao quadrado dos coeficientes gerados pela TW, sendo que o peso de cada ponto determina a contribuição de cada dado na variabilidade total da série. O nível de significância é originado pelo teste χ-quadrado com dois graus de liberdade.

Como exemplo da aplicabilidade da TW pode-se citar o trabalho realizado por Pereira et al. (2010) que utilizou esta técnica para decompor os dados de NDVI para a região do Pantanal Brasileiro. A Figura 32 apresenta os espectros de potência e o gráfico da variabilidade temporal do NDVI (dados mensais, de 2000 a 2010) para uma área de Ecótono (Figura 32a) e Formação Florestal (Figura 32b) no Bioma Pantanal. Para analisar os resultados da TW, deve-se verificar a localização dos valores dos espectros de potência em relação ao eixo x (que indica o intervalo de variação de determinado fenômeno) e no eixo y, que indica a intensidade deste fenômeno.

Page 49: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

49

Figura 32. Gráfico do índice de vegetação NDVI e espectro de potência para a classe ecótono (a) e para formações florestais (b).

Fonte: Adaptado de Pereira et al. (2010).

Como exemplo, podemos verificar que a classe ecótono (Figura 32a) apresenta uma variação quinquenal (a cada 64 meses aproximadamente). Nesta área, percebe-se que houve uma diminuição significativa nos valores de NDVI a partir do segundo semestre de 2004 (entre 40-100 meses, eixo x), indicando uma provável área de alagamento que não existia nos anos anteriores ou mesmo uma queda na produtividade primária da vegetação. Ao contrário, a amostra selecionada compreendendo uma área de Floresta Estacional Semidecidual (Figura 32b) apresenta variação semestral (a cada 6 meses, eixo y), chamando a atenção para uma considerável variação ocorrida a partir de junho de 2005 e 2008 (entre 60 e 100 meses, eixo x). A variação semestral, possivelmente, ocorre devido à queda das folhas na época seca, aumentando a produtividade primária na época chuvosa. Na análise de séries temporais pela TW é sempre importante considerar o tamanho da amostra (número de anos) e a consistência dos resultados.

Page 50: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

50

Figura 33. (a) Imagem do sensor MODIS para o ano de 2009 (ano de menor alagamento), composição 1B2R6G (vegetação em tons de vermelho, hidrografia em preto); (b) Imagem do sensor MODIS para o ano de 2000 (ano de maior alagamento), composição 1B2R6G (vegetação em tons de vermelho, hidrografia em preto); (c) e (d) Mapa da variabilidade temporal da reflectância no infravermelho próximo obtida a partir da

utilização da técnica ACP (segunda e terceira componentes principais, respectivamente).Fonte: Adaptado de Pereira et al. (2010).

Essa mistura ocorre devido à existência de mais de um alvo na área de abrangência de cada pixel, em que o valor digital possui informações sobre a proporção da mistura entre cada componente pura (Shimabukuro e Smith, 1991; Roberts et al., 1998). Sendo assim, no MLME é utilizada uma relação linear para representar a mistura espectral dos alvos em cada pixel, em que a resposta espectral dos pixels em qualquer comprimento de onda pode ser considerada como uma combinação linear de cada componente da mistura (Shimabukuro e Smith, 1991).

Page 51: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

51

A resposta espectral que compõe cada pixel inclui uma grande variedade de alvos da superfície terrestre, e essa resposta dependerá da resolução espacial de cada sensor. Como consequência, pixels de sensores de alta resolução espacial possuem uma maior probabilidade de serem formados pela resposta de alvos únicos, ou puros, sendo que esta característica não ocorre em pixels que compõem grandes extensões terrestres, nestes, a mistura espectral se torna indesejada, pois mascara a resposta característica de cada alvo, dificultando assim a sua identificação (Teixeira, 2004).

Os pixels puros (endmembers) a serem utilizados como dados de entrada para o modelo são selecionados diretamente na imagem (image endmember), a partir da seleção de pixels com a resposta espectral mais próxima da curva teórica esperada para alvos puros. Os endmembers geralmente utilizados são compostos pelas imagens fração vegetação, solo e sombra. Desta forma, o valor de um determinado pixel pode ser descrito como: ρi = a*vegi + b*soloi + c*sombrai + ei Eq. (9) em que ρi é a resposta da reflectância do pixel na banda i; a, b e c são as proporções de vegetação, solo e sombra, respectivamente; vegi, soloi e sombrai são as respostas espectrais das componentes vegetação, solo e sombra (ou água), respectivamente; ei é o erro na banda i.

Figura 34. Composição colorida das três primeiras componentes principais, originadas a partir das imagens fração vegetação provenientes dos dados de reflectância de superfície do MODIS/TERRA.

Fonte: Arai et al. (2009).

4. Aplicações do PDI (Estudo de Casos) O processamento digital de imagens é utilizado em uma grande gama de aplicações envolvendo a análise e estudo do ambiente. Dentre eles, pode-se citar o trabalho de Lima et al., (2009), que utilizaram o MLME no mapeamento das cicatrizes de queimadas na Amazônia brasileira em imagens do sensor MODIS. Neste trabalho, os autores utilizaram imagens do produto de refletância de superfície (MOD09) do sensor MODIS e o processamento digital das imagens MODIS baseou-se na metodologia aplicada pelo projeto PRODES para a identificação de áreas desmatadas. Para a detecção de áreas queimadas, foi aplicado o

Page 52: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

52

MLME com posterior segmentação da fração sombra com o intuito de gerar polígonos espectralmente homogêneos. Os limiares empregados foram 8 para similaridade (limiar mínimo abaixo do qual duas regiões são consideradas similares e agrupadas em um único polígono) e 4 para área (valor mínimo de área dado em número de pixels, para que uma região seja individualizada). Em seguida foi realizada a classificação não supervisionada por regiões por meio do algoritmo Isoseg e posterior edição da classificação, conforme pode ser visualizado na Figura 35.

Figura 35. Mapeamento das cicatrizes de queimadas no ano de 2005 na região Amazônica utilizando o MLME.

Fonte. Lima et al., (2009).

Outra aplicação utilizando dados de sensoriamento remoto e técnicas de processamento de imagens pode ser analisada no trabalho de Cardozo e Herrmann (2011), que utilizaram a técnica de processo analítico hierárquico (AHP) no mapeamento de áreas suscetíveis a escorregamentos na bacia do rio Forquilhas em São José, Santa Catarina. A elaboração do mapa das áreas suscetíveis a escorregamentos teve como base o cruzamento de cinco mapas temáticos (geologia, geomorfologia, solos, formas das encostas e declividade), a partir da definição dos critérios do cruzamento dos mapas temáticos e posterior manipulação da técnica AHP. A técnica AHP possui base matemática que permite organizar e avaliar a importância relativa entre critérios e medir a consistência das ponderações, sendo uma das ferramentas de múltiplos critérios de decisão mais utilizada. Ainda, a AHP é flexível na integração com diferentes técnicas, permitindo a extração de informações a partir dos resultados de todos os métodos combinados (Vaidya e Kumar, 2004).

O processamento das imagens foi iniciado a partir da aplicação de pesos diferenciados em função de sua importância para a ocorrência de escorregamentos, definidos previamente. Posteriormente, foi gerado um script em extensão .alg (gerada automaticamente pelo SPRING), no qual outras informações requeridas foram completadas, inclusive com a escolha dos pesos para cada classe temática dos mapas escolhidos, fornecendo como resultado uma grade numérica referente a média ponderada das variáveis em questão. Após a etapa de atribuição de pesos e ponderação das classes, foi realizado um fatiamento do resultado obtido,

Page 53: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

53

definindo-se cinco classes hierárquicas da suscetibilidade aos escorregamentos, visualizadas na Figura 36.

igura 36. Utilização da técnica AHP para o mapeamento das das áreas suscetíveis a escorregamentos da bacia do rio forquilhas.

Fonte. Cardozo e Herrmann., (2011).

Cruz et al. (2011) utilizaram diversos índices de vegetação para avaliar a cobertura vegetal na bacia do rio Japaratuba-Mirim, Sergipe. Neste trabalho foi utilizada uma imagem do sensor TM/Landsat 5, e após o registro da imagem, foi realizada a correção atmosférica das bandas por meio da aplicação do método de subtração de objetos escuros (DOS), proposto por Chávez (1998), pois o cálculo adequado dos índices de vegetação necessitam de valores físicos, como radiância ou reflectância de superfície (Ponzoni e Shimabukuro, 2010), sendo que a conversão pixel a pixel para radiância bidirecional aparente foi realizada segundo a equação proposta por Markham e Baker (1987).

Os índices utilizados foram o Índice de Vegetação da Razão Simples (SR), índice pioneiro proposto por Jordan (1969) e que utiliza a divisão entre as bandas do infravermelho próximo e vermelho; o Índice de Vegetação por Diferença Normalizada (NDVI), proposto por Rouse et al., (1973), em que as áreas de vegetação mais intensa possuirão valores mais altos e as áreas não-vegetadas valores mais baixos, constituindo-se em um dos índices de vegetação de maior difusão, com larga aplicabilidade em estudos de culturas agrícolas, florestas e clima; o Índice de Vegetação Ajustado para o Solo (SAVI), que surgiu como alternativa ao NDVI buscando minimizar o efeito do solo no seu valor final (Huete et al., 1988), conforme a equação 10; e o Índice de Vegetação Melhorado (EVI), que busca otimizar o sinal da vegetação, intensificando a resposta em regiões de elevada concentração de biomassa, minimizando as interferências atmosféricas e do solo nas respostas (Huete et al., 1994), em que L é o fator de ajuste para o solo (1,0), G é o fator de ganho (2,5) e C1 e C2 são coeficientes de ajuste para o efeito de aerossóis da atmosfera (6,0 e 7,5), conforme equação 11. As operações algébricas componentes dos índices foram realizadas por meio do módulo Raster Calculator do ArcGIS, e o resultado pode ser visualizado nas Figura 37 e Figura 38.

Page 54: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

54

SAVI= (ρ_nir- ρ_red)/(ρ_nir+ ρ_red+L).1=L Eq. (10)

EVi=G . (ρ_nir- ρ_red)/(〖L+ρ〖_nir+ 〖C1 . ρ〖_red-C2 . ρ_A ) Eq. (11)

Figura 37. Classes de tipos de cobertura vegetal e aplicação do Índice de Vegetação da Razão Simples (SR) (A) e Índice de Vegetação por Diferença Normalizada (NDVI) (B)

Fonte. Cruz et al., (2011).

Page 55: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

55

Figura 38. Classes de tipos de cobertura vegetal e aplicação do Índice de Vegetação Ajustado para o Solo (C) e Índice de Vegetação Melhorado (EVI) (D).

Fonte. Cruz et al., (2011).

Ainda, pode-se citar o trabalho de Vasconcelos e Crósta (2011), os quais realizaram uma interpretação geológica-estrutural da cratera meteorítica da Serra da Cangalha, Tocantins, a partir de imagens do sensor HRC do satélite CBERS-2B. Neste trabalho, foi utilizado o modelo de elevação digital – GDEM/ASTER, com 30 metros de resolução espacial. A metodologia consitiu da transformação do sistema de coordenadas com o objetivo de compatabilização com a base de dados utilizada; registro espacial, tendo como referência uma cena do satélite WorldView-1; realce textural, para facilitar a extração de lineamentos e outras estruturas geológicas; extração de informações geológicas utilizando o software ArcGIs; e elaboração de rosetas que indicaram a configuração estrutural de impacto da Serra da Cangalha/TO, em diversos setores, conforme Figura 39.

Figura 39. Lineamentos extraídos da imagem CBERS-2B para a região do núcleo soerguido da Serra da Cangalha, Tocantins.

Fonte. Vasconcelos e Crósta (2011).

Page 56: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

56

5. Considerações Finais O objetivo desse material foi apresentar as principais definições associadas ao processamento digital de imagens. Nesse sentido, o texto apresentou os fundamentos básicos e exemplos de aplicações. De forma sucinta discutiram-se as principais técnicas de correção de imagens e análise de imagens, como, por exemplo, correção radiométrica, correção atmosférica, correção geométrica, transformações IHS, operações matemáticas com imagens, fatiamento de imagens, classificação de padrões nas imagens, entre outras. Ainda, o material apresentou algumas técnicas para a análise temporal algumas aplicações gerais do PDI.

Page 57: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

57

BIBL

IOG

RAFI

AAIZENBERG, I. N.; BUTAKOFF, C. Frequency domain medianlike filter for periodic and quasi-periodic noise removal. In: Proc. SPIE Image Processing: Algorithms and Systems, vol. 4667, pp. 181-191. 2002.

ARAI, E. ; ADAMI, M. ; FREITAS, R. M. de ; RAO, V. B. ; MOREIRA, M. A. . Análise de Séries Temporais MODIS e TRMM nas áreas de caatinga, cerrado e floresta. In: XIV Simpósio Brasileiro de Sensoriamento Remoto, 2009, Natal- RN. Anais .... São José dos Campos, SP : INPE, 2009. v. CD-ROM. p. 5081-5088.

BARRY, P. EO-1/ Hyperion science data user’s guide. Redondo Beach, CA: TRW Space, Defense & Information Systems. 65 p. CAGE, No. 11982, n. HYP.TO.01.077, Rev Public Release L1_B. 2001.

BENSEBAA K. W.; Fonseca, L. M. G.; BANON G. J. F.; ERTHAL, G. J. On-orbit Spatial Resolution Estimation of CBERS-2 Imaging System Using Ideal Edge Target, In: Signal Processing for Image Enhancement and Multimedia Processing. Springer, 2007, 1ª ed., v.31, p. 1-14.

BENSEBAA, K. Estimação da resolução espacial da câmera CCD dos satélites CBERS 1 e 2. 2005. 90 p. (INPE-13597-TDI/1036). Tese (Doutorado em Computação Aplicada) - Instituto Nacional de Pesquisas Espaciais, São José dos Campos, 2005. Disponível em:<http://urlib.net/sid.inpe.br/jeferson/2005/05.25.18.15>. Acesso em: 19 jan. 2012.

BERK, A.; BERNSTEIN, L. S.; ANDERSON, G. P.; ACHARYA, P. K.; ROBERTSON, D. C.; CHETWYND, J. H.; ADLER-GOLDEN, S. M. MODTRAN cloud and multiple scattering upgrades with application to AVIRIS. Remote Sensing of Environment, v. 65, n. 3, p. 367–375. doi:10.1016/S0034-4257(98)00045-5. 1998.

BINS, S. A.; Fonseca, L. M. G.; ERTHAL, G. J.;II, F. M. Satellite Imagery segmentation: a region growing approach. Anais do VIII Simpósio Brasileiro de Sensoriamento Remoto, Salvador, p., 14-19, 1996.

CARDOZO, F. S.; HERRMANN, M. L. P. Uso da técnica AHP no mapeamento de áreas suscetíveis a escorregamentos. Anais do XV Simpósio Brasileiro de Sensoriamento Remoto, Curitiba, p. 4134 - 4141, 2011.

CARVALHO, L. A. S.; STRAUSS, C.; Fonseca, L. M. G. Determinação da resolução espacial efetiva da câmera HRC-CBERS-2B pelo método de espalhamento de borda. In: SIMPÓSIO BRASILEIRO DE SENSORIAMENTO REMOTO, 14. (SBSR), 2009, Natal. Anais... São José dos Campos: INPE, 2009. p. 1975-1982. DVD, On-line. ISBN 978-85-17-00044-7. (INPE-15849-PRE/10459). Disponível em:<http://urlib.net/dpi.inpe.br/sbsr@80/2008/11.13.17.41>. Acesso em: 19 jan. 2012.

CLEMEN, T. Integrating Simulation Models into Environmental Information Systems-Model Analysis. In: Denzer, R. et al., 1997. Environmental Software Systems, Chapman and Hall, London, p. 292–299,1997.

CHANDER, G., HELDER, D.L. AND BONCYK, W.C. LANDSAT—4/5 BAND 6 Relative Radiometry. IEEE Trans. Geosciences & Remote Sensing, v. 40, n. 1, p. 206-210. 2002. CHÁVEZ, P. S. An improved dark-object subtraction technique for atmospheric scattering

Page 58: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

58

BIBL

IOG

RAFI

Acorrection of multispectral data. Remote Sensing of Environment, 24, 459-479, 1998.CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto. Ed. Ver. Campinas, SP. IG/UNICAMP. 1993. 170p.

CRUZ, M. A. S.; SOUZA, A. M. B.; JESUS, J. S. Avaliação da cobertura vegetal por meio dos Índices de Vegetação SR, NDVI, SAVI e EVI na bacia do rio Japaratuba-Mirim em Sergipe. Anais do XV Simpósio Brasileiro de Sensoriamento Remoto, Curitiba, p. 1357 - 1364, 2011.

DAVIS, J.C. Statistics and data analysis in geology. New York: J. Wiley and Sons, 1986. 646 p.

D’ALGE, J. C. L. Processamento digital de imagens - correção geométrica de imagens de sensoriamento remoto. Material audio visual. São José dos Campos: DSR-INPEDisponível em: < http://www.dpi.inpe.br/~julio/arquivos/Pdi-ser-437.pdf >. Acesso em 21 de janeiro de 2012.

DAUBECHIES, I. Ten Lectures on Wavelets. Society for Industrial and Applied Mathematics, 357 pp, 1992.

ERTHAL, J. G.; Fonseca, L.M.G.; BINS, L.S.A. Um Método de Classificação não-supervisionada por Regiões. Anais do V Simpósio Brasileiro de Computação Gráfica e Processamento de imagens,Recife, vol.4, p.65-68, 1993.

FLORENZANO, T. G. Imagens de satélites para estudos ambientais. São Paulo: Oficina de Textos, 2002.

Fonseca, L. M. G. Restauração e interpolação de imagens do satélite Landsat por meio de técnicas de projeto de filtros FIR. 1988. 148 p. (INPE-6628-TAE/30). Dissertação (Mestrado em Engenharia Elétrica) - Instituto Tecnológico da Aeronáutica, São José dos Campos. 1988.Fonseca, L. M. G. Processamento Digital de Imagens. São José dos Campos, 150 p., 2000.GALVÃO, L. S. Sensoriamento remoto hiperespectral. 2003. Notas de aula - Material visual. 55 p. Disponível em: < http://www.ufrgs.br/leaa/arquivos/aulas/SERP06/Porto_Alegre3_2006.pdf >. Acesso em 19 de janeiro de 2012.

GONZALEZ, R. C.; WOODS, R. E. Digital Imaging Processing. 2 ed., Reading, MA: Addison-Wesley, 716p., 2001.

GONZALEZ, R. C.; WOODS, R. C.; EDDINS, S. L. Digital Image Processing Using MATLAB. Pearson Education, 2004. 609 p.

GONZALEZ, R. C.; WOODS, R. E. Digital Image Processing. 3ª ed. New Jersey: Prentice Hall, 2008. 954 p.

GOODENOUGH, D.G.; DYK, A.; NIEMANN, K.O.; PEARLMAN, J.S.; HAO CHEN HAN, T.; MURDOCH, M.; West, C. Processing Hyperion and ALI for forest classification. IEEE Trans. Geosci. Remote Sens. v. 41, p. 1321–1331. 2003.

HALL, D. K.; RIGGS, G. A.; SALOMONSON, V. V. Modis/Terra Snow Cover 8-day L3 Global 500m Grid V005. Boulder, Colorado USA: National Snow and Ice Data Center.

Page 59: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

59

BIBL

IOG

RAFI

A2006. Disponível em: < http://nsidc.org/data/docs/daac/modis_v5/mod10a2_modis_terra_snow_8-day_global_500m_grid.gd.html >. Acesso em: 1 nov. 2009.

HUETE, A. R. A soil-adjusted vegetation index. Remote Sensing of Environment, Elsevier Science Publishing Co., New York, USA. 25: 295-309, 1988.

HUETE, A., JUSTICE, C., LIU, H. Development of vegetation and soil indices for MODIS-EOS. Remote Sensing of Environment, 29, 224–234, 1994.

INPE - Instituto Nacional de Pesquisas Espaciais. CBERS-1: qualidade radiométrica. 2003. Disponível em: < http://www.dpi.inpe.br/~leila/talks/SBC-01092003.pdf >. Acesso em: 18 de setembro de 2012.

JAKUBAUSKAS, M.E. ET AL. Harmonic analysis of time-series AVHRR NDVI data. Photogrammetric Engineering and Remote Sensing, v. 67, n. 4, p. 461 – 470, 2001.JENSEN, J. R. Introctory Digital Image Processing: A Remote Sensing Perspective. Prentice-Hall, Englewood-Cliffs, New Jersey, 1986.

JENSEN, R. J. Sensoriamento Remoto do Ambiente. 2ª ed. São José dos Campos: Parêntese, 2009. 598 p.

JORDAN, C. F. Derivation of leaf area index from quality of light on the Forest floor. Ecology, 50: 663-666, 1969.

KOTCHENOVA, S. Y.; VERMOTE, E. F.; MATARRESE, R; KLEMM, F. J. Validation of a vector version of the 6S radiative transfer code for atmospheric correction of satellite data. Part I: Path Radiance. Applied Optics, v. 45, n. 26, p. 6762–6774. Bibcode 2006ApOpt..45.6762K. doi:10.1364/AO.45.006762. PMID 16926910. 2006.

LACRUZ, M. P.; SANTOS, J.R.; CONFORTE, J.C. Utilização de séries temporais de imagens MODIS/TERRA e análise harmônica para o monitoramento de corredores ecológicos. In: Simpósio Brasileiro de Sensoriamento Remoto (SBSR), 12, 16-21 abr. 2005. Goiania. Anais... São José dos Campos: INPE, 2005. Artigos, p. 3223-3228. CD-ROM, Online. ISBN 85-17-00018-8.

LACRUZ, M.P., SANTOS, J.R. Monitoramento da paosagem de unidades de conservação. In: Rudorff, B. F. T.; Shimabukuro, Y. E.; Ceballos, J. C. (Org.). O sensor MODIS e suas aplicações no Brasil. São José dos Campos: Editora Parêntese, 2007. cap. 13, p.173-183.LIMA, A.; SHIMABUKURO, Y. E.; ADAMI, M.; FREITAS, R. M.; ARAGÃO, L. E.; FORMAGGIO, A. R.; LOMBARDI, R. Mapeamento de cicatrizes de queimadas na amazônia brasileira a partir da aplicação do modelo linear de mistura espectral em imagens do sensor MODIS. Anais do XIV Simpósio Brasileiro de Sensoriamento Remoto, Natal, p. 5925 - 5932, 2009.

MALDONADO, F. D. Análise por Componentes Principais (ACP) na caracterização da dinâmica do uso da terra em área do semi-árido brasileiro: Quixaba-PE. Dissertação (Mestrado em Sensoriamento Remoto), INPE, São José dos Campos, 1999.MALLAT, S. Multiresolution approximation and wavelets. Trans. Amer. Math. Soc., 315, 69–88, 1989.

Page 60: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

60

BIBL

IOG

RAFI

AMARKHAM, B. L.; BARKER, L. L. Thematic mapper bandpass solar exoatmospherical irradiances. International Journal of Remote Sensing, v. 8, n. 3, p. 517-523, 1987.MATHER, P.M. Computer processing of remotely-sensed images: an introduction. Great Britain: John Wiley & Sons, 1999. 210p.

MELO, D. H. C. T. B. Uso de dados Ikonos II na análise urbana: testes operacionais na zona leste de São Paulo / D. H. C. T. B. Melo. - São José dos Campos: INPE, 146p. - (INPE-9865-TDI/870). 2002.

NASA - National Aeronautics and Space Administration. Geocover 2000 circa. 2004. Disponível em: < http://zulu.ssc.nasa.gov/mrsid/ >. Acesso em 21 de janeiro de 2012.

NASA - National Aeronautics and Space Administration. Moderate Resolution Imaging Spectroradiometer (MODIS) - Official web site. Washington – DC: NASA Headquarters, 2009. Disponível em: < http://modis.gsfc.nasa.gov/ >. Acesso em: 28 nov. 2009.

NIBLACK,W. An introduction to Digital Image processing. Prentice-Hall, Englewood-Cliffs, New Jersey, 1986.

PANOFSKY, H.A.; BRIER, G.W. Some applications of statistics to meteorology. Pennsylvania: University Park, 1968. 224 p.

PEARLMAN, J. S.; BARRY, P. S.; SEGAL, C. C.; SHEPANSKI, J.; BEISO, D.; CARMAN, S. L. Hyperion, a space-based imaging spectrometer. IEEE Transactions on Geoscience and Remote Sensing, v. 41, n. 6, p. 1160-1173, 2003. PEREIRA, L. O. ; CARDOZO, F. S. ; MOURA, Y.M. ; Fonseca, L. M. G. ; PEREIRA, G. ; MORAES, E. C. . Delimitação das áreas alagadas do Pantanal a partir da análise por Componentes Principais e Transformada Wavelet. In: 3º Simpósio de Geotecnologias no Pantanal, 2010, Cáceres - MT. Anais ..., p. 200-209, 2010.

PONZONI, F. J.; SHIMABUKURO, Y. E. Sensoriamento remoto no estudo da vegetação. São José dos Campos: Parêntese, 2009.

REEVES, R. G.; ANSON, A.; LANDEN, D. Manual of Remote Sensing. Falls Church: American Society of Photogrammemtry, 867 p. 1975.

RICE, B. Hyperspectral Digital Data: AVIRIS data cube. Disponível em: < http://www.sarracenia.com/astronomy/remotesensing/primer0350.html >.Acesso em 19 de janeiro de 2012.

ROBERTS, D. A.; BATISTA, G. T.; PEREIRA, J. L. G.; WALLER, E. K.; NELSON, B. W. Change identification using multitemporal spectral mixture analysis: applications in eastern Amazonia. In: Lunetta R. S.; Elvidge C. D. (ed.). Remote sensing change detection: environmental monitoring methods and applications. Michigan: Ann Arbor Press, v.1, cap. 9, p. 137 – 161, 1998.

ROUSE, J. W.; HAAS, H. R.; SCHELL, J. A.; DEERING, D. W. Monitoring vegetation systems in the great plain with ERTS. In: Earth Resources Technology Satellite - 1 Symposium , 3, Proceedings. Washington, v.1, Sec. A, p. 309-317, 1973.

Page 61: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

61

SABINS, F. F. Remote sensing: Principles and interpretation. 3ª ed. Long Grove: Waveland Press Inc., 2009. 494 p.

SANTOS, A. R.; PELUZIO, T. M. O.; SAITO, N. S. SPRING 5.1.2: passo a passo: aplicações práticas. Alegre, ES: CAUFES. 2010. 153 p.

SCHOWENGERDT,R.A. Remote Sensing: Models and Methods for Image Processing. 2nd Edition, Academic Press, Inc, 1997.

SEARA, D. M. Algoritmos para detecção de bordas. Florianópolis, 1998. Disponível em <http://www.inf.ufsc.br/~visao/1998/seara/index.html> Acesso em: 25 jan. 2012.

SIB – Space Imaging Brasil. Especificações técnicas do IKONOS. Disponível em: < http://www.spaceimaging.com.br/novosite11/especificacoes.php >. Acesso em 20 de janeiro de 2012.

SHIMABUKURO, Y. E.; SMITH, J. A. The least squares mixing models to generate fraction images derived from remote sensing multispectral data. IEEE Transactions on Geoscience and Remote Sensing, v. 29, n. 1, p. 16-20, 1991.

SMITH, S. W. The Scientist and Engineer’s Guide to Digital Signal Processing. 2ª ed. San Diego: California Technical Publishing, 640 p. 1999.

TEIXEIRA, C. G. Validação do Modelo Linear de Mistura Espectral em Imagens ASTER/TERRA a partir de dados Ikonos. 2004. 127 p. (INPE-13183-TDI/1029). Dissertação (Mestrado em Sensoriamento Remoto) - Instituto Nacional de Pesquisas Espaciais, São José dos Campos. 2004.

TORRENCE, C., AND P. WEBSTER. Interdecadal changes in the ENSO-Monsoon system. Journal of Climate, n. 12, p. 2679–2690. 1999.

TSAI, F.; LIN, S.; RAU, J.; CHEN, L.; LIU, G. Destriping Hyperion Imagery Using Spline Interpolation, In: Proc. 26th Asian Conf. Remote Sensing, November, Hanoi, Vietnam (2005).

USGS – United States Geological Survey. Landsat: Landsat Missions Timeline. Disponível em: < http://landsat.usgs.gov/about_mission_history.php >. Acesso em 20 de janeiro de 2012.

VAIDYA, O. S.; KUMAR, S. Analytic hierarchy process: An overview of applications. European Journal of Operational Research, p. 1 – 29, 2004.

VASCONCELOS, M. A. R.; CRÓSTA, A. P. Uso do CBERS-2B/HRC para a interpretação geológica-estrutural da cratera meteorítica da Serra da Cangalha, Tocantins. Anais do XV Simpósio Brasileiro de Sensoriamento Remoto, Curitiba, p. 2685 - 2691, 2011.

XIONG, J.; TOLLER, G.; CHIANG, V.; SUN, J.; ESPOSITO, J.; BARNES, W. MODIS Level 1B Algorithm Theoretical Basis Document: MODIS Characterization Support Team, Version 3. Pasadena: GSFC/NASA, 2005. Disponível em: < http://mcst.gsfc.nasa.gov/uploads/files/documents/M1058.pdf >. Acesso em: 11 jun. 2008.

BIBL

IOG

RAFI

A

Page 62: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

62

XIONG, X.; BARNES, W. MODIS calibration and characterization. In: Qu, J.; Gao, W.; Kafatos, M.; Murphy, R.; Salomonson, V. Earth science satellite remote sensing. vol. 2. Berlin: Springer-Verlag, 2005. cap. 4, p. 77-97.WILKS, D.S. Statistical methods in the atmospheric sciences: an introduction. San Diego, California: Academic Press, 1995. 467 p.

BIBL

IOG

RAFI

A

Page 63: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

63

ATIV

IDA

DES

1) Faça uma síntese sobre os conceitos básicos do PDI.2) Por que o IFOV, FOV, e GIFOV não são sempre do mesmo tamanho do pixel de uma imagem. Apresente os conceitos e discuta as relações entre eles.3) Em relação aos sensores apresentados, apresente uma discussão sobre a aplicação potencial de cada um deles na área de geociências. Feito isso, procure se informar, sobre outros sensores disponíveis atualmente.4) O que é a correção radiométrica, atmosférica e geométrica. Qual a importância da correta realização dessas correções? Explique.5) O que o histograma pode nos dizer a respeito da distribuição dos dados, da frequência espacial e em relação a presença de ruídos na imagem. Discuta.6) Por que usamos da filtragem de imagens? Quais os principais tipos de filtros e suas aplicações?7) Por que não podemos (não é recomendado) utilizar filtros sobre imagens quando queremos fazer uma análise das feições espectrais de imagens? 8) Em relação à cor, discuta as vantagens e desvantagens dos sistemas RGB e IHS.9) O que significa ganho e offset nas operações matemáticas? O que são operações lineares e não lineares. Cite exemplos.10) O que é segmentação de imagens e quais os tipos e parâmetros utilizados?11) Sobre os métodos de classificação, como podem ser divididos e quais as grandes diferenças entre esses grupos de classificadores?12) Em relação os métodos de análise de séries temporais, faça um resumo (15 linhas para cada) sobre a análise harmônica, transformada wavelet e principais componentes.13) Por fim, considerando as aplicações apresentadas, quais outras aplicações vocês vislumbra para o PDI, considerando sua área de atuação? Discuta.

Exercícios práticos: Após a leitura de todos os tópicos brevemente abordados nesse texto, podemos partir para as atividades práticas. Para tal, utilizaremos um banco de dados pronto da cidade de Brasília, disponível em: < http://www.dpi.inpe.br/spring/download/bin/windows/banco_demo.exe >. Como exercício, procure fazer todos os procedimentos apresentados, utilizando os aplicativos SPRING e ENVI. Os procedimentos a serem realizados são apresentados na sequência.

1) Importe uma imagem já georreferenciadas. Essas imagens podem ser obtidas de diversos bancos de dados, como por exemplo, os dados de elevação do projeto Topodata, disponíveis gratuitamente em: < http://www.dsr.inpe.br/topodata/ >. 2) Aplicação de contraste e elaboração de uma composição sintética no SPRING. Deste os efeitos de diferentes modelos de contraste. 3) Faça o fatiamento da banda do vermelho e avalie em que região do lago Paranoá apresenta, possivelmente, uma maior concentração de sedimentos em suspenção. Para isso, faça uso dos conhecimentos de comportamento espectral de alvos. Faça o fatiamento com 5, 10 e 16 fatias, além do arco-íris. 4) Faça a correção atmosférica através do modelo DOS (no SPRING ou ENVI, de acordo com sua escolha). 5) No SPRING, aplique um filtro 3x3 e 11x11 sobre a banda do infravermelho próximo. Avalie os resultados apresentando potenciais aplicações de cada tamanho de máscara.6) Faça a transformação RGB para IHS e a IHS para RGB no SPRING.7) Elabore uma imagem rotulada com diferentes limiares de área e similaridade no SPRING. Avalie os resultados.

Page 64: Processamento Digital de Imagens - PDI

Proc

essa

men

to D

igit

al d

e Im

agen

s/ P

DI -

GEO

TEC

64

ATIV

IDA

DES

8) Faça uma classificação supervisionada e não supervisionada. Lembre-se de fazer a seleção de amostras de treinamento para a classificação supervisionada.9) Considerando a análise por principais componentes, execute essa transformação no SPRING.10) Procure elaborar um estudo de caso, aplicando as etapas discutidas, para sua área de estudo e de acordo com os objetivos do seu trabalho.