47
Processamento de Imagens de Radar Orbital Luiz Rios

00775 - Processamento de Imagens de Radar Orbital

Embed Size (px)

Citation preview

Page 1: 00775 - Processamento de Imagens de Radar Orbital

Processamento de Imagens de Radar

Orbital

Luiz Rios

Page 2: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket.com, 2000

Sumário

Luiz Aristides Rios INTRODUÇÃO ..................................................................................................................................................................................................................2 1. SENSORIAMENTO REMOTO ORBITAL.............................................................................................................................................................3

1.1. RADARES ORBITAIS.....................................................................................................................................................................................................5 1.2. RADARSAT...................................................................................................................................................................................................................7

2. RADAR........................................................................................................................................................................................................................ 10 2.1. RADARES SAR...........................................................................................................................................................................................................12 2.2. TEORIA ELETROMAGNÉTICA....................................................................................................................................................................................13

3. ELEMENTOS DE INTERPRETAÇÃO DE IMAGENS DE RADAR................................................................................................................20 3.1. PROCESSAMENTO E ANÁLISE DE IMAGENS SAR.......................................................................................................................................................21

4. ELEMENTOS DA AQUISIÇÃO DE IMAGENS SAR ..........................................................................................................................................22 4.1. CARACTERÍSTICAS DE REFLEXÃO..............................................................................................................................................................................22 4.2. GEOMETRIA DE IMAGEAMENTO...............................................................................................................................................................................23 4.3. TIPO DE ÓRBITA........................................................................................................................................................................................................25 4.4. ÂNGULO DE INCIDÊNCIA COM A NORMAL DA SUPERFÍCIE.......................................................................................................................................25 4.5. ÂNGULO DE INCIDÊNCIA NO PLANO HORIZONTAL.................................................................................................................................................26 4.6. BANDA (COMPRIMENTO DE ONDA)..........................................................................................................................................................................27 4.7. POLARIZAÇÃO...........................................................................................................................................................................................................28 4.8. UMIDADE..................................................................................................................................................................................................................29 4.9. EFEITO DE CANTO....................................................................................................................................................................................................29

5. PROBLEMAS EXISTENTES NAS IMAGENS DE RADAR...............................................................................................................................30 5.1. EFEITO SOMBRA.......................................................................................................................................................................................................30 5.2. EFEITO DE ENCURTAMENTO DAS ENCOSTAS (FORESHORTING)..............................................................................................................................31 5.3. EFEITO DE SOBREPOSIÇÃO OU INVERSÃO (LAY OVER)............................................................................................................................................32 5.4. RUÍDO (SPECKLE)......................................................................................................................................................................................................33 5.5. DISTORÇÃO ESFÉRICA...............................................................................................................................................................................................34 5.6. DIFERENÇA DE INTENSIDADE DO RETROESPALHAMENTO......................................................................................................................................34 5.7. EFEITOS ATMOSFÉRICOS E DE ÂNGULO DE ILUMINAÇÃO........................................................................................................................................34

6. FILTRAGEM..............................................................................................................................................................................................................35 6.1 FILTROS PASSA-BAIXA..............................................................................................................................................................................................35 6.1 FILTROS PASSA-ALTA................................................................................................................................................................................................36 6.3. FILTROS DE REALCE DE BORDAS COM DIREÇÃO PREFERENCIAL............................................................................................................................36 6.4. FILTROS DE REALCE DE BORDAS SEM DIREÇÃO PREFERENCIAL.............................................................................................................................37 6.5. FILTROS DE CORREÇÃO E REALCE ESPECÍFICOS.......................................................................................................................................................37 6.6. FILTROS MORFOLÓGICOS..........................................................................................................................................................................................37 6.7. FILTRO DA MEDIANA (MORF.)..................................................................................................................................................................................37 6.8. FILTRO DE EROSÃO (MORF.)....................................................................................................................................................................................38 6.9. FILTRO DE DILATAÇÃO (MORF.)..............................................................................................................................................................................38 6.10. ABERTURA E FECHAMENTO DA IMAGEM (MORF.)...................................................................................................................................................38 6.11. FILTRO VERTICAL E HORIZONTAL (MORF.).............................................................................................................................................................38 6.12. FILTROS ADAPTATIVOS............................................................................................................................................................................................38 6.13. FILTRO DE LEE........................................................................................................................................................................................................39 6.14. FILTRO DE KUAN.....................................................................................................................................................................................................39 6.15. FILTRO DE FROST....................................................................................................................................................................................................39 6.16. FILTROS DE FROST E LEE MELHORADOS.................................................................................................................................................................40 6.17. O FILTRO MAP E MAP GAMA................................................................................................................................................................................40 6.18. EXEMPLOS DO EFEITO DOS FILTROS.......................................................................................................................................................................41 6.19. AJUSTE DE HISTOGRAMA.........................................................................................................................................................................................42

7. TÉCNICAS AUXILIARES PARA INTERPRETAÇÃO DA IMAGEM...............................................................................................................43 7.1 INTERFEROMETRIA..............................................................................................................................................................................................43 7.2. ESTEREOSCOPIA........................................................................................................................................................................................................43 7.3. CLASSIFICAÇÃO.........................................................................................................................................................................................................43 7.4. COMPOSIÇÃO.............................................................................................................................................................................................................44

BIBLIOGRAFIA ...............................................................................................................................................................................................................45

CopyMarket.com

1

Page 3: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket.com, 2000

Introdução

Luiz Aristides Rios

Nos últimos anos, houve um aumento significativo da disponibilização de dados orbitais obtidos por RADAR para fins civis, fazendo com que o desenvolvimento de técnicas para interpretação e processamento deste tipo de imagem seja objeto de promissoras pesquisas. Além da grande resolução, as imagens de RADAR podem ser adquiridas independente das condições climáticas, uma vez que chuva, nuvens, fumaça ou poeira são transparentes à maioria das freqüências de microondas utilizadas, com pequenas exceções.

Como as cenas de RADAR apresentam características diferentes das imagens obtidas com sensores que operam na fixa do visível (ou próxima a ela), novas técnicas estão sendo estudadas. Entre os fatores que interferem decisivamente no resultado do imageamento temos: a geometria da visada, a iluminação da cena pelo próprio sensor, o tempo de retorno do pulso, o ângulo de incidência, o comprimento e polarização das ondas, a estrutura do alvo e a umidade da superfície. Devido a este grande número de fatores, a interpretação destas imagens requer tratamento prévio, conhecimento e experiência.

Neste trabalho serão abordados os principais aspectos que influenciam na aquisição, processamento e interpretação de imagens obtidas em plataformas orbitais por radares de abertura sintética (SAR). Estas cenas apresentam grande potencial de utilização, sozinhas ou em conjunto com imagens óticas, permitindo a aquisição de dados que seriam inviáveis de outra forma.

O Sensoriamento Remoto é um recurso essencial um país com dimensões continentais como o Brasil, com uma riqueza ambiental e mineral inestimáveis, com dificuldades de transporte e comunicação nas áreas mais remotas. O uso dos sensores orbitais trás a possibilidade de acompanhamento de ações ilegais e a classificação ecológica e geológica de grandes áreas a um custo por área relativamente baixo (se comparado aos meios convencionais) e um tempo de aquisição relativamente pequeno.

Alguns exemplos de aplicações específicas para as imagens de radar, podemos citar as seguintes áreas [INPE]:

Ecologia: determinação de grandes classes de vegetação, identificação de áreas desmatadas, monitoramento ambiental, identificação de impactos antrópicos e avaliação de recursos hídricos, acompanhamento de enchimento de reservatórios;

Geologia: Análise de estruturas geológicas, hidrografia, identificação de áreas para prospeção mineral, classificação de solos;

Cartografia: Levantamento planimétricos e altimétricos;

Hidrologia: Gerenciamento e planejamento de recursos hídricos, detecção de umidade do solo, interpretação de parâmetros hidrológicos como direção de fluxo, permeabilidade, vazão e deposição de sedimentos;

Oceanografia: detecção de barcos, localização de áreas de gelo flutuante, monitoramento do estado do mar, correntes e ventos, localização de manchas de poluentes que alteram a tensão superficial;

Agricultura: acompanhamento de culturas (para estimativa ou controle de órgãos financiadores), classificação no uso da terra, identificação de padrões e déficit hídrico, inventário de detecção de alterações em áreas ocupadas.

CopyMarket.com

2

Page 4: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

3

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

1. Sensoriamento Remoto Orbital

Luiz Aristides Rios

O lançamento do Sputnik-1 em outubro de 1957 deu início a uma nova forma de observação de nosso planeta. A primeira fotografia orbital foi obtida no programa Mercury em 1961 e o uso de plataformas orbitais difundiu-se a partir do programa Gemini. Já na década de 1960 foram lançados os primeiros satélites americanos de acompanhamento meteorológico, da série Tiros, e os primeiros satélites ambientais e meteorológicos experimentais russos da série COSMOS. Segue abaixo um resumo dos principais satélites de uso meteorológico e de sensoriamento ambiental:

• ESSA (EUA, 8 satélites lançados até 1970): Environmental Sciences Services Administration.

• Meteorsat (URSS, a partir de 1969).

• NIMBUS (CZCS-EUA, 7 satélites lançados entre 1964 e 1978).

− Equipados com câmeras de televisão, RADAR e um radiômetro infravermelho para observação de nuvens. − Nimbus 7:

Banda 1 – 430 a 450 nm – azul. Banda 2 – 520 a 530 nm – azul esverdeado. Banda 3 – 540 a 560 nm – verde. Banda 4 – 660 a 680 nm – vermelho. Banda 5 – 700 a 800 nm – Infravermelho próximo. Banda 6 – 10500 a 12500 nm – faixa termal.

− Órbita de 955 km, passagem pelo equador às 12:00h, resolução no nadir (perpendicular abaixo) de 825m2 , faixa imageada de 1566km, campo de visão de ± 39o , ciclo de passagem de 6 dias (Nimbus7).

• LANDSAT (NASA - EUA, 1-1972, 2-1975, 3-1977, 4-1982, 5-1984, 6-1993-perdido), satélites desenvolvidos especificamente para levantamento ambiental. Possuem as seguintes características:

− Para os três primeiros modelos tínhamos: altitude de 912 Km, órbita polar, cruzando os pólos 14 vezes ao dia, varredura da superfície em faixas de 185 km, retorno a ponto de sobrevôo após 18 dias (após 252 órbitas), cruzando o equador aproximadamente às 9:15h (hora local). Possuíam 2 sensores na faixa do visível e 2 na região do infravermelho. Resolução no nadir de 79m2. Campo de visão de aproximadamente 5,5o.

− 3 câmeras de televisão que operavam em regiões espectrais diferentes e podiam ser associadas para geração de imagens coloridas com resolução de 80m foram utilizadas nos 2 primeiros satélites, no terceiro existiam duas câmeras com resolução de 30m;

− Pararam de operar em 1973, 1983 e 1983, respectivamente.

− Para os modelos 4 e 5 temos: altitude de 705 Km, órbita polar, varredura da superfície em faixas de 185 km, retorno a ponto de sobrevôo após 16 dias. Resolução no nadir de 83m2. Campo de visão de aproximadamente 7o. Inclinação de 98.2o , período de 98.2 minutos, horário de passagem pelo equador de 9h45m.

− Todos os modelos possuem um sensor de varredura multiespectral (MSS). A partir do 4o satélite foi acrescentado um sensor de mapeamento temático (TM) operando em 7 faixas espectrais. As principais diferenças entre o MSS e

Page 5: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

4

o TM são que este último possui uma melhor resolução espacial e espectral, maior fidelidade geométrica e precisão radiométrica.

− Bandas espectrais do sensor TM:

Banda 1 – 450 a 520 nm – mapeamento de costa e diferenciação de solo e vegetação;

Banda 2 – 520 a 600 nm – reflectância de vegetação verde sadia;

Banda 3 – 630 a 690 nm – absorção de clorofila: diferenciação de espécies vegetais;

Banda 4 – 760 a 900 nm – levantamento de biomassa e delineamento de corpos d’água;

Banda 5 – 1550 a 1750 nm – diferenciação de umidade da vegetação e nuvens / neve;

Banda 6 – 1040 a 1250 nm – faixa termal, resolução de 120 x 120m;

Banda 7 – 2080 a 2350 nm – mapeamento hidrotermal;

− Bandas espectrais do sensor MSS (resolução de 80m):

Banda 4 – 500 a 600 nm – verde.

Banda 5 – 600 a 700 nm – vermelho.

Banda 6 – 700 a 800 nm – Infravermelho próximo.

Banda 7 – 800 a 1100 nm – Infravermelho próximo.

• SMS (EUA, entre 1974 e 1975), Syncronous Meteorological Satellites.

− Satélites meteorológicos.

• GOES (EUA 1975), Geostationary Operacional Environmental Satellite.

− Satélites meteorológicos geoestacionários a 36.000 km com resolução de 8 km;

− Possuem dois sensores: Monitor de Ambiente Espacial (SEM) e Sondador Atmosférico no Aspecto Visível e no Infravermelho (VAS: VISSR Atmosferic Sonder);

• SPOT (CNES – França, 1-1986, 2-1990, 3-1993).

− Semelhante ao programa LANDSAT,

− Pode operar em modo multiespectral com 3 bandas e resolução de 20m ou pancromático com resolução de 10m;

− Permite observação diretamente abaixo do satélite (nadir) e em ângulo laterais (off-nadir) de até 27o absolutos (ou 33o em relação à superfície, computando a curvatura terrestre), permitindo a obtenção de imagens para estereoscopia. Faixa de imageamento entre 60km e 117km;

− Características orbitais: altitude de 832 km, órbita polar síncrona com o sol, ciclo de passagem de 26 dias e inclinação de 98,7o, passagem pelo equador às 10h40min;

− Bandas espectrais do sensor HRV (High Resolution Visible):

Banda 1 – 500 a 590 nm;

Banda 2 – 610 a 680 nm;

Banda 3 – 790 a 890 nm;

Banda Pancromática 510 a 730nm.

• TIROS-N / NOAA (EUA, 1-1970, 2-1972, 3-1973 e 4-1974, 5, 6, 7, 8, 9, 10, 11-1988, 12-1991).

Page 6: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

5

− National Oceanic and Atmosferic Administration – Uso meteorológico.

− Órbita polar baixa de 850 km;

− Período de 102 minutos;

− Possuem três sensores: Radiômetro Avançado de Alta Resolução (AVHRR – resolução de 1.1 km), Sondador Vertical Operacional TIROS (TOVS) e monitor de ambiente espacial com resolução de 90m.

− Bandas espectrais do sensor AVHRR:

Banda 1 – 580 a 680 nm – faixa visível verde/vermelho;

Banda 2 – 725 a 1100 nm – Infravermelho próximo.

Banda 3 – 3550 a 3930 nm – Infravermelho termal.

Banda 4 – 10500 a 11300 nm – Infravermelho termal.

Banda 5 – 11500 a 12500 nm – Infravermelho termal.

− Hora de passagem pelo equador: 07:30h (NOAA-6 e 8) e 14:30h (NOAA-7 e 9).

− Campo de visão de 56o.

− Ciclo de cobertura: 2 dias.

• Insat (Índia, 1982).

• MAPSAT.

− Altitude de 920 km, três câmeras com diferentes orientações (vertical e 23o a frente e atrás).

• MOS-1 (Japão).

− Satélite de observação marinha com órbita síncrona com o sol e altitude de 900km. Possui sensores nas faixas do visível, infravermelho termal e microondas.

− Ciclo de imageamento de 18 dias.

Page 7: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

6

1.1. Radares Orbitais

Os sensores de RADAR podem ser aerotransportados (como os utilizados no RADAM, SAREX, SAR C/X, STAR 1...) ou orbitais. Como nossa ênfase está centrada nesta segunda classe, segue abaixo a lista dos radares orbitais conhecidos:

• Seasat (EUA – 1978, funcionou por 6 semanas).

− Satélite experimental para o sensoriamento do oceano na faixa das microondas, com órbita circular de 800 km de altura, não síncrona com o Sol.

− Operava com a banda L (24cm), polarização simples e ângulo de visada fixo.

• SIR-A (EUA – 1981, transportado apenas durante a missão do ônibus espacial: “Shuttle Imaging Radar”).

• ALMAZ-1 (Rússia – 1991).

− Órbita de 300 km de altura, inclinação de 73o, período de 89 a 90 minutos, cobrindo a área entre 78o N e 78o S a cada 3 dias.

− Operava na banda S (10cm), com polarização HH, ângulo de incidência entre 30o e 60o, com duas faixas imageadas de 350 km a esquerda e direita o satélite.

− Cada faixa imageada possuía 40km de largura e até 300km de comprimento. − Resolução entre 15 e 30m (dependendo do alcance e do azimute), resolução radiométrica em uma área de 30 x 30

km entre 3 a 5 dB. − Escala das imagens de 1:150.000.

• SIR-B (EUA – 1984, transportado em missão do ônibus espacial).

• ALMAZ-2 (Rússia – 1991).

• ERS-1 (Agência Espacial Européia - ESA – 1991).

− Órbita circular síncrona de 785 km de altitude e inclinação de 98.5o . − Ciclos repetidos de órbita de 3, 35 e 176 dias. − Banda C (5.6 cm), com polarização VV. − Faixa imageada de 100km de largura com ângulo médio de 23º. − Resolução de aproximadamente 30m. − Possui um dispersômetro para medir a velocidade dos ventos e espectros de ondas nos oceanos, um radiômetro

para medir a temperatura e o vapor d’água e um altímetro radar.

• JERS-1 (ou FUYO-1, Japão – 1992).

− É mais um satélite experimental do que de uso comercial ou de sensoriamento permanente. − Atualmente enfrenta problemas de operação no sensor de infravermelho. − O SAR em banda L (23 cm) e o radiômetro na faixa do visível e infravermelho operam normalmente. − O SAR opera no ângulo fixo de 45o, resolução espacial de 18m polarização HH e periodicidade de 44 dias.

• SIR-C/X SAR (EUA, Agências Espaciais Alemã e Italiana, transportado em duas missões do ônibus espacial).

− Captou dados em abril e outubro de 1994 – duas estações do ano distintas. − Utiliza as bandas L (24 cm quad-polarização), C (6cm quad-polarização) e X (3cm polarização VV) . − Ângulo de incidência entre 15o a 55º. − Largura da faixa imageada entre 15km e 92km. − Resolução em dois modos: alta – 15m e baixa – 30m. − Primeira captação orbital concomitante de dados multifrequênciais e multipolarizados de radar.

Page 8: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

7

• ERS-2 (Europa – 1995).

− Mesmas características do ERS-1, com a adição de um medidor de ozônio. − Operando continuamente e o ERS-1 foi colocado em “stand by”, sendo utilizado apenas em situações especiais.

• Radarsat-1 (Canadá, 1995).

− Ângulos de incidência entre 20o e 50º. − Largura de faixa imageada entre 50 e 500km. − Opções de resolução entre 10 e 100m. − Maiores informações técnicas no item específico do Radarsat.

• Radarsat-2 (Canadá, previsto para 2001).

Seguem abaixo imagens obtidas pela NASA utilizando o sensor SIR-C/X-SAR embarcado no Ônibus Espacial Endeavour. A primeira imagem mostra a comparação entre uma imagem LANDSAT – TM (à esquerda) e a sensor SIR-C/X-SAR da mesma região, o oásis Safsaf. Cada imagem representa uma área de 30.8 x 25.6 km. Antigos canais de drenagem podem ser vistos no alto da imagem de radar, pois foi utilizada uma banda (L) que tem penetração de até 2m abaixo da superfície da areia seca (Fonte: NASA).

Abaixo temos a uma composição de imagens de Radar (direita) e a imagem ótica correspondente, de uma região da Península Arábica, País de Omã. Cada imagem cobre uma área de 50 x 100km. Com base em uma ampliação da imagem de Radar arqueólogos localizaram uma antiga cidade, provavelmente a Cidade Perdida de Ubar.

Page 9: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

8

1.2. Radarsat

Como exemplo de descrição detalhada de um sensor SAR orbital seguem abaixo os dados do Radarsat I. Trata-se de um projeto liderado pelo Canadá, inicialmente com o propósito de permitir o acompanhamento dos movimentos de gelo na superfície marinha nas proximidades das rotas de navios. Lançado em novembro de 1995, o Radarsat I é um sensor orbital que opera na faixa das microondas e, como todos os sensores de RADAR, é um sensor ativo ou seja, o próprio satélite emite o feixe de iluminação. Isto permite a captação de imagens a qualquer hora e independente das condições atmosféricas (pois as nuvens são transparentes nesta faixa de microondas). Suas principais características são:

RADARSAT SAR

Freqüência e Comprimento de Onda 5.3GHz / Banda C / 5.66 cm Potência máxima de transmissão 5 kW Potência média de transmissão 300 W Taxa máxima de transmissão de dados 85 Mb/s (gravados em fita) - 105 Mb/s (tempo real) Tamanho da Antena 15m (comprimento) x 1.5m (largura), paralela à órbita. Polarização da Antena HH Características do Satélite Massa de Lançamento (total) 2,750 kg Potência do conjunto de baterias 2.5 kW Baterias 3 x 48 Ah NiCd Tempo de vida projetado 5 anos

Page 10: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

9

Características da Órbita Altitude 792-821 km Inclinação 98.6 graus Período 101 min. Nó ascendente 18:00 horas Sincronização com Sol 14 órbitas por dia Cobertura da superfície utilizando largura máxima Acima de 70o N Diariamente Acima de 48o N A cada 4 dias Toda a Terra (Acima de 80o S) A cada 6 dias Modos de imageamento

Modo Resolução (m)

Extensão* x azimute (m) Visadas

(looks**)Larg.(km)

Ângulo de incidência (graus) ***

Standard 25 x 28 4 100 20 - 49 Wide - 1 48-30 x 28 4 165 20 - 31 Wide - 2 32-25 x 28 4 150 31 - 39 Fine resolution 11-9 x 9 1 45 37 - 48 ScanSAR narrow 50 x 50 2 - 4 305 20 - 40 ScanSAR wide 100 x 100 4 - 8 510 20 - 49 Extended (H) 22-19 x 28 4 75 50 - 60 Extended (L) 63-28 x 28 4 170 10 - 23 * Nominal; a resolução no modo ground range varia com o ângulo. ** Nominal; depende da extensão e do processamento efetuado. *** O ângulo de incidência depende do sub-modo utilizado.

Page 11: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

10

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

2. Radar Luiz Aristides Rios

Trabalha com microondas na faixa entre 1 a 1000 GHz para a aquisição de dados, detecção de objetos e imageamento. É o acrônimo de RAdio Detection And Ranging. Foi desenvolvido durante e segunda guerra mundial e utilizado inicialmente para fins militares, ficando disponível para aplicações civis a partir da década de 70. Existem sensores de radas que são imageadores (SLAR e SAR) e não imageadores (detetores de alvos, escaterômetros ou difusômetros – medidores de velocidade do vento, espectômetros e altímetros).

Um sensor de RADAR, em uma primeira aproximação, age como uma máquina fotográfica com flash, que emite o feixe de luz que será refletido pelos objetos, com a diferença de que este usa a antena tanto para a emissão como para a recepção dos sinais. No caso do RADAR, há a emissão um conjunto rápido de pulsos de ondas para o alvo, a recepção da reflexão (retroespalhamento ou backscattering) com o registro do tempo e potência de retorno. Por serem sensores ativos, podem trabalhar tanto de dia como de noite e os comprimentos de onda utilizados, na maioria das bandas, são imunes a interferência atmosférica (nuvens e fumaça).

A antena de RADAR alternadamente emite e recebe pulsos de onda bastante energéticos (alguns kW de pico) e extremamente curtos (duração de aproximadamente 10 a 50 microsegundos cada pulso), podendo emitir até 1500 pulsos por segundo. O comprimento das microondas utilizadas varia de sensor para sensor, de acordo com a banda escolhida, sendo que as ondas podem ter um comprimento de 1 cm até mais de 1 metro (freqüência a partir de 300 MHz até mais de 30 GHz). Cada pulso compõe-se de um pequeno conjunto de ondas (chamado de “trem de ondas”) que cobre uma pequena faixa de freqüências, cujo centro está na freqüência da banda escolhida. As larguras de bandas típicas para radares estão na faixa entre 10 e 200 MHz.

O plano de oscilação das ondas também pode ser determinado em função do tipo de antena, sendo chamado de plano de polarização, cuja orientação (Vertical ou Horizontal) é definida tanto para o envio como para a recepção do feixe. Um sensor de polarização HV emite na orientação horizontal e recebe o feixe na orientação vertical. Analogamente, podemos trabalhar com sensores nas polarizações VH, HH e VV.

Quando o feixe atinje um alvo em Terra, ele é refletido (espalhado) em várias direções, inclusive na direção do próprio sensor (retroespalhamento), que o recebe como um pulso fraco de retorno. A amplitude do sinal, o tempo de retorno, a polarização e as eventuais alterações de freqüência trazem importantes dados sobre o alvo atingido. Ao contrário dos sensores óticos, a resolução do RADAR não se dá na diferença angular entre os alvos e sim na diferença de tempo entre os ecos recebidos, supondo-se que o maior tempo deve-se a maior distância plana do alvo. Em sensores imageadores, esta suposição pode levar a um tipo de distorção denominada de deslocamento de encosta e inversão (foreshorting e Lay Over), explicadas mais adiante. Em resumo, as imagens de RADAR são obtidas com base na resolução temporal (convertida em resolução espacial ao lançar o sinal no eixo do ângulo de imageamento) e resolução radiométrica da potência de retorno.

Quanto a forma de se obter a imagem, existem dois tipos de sensores imageadores de radar:

1) De Antena Rotatória, chamados de Indicador de Posição Plano (PPI): Usados em embarcações e centros de controle de tráfego (aéreo, marítimo ou fluvial).

2) Radares Imageadores de Visada Lateral: Utilizam um feixe que incide sobre a superfície com um ângulo de incidência diferente da normal, pois ângulos próximos à normal da superfície não permitem nenhuma resolução aproveitável. Este tipo se subdivide em dois subtipos:

Page 12: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

11

2.2) Radares de Abertura Real (SLAR – Side Looking Airborne Radar ou LSR – Side Looking Radar). São os primeiros tipos utilizados em aeronaves, ainda durante a segunda guerra mundial (em bombardeiros, do subtipo SLAR-RAR). Nesta classe, o feixe de RADAR é amplo verticalmente e estreito horizontalmente (direção de movimento do sensor). A varredura das faixas é feita devido a movimentação da aeronave. Apresenta o inconveniente de ter sua resolução muito deteriorada para pontos próximos à antena (ao contrário dos sensores visíveis). Uma forma de compensar isto seria aumentar a antena (que fica paralela à direção de vôo), mas para resoluções altas isto é impraticável devido ao comprimento máximo das aeronaves.

2.3) Radares de Abertura Sintética (SAR): Tipo utilizado em satélites, desenvolvido na década de 50. Compensam o pequeno tamanho da antena imageando o alvo durante vários quilômetros da trajetória. Com isto resolve os problemas do SLR e apresenta uma resolução azimutal (na direção do vôo) independente da distância entre o sensor e o alvo.

Como exemplo de aplicação, abaixo está a imagem do sensor SIR-C/X-SAR, um Radar posicionado no ônibus espacial da NASA. Esta imagem é uma composição de várias bandas de Radar, mostrando uma área do Egito, às margens do Rio Nilo.

As três pirâmides de Gizé podem ser vistas no alto da imagem (acima, à esquerda e próximo a área cor de rosa e no detalhe ampliado), bem próximas da zona urbana (fonte:NASA).

Page 13: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

12

2.1. Radares SAR

Os radares de apertura sintética (SAR) foram desenvolvidos na década de 50 visando aplicações militares, com grande sucesso. Os primeiros SARs eram aerotransportados, mas em 1978 a NASA lançou o primeiro RADAR orbital com o satélite Seasat operando no sistema SAR. Embora o Seasat tenha parado de operar apenas 6 semanas após o lançamento, os dados gerados neste período foram analisados nos 10 anos seguintes.

A diferença entre um sensor de microondas convencional (SLAR) e um de abertura sintética (SAR) é que, nos modelos mais antigos de radar, altas resoluções só podiam ser conseguidas através de duas formas: aproximando-se do alvo ou aumentado a antena.

Embora isto seja possível em um RADAR aerotransportado (até certos limites), ambas as opções são inviáveis em um sensor orbital.

A solução é fazer com que o RADAR faça o imageamento constante do mesmo pixel durante uma extensão considerável da órbita, gerando o resultado final com base nesta composição (soma dos ecos obtidos).

É como se a antena fosse estendida por toda a extensão do sobrevôo. Esta combinação de sinais para simular uma grande antena é denominada de Abertura Sintética. A palavra abertura refere-se à antena (que no caso do radar age como o obturador de uma máquina fotográfica) e sintética significa que a antena é sintetizada através da computação da somatória de sinais ao longo da trajetória que simula uma grande antena.

A discriminação do mesmo ponto para fazer a composição dos ecos ao longo da trajetória é feita com base no Efeito Doppler – Fizeau que estabelece um desvio (shift) na freqüência (e comprimento de onda) quando o alvo e o sensor estão em movimento relativo. Com isto este efeito causa um aumento da freqüência de retorno quando o radar se aproxima do alvo e uma diminuição quando este se afasta.

Sabendo-se a velocidade orbital e computando-se o desvio Doppler com a freqüência padrão emitida, é possível à cada retorno de sinal mapear cada faixa de freqüência nas linhas de uma matriz bidimensional que representa o terreno, onde a contribuição de cada alvo é progressivamente acumulada. A construção das colunas desta matriz da cena é feita com base no tempo de retorno do sinal fazendo-se, a cada passo, a conversão do sistema de coordenadas radial (com centro no sensor) no correspondente sistema plano cartesiano (do terreno).

Esta operação de foco é denominada de Processamento SAR e é toda ela executada em computadores de alto desempenho. O truque para se obter êxito neste processo é fazer corretamente a discriminação de cada faixa de freqüência alterada pelo desvio Doppler para associá-la a pontos individualmente, o que requer grande precisão e conhecimento das velocidades relativas entre o alvo e o sensor.

Alguns sensores permitem a escolha do ângulo de imageamento, da resolução, da polarização e a banda.

A área de coberta é função principalmente do ângulo selecionado e do modo de captação. A linha de sobrevôo é chamada de azimute (é a região onde o satélite passa perpendicularmente à superfície).

Page 14: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

13

O eixo perpendicular ao azimute, que determina principalmente a distância ao satélite é chamado de range (faixa). O ângulo de imageamento varia limitado pelo ângulo no range próximo até o do range distante. Normalmente o ângulo nominal significa a média destes dois valores. A diferença entre os ângulos próximo e distante é mais acentuada em sensores aerotransportados.

Caso se deseje reduzir o ruído da imagem, a área de captação pode ser dividida em sub faixas distintas e independentes. A composição do resultado destas captações permite a eliminação de variações abruptas características do ruído, evitando-se que um sinal espúrio muito intenso contamine todo o processo de acumulação dos dados, como acontece em uma única visada (look).

Entretanto, o preço pago pelo uso de vários looks é a redução da resolução da imagens (como se a antena fosse diminuída), pois a abertura sintética do sensor foi reduzida.

2.2. Teoria Eletromagnética

As ondas eletromagnéticas propagam-se sem a necessidade de meio condutor. As oscilações do campo elétrico e do campo magnético interagem mutuamente de forma a propagar a onda mantendo suas características até que haja algum tipo de interferência.

O comprimento de onda (λ) indica a distância entre duas cristas consecutivas e a freqüência (f) indica o número de cristas que passam por um ponto no espaço por segundo.

A relação entre freqüência e comprimento de onda é dada por: f =λ v, onde v é a velocidade de propagação.

A faixa da luz visível é apenas uma pequena parte de todo o espectro existente. O Radar utiliza a faixa das microondas, mostradas abaixo à direita da luz visível.

Os limites difusos na figura acima indicam sobreposição e eventuais divergências entre autores.

Page 15: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

14

A velocidade de propagação das ondas eletromagnéticas é constante no vácuo (com uma pequena diminuição no ar atmosférico), representada pela letra c e vale 2.997925 x 108 m/s. Para efeitos práticos, podemos considerar que este valor também se aplica ao ar, pois este é muito difuso para ocasionar alteração significativa neste valor.

Devido à forma com que as microondas interagem com a atmosfera e a superfície, apenas algumas faixas de freqüência (bandas) são utilizadas em sistemas imageadores. O comprimento de onda influencia a profundidade de penetração e o tamanho mínimo do alvo para que haja reflexão.

As bandas definidas para Radar são:

λ (cm) f (Hz) Banda

Inicial Final Inicial Final Exemplo de Satélite que a Utiliza

W ... 0.536 ... 5.6 x1010 V 0.536 0.652 5.6 x1010 4.6 x1010 O 0.652 0.833 4.6 x1010 3.6 x1010 K 0.833 ± 2.16 3.6 x1010 ± 1.39 x1010 X ± 2.16 4.84 ± 1.39 x1010 6.2 x109 SIR-C (3cm) C 4.84 7.69 6.2 x109 3.9 x109 Radarsat-1, ERS-1 e 2, SIR-C (6cm) S 7.69 19.4 3.9 x109 1.55 x109 ALMAZ-1 (10cm) L 19.4 76.9 1.55 x109 3.9 x108 JERS-1, Seasat, SIR-C (24cm)

P 76.9 128 3.9 x108 2.35 x108 Apenas em sistemas aerotransportados devido à

interferências da ionosfera. G 128 200 2.35 x108 1.5 x108 I 200 ... 1.5 x108 ...

A relação entre a freqüência (f ) e o comprimento de onda (λ) está relacionada com a velocidade da luz (c) pela seguinte relação:

c = f . λ

A diferenciação entre os alvos (resolução) é função do tempo de retorno do eco. Por isto, quanto mais espaçados estiverem os alvos, melhor será a resolução. Este é o motivo pelo qual os radares imageadores, ao contrário dos sensores óticos, não operam de forma perpendicular à superfície (no nadir), pois a diferença de distância dos pontos na superfície seria muito pequena para gerar uma definição razoável. Pelo mesmo motivo, em Radares orbitais, ângulo de incidência maiores (em relação à Normal) geram maiores resoluções. Pelo mesmo motivo, a área imageada mais próxima do sensor sempre apresenta menor definição, principalmente em Radares aerotransportados.

Em radares convencionais (de abertura lateral), o valor nominal da resolução na direção do azimute (δx – resolução no eixo da órbita) é inversamente proporcional ao tamanho da antena (LA) e diretamente proporcional a distância ao alvo (R ) e comprimento de onda (λ), sendo descrita pela seguinte fórmula:

δx = R . λ / LA

Portanto, para o Radarsat teríamos um valor nominal mínimo (ótimo) para a resolução na direção do vôo da ordem de:

δx = (792 x 103m) . (5.66 x 10-2m) / 15m = 3.000 m = 3 km

Entretanto, sabemos que a resolução azimutal efetiva do Radarsat quando no perigeo é da ordem de 9m no modo fine. A explicação para esta brutal diferença é que o Radarsat é um Radar de Abertura Sintética (SAR) que, conforme será explicado, utiliza dados de trechos inteiros da órbita para simular uma antena maior.

Para entendermos o funcionamento de um Radar do tipo SAR (que será descrito no próximo item), precisamos antes discorrer sobre algumas características físicas que dão suporte a esta tecnologia.

Em 1951, o físico Carl Wiley propôs que o efeito Doppler-Fizeau poderia ser utilizado em Radares para aumentar a resolução na direção do movimento do sensor, sem a necessidade de aumentar o tamanho da antena. Este efeito seria obtido “sintetizando” (processando) os dados de forma a simular uma abertura (antena) maior.

Page 16: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

15

O efeito Doppler-Fizeau leva o nome dos físicos que o previram e descreveram pela primeira vez, por volta de 1840. Trata-se de algo facilmente percebido em ondas sonoras, quando a fonte ou o receptor apresentam movimento relativo. Quando ambos se aproximam há uma compressão das ondas de forma que a freqüência percebida pelo receptor é maior que a efetivamente emitida pela fonte. Quando o contrário ocorre – o afastamento – a freqüência percebida é diminuída. A conseqüência é a diferença facilmente notada no ruído de automóveis (caminhões, por exemplo) quando passam por alguém parado no acostamento ou cruzam com outro veículo em sentido contrário. O ruído se torna mais agudo durante a aproximação e mais grave após o cruzamento. Na fórmula 1 também notamos esta diferença quando os carros passam próximo às câmeras, embora nas imagens embarcadas o ruído do motor se mantenha no mesmo nível se não houver variação de velocidade.

A luz se comporta da mesma forma e esta é a base que permite tanto aos astrônomos medir a velocidade de afastamento de estrelas e galáxias como aos guardas rodoviários medirem de forma imediata a velocidade de veículos nas estradas. Outra aplicação interessante, no domínio sonoro, são os ecogramas de artérias e veias que mostram o fluxo sangüíneo no coração ou cordão umbilical dentro de corpos humanos.

Dadas as duas freqüências, a emitida (fe) e a recebida (fr) e as velocidades da luz (c) e relativa (v) entre a fonte e o receptor, a relação entre as freqüências é dada por:

( )( ) er fcvcvf

21

/1/1

−+

= quando ambos se aproximam e

( )( ) er fcvcvf

21

/1/1

+−

= quando ambos se afastam.

Analisando as equações, percebe-se que a freqüência aumenta quando fonte e receptor se aproximam e diminui quando se afastam. Os comprimentos de ondas também se alteram, podendo ser calculada usando a relação (já descrita) :

c = f . λ

Dois alvos que estejam na superfície, alinhados com a paralela da direção de movimento do satélite, quando receberem o pulso de microondas refletirão em tempos distintos (devido a diferença da distância) e com diferentes freqüências (devido a diferente velocidade relativa, pois ambos estarão na lateral do movimento do sensor).

Para calcular o efeito Doppler-Fizeau que permite diferenciar o eco de alvos distintos, recebido ao mesmo tempo pela antena, começamos calculando a velocidade relativa dR/dt, onde dR é a variação distância (range) do sensor ao alvo em relação ao sensor.

Para tanto, devemos encontrar a componente da velocidade no eixo R (range). Seja vr esta componente, v a velocidade de deslocamento e θ o ângulo formado entre um alvo hipotético no solo exatamente perpendicular ao sensor e o alvo desejado (sobre a mesma paralela ao eixo de azimute), temos que:

v = vr . cos ( π/2 – θ) , usando a relação entre seno e coseno relativa a diferença de fase das funções, temos

v = vr . sen θ = vr . x / R

Page 17: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

16

Calculando a freqüência resultante para o alvo na superfície, devido ao efeito Doppler-Fizeau, temos que:

( )( ) er fcvcvf .1./1/1

21

−+

= Criando um fator igual a 1, para permitir simplificação:

( )( )

( )( ) efcvcv

cvcv

2121

/1/1.

/1/1

++

−+

=

( )( )( ) efcv

cv21

22

2

/1/1

−+

= Como 22 /, cvcv << tende a zero, portanto

( )( ) er fcvf /1+= A diferença entre esta freqüência e a emitida é dada por:

( )( ) eeer ffcvff −+=− /1

( ) efcv /=

Entretanto, o desvio Doppler acontece tanto no envio até o alvo como no retorno do eco, portanto temos que a diferença ( df ) é dada por:

df ( ) efcv /.2= Fazendo a substituição pelo valor da velocidade relativa:

λ.

..2

λ.

θsen..2 c

cRxvc

cv rr ==

Rxvr

λ..2=

Esta equação permite determinar exatamente de onde um sinal vem. Para um retorno de sinal detectado pela antena no tempo correspondente ao range R, ou seja, a um tempo t = 2R/c, e com uma freqüência devido ao efeito Doppler de fd, a coordenada no eixo de azimute é dada por (isolando x):

Se outro alvo estiver dentro da faixa de iluminação, a uma mesma distância R, seu eco chegará no mesmo instante t, entretanto as freqüências serão diferentes e esta diferença permite mapear o segundo ponto em uma outra coordenada x2.

Desta forma, para qualquer alvo será possível associar as duas coordenadas para localizá-lo: a distância R a partir da linha de azimute (após a correção de coordenadas polares para planas) e a sua distância projetada no eixo do azimute, a frente ou atrás do sensor.

Usando o efeito Doppler-Fizeau nós não podemos incrementar a resolução na direção do range (R), mas podemos fazê-lo na direção do azimute. A partir da equação do desvio Doppler, a resolução do azimute é dada por:

dr

fv

x δ2λRδ

=

Onde δf é a resolução no sensor no domínio das freqüências, aproximadamente igual ao inverso do tempo durante o qual o alvo ficou sob o feixe, ou seja,

redurad tf var/1δ ≈

r

d

vRf

x.2λ1

1 =

Page 18: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

17

O tempo de varredura pode ser calculado através da seguinte relação:

rAr

H

rredura vL

RvθR

vTrajetóriaArc

t λvar ===

Portanto, a resolução na direção do azimute é dada por:

2λ.

2λδ ArA

r

LRvL

vRx =

=

Teoricamente teríamos que a melhor resolução no eixo do azimute seria obtida com um menor comprimento para antena (exatamente o oposto do que seria de se esperar). Na realidade, a antena deve possuir um tamanho mínimo que permita que a distância entre os dipolos seja suficiente para gerar os padrões de interferência necessários, um feixe estreito e orientado na freqüência desejada e a resolução desejada no eixo R.

Na realidade, o resultado para a resolução de LA/2 não é estritamente correto porque foi assumido que o efeito Doppler foi o mesmo durante toda a trajetória de observação. Na realidade ele varia, de forma que o mesmo alvo atravessa toda uma faixa de freqüências ao longo do deslocamento. Uma análise de Fourier da forma de onda Doppler recebida a cada instante resulta em componentes de freqüência em várias faixas e alvo deve ser localizado em cada uma destas faixas fazendo com que a menor célula de resolução seja maior que o tamanho teórico previsto.

Quando o sensor sobrevoa o terreno, a distância ao alvo (range) varia: decrescendo até um mínimo e aumentando novamente. Ao plotarmos a distância em um gráfico verificaremos a forma de uma linha hiperbólica associada a cada alvo selecionado. Esta hipérbole é conhecida como “curva de migração do range” e a secante que une as duas extremidades da hipérbole é chamada de “deslocamento do range” (rangewalk).

Como esta parábola está associada a um único alvo, todos os pontos ao longo da curva devem ser comprimidos para formar um único ponto na imagem final. Entretanto, existem vários problemas relativos a este processo. Primeiro, a forma da hipérbole depende grandemente da distância mínima alcançada pelo alvo até o sensor (quando este estiver na linha central da cobertura do feixe de radar). Segundo, a resposta de impulso do sistema (o eco) varia de acordo com a distância. Por último o sinal de retorno é sensível ao tempo de retardo (delay), exigindo o uso de diferentes parâmetros de filtragem para correção (normalização) das variações da amplitude.

Um Radar aerotransportado possui uma baixa altitude e pode, para efeitos práticos, considerar a superfície da Terra como sendo plana. A hipérbole gerada será relativamente aberta porque as diferenças relativas são consideravelmente menores em comparação com uma plataforma orbital.

Page 19: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

18

Abaixo podemos ver a curva hiperbólica traçada por um alvo pontual no plano cartesiano Azimute x Range:

Quando duas ondas não estão sincronizadas entre si dizemos que elas estão fora de fase (defasadas). A defasagem é medida em graus: 0o significa que elas estão em fase e 180o significa que o pico de uma onda ocorre no mesmo momento do vale da outra. A diferença de fase (φ ) entre um sinal emitido e o recebido, em radianos e em função da distância percorrida, pode ser calculado por:

λ4.π.R

Observando o diagrama ao lado, temos que o Teorema de Pitágoras explicita a relação quadrática existente entre o Range e o Tempo de deslocamento do sensor para um alvo situado dentro do feixe de Radar:

( )[ ] 2122

22 xxRR −+=

Usando a Série de Taylor para expansão em volta da posição intermediária x1, para o range R1 temos a seguinte equação (até ordem 2):

Assumindo que R1 e R2 são aproximadamente iguais para ambos os feixes de Radar, o Desvio Doppler no domínio da freqüência é dado por:

πφ2dtd

fd =

( )π

λπ2.4 dtdRfd =

21

21

22

1

1121 .2

).()).((RxxR

Rxxxx

RR−

+−−

+=

Page 20: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

19

( ) ( )[ ]xxxxR

fd −+−

= 1122

λ

Se considerarmos que o Desvio Doppler para a freqüência é constante até os termos de ordem quadrática, até o limite onde a fase é incrementada de �/4, ficando a janela de observação confinada na distância xvarredura, então

levando a

Calculando o tempo de sobrevôo da janela de varredura:

A partir destes cálculos, a nova resolução espacial na direção do azimute é dada por:

Um Processador SAR que usa esta relação é conhecido como sendo um SAR não focalizado. Esta técnica não tenta gerar resultado com base na taxa de variação da fase da onda mas a utiliza de forma a melhorar a resolução, tornando-a menor do que nos Radares de abertura real.

Por exemplo, utilizando a equação acima, a resolução do Radarsat seria:

Este valor é muito menor (melhor) que o limite previsto para abertura real, que é de 3.0km.

A resolução pode melhorar ainda com a utilização de um processador SAR focalizado, que considera as mudanças da mudança de fase não linear. Esta técnica utiliza todos os dados coletados durante todo o tempo em que o alvo está sob o feixe. A fase quadrática Q é ajustada de forma que todos os sinais oriundos do alvo sejam adicionados coerentemente (como o indicado na última figura, exibida acima). Qualquer eco que não seja originário do ponto especificado não estará de acordo com este ajuste e será cancelado. Com isto, os sinais oriundos do alvo selecionado dominarão a composição do resultado final, desconsiderando os outros alvos. A partir do uso desta técnica, a resolução na direção do azimute passa a ser de aproximadamente LA / 2, sendo calculado como antes demonstrado com o acréscimo dos dados oriundos da soma dos sinais em fase.

( )4.2

4

2

1 πλπ

<−

Rxx

81

1R

xxλ

<−

28211 RxRx

varreduravarredura λλ

<⇒<

rr

varreduravarredura v

Rv

xt2)( 1λ

<=

21.

22222 R

tvRf

vRxδ

varredurard

r

λλδλ=

=

=

m150)103.5.(2)1092.7)(103(

2 9

582 ===

xxx

fcRxδ

Page 21: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

20

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

3. Elementos de Interpretação de Imagens de Radar

Luiz Aristides Rios

O valor de cada pixel em uma imagem de RADAR é função da fase da onda e da intensidade de reflexão do alvo (retroespalhamento ou backscattering). Em sistemas SAR, o valor resultante é resultado de várias amostragens ao longo de um trecho da trajetória de sobrevôo. Cada pixel é representado por um número imaginário de 32 bits divididos em duas componentes: real e imaginária.

Esta representação é necessária porque não apenas a amplitude do sinal é importante (como nos sensores óticos) mas também sua componente de polarização uma vez que nas imagens de RADAR tanto a emissão como a recepção são polarizadas.

Com isto, a intensidade (amplitude) do sinal é representado em um eixo e a polarização é representada no outro eixo.

A imagem resultante de um elemento da cena é a composição entre o retorno (eco) do alvo e sua componente de polarização. O diagrama abaixo ilustra este conceito:

Além dos efeitos da polarização, o mapeamento dos pixels na cena difere do modo como estamos acostumados a trabalhar em sensores óticos. Para estes, a diferenciação entre dois pixels se dá em função da separação angular entre dois elemento da cena. No caso do radar, o mapeamento é feito em função do tempo de retorno do sinal e não da separação espacial dos objetos.

Podemos imaginar o receptor como fazendo a varredura das linhas da imagem em velocidade constante, colocando em cada pixel da linha o valor do eco resultante recebido no momento que cada pixel é “varrido”. Este mapeamento temporal traz distorções devidas ao ângulo de incidência, maior eco nos pontos da imagem mais próximos ao sensor, espalhamento das faixas mais distantes do azimute do satélite e deslocamento de pontos do terrenos situados a grandes altitudes (efeitos de

Page 22: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

21

sombra, compressão de encostas e inversão de picos, descritos adiante).

Além das questões apresentadas, ainda existe o ruído da imagem (speckle), resultante de interferências construtivas e destrutivas das ondas que irradiam de alvos próximos na mesma célula de resolução. Este problema também será abordado em separado neste texto.

Para solucionar estes problemas, o uso de sistemas computadorizados que façam automaticamente ajustes pré-definidos na imagem recebida é essencial para viabilização do uso das imagens em grande escala.

A interpretação das imagens de RADAR se baseia na tonalidade dos pontos (pixels), na classificação dos elementos de textura (texels) da área imageada e, se possível, da coleta de dados em diferentes condições (variando o ângulo de incidência, a umidade do terreno, a polarização da antena, a direção do feixe e o comprimento de onda).

3.1. Processamento e Análise de Imagens SAR

Em função do grande número de operações necessárias sobre a imagem obtida para a extração de informações das imagens de radar, podemos dividir o processamento das imagens em dois grupos:

1 - Pré processamento: Conjunto das operações essenciais para a transformação dos valores discretos recebidos pela estação em terra em uma imagem bidimensional. Tem como finalidade gerar uma imagem que represente da forma mais confiável possível as características da cena imageada. O cálculo da intensidade resultante de cada pixel leva em consideração distorções espaciais e temporais. A homogeneização das amplitudes médias ao longo da linha de visada, a conversão da projeção inclinada (slant range) na projeção do terreno (ground range) são alguns exemplos de cálculos efetuados nesta fase.

2 - Processamento da imagem final: Conjunto de operações que tem como finalidade atender às necessidades do usuário da imagem. Filtragem para eliminação de ruídos, composição multiespectral de diferentes imagens (em diferentes ângulos de incidência, épocas, umidade do terreno, polarização ou bandas espectrais), classificação de texturas, realce, operações de alteração de brilho e contraste, conversão de diferentes formas de representação da imagem, segmentação de feições, georeferenciamento, identificação de alvos e outras ações são exemplos de processamento definido pela aplicação que se deseja dar às imagens utilizadas.

A discussão sobre o processamento e análise das cenas nos leva a primeiro entender as peculiaridades, vantagens e desvantagens do sensoriamento remoto por RADAR imageador. Para tanto, os próximos tópicos abordarão os conceitos essenciais desta área de pesquisa.

Como exemplo de pré-processamento, seguem duas imagens. A imagem da esquerda está no modo cru e apresenta o chamado erro padrão de antena, ocasionado pela diferença de brilho e deslocamento de pixels resultantes da diferença de distância entre a cena e o sensor. A imagem da direita já mostra este efeito corrigido. O sensor está à esquerda das imagens (fonte: INPE).

Page 23: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

22

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

4. Elementos da Aquisição de Imagens SAR

Luiz Aristides Rios

4.1. Características de Reflexão

Os sensores óticos trabalham principalmente obtendo a resposta baseada nas propriedades moleculares e químicas do alvo. Por exemplo, as matas aparecem em verde devido a existência da clorofila nas folhas que absorve a parte vermelha do espectro luminoso (refletindo a componente verde). Esta interação ocorre porque as ondas na região do visível possuem comprimento na ordem de 400 nanômetros (violeta) a 700 nm (vermelho), ficando dentro da escala de tamanho das moléculas.

Já as microondas utilizadas para radares possuem comprimento de onda de 2,4 a 144 cm, estando dentro da escala que permite destacar a rugosidade das superfícies, galhos de árvores e aspectos da estrutura física macroscópica. Todo obstáculo que tenha tamanho menor que o comprimento de onda utilizado é atravessado. A reflexão acontece se, na direção do plano de oscilação da onda, o alvo tenha uma estrutura do tamanho equivalente ao comprimento de onda.

Além do tamanho do alvo, a interação entre o feixe de Radar e a superfície é afetada por mais três propriedades físicas: a constante dielétrica, a rugosidade e o ângulo de incidência em relação à normal da superfície do alvo. A constante dielétrica, também conhecida como permissividade relativa do meio, é a relação entre a permissividade elétrica do meio onde há a propagação das ondas e a permissividade elétrica do vácuo, sendo dependente da freqüência da onda utilizada.

A interação entre ondas eletromagnéticas e o meio é denominada espalhamento (scattering) ou eco. Existem dois tipo de interação: espalhamento superficial (quando os dois meios são muito distintos como o ar e a superfície da Terra) e espalhamento volumétrico (quando as ondas se propagam por ambos os meios, por exemplo, um feixe de luz visível ao passar do ar para a água). No caso do estudo dos feixes de Radar (microondas), tratamos apenas do espalhamento superficial.

O brilho de cada ponto de uma imagem de radar é associado ao retorno do eco do alvo na direção do sensor, denominado retroespalhamento. As áreas clara representam objetos de alta reflexão na direção do sensor. As áreas escuras podem ser geradas por 3 fatores distintos: absorção das ondas, retroespalhamento difuso em várias direções ou alta reflexão em outra direção que não seja a do sensor. A intensidade de retorno varia em função do comprimento de onda, a polarização, a geometria e rugosidade da superfície, a umidade e o ângulo de observação.

A medida do retroespalhamento por unidade de área, como m2, é conhecida como “radar cross-section”. De uma forma geral, é dada preferência para uma unidade de medida normalizada (“normalizaded radar cross-section”) denominada de sigma0, medida em decibéis (dB) e independente da resolução ou tamanho de pixel utilizado. Os valores típicos de sigma0

Page 24: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

23

para superfícies naturais variam de +5dB (muito brilhante) até –40dB (muito escuro). Na faixa intermediária, imagens mais brilhantes significam superfícies mais rugosas e úmidas (com exceção de lâminas d’água).

A água é um elemento importante na definição das imagens de radar. Devido a sua grande constante dielétrica (da ordem de 78) ela tem o poder de refletir as ondas de RADAR com facilidade. Desta forma, árvores com folhas de tamanho menor que o comprimento de onda do RADAR podem ser transpassadas diretamente no período de seca e agir como refletores se o imageamento for feito após um período de chuva.

No caso de corpos d’água (lagos, rios, oceanos), na ausência de ventos a superfície se comporta como um refletor perfeito e as ondas de RADAR são refletidas para longe do sensor. Caso existam ondas, a rugosidade da superfície pode fazer com que haja reflexão, proporcional a velocidade do vento. Desta forma, as imagens de RADAR permitem inferir as condições da superfície e detectar alterações devidas à poluentes que alterem a tensão superficial (como derramamentos de óleo).Outro motivo pelo qual podem aparecer áreas totalmente escuras é o chamado efeito sombra, indicado no diagrama acima (área de morro) e descrito em detalhes mais adiante.

Abaixo temos uma imagem de demonstra a relação entre comprimento de onda e reflexão. Embora esteja sendo usado um sensor de radar, a chuva foi captada devido ao pequeno comprimento de onda da banda utilizada (banda X de 3cm). O sensor está à esquerda. O efeito sobra pode ser observado na área posterior às nuvens.

4.2. Geometria de Imageamento

Como o RADAR leva em consideração a distância do alvo ao sensor de forma prioritária em relação à diferenciação angular, a imagem obtida apresenta uma deformação que comprime a região mais próxima da órbita e estende a faixa mais distante da linha de sobrevôo.

Tal efeito gera uma imagem chamada de “slant range” que é definida como sendo uma projeção onde todos os pontos a uma mesma distância do sensor encontram-se circunscritos

Page 25: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

24

ao longo de arcos de círculos centrados no sensor. A projeção deste modo, corrigido, no terreno é chamada de “ground range”.

Segue o exemplo comparativo entre os dois modos: Slant Range (acima - como foi obtida) e Ground Range (abaixo – já corrigida). Note a área mais clara à direita, na região mais próxima ao sensor. Esta diferença é comum em imagens de radar e é devida ao ângulo e distância do alvo:

Abaixo temos um caso mais extremo, obtido de um sensor com órbita mais baixa:

Page 26: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

25

4.3. Tipo de Órbita

Os satélites sensores de RADAR fazem a varredura da superfície normalmente de um único lado (no caso do Radarsat, à direita). Com isto, cenas imageadas durante a órbita ascendente (sul-norte) aparecem iluminadas pelo lado direito e cenas coletadas na órbita descendente (norte-sul) aparecerão iluminadas à esquerda. Esta diferença deve ser levada em consideração quando se escolhe as condições de captação da imagem.

Além da iluminação e do efeito Lay Over, como as órbitas polares possuem alguma inclinação (8.6º em relação ao meridiano no caso do Radarsat), a situação ideal é aquela em que o eixo maior do alvo (e suas superfícies lineares) estejam perpendiculares ao feixe incidente.

A diferença no ângulo pode também alterar a percepção do relevo, ao inverter a iluminação pode haver uma tendência a interpretar-se as montanhas como depressões.

4.4. Ângulo de Incidência com a Normal da Superfície

Este é outro parâmetro importante na geração da imagem final. Em ângulos mais perpendiculares (próximos à normal da superfície), a rugosidade da superfície é destacada (principalmente se esta for múltipla do comprimento de onda utilizado) e o efeito de Lay Over é mais acentuado. Este é o modo ideal para diferenciar vazamento de óleo em lagos ou mares, por exemplo, pois o óleo diminui a formação de ondas geradas pelo vento. Também é a melhor opção para observar a propagação de ondas oceânicas.

Já a imagem com um ângulo de incidência raso (mais próximo da superfície), diminui o Lay Over e facilita a visualização e correto posicionamento dos acidentes geográficos.

O Radarsat permite a escolha do ângulo de incidência dentro da faixa de 10o até 60o. O ERS-1 opera no ângulo fixo de 23o e o JERS a 35o.

Page 27: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

26

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

4. Elementos da Aquisição de Imagens SAR (cont.)

Luiz Aristides Rios

4.5. Ângulo de Incidência no Plano Horizontal

O ângulo entre o feixe e o eixo maior do alvo pode alterar substancialmente o retroespa-lhamento.

Se o feixe atingir o alvo de forma perpendicular à sua estrutura externa, o resultado será uma marcação intensa.

Entretanto se o ângulo tender à direção paralela, pode haver reflexão especular sem nenhum retorno de eco ou sensor (ou com retorno muito pequeno).

Como exemplo, temos nesta página duas imagens coletadas sobre a mesma área em Trenton – Nova Escócia, Canadá pelo RADAR aerotransportado CCRS, na banda C e polarização HH.

As estruturas visíveis formam prédios industriais, públicos, comerciais e residenciais.

O ângulo dois feixes é praticamente perpendicular e as imagens resultantes são características das estruturas dos alvos. Na imagem de cima, o sensor está ao Norte e na imagem ao lado ele está à Leste.

Page 28: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

27

4.6. Banda (Comprimento de Onda)

O comprimento da onda utilizada define qual o menor tamanho de objeto que pode ser detectado. A regra geral diz que qualquer objeto menor que 1 comprimento de onda é atravessado e a onda só irá refletir em estruturas maiores.

Para ilustrar a diferença entre elas, as imagens do JERS-1 permitem visualizar o chão das florestas, pois o feixe passa direto pela copa das árvores (dossel). Já as imagens do Radarsat são feitas no comprimento de onda médio de 5.5 cm, o que equivale ao tamanho de uma folha de árvore, permitindo registrar o topo das árvores. Um exemplo das diferenças entre bandas foi mostrado acima, na cena em que a chuva e as nuvens foram captadas na banda X de 3cm (item 6.1).

Como exemplo de uso de comprimento de onda específica, temos abaixo a imagem da região desértica do Saara, no Norte da África, próxima ao Oásis Kufra, no sudoeste da Líbia.

Utilizando o SAR montado no ônibus Espacial Endeavour (SIR-C/X-SAR) em 04/10/94, a NASA montou a imagem abaixo utilizando a composição de três bandas: L-HH (24cm – representado pela cor vermelha nesta imagem), C-HH (6cm - verde) e C-HH (6 cm - azul).

A partir dos dados coletados, foi possível descobrir um antigo e desconhecido paleo-canal (braço de rio antigo, seco e soterrado, que faz parte de uma rede de drenagem inativa).

O braço mostrado à direita e acima já era conhecido pelos arqueólogos, mas o braço da esquerda, que ocupa quase toda a lateral da imagem era desconhecido até então. Estudos indicam que estava ativo no período quaternário, durante a idade da pedra (paleolítico e neolítico).

(Fonte: NASA)

Page 29: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

28

4.7. Polarização

Toda onda eletromagnética (como a luz ou as microondas do radar) pode se propagar oscilando em qualquer plano paralelo a direção de deslocamento do raio. Dependendo da fonte e do meio de propagação utilizados, as ondas podem oscilar em qualquer plano, sem distinção (polarização circular) ou possuir um conjunto de planos preferenciais próximos entre si (polarização elíptica) ou, ainda, oscilar exclusivamente em um plano pré-definido (polarização plana). Os Radares utilizam normalmente a polarização plana. O plano de oscilação para o campo elétrico de uma onda é chamado de plano de polarização. Filtros polarizadores são compostos por materiais que impedem a transmissão de energia em outra direção que não seja a do plano para o qual ele foi projetado. No caso de Radares, pode haver polarização tanto para a emissão como na recepção dos sinais, existindo basicamente quatro classes de polarização possíveis:

1. Paralelo Horizontal-Horizontal (HH), Onde a primeira letra indica a polarização 2. Paralelo Vertical-Vertical (VV), no momento da emissão e a segunda a 3. Perpendicular VH, polarização de recepção. 4. Perpendicular HV.

Existem sensores que são capazes de emitir e receber os sinais em qualquer uma das quatro classes, sendo por isso chamados de quad-polarizados. Um exemplo é o sensor embarcado nos ônibus espaciais a partir de 1994 (SIR-C/X-SAR).

A polarização é um componente muito importante na definição final da imagem obtida. Nas banda de maior comprimento de onda (dezenas de centímetros), a polarização VV fará com que estruturas verticais (como caules de árvores e postes) apresentem grande reflexão. Entretanto, estruturas horizontais que tenham largura menor que o comprimento de onda (como fios estendidos, caules abatidos e etc.) são simplesmente atravessados e pouco contribuem na imagem final. Obviamente, o inverso se dá na polarização HH. Já a polarização perpendicular (VH ou HV) enfatiza os objetos que refletem as ondas sem nenhuma direção preferencial, enfatizando estruturas irregulares e formando imagens em geral com menor contraste. Portanto, a polarização é um dado muito importante na interpretação da imagem gerada e quando for possível comparar a mesma cena em dois ou três modos de polarização distintos podemos agregar um volume maior de informações em nossa análise.

A diferença que pode surgir entre as imagens captadas de uma mesma área em função da polarização ficam evidentes nas imagens ao lado (coletadas da mesma data).

Page 30: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

29

4.8. Umidade

Uma característica bastante importante e interessante nas imagens de RADAR é a sua capacidade de diferenciar áreas úmidas de áreas secas. Como a água apresenta uma constante dielétrica alta, ela age como um refletor das ondas de radar.

Se a água estiver em uma superfície lisa como um lago, o feixe de ondas refletirá da mesma forma que a luz visível em um espelho e não haverá retorno ao sensor, aparecendo como uma mancha negra na imagem. Entretanto, se a água estiver em uma superfície rugosa, com ondulações de tamanho comparável ao comprimento das microondas, haverá grande reflexão e a superfície aparecerá bastante clara.

A conseqüência mais visível desta relação entre a imagem e a umidade é que uma imagem de uma cena tomada após um período de chuvas é muito mais clara e apresenta baixo contraste entre as fisionomias de vegetação. Se a imagem for feita em período seco, o contraste é muito maior e facilita bastante a interpretação do tipo de cobertura do terreno. De uma forma geral, quanto mais seco é o alvo, maior será a penetração do radar.

Um efeito aparentemente paradoxal surge quando observamos uma área que possui estruturas (folhas, galhos, troncos) emersas sobre uma lâmina de água.

A partir da experiência de ver os lagos quase sempre na cor escura (principalmente em ângulos rasos de visualização), poderíamos esperar que a superfície se apresentasse em tons escuros na imagem e, na realidade, nos deparamos com uma área bastante luminosa. Tal característica é descrita como Efeito de Canto e será descrita adiante.

4.9. Efeito de Canto

Quando uma onda de RADAR incide em uma superfície lisa reflexiva (como água parada, pedra, asfalto, cimento ou terra nua e plana) ela é refletida em um ângulo de saída igual ao ângulo de incidência.

Como o satélite é ao mesmo tempo emissor e receptor, nenhum sinal desta superfície é captado.

Porém, se próximo a superfície existir qualquer tipo de estrutura (troncos de árvore molhados, estruturas de prédios ou pontes...), a onda fará um ricochete e voltará direto ao sensor com grande intensidade.

Este é o chamado efeito de canto (corner), que destaca estruturas artificiais e objetos sobre a água.

Graças a este efeito, navios sobre o mar e veículos sobre asfalto e cimento recebem um destaque importante em aplicações militares.

Page 31: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

30

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

5. Problemas Existentes nas Imagens de Radar

Luiz Aristides Rios

5.1. Efeito Sombra

Devido ao fato de serem os radares sensores ativos (que emitem o feixe de iluminação) e que processam os dados em função da distância do alvo (tempo de retorno do eco) surge o efeito sombra.

Pela lógica geométrica, não poderia haver sombra uma vez que o imageamento é feito praticamente no mesmo ponto onde é emitido o feixe de iluminação. Porém, devemos lembrar que a imagem é montada com base no tempo de retorno do eco e não no ângulo visual do alvo.

Para entender a diferença, podemos imaginar a imagem sendo continuamente formada (varredura homogênea, em uma velocidade de captação angular constante). Um pixel (ponto da imagem – picture element) é definido se, quando a formação da imagem estiver sobre ele houver a captação de um eco. Se o alvo estiver muito mais distante do que no pixel anterior não haverá eco e o pixel é definido com a cor zero (negro). Esta é a base do efeito sombra.

A imagem abaixo ilustra este problema:

Page 32: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

31

5.2. Efeito de Encurtamento das Encostas (Foreshorting)

Os mesmos motivos que geram o feito sombra também operam de forma a fazer com que os pontos do relevo irregular que estejam mais próximos do RADAR sejam comprimidos na direção do ponto de visada.

Neste caso, o que ocorre é que a face das montanhas mais próximas do sensor tendem a estar em um plano mais perpendicular em relação ao feixe incidente do que a face posterior (que tende a ser mais paralela ao feixe).

Com isto, os pontos da face próxima emitem seus ecos quase que ao mesmo tempo e sensibilizam o sensor durante um pequeno ângulo de varredura para formação da imagem, gerando uma compressão na representação e um aumento da intensidade média de retorno. O resultado é uma faixa estreita e bastante clara. Em compensação, a face mais distante tem o seu relevo apresentado de forma mais espaçada e detalhada, como se fosse espichado e escurecido.

Este efeito é tanto mais intenso quanto mais perpendicular for o ângulo de incidência (em relação à superfície do relevo). Para a determinação de pontos espaciais com efeitos de georeferenciamento, este efeito deve ser considerado sob pena de alterar todas as marcas feitas com base no pico das montanhas.

A imagem abaixo ilustra este problema:

Page 33: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

32

5.3. Efeito de Sobreposição ou Inversão (Lay Over)

Outra diferença entre o RADAR e os sensores óticos é que os últimos produzem a cena em função do ângulo de observação e o RADAR utiliza principalmente a distância ao alvo para gerar a imagem. Com isto, em ângulos de visada muito perpendiculares à superfície, áreas de relevo montanhoso apresentam um desvio na posição das áreas mais altas, na direção do radar. A impressão que se tem é que o relevo foi todo “desviado” na direção do radar, com a parte mais próxima do satélite ficando mais iluminada e comprimida e a parte mais distante fica mais espichada e escura. Esta distorção é chamada de efeito de Lay Over e é mais intensa quanto mais próxima a cena estiver do nadir (direção exatamente abaixo do satélite) e quanto mais irregular for o terreno.

O efeito de Lay Over pode trazer erros para o correto georeferenciamento da imagem e deve ser levado em consideração pelo operador do sistema de informação geográfica ou corrigido através de software. Devido a esta distorção na imagem das montanhas e a diferença de iluminação das encostas é relativamente fácil saber a orientação do satélite no momento do imageamento pois ele estará sempre do lado mais iluminado e comprimido.

A imagem abaixo mostra um exemplo de Lay Over:

Page 34: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

33

5.4. Ruído (Speckle)

O Speckle é um ruído peculiar às imagens de radar, que aparece na forma de pontos brancos em áreas escuras (“efeito sal”) ou pontos escuros em áreas brancas (“efeito pimenta”). Embora sua origem ainda seja alvo de debates, a explicação mais aceita é a que se trata de interferências construtivas (sal) ou destrutivas (pimenta) das ondas refletidas por objetos muito próximos e que interagem ao retornar ao sensor.

O comportamento randômico do speckle é similar ao movimento browniano [Shi]. A amplitude resultante do sinal (A) possui suas duas componentes, fase (Af) e quadratura (Aq), oscilando randomicamente como variáveis independentes com uma distribuição gaussiana de média zero e variância similar. Neste caso, a amplitude do speckle é dada por: A = Af + i Aq com uma distribuição gaussiana circular.

A intensidade do speckle é calculada como sendo S = Af2 + Aq2 e tem uma distribuição exponencial negativa, dada por:

Onde Sm é a média da intensidade do speckle S.

A diferença de fase entre as ondas é que determinaria o tipo de interferência. Aparentemente também existe alguma informação dentro do ruído embora esta seja de difícil separação. Este efeito pode ser bastante intenso, prejudicando a análise da imagem e obrigando o uso de um filtro de redução de ruído.

A intensidade (brilho) de um ponto da imagem de Radar é dado por:

I(t) = R(t) S(t)

onde: t=(x,y) representa as coordenadas espaciais do ponto da imagem,

I(t) é a intensidade observada no ponto t(x,y),

R(t) é a reflexividade do ponto na Superfície,

S(t) é o efeito multiplicativo do ruído, estatisticamente independente de R(t), com média Sm e variância 2Sσ .

Este modelo, apresentado em [Shi], tem como resultado que o speckle age com um efeito multiplicativo da reflexividade da cena, de forma que ele será mais pronunciado nas áreas de brilho mais intenso em relação às áreas de brilho menos intenso.

Tal como o Lay Over, este efeito é mais intenso em visadas mais perpendiculares, diminuindo consideravelmente em ângulos mais rasos.

Existem duas formas de reduzirmos o speckle: Através do uso de filtros na imagem já formada ou dividindo a trajetória de coleta de dados em várias visadas independentes (looks) da mesma faixa de terreno. Desta forma, trabalhando-se com o valor médio dos pontos obtidos da imagem, pode ser reduzido o speckle, diminuindo a influência de contaminação de uma das amostras. O preço pago pelo uso de mais de uma visada é a diminuição no tamanho da antena virtual da abertura sintética, o que leva a uma diminuição da resolução, principalmente na direção do azimute (movimento do sensor).

A forma mais simples e grosseira de se eliminar os ruídos consiste em definir limiares (thresholds) superiores e inferiores de forma que os pixels que estiverem fora desta faixa serão substituídos pelo valor médio dos pixels adjacentes. A maioria dos programas de processamento de imagens para sensoriamento remoto possuem esta ferramenta disponível. Antes de usá-la o usuário deve fazer uma análise do histograma da imagem.

SmS

eSm

Sp 1)( =

Page 35: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

34

5.5. Distorção Esférica

A Distorção Esférica da superfície da terra quando observada de uma plataforma a grande altitude é um problema comum ao processamento de imagens obtidas por sensores orbitais. A chamada Correção Geométrica deve ser feita caso se deseje fazer o georeferrenciamento e a sobreposição com um sistema de projeção cartográfica. Os algoritmos necessários para esta correção são bem conhecidos e utilizados a muito tempo para os sistemas óticos, podendo ser adaptados facilmente para sensores baseados em Radar.

5.6. Diferença de Intensidade do Retroespalhamento

A Correção Radiométrica e Espacial faz parte do pré-processamento executado pelas instituições que distribuem as imagens, a menos que o usuário solicite a imagem no modo cru (raw). O problema que se apresenta é que as faixas da imagem mais próximas da linha de sobrevôo se apresentam comprimidas e mais brilhantes se comparadas com o resto da cena. Neste caso, é aplicado um algoritmo não linear que corrige a distorção no brilho e desloca os pixel da região mais próxima (interpolando, se necessário) de forma a homogenizar a cena. Como entrada, este algoritmo precisa receber ou os ângulos inicial e final da varredura, ou as distâncias esféricas de uma superfície ideal de terreno dos pontos limítrofes da cena.

5.7. Efeitos Atmosféricos e de Ângulo de Iluminação

As imagens de RADAR obtidas nas bandas de maior comprimento de onda não apresentam efeitos de interação com a atmosfera e, por ser um sensor ativo (que emite o feixe de iluminação), o ângulo entre a fonte e o receptor é constante e não são necessárias tais correções. Entretanto elas são importantes para os sensores óticos que são afetados por nuvens e fumaça e pelo ângulo do Sol no momento de captação da imagem.

Porém, nos comprimentos de onda menores, como na banda banda X (de 3cm) podem apresentar retorno de sinal devido à chuva intensa e nuvens carregadas.

Page 36: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

35

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

6. Filtragem

Luiz Aristides Rios

A finalidade básica da filtragem é a eliminação de ruído e realce de elementos da cena que interessem à aplicação em andamento. Os filtros utilizados por sensores óticos nem sempre apresentam comportamento satisfatório nas imagens de radar, sendo que estas normalmente precisam de filtros próprios, não lineares e adaptativos para as aplicações mais específicas.

A técnica básica de filtragem estabelece uma matriz de pixels (de 3x3, 5x5, 7x7...) e altera o valor do pixel central em função do valor do nível de cinza do pixel central e dos pixels adjacentes. Por isto, a atuação de vários filtros muitas vezes é descrita através da apresentação da matriz de transformação, denominada de máscara de filtragem. Na máscara estão indicados os pesos de cada pixel adjacente na função que determina o valor do pixel central.

Quanto maior a máscara, maior o efeito da área circulante sobre a alteração do pixel central.

Para ilustrar o efeito de alguns filtros, temos acima uma imagem que será usada como base para comparação.

6.1. Filtros Passa-Baixa

É um filtro utilizando principalmente para atenuação de ruído da imagem, gerando um efeito de imagem borrada (blur). Elimina as faixas da imagem associadas a componentes de alta freqüência espacial, eliminando transição abruptas. Seu nome é devido ao efeito de “cortar” as altas freqüências do histograma, deixando passar apenas as baixas. Tem como desvantagem a degradação da resolução espacial, redução do contraste e redução de informações de textura e relevo. Pode ser utilizado para minimizar o ruído (speckle) em imagens de Radar.

Máscara de filtros Passa-Baixa lineares de média (Mantém a média dos pixels da imagem):

1/9 1/9 1/9 1/25 1/25 1/25 1/25 1/25 1/49 1/49 1/49 1/49 1/49 1/49 1/49

1/9 1/9 1/9 1/25 1/25 1/25 1/25 1/25 1/49 1/49 1/49 1/49 1/49 1/49 1/49

1/9 1/9 1/9 1/25 1/25 1/25 1/25 1/25 1/49 1/49 1/49 1/49 1/49 1/49 1/49

Filtro 3x3 1/25 1/25 1/25 1/25 1/25 1/49 1/49 1/49 1/49 1/49 1/49 1/49

1/25 1/25 1/25 1/25 1/25 1/49 1/49 1/49 1/49 1/49 1/49 1/49

Filtro 5x5 1/49 1/49 1/49 1/49 1/49 1/49 1/49

1/49 1/49 1/49 1/49 1/49 1/49 1/49

Filtro 9x9

Page 37: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

36

Exemplos de máscaras 3x3 de filtros Passa-Baixa de média ponderada, onde o peso é proporcional à distância ao pixel central:

1/10 1/10 1/10 1/16 2/16 1/16

1/10 2/10 1/10 2/16 4/16 2/16

1/10 1/10 1/10 1/16 2/16 1/16

6.2. Filtros Passa-Alta

Normalmente são utilizados para realce de zonas de transição da imagem, como bordas e estruturas, produzindo uma acentuação das transições (sharpen). Tem como desvantagem um eventual aumento do ruído pré-existente na cena.

Alguns exemplos de máscaras para filtros Passa-Alta 3x3:

0 -1 0 -1 -1 -1 -1 -2 -1

-1 5 -1 -1 9 -1 -2 5 -2

0 -1 0 -1 -1 -1 -1 -2 -1

6.3. Filtros de Realce de Bordas Com Direção Preferencial

São baseados no filtro Passa-Alta, com componentes preferenciais na direção perpendicular das bordas que se deseja realçar. Suas principais variações são definidas pelas máscaras indicadas abaixo (exemplos em 3x3):

1 1 1 -1 -1 -1 -1 1 1 1 1 1-

1 -2 1 1 -2 1 -1 -2 1 1 -2 1-

-1 -1 -1 1 1 1 -1 1 1 1 1 1-

Norte Sul Leste Oeste

1 1 1 -1 -1 1 1 -1 -1 1 1 1

-1 -2 1 -1 -2 1 1 -2 -1 1 -2 -1

-1 -1 1 1 1 1 1 1 1 1 -1 -1

Nordeste Sudeste Sudoeste Noroeste

Page 38: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

37

6.4. Filtros de Realce de Bordas Sem Direção Preferencial

O realce é independente da direção da borda. As três variações mais comuns diferem quanto á média de brilho da imagem resultante. A máscara alta eleva o brilho médio, gerando uma imagem mais clara. A máscara baixa torna a imagem mais escura e a média tende a manter a média resultante bem próxima da média original. Alguns exemplos em máscaras 3x3 podem ser vistos abaixo:

-1 -1 -1 0 -1 0 1 -2 1

-1 8 -1 -1 4 -1 -2 3 -2

-1 -1 -1 0 -1 0 1 -2 1

Realce - Alta Realce - Média Realce - Baixa

6.5. Filtros de Correção e Realce Específicos

São filtros projetados especificamente para a correção radiométrica e o realce de imagens obtidas por um sensor específico, sendo também chamados de filtros de restauração ou correção. Normalmente, são filtros lineares que devem ser executados sobre a imagem sem nenhum tipo de tratamento. Por exemplo, para corrigir distorções radiométricas do sensor Landsat TM, é utilizada a máscara ao lado:

3 -7 -7 3

-7 13 13 -7

-7 13 13 -7

3 -7 -7 3

6.6. Filtros Morfológicos

São filtros que exploram as propriedades geométricas das componentes da imagem. Suas máscaras possuem apenas os pesos 0 e 1, e são denominadas de elementos estruturantes. Os filtros morfológicos básicos são os da Mediana, da Erosão e da Dilatação.

6.7. Filtro da Mediana (Morf.)

É utilizado para a suavização da imagem e eliminação do ruído, mantendo a dimensão original da imagem. O valor do elemento central será a mediana dos valores obtidos com a aplicação da “máscara”. Seu elemento estruturante é representado abaixo (3x3) e uma amostra de seu efeito pode ser vista ao lado:

0 1 0

1 1 1

0 1 0

Elemento Estruturante

Page 39: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

38

6.8. Filtro de Erosão (Morf.)

Atua nas bordas, gerando um aumento da área escura sobre a área clara. Ou seja, cada ponto claro que estiver em uma fronteira claro/escuro é substituído por um ponto escuro. Causa o aumento das áreas escuras.

Entre as várias implementações possíveis, a mais comum é substituir o pixel central pelo valor mais baixo encontrado dentro da área coberta pelo elemento estruturante.

Uma de suas utilizações é eliminar ruídos claros sobre áreas escuras. Se aplicado repetidas vezes, pode causar a segmentação de áreas claras da imagem. Causa perda de informações, sendo um filtro não inversível.

6.9. Filtro de Dilatação (Morf.)

Também atua nas bordas, porém de forma completamente inversão ao filtro de erosão. Gera um aumento da área clara sobre a área escura. Ou seja, cada ponto escuro que estiver em uma fronteira claro/escuro é substituído por um ponto claro. Causa o aumento das áreas claras.

Entre as várias implementações possíveis, a mais comum é substituir o pixel central pelo valor mais alto encontrado dentro da área coberta pelo elemento estruturante.

Uma de suas utilizações é eliminar ruídos escuros sobre áreas claras. Se aplicado repetidas vezes, pode causar a segmentação de áreas escuras da imagem. Também causa perda de informações, sendo um filtro não inversível.

6.10. Abertura e Fechamento da Imagem (Morf.)

Trata-se da aplicação do mesmo elemento estruturante, primeiro em uma erosão seguida de dilatação (abertura) ou uma dilatação seguida de erosão (fechamento). O efeito prático é a eliminação de pequenas estruturas pontuais ou lineares (claras para o fechamento e escuras para a abertura), tornando os contornos mais suaves e eliminando ruídos.

6.11. Filtro Vertical e Horizontal (Morf.)

Age eliminando, respectivamente, faixas horizontais ou verticais da imagem (normalmente associadas a erros de varredura). Como conseqüência, realça as feições verticais ou horizontais e suprime características relativas às feições perpendiculares.

6.12. Filtros Adaptativos

O uso de filtros do tipo Passa-Baixa para a redução de speckle, permite uma redução do ruído porém diminui o contraste da imagem impedindo o seu uso em aplicações onde a informação existente nas altas freqüências é importante tais como a análise de textura ou bordas, pois a tendência é alterar substancialmente a textura e o contraste ao se eliminar o ruído.

Para contornar este problema, filtros vários filtros adaptativos foram propostos nos últimos anos. A principal característica deles é atuar em áreas da imagem de forma diferenciada dependendo da textura existente. Estes filtros reduzem o ruído em áreas homogêneas e preservam a textura em áreas onde existe forte componente de alta freqüência.

Os filtros adaptativos mais conhecidos são os de Lee, Kuan e Frost. Lopes et al. propuseram alterações que ficaram conhecidas como filtros de Lee e Frost modificados. Mais recentemente, foram criados os filtros denominados de probabilidade Máxima A Posteriori (MAP) que se aproximam do ideal de suprimir o ruído e preservar a textura.

Cada um destes filtros para redução de ruído é definido a partir de diferentes critérios e parâmetros, sendo muitas vezes dependentes da cena em estudo.

Page 40: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

39

2

2

2

1)(

1)(

s

I

s

CtC

C

tW+

−=

mente.respectiva , Imagem da e speckle do variaçãode escoeficient os são )()( I(t)S(t)Im(t)ttCe

SmC I

Is

sσσ

==

][)( 02

)( ttKCIetm −=

6.13. Filtro de Lee

No Filtro de Lee, o modelo multiplicativo do speckle (abaixo reapresentado) é primeiro aproximado por um modelo linear.

MODELO MULTIPLICATIVO [Shi]

I(t) = R(t) S(t)

onde: t=(x,y) representa as coord. espaciais do ponto da imagem,

I(t) é a intensidade observada no ponto t(x,y),

R(t) é a reflexividade do ponto na Superfície,

S(t) é o efeito multiplicativo do ruído, estatisticamente independente de R(t), com média Sm e variância 2

Sσ .

O critério de Erro Médio Mínimo Quadrado (MMSE) é aplicado ao modelo linear. Seguindo Lopes et al., apresentado em [Shi], temos que a formulação do filtro de speckle é:

R’(t) = I(t) . W(t) + I’(t) . (1 – W(t)) onde:

6.14. Filtro de Kuan

Na abordagem desenvolvida por Kuan et al. , o modelo de ruído multiplicativo é primeiro transformado em um modelo de ruído aditivo sinal-dependente.

Então o critério de Erro Médio Mínimo Quadrado (MMSE) é aplicado. O filtro resultante tem a mesma forma do filtro de Lee, mas com uma função de ponderação diferente, dada por:

Deve ser notado que o filtro de Kuan não faz nenhuma aproximação a partir do modelo original. Neste sentido, ele é superior ao filtro de Lee. De fato, o filtro de Kuan pode ser derivado diretamente da aplicação do critério MMSE ao modelo multiplicativo [Shi].

6.15. Filtro de Frost

O filtro de Frost difere dos filtros de Lee e Kuan com respeito ao fato que a reflexividade da cena é estimada pela convolução da imagem observada com a função impulso de resposta do sistema de Radar.

Esta função é obtida minimizando o erro médio quadrático entre a imagem observada e um modelo de cena observada onde se assume um processo autoregressivo [Shi]. O filtro resultante após algumas simplificações pode ser escrito como sendo:

Page 41: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

40

≥<<−+

≤=

max00

max00000

00

0

)(),()()),(1()()()(

)(),()('

CtCparatICtCCparatWtItWtICtCparatIm

tR

I

Is

sI

))].(/())((exp[)( 0max00 tCCCtCKtWonde tsI −−−=

][))(( 02

)( ttCfuncK Ietm −=

:segue se como definida ),( de ahiperbólic função uma é))(( 02

02 tCtCfunconde II

≥∞<<−−

≤=

max0

max00max0

0

)(,)()],(/[])([

)(,0)(

CtCparaCtCCparatCCCtC

CtCparaCfunc

I

IsIsI

sI

I

Onde K é a constante que controla a queda da função impulso de resposta e t0 denota o pixel que está sendo filtrado. Se o coeficiente de variação CI (to) for pequeno, o filtro se comporta como uma Passa-Baixa, borrando a imagem e apagando o ruído. Porém quando este coeficiente é alto, a tendência é a de se preservar a imagem original, seguindo o mesmo conceito básico dos filtros de Lee e Kuan.

6.16. Filtros de Frost e Lee Melhorados

Em 1990, Lopes et al. propuseram a divisão das imagens em três classes distintas. A primeira corresponde à áreas homogêneas onde o speckle pode ser eliminado simplesmente com o uso de um filtro Passa-Baixa. A segunda classe corresponde à áreas heterogêneas nas quais os speckle deve ser reduzido sem, contudo, alterar a textura. A terceira classe contém alvos pontuais isolados onde o filtro deve preservar o valor observado, sob pena de alterar dados importantes. A classificação é baseada nos coeficientes CI e Cmax

(arbitrário).

Com base nestas considerações, eles propuseram as seguintes melhorias:

• Filtro de Lee Melhorado:

• Filtro de Lee Melhorado:

Comparando-se estes modelos modificados com os originais, podemos notar que os dois extremos (áreas homogêneas e alvos pontuais), a saída é forçada a ser a média dos valores e o valor observado, sem o efeito da filtragem, respectivamente.

Entre estes dois extremos está a classe heterogênea. Nesta classe os filtros modificados são semelhantes aos originais, com a diferença que o filtro responde exageradamente com a inclusão de uma função hiperbólica para satisfazer o requisito de que quanto mais heterogênea for a área, menos borrada (blur) ela será.

6.17. O Filtro MAP e MAP Gama

A aplicação da abordagem MAP (Máximo A Posteriori) para a redução do speckle foi proposta pela primeira vez por Kuan et al em 1987. Para aplicá-lo, um conhecimento a priori da função de densidade de probabilidade (pdf) da cena é necessária. No texto de Kuan, a reflexividade da cena é assumida como possuindo uma distribuição gaussiana. Lopes at al. aprimorou o filtro MAP de Kuan ao assumir uma distribuição gama da cena e escolher dois níveis de corte (thresholds).

Page 42: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

41

O filtro MAP gama é dado por:

<<+−−+−−

=

max00

max00

20

20

00

0

)(),(

)(,2

)(4))(()()()(),(

)('

CtCparatI

CtCCparatImLILtImtImIL

CtCparatIm

tR

I

Is

sI

αααα

)(CC1 e 2)(C (Looks), visadasde número o é Onde 2

02I

2s

0maxs

s CtCtL

−+

== α

6.18. Exemplos do Efeito dos Filtros

Exemplo de uso de filtro de mediana em matrizes 3x3, 5x5 e 7x7. A primeira imagem é a original, no modo cru (raw) e mostra uma imagem do Delta do Rio Frazer de 1992, obtida pelo ERS-1, banda C-VV em 1992 (Fonte: CCRS e Radarsat International):

Page 43: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

42

Exemplo de uso dos filtros de Frost, Lee, Média e Detecção de Arestas com matrizes de 3 x 3, na mesma imagem utilizada acima:

6.19. Ajuste de Histograma

Trata-se de uma reamostragem do histograma associado à imagem de forma a mapear as freqüências de maior interesse dentro do domínio da faixa de representação (escala de cinza, por exemplo). Com isto obtém-se uma correção da média e da variância da varredura em relação à escala de cinza ideal. Como efeito negativo, há a alteração da relação entre o nível de cinza exibido e a radiância do alvo.

Page 44: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

43

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

7. Técnicas Auxiliares para Interpretação da Imagem

Luiz Aristides Rios

7.1. Interferometria

A interferometria de imagens de Radares orbitais permite a detecção de alterações superficiais da ordem de milímetros a centímetros [Kooij], com aplicações na geração de modelos digitais de elevação de terreno (DEMs), identificação de deslizamentos de terra, atividade vulcânica, movimento da crosta terrestre, detecção e monitoramento de deformações causadas por terremotos e etc. Utilizando a informação da fase da onda de retorno e captando imagens em passagens consecutivas, a interferometria pode ser bastante precisa e ser aplicada a grandes áreas.

Ao lado temos um exemplo de interferograma filtrado de forma a desconsiderar a distorção geométrica (terra plana) gerada com base em duas imagens obtidas pelo ERS-1 com 3 dias de diferença, em janeiro de 1994, mostrando a área de Schefferville, Quebec, Canadá. Fonte: Atlantis Scientifics Inc.

7.2. Estereoscopia

Da mesma forma que em imagens óticas, podem ser montados pares estereoscópicos utilizando imagens de Radar. Entretanto, ao contrário do que parece ser uma abordagem interessante, os pares montados com base em órbitas ascendente e descendente não são a melhor escolha, devido às diferenças de iluminação (o Radar é um sensor ativo). O melhor é escolher por pares obtidos a partir da mesma face de iluminação, com ângulos de imageamento distintos e correção geodésica para compensar as distorções esféricas.

7.3. Classificação

A classificação nas imagens de radar é feita com base em dois parâmetros: A continuidade de estruturas e a classificação de textura. Quanto à continuidade, podem ser utilizadas as mesmas técnicas já desenvolvidas para imagens óticas, que fazem uso intensivo dos filtros de morfologia, tais como erosão, dilatação e detecção de bordas, com o auxílio dos algoritmos de segmentação de imagens.

Quanto ao estudo das texturas, muitos estudos estão sendo desenvolvidos, utilizando as mais diversas técnicas e ferramentas de análise. A grande influência das características de aquisição (como geometria de imageamento, bandas utilizadas,

Page 45: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

44

polarização e umidade da cena) faz com que os trabalhos em andamento sejam bastante específicos e se concentrem em feições que apresentam grande diferenciação como a delimitação de corpos de água ou identificação de desmatamento. Para a identificação de feições vegetais, devem ser utilizadas imagens adquiridas com grande resolução e a umidade da cena é uma fator preponderante.

7.4. Composição

Na análise de imagens de radar, a composição se faz da mesma forma que nos sensores óticos. Imagens da mesma região com alguma característica diferente (época de captação, umidade do terreno, ângulo de incidência, polarização ou banda) são combinadas associando-se diferente cores a cada componente. Desta forma o olho humano é capaz de distinguir entre as diferenças das cenas com base na composição colorida criada pelas mudanças de intensidade em cada uma das banda.

Como exemplo, abaixo temos uma composição colorida de três imagens do Vulcão Pinatubo nas Filipinas, obtidas em 1994 pelo SAR do Ônibus Espacial (SIR-C), com as seguintes componentes:

• Vermelho: Banda C, polarização HV; • Verde: Banda L, polarização HH; • Azul: Banda L, polarização HV.

Fonte: JPL/NASA

Page 46: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

45

CopyMarket.com Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida sem a autorização da Editora.

Título: Processamento de Imagens de Radar Orbital Autor: Luiz Aristides Rios Editora: CopyMarket, 2000

Referências Bibliográficas

AHERN, F. J. (org). RADARSAT for Amazonia. Results of ProRADAR Insvestigations. Ottawa, Canadá, Ed. Canada Centre for Remote Sensing, Natural Resources Canada. 1998.

ARANHA, D. C. S. & FILHO, E.C.B. & FRERY, A.C. Análise automática de imagens de Radar de Abertura Sintética Usando Redes Neurais Artificiais (abstract). Recife. http://propesq.ufpe.br/anais/ccen/ccen79.htm. 1998.

ATLANTIS – Theory of Synthetic Aperture Radar, Sources of Radar Data. http://www.atlsci.com/library/. 1998. CANADIAN SPACE AGENCY. RADARSAT’s Specification Sheet. Quebec, Canadá.

http://radarsat.space.gc.ca/ENG/RADARSAT/specification_sheet.html. 1998. CARRARA, Valdemir & Kuga, Hélio K. 1991. Dinâmica de Satélites Artificiais. Revista Ciência Hoje, No 72. SBPC, Rio

de Janeiro - RJ. Brasil. Pág. 44 a 53. CIESIN - Center for International Earth Science Information – Digital Image Processing. Colúmbia, EUA.

http://www.ciesin.org/docs/005-477/005-477.html. 1996. CIESIN 1 - Consortium for International Earth Science Information Network. 1996. The Importance of Satellite

Remote Sensing for Global Change Research. In http://www.ciesin.org/TG/RS/satimprt.html CIESIN 2 - Consortium for International Earth Science Information Network. 1996. Data Transformations.

In http://www.ciesin.org/TG/RS/datatms.html ECOLE NATIONALE SUPERIEURE DES TELECOMMUNICATIONS - DEPARTEMENT IMAGES. Multi

Channel SAR Image Processing Applied to the Study of Continental Surfaces. França. http://www-ima.enst.fr/activite_96/. 1998

EDC - EROS Data Center. 1996: Thematic Mapper Landsat Data. In http://edcwww.cr.usgs.gov/hyper/guide/landsat_tm MultiSpectral Scanner Landsat Data. In http://edcwww.cr.usgs.gov/hyper/guide/landsat SPOT High Resolution Visible Data. In http://edcwww.cr.usgs.gov/hyper/guide/spot Advanced Very High Resolution Radiometer. In http://edcwww.cr.usgs.gov/hyper/guide/avhrr

EROS Data Center. Advanced Very High Resolution Radiometer. Sioux Falls, EUA. http://edcwww.cr.usgs.gov/glis/hyper/guide/avhrr. 1996.

EROS Data Center. MultiSpectral Scanner Landsat Data. Sioux Falls, EUA. http://edcwww.cr.usgs.gov/glis/hyper/guide/landsat.1996

EROS Data Center. SPOT High Resolution Visible Data. Sioux Falls, EUA. http://edcwww.cr.usgs.gov/glis/hyper/guide/spot#spot1. 1996.

ESA, Satellite Imagery FAQ. Itália. http://atlas.esrin.esa.it:8000/lib/faq-info.html. 1997. FACON, James. 1996. Morfologia Matemática: Teoria e Exemplos. Editora Universitária Champagnat, PUC. Curitiba -

PR. 320pp. FREEMAN, Tony. That is Imaging Radar?. EUA. http://southport.jpl.NASA.gov/desc/imagingradarv3.html.1998. HALLIDAY, David & RESNICK, Robert. Física. Volumes 3 e 4. Rio de Janeiro, Ed. LTC, 1978. INPE – Spring 3.1 – Windows 9x/NT – Help on Line. São José dos Campos, 1998. INPE – SPRING: Tutorial de Geoprocessamento. São José dos Campos, SP.

http://sputnik/dpi/inpe.br/spring/teoria/.1998.

Page 47: 00775 - Processamento de Imagens de Radar Orbital

CopyMarket.com Processamento de Imagens de Radar Orbital – Luiz Aristides Rios

46

INTERSAT. RADAR. JERS-1 e ERS. São José dos Campos. SP. http://www.intersat.com.radar.htm.1998. KOOIJ, M. W. A. et al. A Workstation for Spaceborne Interferometric SAR Data. Atlantis Scientific Inc.

http://www.atlsci.com/library/papers/A_Workstation_For_Spaceborne_Interferometric_SAR_Data.html. 1998.

KREMER, Patrick – Remote Sensing (List of Sites). Louvain, Bélgica. http://ftp.geog.ucl.ac.be/~patrick/geogr/Eteledetec.html. 1998.

LPDAAC - Land Processes Distributed Active Archive Center, 1992. Global Land 1-Km AVHRR Data Set Project: Vegetation Index - June 21-30, 1992. Eros Data Center, Sioux Falls, South Dakota.

MONSERRAT Filho, José. 1993. Olhos Sobre a Terra. Revista Ciência Hoje, No 92. SBPC, Rio de Janeiro - RJ. Brasil. Pág. 52 e 53.

MOURÃO, Ronaldo R. F. Dicinário Enciclopédico de Astronomia e Astronáutica. Rio de Janeiro. Ed. Nova Fronteira. 1987.

NASA – SIR-C/X-SAR Images. http://www.jpl.NASA.gov/radar/sircxsar/. 1998. NASoftware – SAR Book – Speckle reduction/supression of SAR. http://www.nasoftware.co.uk/sar-book/. 1998. NEONET - Netherlands Earth Observation NETwork – X-Band Synthetic Aperture Radar. Holanda.

http://www.neonet.nl/ceos-idn/sensors/X-SAR.html. 1998. NOVO, Evlyn M. L. M.- Princípios de Processamento de Imagens de Radar (Curso) – Notas de aula. UnB,

Conservation International e Threetek. Brasilia, DF, 1998. NOVO, Evlyn M. L. M.- Sensoriamento Remoto – Princípios e Aplicações. Ed. Edgard Blücher Ltda, 2a Edição, São

Paulo, 1992. RADARSAT International. – Radarsat Images – Samples. CD ROM. Richmond, Canadá, 1996. RANEY, R. Keith. Glossário de Radar. SAR 101. Tradução de Paulo Meneses e R. B. Cavalcanti. Geomatics

Canada/CCRS, Intera, NASA / JPL e ESA. Ed. Dirk Werle – AERDE Environmental Research. 1997. RICHARDS, John A. – Remote Sensing Digital Image Analysis. Ed. Springer Verlag. Alemanha. 1995. SCHMIDLIN, Dirley, 1994. Sensoriamento Remoto. Curso de Introdução ao Geoprocessamento. Ed. Sagres. Curitiba -

PR. SHI, Zhenghao & Fung, Ko B. - A comparison of Digital Speckle Filters. Canadá Centre for Remote Sensing, Ottawa,

Canadá. 1998 THOMPSON, Owen E. – Synthetic Aperture Space Radar. Maryland, EUA, http://www.meto.umd.edu/~owen/. 1998. THREETEK. Radarsat / Informações para Pedido de Imagens RADARSAT. (Material de Divulgação). Rio de

Janeiro. 1998. UCSD Libraries and Academic Computing Services. Earth From Space II: Radion Region, Especially RADAR.

University of California, San Diego. http://emperor.kidsat.ucsd.edu/ames144/ch12/ch12.html. 1998. UNIVERSIDAD POLITÉCNICA DE MADRID – Glossary of Radar Terminology. Madri. Espanha.

http://nivel.euitto.upm.es/tele/AYU/Dic/RADA/RADARGQ.HT. 1998. UNIVERSITY OF BRITISH COLUMBIA, DEPARTMENT OF ELECTRICAL AND COMPUTER ENGINEERING

FACULTY OF APPLIED SCIENCE – Radar Remote Sensing Sites / Systhetic Aperture Radar (SAR). Vancouver, Canadá. http://www.ee.ubc.ca/nfs/choker/int2/www/sites/RRSwww.html. 1998

WAGENINGEN AGRICULTURAL UNIVERSITY. An Introduction to Synthetic Aperture Radar. Holanda, http://gissrv.iend.wau.nl/. 1998.

WERLE, Dirk. Resumo dos Principais Sistemas Sar Atuais. SAR 101.Tradução de Paulo Meneses e R. B. Cavalcanti. Geomatics Canada/CCRS, Intera, NASA / JPL e ESA. Ed. Dirk Werle – AERDE Environmental Research. 1997.

WERLE, Dirk. SAR 101. Geomatics Canada/CCRS, Intera, NASA / JPL e ESA. Ed. Dirk Werle – AERDE Environmental Research. 1997.