Noções_de_sensoriamento_remoto

  • Uploaded by: Jairo Oliveira
  • 0
  • 0
  • January 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Noções_de_sensoriamento_remoto as PDF for free.

More details

  • Words: 38,117
  • Pages: 124
Loading documents preview...
COMANDO DA AERONÁUTICA ESCOLA DE ESPECIALISTAS DE AERONÁUTICA

NOÇÕES DE SENSORIAMENTO REMOTO

NOÇÕES DE SENSORIAMENTO REMOTO VOLUME ÚNICO

BFT CFS 2011 IMPRESSO NA SUBSEÇÃO GRÁFICA DA EEAR

MINISTÉRIO DA DEFESA COMANDO DA AERONÁUTICA ESCOLA DE ESPECIALISTAS DE AERONÁUTICA

NOÇÕES DE SENSORIAMENTO REMOTO

Apostila da disciplina Noções de Sensoriamento Remoto, da Especialidade BFT, do Curso de Formação de Sargentos. Elaborador: Igor Ramos da Silva 2S BFT

GUARATINGUETÁ, SP 2011

DOCUMENTO DE PROPRIEDADE DA EEAR Todos os Direitos Reservados Nos termos da legislação sobre direitos autorais, é proibida a reprodução total ou parcial deste documento, utilizandose de qualquer forma ou meio eletrônico ou mecânico, inclusive processos xerográficos de fotocópias e de gravação, sem a permissão, expressa e por escrito, da Escola de Especialistas de Aeronáutica - Guaratinguetá - SP.

SUMÁRIO Introdução........................................................................................................................01 1PRÍNCIPIOS DE SENSORIAMENTO REMOTO......................................................02 1.1 Conceito.........................................................................................................02 1.2 Princípios Físicos ligados ao Sensoriamento Remoto...................................04 1.3 Estudo dos Sensores.......................................................................................14 2 Sensoriamento Remoto na Faixa do Vísivel.................................................................21 2.1 Características da radiação visível.................................................................21 2.2 Sensores Eletro-Ópticos.................................................................................22 3 Sensoriamento Remoto na Faixa do Infravermelho.....................................................24 3.1 Características da radiação termal.................................................................24 3.2 Sensores Termais...........................................................................................32 4 Sensoriamento Remoto na Faixa das Microondas........................................................38 4.1 Características das Microondas.....................................................................38 4.2 Radares Imageadores.....................................................................................41 4.3 Efeitos Indesejados nas Imagens de Radar....................................................48 5 Sistemas Orbitais..........................................................................................................54 5.1 Programa LANDSAT....................................................................................54 5.2 Programa SPOT.............................................................................................75 5.3Programa RADARSAT..................................................................................86 5.4 Programa JERS..............................................................................................88 5.5Programa ENVISAT.......................................................................................89 5.6Programa EOS................................................................................................90 6 Sensoriamento Multiespectral e Hiperespectral...........................................................92 6.1 Sensores Multiespectrais................................................................................92 6.2 Sensores Hiperespectrais...............................................................................93 7 Comportamento Espectral de Alvos.............................................................................95 7.1 Introdução......................................................................................................95 7.2 Métodos de Aquisição...................................................................................97 7.3 Características Gerais das Curvas de Reflectância........................................99

8 Resoluções.................................................................................................................108 8.1Resolução Espacial........................................................................................108 8.2 Resolução Radiométrica..............................................................................112 8.3 Resolução Espectral.....................................................................................113 8.4 Resolução Temporal....................................................................................115 CONCLUSÃO...............................................................................................................117 ANEXO 1......................................................................................................................118 ANEXO 2......................................................................................................................119

1

EEAR

INTRODUÇÃO Pode-se conceituar Sensoriamento Remoto como sendo um conjunto de atividades cujo objetivo reside na caracterização das propriedades de alvos naturais ou artificiais, através da detecção, registro e análise do fluxo de energia radiante por eles refletido ou emitido. Na verdade Sensoriamento Remoto significa sentir à distância e, para traduzirmos a definição do parágrafo acima, daremos uma exemplo bastante simples: ao vermos uma árvore nosso sensor visual (olhos) faz a detecção da radiação eletromagnética (luz) refletida pelo alvo natural (árvore) que registra essa imagem na nossa memória , o cérebro a combina com outras imagens arquivadas e faz uma análise para concluir que estamos diante de uma árvore. É interessante observarmos que é necessário uma combinação coerente entre o sensor e a informação desejada, não poderemos cheirar uma flor com os olhos pois o sensor adequado para esse fim é o nariz. Veja que é algo fácil de entender e gostaríamos que esses pequenos exemplos facilitassem o entendimento de conceitos que comentaremos a seguir. Um fluxo de radiação eletromagnética ao se propagar pelo espaço pode interagir com alvos (solo, cidades, florestas, plantações, aviões, navios,...) sendo por estes absorvido, refletido e mesmo reemitido. Esse fluxo eletromagnético (luz, microondas, etc...) interage com a matéria das mais variadas formas dependendo fortemente de suas propriedades físico-químicas, ou seja, o fluxo eletromagnético proveniente de um determinado objeto traz valiosas informações da constituição fisico-química deste e também seu formato, tamanho e posição espacial. Se um facho de luz branca atingir uma maçã vermelha sobre uma mesa azul, a constituição físicoquímica da maçã fará com que ela reflita cor vermelha e absorva as restantes, em compensação, processo semelhante ocorre na mesa só que com a cor azul e com isso obtemos um contraste que nos permite não só separá-los mas sabermos tamanho, formato e outros detalhes de ambos. Para buscar essas informações cria-se uma grande variedade de equipamentos capazes de detectar, registrar e possibilitar a análise destes dados em forma de tabelas numéricas, gráficos ou imagens. Esses dados devem ser trabalhados por especialistas de forma a obtermos o máximo de informações e que estas sejam confiáveis. Ao efetuarmos fotografias aéreas de uma lavoura poderemos saber o desenvolvimento em que se encontra cada planta, o espaçamento entre elas, a área de plantio e outros dados espaciais. Observando-se a tonalidade e a cor teremos também dados sobre a floração, o estágio dos frutos, se há alguma praga, etc... Tudo isso porque a radiação eletromagnética proveniente do sol, atingiu a lavoura, interagiu com as plantas, o solo, as flores e foi refletida de forma diversa fazendo com que pudéssemos registrar num filme distintamente cada um deles propiciando um contraste que os distinguem entre si. Cabe aqui lembrar que estes sistemas sensoriadores podem ser transportados em plataformas diversas (aviões tripulados ou não, mísseis, satélites,...) que lhes alteram algumas características mas as funções básicas destes sistemas permanecem constantes.Existem formas de registro destes dados para análise que podem ser em forma de tabelas numéricas ou gráficos (sistemas não-imageadores) e outro mais complexo que produz imagem da cena chamados de sistemas imageadores que serão o objetivo desta apostila.

Nos capítulos seguintes daremos as principais características dos sensores mais utilizados no momento no intuito de que tenhamos subsídios para estudos mais aprofundados futuramente. DIVISÃO DE ENSINO

SSDMD

2

EEAR

Unidade 1: Princípios do Sensoriamento Remoto 1.1 - Conceito Em sentido amplo, Sensoriamento Remoto é a ciência e a arte de obter informação acerca de um objeto, área ou fenômeno, através da análise de dados adquiridos por um dispositivo que não está em contato com o objeto, área ou fenômeno sob investigação. Essa definição, apresentada por Lillesand e Kiefer (1994), basta para que o leitor tome consciência de que, no simples ato de ler este texto, ele está utilizando o Sensoriamento Remoto (SR). Nesse caso, os olhos atuam como sistemas sensores capazes de responder à luz refletida por esta página. Os “dados” adquiridos pelos olhos são, na verdade, impulsos correspondentes à quantidade de luz refletida das partes claras e escuras contidas no texto. Esses dados são analisados pelo cérebro do leitor, tornando-o capaz de entender as áreas escuras como uma coleção de letras que formam palavras que, por sua vez, formam frases. Ao final do processo, a leitura dessas frases possibilitará a interpretação da informação nelas contida. De certa forma, o SR pode ser entendido como um processo de leitura. Por meio de vários sensores, dados são coletados remotamente, para que sejam analisados no intuito de gerar informação acerca de objetos, áreas, ou fenômenos sob investigação. Esses dados coletados remotamente podem apresentar-se de muitas formas. Podem ser variações na distribuição de forças, distribuição de ondas acústicas, ou distribuição de ondas eletromagnéticas - percebida, em parte, pelo olho humano - por exemplo. Assim sendo, em sentido restrito, o SR eletromagnético também pode ser entendido como o conjunto de atividades que têm por objetivo determinar propriedades de alvos pela detecção, registro e análise da radiação eletromagnética por eles refletida e/ou emitida.

Fig. 01 Obtenção de imagens no Sensoriamento Remoto

DIVISÃO DE ENSINO

SSDMD

EEAR

3

1.1.1 – Etapas do Sensoriamento Remoto Como foi visto na página anterior, a atividade de sensoriamento remoto, para ser completa, deve passar por um conjunto de três etapas, as quais compreendem: • a detecção; • o registro; e • a análise. A detecção compreende o conjunto de atividades que visam à captação, através do sensor, da energia radiante proveniente do alvo. O registro compreende o conjunto de atividades que visam à gravação dos dados coletados, através do sensor, seja de modo analógico ou digital. A análise compreende o conjunto de atividades que visam à interpretação qualitativa de todas as características do alvo sensoriado.

1.1.2 – Os Pilares do Sensoriamento Remoto Entende-se por pilares do sensoriamento remoto, os elementos que são imprescindíveis para a realização da referida atividade. Sem eles, seria impossível realizar sensoriamento remoto pelo fato de estarem ligados às etapas vistas anteriormente e também porque a retirada de quaisquer desses elementos impede a obtenção de informações sem contato físico com o alvo. São eles: • a radiação eletromagnética; • o sensor; e • o alvo. Sem radiação (energia radiante), pode-se ter o melhor e mais moderno sensor e um alvo disponível que não haverá sensoriamento. Sem sensor, pode-se ter radiação e alvo disponíveis que não conseguiremos sensoriar o objeto, por não haver um meio de registro dos dados. Sem existir alvo, por não ocorrer detecção do mesmo, pode-se ter o sensor e a radiação disponível que igualmente não haverá atividade de sensoriamento remoto. É importante notar que a soma desses três pilares irá gerar o produto final do sensoriamento remoto que é a INFORMAÇÃO.

DIVISÃO DE ENSINO

SSDMD

4

EEAR

INFORMAÇÃO S E N S O R

R A D I A Ç Ã O

A L V O

1.2 – Princípios Físicos ligados ao Sensoriamento Remoto 1.2.1 – A Radiação Eletromagnétca (REM) Qualquer atividade a ser realizada requer o uso de energia, o que não poderia ser diferente para a obtenção de dados através do sensoriamento remoto. A energia a ser utilizada em sensoriamento remoto é a radiação eletromagnética (energia radiante), que pode ser definida como o tipo de energia que NÃO necessita de um meio físico para se propagar. Sua propagação se dá em forma de ondas eletromagnéticas com a velocidade da luz no vácuo igual a 300 000 km/s e apresenta três propriedades: a) freqüência (f) que é definida pelo número de ciclos completos de onda no intervalo de 1 segundo (unidade hertz – 1 ciclo por segundo – Hz); Obs 1: 1 KHz = 103 Hz 1 MHz = 106 Hz 1 GHz = 109 Hz b) comprimento de onda (λ) que é a distância entre dois picos ou vales sucessivos da onda (unidade metro – m); e Obs 2: 1 cm = 10-2 m 1mm = 10-3 m 1nm = 10-9 m 1Å = 10-10 m 1µm = 10-6 m c) amplitude (A) que é a altura de cada pico ou de cada vale a partir do eixo horizontal z de propagação – figura 03. Assim, à radiação eletromagnética se pode atribuir um comprimento de onda (λ) e uma freqüência (f), que estão relacionadas entre si e à velocidade de propagação (c), pela equação:

c = λ.f Obs 3: Para resolução de qualquer problema em prova envolvendo a equação acima, deve-se considerar que radiação eletromagnética se propaga no vácuo. DIVISÃO DE ENSINO

SSDMD

EEAR

5

Uma onda eletromagnética consiste de dois campos, um elétrico e outro magnético, oscilantes na direção perpendicular à direção de propagação e mutuamente perpendiculares entre si.

Fig. 03 – Campo elétrico (E) e magnético (M) da onda de energia eletromagnética, comprimento da onda (λ) e a direção de propagação (z )

Uma vez que a velocidade da luz varia de acordo com o meio em que se desloca (300 000 km/s, no vácuo), note-se, pela equação c = λf que para qualquer que seja a REM considerada, a freqüência e o comprimento de onda serão sempre INVERSAMENTE proporcionais. Utiliza-se de duas Teorias para explicar a natureza da energia eletromagnética: a) Teoria Ondulatória, segundo a qual a energia se propaga com a velocidade da luz, como já descrito acima, sendo conveniente lançar mão dessa teoria enquanto a energia eletromagnética se propaga de um ponto ao outro do espaço; e b) Teoria Quântica, que dá outras abordagens para explicar como a energia eletromagnética interage com a matéria. Segundo essa Teoria, a radiação eletromagnética (REM) é composta de partículas denominadas fótons, cuja energia é discretizada em quantum. A energia de um quantum é dada por Q= hf. Onde Q é a energia de um quantum em Joules (J), h é a constante de Planck (6,626 X 10-34 J.s) e f é a freqüência da onda (Hz). Note que ao relacionarmos as equações c = λf e Q= hf, obtemos: Q= h c/ λ, ou seja a energia de um quantum em função do comprimento de onda λ. Portanto, a energia de um quantum é DIRETAMENTE proporcional à sua freqüência e INVERSAMENTE proporcional ao seu comprimento de onda, isto é, quanto maior for o comprimento de onda, menor será a energia nele contida. Essa asserção tem implicações importantes para o SR, uma vez que radiações emitidas que possuam comprimentos de onda maiores, como emissões na faixa das microondas por objetos ou feições da superfície terrestre, são mais difíceis de se detectar do que aquelas emitidas em comprimentos de onda menores, como no infravermelho termal. Significa dizer que , de maneira geral, sistemas operando em comprimentos de ondas maiores, necessitam “enxergar” áreas maiores para obter um sinal detectável.

1.2.2- Fontes de energia Os sensores captam informações resultantes da interação (reflexão, transmissão, absorção, emissão) da energia ou radiação eletromagnética (REM) com os objetos da superfície terrestre e, a partir disso, permitem a derivação de informações sobre as características físicas e químicas dos alvos em estudo. DIVISÃO DE ENSINO

SSDMD

6

EEAR

A energia utilizada em Sensoriamento Remoto é proveniente do Sol, dos alvos e/ou do próprio sensor. Como fonte natural, tem-se a luz do sol e o calor emitido pela superfície da Terra e como fonte artificial a energia proveniente do próprio sensor que pode ser um flash de uma câmera fotográfica e o sinal produzido por um radar. De toda a quantidade de radiação solar que atinge o topo da atmosfera, somente 47% atinge a superfície terrestre, após o processo de interação da radiação com a atmosfera.

1.2.3- Espectro Eletromagnético Representa a distribuição da radiação eletromagnética, por regiões, segundo o comprimento de onda e a freqüência. A faixa de comprimentos de onda ou freqüência em que se pode encontrar a radiação eletromagnética (REM), é praticamente ilimitada. Este espectro é subdividido em faixas, representando regiões que possuem características peculiares em termos de processos de detecção desta energia – figura 04.

Fig. 04 – Espectro eletromagnético com destaque das freqüências da faixa do visível

Embora os limites de cada faixa espectral tenham valores aproximados, as seguintes regiões podem se definidas: a) Ondas de Rádio – Estas ondas eletromagnéticas têm freqüências relativamente baixas e consequentemente grandes comprimentos de onda, o que corresponde a freqüências menores que 300 Mhz e comprimentos de onda maiores que 1m. As ondas eletromagnéticas nesta faixa são utilizadas para comunicação a longa distância, pois além de serem pouco atenuadas pela atmosfera, são refletidas pela ionosfera, proporcionando uma propagação a longo alcance. b) Microondas – Será estudado no capítulo 4 c) Infravermelho – Será estudado no capítulo 3 d) Visível – Será estudado no capítulo 2. e) Ultravioleta – A radiação ultravioleta engloba uma extensa faixa do espectro eletromagnético, que varia de 0,01 a 0,40µm (inclusive). É interessante notar que as películas fotográficas são mais sensíveis à radiação ultravioleta que a luz visível. Embora esta faixa do espectro mostre relativo potencial de aplicações em SR, tais como detecção de minerais por luminescência, poluição marinha, a forte atenuação atmosférica nesta faixa se apresenta como um grande obstáculo à sua utilização. DIVISÃO DE ENSINO

SSDMD

7

EEAR

f) Raios X – São definidos como radiação na faixa de comprimento de onda de aproximadamente de 10-13 a 10-12 m. São gerados, predominantemente, pela parada ou freamento de elétrons de alta energia. Por se constituir de fótons de alta energia, os raios-x são altamente penetrantes, sendo uma poderosa ferramenta de pesquisa sobre a estrutura da matéria. g) Raios Gama (γ) – Os Raios-γ, assim como as partículas α e β, são emitidos em transições que ocorrem dentro de um núcleo atômico instável (com energia em excesso) quando este sofre decaimento ou desintegração natural: as partículas α são núcleos de átomos de Hélio (He) que se movem rapidamente; as partículas β são elétrons que se movem rapidamente; e os Raios-γ são Raios-x de alta energia. Tanto os Raios-X quanto os Raios-γ estão presentes no espaço, emitidos ou refletidos por estrelas, planetas e satélites naturais. A captação desse tipo de radiação tem possibilitado a espectroscopia para mapeamento da superfície de alguns desses corpos, que apresentam atmosfera menos espessa, como Marte, Mercúrio, a Lua , cometas e asteroides ( Pieters e Englert, 1993). A faixa espectral que se estende de 0,30 μm a 15 μm é a mais usada em Sensoriamento Remoto. Esta região do espectro eletromagnético é conhecida como espectro óptico, pois nela os componentes ópticos de reflexão e refração, tais como lentes, espelhos, prismas, entre outros, podem ser usados para coletar e reorientar a radiação.

1.2.4 PROCESSOS DE INTERAÇÃO DA REM COM A SUPERFÍCIE 1.2.4.1- Introdução Muitos processos de produção de energia dos seres vivos mais complexos necessitam da radiação solar para se consolidarem. Por exemplo, as plantas verdes capturam parte da energia proveniente do Sol para a realização da fotossíntese, necessária à produção de carboidratos, utilizados como reservas energéticas. Tal aproveitamento da radiação pela vida se beneficia dos processos de interação da energia com a matéria, cujos preceitos são aplicados a todos os materiais. Em outras palavras, além de emitir radiação, a matéria a reflete, refrata, absorve, espalha e difrata, podendo ainda reemiti-la após um certo lapso temporal, como ocorre no processo de fosforescência. Quando um feixe de energia radiante incide sobre a matéria, parte dessa radiação é refletida e outra parte penetra no material. Dessa última, parte é absorvida e pode ser convertida em calor e/ou vir a ser emitida pelo material (geralmente em comprimentos maiores, de menor energia que a radiação incidente), parte é espalhada e parte é novamente transmitida.

Fig. 05 – Desmembramento de um feixe radiante incidente em um material semi-transparente

DIVISÃO DE ENSINO

SSDMD

EEAR

8

Entretanto, é importante ressaltar que basicamente os processos de interação por absorção e espalhamento estão presentes em qualquer meio material real. A soma desses processos é chamada de atenuação e é responsável pela retirada de parte da energia da radiação incidente no meio, influenciando o processo de transferência radiativa. O que importa, no entanto, é saber qual o balanço entre o fluxo radiante que incide e o que sai de uma superfície (ou meio) sob observação, o que permite constatar que há alguns inconvenientes em se trabalhar com valores absolutos de radiância, do fluxo radiante dela derivado, ou de outra grandeza radiométrica, em virtude da variabilidade da irradiância sobre o alvo, seja ela motivada pelo meio atmosférico ou por flutuações da própria fonte. Ao contrário do que ocorre com os valores absolutos dessas grandezas radiométricas, a obtenção de valores relativos permite a identificação de propriedades inerentes dos materiais, tal como, a identificação de feições de absorção em determinadas regiões espectrais, sem a influência das variações da irradiância sobre o alvo. Trata-se da obtenção das razões entre o fluxo emergente do alvo (ou meio), seja esse fluxo transmitido, refletido ou absorvido, e o fluxo incidente na sua superfície. Tais razões entre grandezas radiométricas são definidas como Reflectância, Absortância e Transmitância do meio ou superfície em questão. (1)−Reflectância (ρ) é a razão entre o fluxo radiante refletido (Φr) e o fluxo radiante incidente (Φi) em determinado material; (2)−Transmitância (τ) é a razão entre o fluxo radiante transmitido (Φt) através de um determinado material e o fluxo radiante nele incidente (Φi); (3)−Absortância (α) é a razão entre o fluxo radiante absorvido (Φa) por um determinado material e o fluxo radiante nele incidente (Φi). Obs 1: É fácil perceber que ρ + τ + α = 1 Obs 2: As grandezas Φi, Φt, Φr e Φa são medidas em W/m2. Obs 3: As grandezas ρ, τ e α são expressas em porcentagem (grandezas adimensionais).

1.2.5- Processos de interação 1.2.5.1- Reflexão De forma simplificada, é um dos processos de desvio da trajetória de um feixe de radiação na interface entre dois meios diferentes, quando este feixe incide fora da direção normal à superfície. A reflexão consiste no fenômeno em que o feixe incidente é desviado e ambos permanecem no mesmo meio, guardando também a propriedade de possuírem ângulos de incidência e de desvio iguais em relação à normal no ponto de incidência do feixe, o que caracteriza o desvio do feixe como uma reflexão. A reflexão é classificada como especular ou como difusa. A reflexão especular é aquela na qual o feixe refletido é tão estreito e definido quanto o feixe incidente. Essa ocorrerá em uma superfície lisa, também chamada de superfície especular, na qual as irregularidades (alturas e larguras entre cristas e vales das imperfeições) sejam pequenas em relação ao comprimento de onda da radiação incidente. Já a reflexão difusa é aquela que ocorre em uma superfície nãoDIVISÃO DE ENSINO

SSDMD

9

EEAR

especular, também chamada de superfície rugosa, ou difusa, na qual o feixe refletido perde definição em relação ao feixe incidente (figura 06).

Fig. 06 – Diferença entre reflexão especular e reflexão difusa, associadas à rugosidade da superfície com relação ao comprimento de onda da radiação incidente

1.2.5.2- Difração Difração é o desvio da radiação da sua propagação retilínea, que ocorre sempre que uma frente de onda é obstruída de alguma forma. Por exemplo, quando a radiação incide em um anteparo com uma fresta ocorrem desvios laterais na propagação da mesma. É devido a esse fenômeno, que ocorre em todos os tipos de onda, que se pode ouvir o som emitido do outro lado de uma esquina. Esse fenômeno pode ser observado visualmente com a utilização de ondas mecânicas geradas em uma bandeja com água (figura 07). Na difração, são geradas ondas esféricas após a incidência de uma onda plana em uma fresta de um anteparo, ou em um obstáculo. Tal efeito vem geralmente acompanhado de efeitos de interferência após o obstáculo ou abertura, o que pode ser percebido através das franjas de interferência. Essa interferência das ondulações torna-se mais pronunciada quanto mais próximo do comprimento da onda for o tamanho da menor dimensão transversal da fresta ou do obstáculo. Em nosso dia-a-dia, os efeitos da difração podem até passar desapercebidos. Isso porque os comprimentos de onda da Radiação do Visível são bem pequenos em relação aos objetos e frestas do nosso ambiente, o que gera desvios diminutos. Aliado a isso, a maioria das fontes de luz não são monocromáticas e os espectros dos vários comprimentos geram um recobrimento que torna a difração ainda menos evidente. No entanto, tratando-se de equipamentos utilizados em estudos que como em Sensoriamento Remoto, as proporções diminutas devem ser consideradas, a fim de serem evitados grandes erros. Esses equipamentos devem, portanto, ser confeccionados com todo o rigor necessário, para que se possa provocar as difrações desejadas e se evitar as indesejadas. Uma aplicação desejada desse fenômeno é explorada com a elaboração de redes ou grades de difração utilizadas, por exemplo, na medição precisa de comprimentos de onda de uma fonte desconhecida. Essas grades são preparadas com a abertura de ranhuras paralelas, e meticulosamente espaçadas, feitas na superfície de uma placa metálica ou de vidro e são utilizadas para provocar variações periódicas da fase da onda incidente, ao ser refletida ou transmitida no material. Tais variações estão relacionadas com o comprimento de onda e com o espaçamento entre as fendas, e são evidenciadas por regiões de interferência construtiva e destrutiva, que variam conforme o ângulo com que as ondas emergem em relação à superfície. DIVISÃO DE ENSINO

SSDMD

EEAR

10

Fig. 07 – Difração que ocorre em uma abertura de um anteparo, posicionado perpendicularmente ao sentido de propagação de uma onda em uma bandeja com água. As setas indicam as direções de propagação das ondas.

1.2.5.3- Refração Refração é a mudança na direção dos feixes de luz quando a luz passa de um meio para outro. Por exemplo, a luz passa de uma camada atmosférica e entra na água. O índice de refração é calculado pelas equações: a) n = c/cn, onde n – índice de refração; c – velocidade da luz no vácuo; cn – velocidade da luz em um meio qualquer. b) n1.sen θ1 = n2.sen θ2, onde n1 e n2 – índices de refração dos meios 1 e 2; θ1 e θ2 – ângulo de incidência e refração. A figura 08 mostra os componentes de reflexão (R r1), refração (Rr2 e um feixe de luz íncidente (Rr) quando passa pela camada atmosférica e entra na água. Para a radiação solar, os valores de índice de refração são de 2,42 para o diamante; 1,46 para o quartzo fundido e o álcool

etílico e 1,33 para a água. Fig. 08 – Geometria do desvio dos feixes de radiação nos processos de reflexão e refração na superfície de separação entre dois meios diferentes

1.2.5.4 - Absorção A energia da radiação é absorvida e re-emitida nas bandas mais longas, tais como bandas termais. Na atmosfera, a radiação é absorvida quando a atmosfera tem alta concentração de moléculas, principalmente ozônio (O3), dióxido de carbono (CO2) e vapor de água (H2O). A absorção da radiação ultravioleta (<0.3 μm) pelo gás ozônio ocorre na camada estratosférica em altitude de 20 a 50 km. O ozônio na estratosfera desempenha uma função importante de prevenir a chegada da radiação ultravioleta à superfície. A diminuição de concentração de ozônio na estratosfera aumenta a intensidade da radiação ultravioleta que chega à superfície causando câncer de pelo e danificando a flora e fauna. DIVISÃO DE ENSINO

SSDMD

EEAR

11

A absorção de radiação na faixa de 13 a 17,5 μm pelo CO2 ocorre na camada abaixo de 20 km de altitude. As erupções vulcânicas e as atividades humanas, tais como queimadas, transportes e indústrias, são as principais fontes de aumento da concentração de CO 2. A absorção da radiação pelo vapor de água é localizada nas faixas em torno de 1,95, 5,5 e 7 μm e acima de 27 μm. A concentração de vapor de água varia drástica e sazonalmente e de local a local que é diferente da concentração de CO2 ou ozônio. A alta concentração de vapor de água na atmosfera em um determinado local pode absorver mais de 80% da radiação nas bandas mencionadas.

1.2.5.5- Espalhamento O espalhamento é o redirecionamento da radiação sem alteração das suas características. Ele ocorre quando a radiação incidente na matéria tem freqüência diferente das freqüências de ressonância dessa matéria. Neste caso a sua energia é incompatível para causar uma transição eletrônica para um estado mais energético, ou para causar um dos processos de vibração da molécula. Toda matéria, desde um átomo até um planeta, provoca espalhamento. No entanto, o padrão do espalhamento é dependente do tamanho do objeto material, assim como do seu formato e da sua composição, bem como da polarização e da freqüência da radiação incidente. Sendo assim, o estudo do espalhamento tem duas abordagens em relação à matéria: como partícula isolada e como superfície extensa. É de se esperar, contudo, que existam na natureza partículas dos mais variados tamanhos e formas, o que tornaria árduo o trabalho de identificação dos padrões de espalhamento. Não obstante tais variações, é possível modelar esses padrões, considerando o caso particular de uma superfície esférica, cujas dimensões estejam dentro de certos limites. É claro, trata-se de uma aproximação teórica. Essa solução foi primeiramente implementada por Lord Rayleigh, ficando conhecida como teoria de Rayleigh. Esta teoria é particularmente útil nos estudos do espalhamento da radiação solar causada pelas moléculas dos gases da atmosfera, quando as partículas predominantes são esferas de diâmetros muito menores do que o comprimento da radiação incidente. Tal solução explica matematicamente o motivo da coloração azul do céu. No entanto, quando o tamanho teórico da partícula aproxima-se da magnitude do comprimento de onda da radiação, a solução proposta por Rayleigh torna-se absurda. Para esse caso, a solução foi desenvolvida por Gustav Mie, que aplicou as equações do eletromagnetismo de Maxwell para um sistema de coordenadas polares esféricas. A teoria de Mie abrange a solução anterior e, portanto, a teoria de Rayleigh pode ser tratada como um caso particular da teoria de Mie. Uma característica do espalhamento por partículas é a grande assimetria entre o espalhamento à frente e o retroespalhamento, geralmente com predominância da primeira componente à frente. Quanto maior a partícula, mais alongado será o lóbulo frontal em relação ao retroespalhamento (figura 9b e 9c). De forma geral, o espalhamento do tipo Rayleigh e do tipo Mie ocorrem nas condições: a) espalhamento Rayleigh: ocorre quando o diâmetro da partícula for menor do que λ/10 (figura 9a). b) espalhamento Mie: ocorre quando o diâmetro da partícula está em torno de λ/4 (fig 9b e c). Na situação a partir da qual o diâmetro da partícula supera o comprimento de onda da radiação, o espalhamento é predominantemente um processo de reflexão difusa. É o caso do DIVISÃO DE ENSINO

SSDMD

EEAR

12

espalhamento que ocorre em superfícies, quais sejam, objetos de dimensões superiores ao comprimento de onda da radiação incidente.

Fig. 09 – Espalhamento da radiação eletromagnética por partículas: em (a), do tipo Rayleigh; e em (b) e (c) do tipo Mie.

O espalhamento em superfícies é normalmente conhecido como reflexão, a qual se distingue em dois casos particulares: a reflexão especular e a reflexão difusa, apresentadas anteriormente. A essência da diferença entre esses dois casos de espalhamento em superfície, reflexão especular e reflexão difusa, está no resultado da interferência de ondas após a incidência na superfície. Tanto a reflexão especular quanto a refração são resultantes de um processo de interferência construtiva que ocorre com a superposição de várias ondas secundárias, excitadas pela radiação incidente. Em superfícies lisas há uma grande superposição de ondas secundárias em uma direção específica, reforçando a intensidade do raio em uma mesma direção (ângulo de reflexão especular e no de refração). Já em superfícies menos lisas, a sobreposição nessas direções é menor porque as irregularidades da superfície causam desvios em direções distintas, com um processo de difusão em várias direções: reflexão difusa. Com relação aos processos de interação é importante ressaltar, como já foi exposto anteriormente, que a absorção e o espalhamento estão presente em qualquer material e a soma desses dois processos é chamada de atenuação. As características de atenuação do meio podem ser inferidas por meio de indicadores das características de absorção e espalhamento, chamados coeficientes de absorção e espalhamento.

1.2.6 – Processos de Emissão 1.2.6.1 Incandescência Incandescência é o processo de produção de energia radiante por um objeto, em virtude da sua temperatura. Em tal processo, a característica da emissão está associada à temperatura da fonte, de forma que, o aumento da temperatura implica em emissões de menores comprimentos de onda, em uma diminuição gradual, que vai da radiação não visível, passa pelo vermelho, laranja e amarelo, até chegar ao azul, como pode ser observado na chama de um fogão a gás. Isso porque, quanto maior a temperatura do objeto, maior é a energia das vibrações atômicas, e conseqüentemente, maior será a freqüência (menor o comprimento de onda) das suas emissões eletromagnéticas.Wien, em 1893, previu matematicamente esse comportamento para um corpo idealizado, que seria capaz de absorver toda a radiação nele incidente e, por esse motivo, deveria ser absolutamente negro. Esse Corpo Negro (CN) também seria o irradiador perfeito, isto é, capaz de emitir toda a radiação nele incidente, qualquer que fosse a energia (Nassau, 1983). DIVISÃO DE ENSINO

SSDMD

13

EEAR

A Lei do deslocamento de Wien, ou simplesmente Lei de Wien, relaciona o comprimento de onda de máxima emissão (λm, em µm) de um CN, com a sua temperatura (T, em K)

onde: λm = comprimento de onda de máxima exitância espectral, em µm c3 = 2898 µm.K T = temperatura absoluta (K) do corpo negro Observa-se, no entanto, que objetos incandescentes de alta temperatura, como o próprio Sol (~5700 ºC, ou ~6000 K), irradiam luz de coloração branca, e não azul-esverdeada (λmáx~485 nm), como seria lógico. A razão está no fato da irradiação ocorrer de forma nãoseletiva, ou seja, esses objetos irradiam em uma ampla faixa do espectro, cuja mistura da irradiação nas freqüências do visível resulta na coloração branca. No entanto, estrelas mais quentes que o Sol irradiam em uma coloração branco-azulada, indicando a predominância de emissões em maiores freqüências, cuja coloração se aproxima do azul e do violeta, sobre a participação das demais freqüências do visível . O comportamento incandescente dos corpos foi finalmente consolidado por Max Planck, em 1900, que deduziu que os corpos negros seriam capazes de emitir e absorver radiações da qualquer energia, mas de forma dependente da temperatura em que se encontravam. Em outras palavras, Planck relacionou o comportamento quântico da energia eletromagnética com a temperatura do corpo que a irradia.

Fig. 10 Forma gráfica da Lei de Wien

DIVISÃO DE ENSINO

SSDMD

EEAR

14

1.3 - Estudo dos Sensores 1.3.1 - Definição Um sistema sensor pode ser definido como qualquer equipamento capaz de transformar alguma forma de energia em um sinal passível de ser convertido em informação sobre o ambiente. Existe uma grande variedade de aplicações para os sistemas sensores, e muitos deles fazem parte da rotina diária dos seres humanos, como, por exemplo, anemômetros, barômetros, eletrocardiógrafos, liqüidômetros, termômetros, velocímetros, entre outros. Grande parte destes e de outros sistemas sensores necessitam de contato direto com o objeto observado para poderem realizar as medições desejadas, como é o caso dos termômetros. Outros, porém, são capazes de realizar as medições desejadas sem contato direto com o objeto observado, sendo conhecidos como sensores remotos. No sentido amplo, então, um sensor remoto é todo e qualquer dispositivo capaz de obter informação de um objeto com o qual não esteja em contato físico direto. Segundo esse conceito, podem ser enquadrados como sensores remotos dispositivos como contadores geiger, gravímetros, magnetômetros, medidores de campo de força e sonares. No entanto, apesar desses dispositivos realizarem medidas sem contato físico direto com o objeto sensoriado, inclusive podendo ser operados a partir de aeronaves ou de veículos espaciais, existem discordâncias quanto a essa definição, que é considerada muito abrangente. Na verdade, o conceito de sensor remoto está vinculado ao conceito adotado para a ciência do sensoriamento remoto. Assim, uma idéia abrangente de sensoriamento remoto irá implicar, por sua vez, na extensão do conceito de sensor remoto. Não questionando a abrangência da área de aplicação do sensoriamento remoto mas evitando aprofundar essa polêmica para esse curso, onde é explorado apenas o campo da radiação eletromagnética, pode-se adotar o conceito mais restritivo, no qual sensores remotos são dispositivos puramente ópticos, optomecânicos, eletro-ópticos, ou puramente eletrônicos, desenvolvidos para a medição (captação, processamento e registro) da radiação eletromagnética emitida ou refletida pela Terra, por planetas distantes, ou pelos seus satélites naturais, em várias freqüências, ângulos e polarizações, e sob várias condições. Obs: Para o nosso curso, irá nos interessar o conceito restrito de sensoriamento remoto.

1.3.2- Classificação dos sensores remotos Os sensores remotos podem ser classificados de diferentes maneiras: quanto à dependência de fonte externa de radiação, quanto à região do espectro eletromagnético que operam, quanto ao formato (tipo) do dado gerado, quanto ao processo de aquisição de dados, quanto ao modo de gravação dos dados e quanto ao nível em que são operados. Quanto à dependência da fonte externa, os sistemas sensores são classificados em ativos e passivos. Sensores ativos são aqueles que possuem fonte própria de energia eletromagnética, ou seja, emitem a sua própria radiação, como, por exemplo, os radares. Ao contrário, os sensores passivos são aqueles que não possuem fonte própria de emissão de radiação, detectando apenas a energia emitida pelos alvos, ou a energia refletida pelos mesmos quando iluminados por fontes externas. DIVISÃO DE ENSINO

SSDMD

15

EEAR

Fig. 11 Sensor ativo

Fig. 12 Sensor passivo

Conforme a região do espectro eletromagnético explorada pelos sistemas sensores, estes podem ser classificados em sensores ópticos ou sensores de microondas. Os sensores ópticos operam na região entre 0,30 e 15 µm (conhecida como a faixa óptica do espectro), e recebem essa denominação porque necessitam de equipamentos ópticos como espelhos, lentes e prismas, para a detecção da radiação. Os sensores de microondas operam na região das microondas, entre 1 mm (1 000 µm) e 1 m (1 000 000 µm), utilizando-se de antenas para a detecção da radiação.

Fig. 14 Produto gerado pelo sensor imageador: imagem Fig. 13 Sensor Imageador

Quanto ao tipo de dado gerado, os sensores são classificados em imageadores ou nãoimageadores. Os sensores imageadores são aqueles que produzem imagens da superfície sensoriada, com informações da variação espacial da radiação proveniente da superfície observada. Os não-imageadores, como resultado do processo de sensoriamento, disponibilizam dados pontuais isolados do alvo, os quais são apresentados em forma de tabelas e gráficos. Um exemplo de sensor imageador é a câmera fotográfica e um exemplo de sensor não-imageador é o radiômetro.

DIVISÃO DE ENSINO

SSDMD

16

EEAR

Fig. 15 Sensor Não-Imageador Fig. 16 Produto gerado pelo Sensor Não-Imageador: gráfico

Fig. 17 Sensor Não-Imageador e seu produto final (gráfico)

Os sensores imageadores podem ainda ser classificados quanto ao processo de aquisição dos dados em: sensores de quadro e sensores de varredura. Quando toda a área da imagem é adquirida de um só vez, como em fotografias, o processo de aquisição é em quadro. Em sensores eletro-ópticos, tal processo exige uma quantidade muito grande de detectores, tornando mais complexa a construção do sistema e a organização dos sinais. Por esse motivo, sensores de varredura ainda são mais comuns. São exemplos de imageadores de quadro: Olho DIVISÃO DE ENSINO

SSDMD

17

EEAR

humano, sistemas fotográficos convencionais, aparelhos de raios-X hospitalares, câmeras de vídeo e sistemas FLIR equipados com matriz de detectores. Nos sensores de varredura a cena é formada com a organização dos sinais adquiridos elemento por elemento, em um processo contínuo de modificação do elemento de área visado, de forma a compor a cena completa. Esses sensores vasculham ou “varrem” a cena, “dissecando-a” em seus elementos constituintes. Tal processo é feito porque os imageadores deste tipo possuem um número de elementos detectores inferior ao necessário para que a cena de interesse seja coberta de uma só vez. A varredura pode ser bidirecional ou unidirecional. Um imageador de varredura bidirecional efetua a varredura da cena segundo dois eixos mutuamente perpendiculares. Um imageador de varredura unidirecional ou de linha efetua a varredura na direção transversal à do deslocamento da plataforma de reconhecimento. A imagem é composta de linhas justapostas, geradas à medida em que a plataforma se desloca sobre a área a ser reconhecida. Consequentemente, este tipo de imageador necessita do movimento relativo entre a plataforma e a cena, razão pela qual o eixo de visada é sempre mantido no plano paralelo ao eixo transversal da plataforma sensora. São exemplos de sensores de varredura de linha: O SISIMI, o MSS, o HSS e o imageador orbital TM e ETM+ dos satélites Landsat. Os sensores de varredura geralmente envolvem uma menor quantidade de detectores por canal espectral. A “leitura do sinal” pode ser realizada elemento após elemento, de forma a compor as linhas e colunas que constituem essa imagem. Esse processo é conhecido por “varredura mecânica” (ou simplesmente varredura), que simplifica o seqüenciamento do sinal. Existem vários métodos de varredura utilizados em sistemas eletro-ópticos, dos quais três são mais comumente utilizados em imageadores: a varredura lateral em linha (Line scanning); a varredura lateral em linhas paralelas (Wiskbroom scanning); e a varredura à frente em faixas paralelas (Pushbroom scanning).

Fig. 18 Modos de varredura : Line Scannig (a), Wiskbroom Scanning (b) e Pushbroom Scanning (c).

Quanto ao modo de gravação dos dados, os sensores são classificados em analógicos ou eletrônicos. Serão analógicos quando os dados forem gravados sobre um filme, necessitando de revelação, interrupção e fixação do mesmo (tal modo de gravação está em desuso nos dias de hoje devido ao surgimento dos sensores eletrônicos). Já os sensores eletrônicos convertem a energia radiante captada em sinais elétricos, sendo o pixel a menor unidade constituinte da imagem gravada. Cada pixel corresponde a um único tom de cinza, o qual representa as variações de energia radiante da cena original. É importante ressaltar que os sensores eletroópticos (objeto de estudo da próxima unidade) também são classificados com sensores eletrônicos. DIVISÃO DE ENSINO

SSDMD

18

EEAR

Além dessas classificações, os sensores remotos também podem ser discriminados quanto ao nível em que são operados, em sensores remotos terrestres, aerotransportados, ou espaciais. Para entendermos essa última classificação, é preciso compreender os tipos de plataformas existentes, o que será explicado a seguir.

1.3.3 – Níveis de Aquisição de dados Plataformas são veículos construídos com a finalidade de abrigar, transportar e prover os meios necessários à operação de diversos equipamentos, tais como retransmissores utilizados em telecomunicações, ou sistemas sensores. As plataformas que abrigam sensores remotos são chamadas plataformas de sensoriamento remoto e são responsáveis, por exemplo, pelo suprimento de energia e pela manutenção da temperatura adequada, necessários ao bom funcionamento dos equipamentos a bordo. Uma plataforma de sensoriamento remoto, dependendo do seu projeto, pode abrigar um ou mais sensores remotos, além de outros dispositivos, sendo as aeronaves e os satélites artificiais as plataformas de maior interesse para o assunto desse texto. Essas plataformas, juntamente com seus sensores remotos, são as unidades básicas de um sistema de sensoriamento remoto. Este, por sua vez, de caráter mais abrangente, pode envolver uma ou mais plataformas (com um ou mais sensores), unidades de transmissão e recepção de dados, unidades de processamento e de distribuição de dados, entre outras unidades, necessárias ao cumprimento dos objetivos do sistema de sensoriamento remoto em questão. Na prática, sensores remotos operados da superfície (sensores terrestres) são equipamentos portáteis (ou portáveis), que não necessitam de uma estrutura complementar que os abrigue, ou seja, não necessitam de uma plataforma para o seu funcionamento. Por esse motivo, o termo "plataforma" é usualmente empregado apenas em referência às estruturas que abrigam sensores remotos que operam da atmosfera ou do espaço. Os sensores remotos que operam da atmosfera são chamados de sensores remotos aerotransportados, os quais, geralmente, são embarcados em balões (cativos ou não), dirigíveis e aeronaves (Figura 3.2). Os sensores remotos que operam do espaço serão tratados como sensores espaciais e subdivididos em duas classes: os orbitais e os não-orbitais.

Fig. 19 Sensor Terrestre

DIVISÃO DE ENSINO

SSDMD

19

EEAR

Fig. 20 Sensor Aerotransportado

Fig. 21 Sensor Espacial

1.3.4 – Órbita Uma órbita pode ser definida como uma trajetória repetitiva ao redor de um determinado corpo ou objeto, geralmente em referência ao movimento elíptico dos corpos celestes ao redor dos centros dos seus sistemas. Assim, sensores remotos orbitais são aqueles a bordo de plataformas que mantêm órbitas pré-definidas ao redor de um determinado corpo celeste, objetos de estudo do sensoriamento. Essas plataformas orbitais, construídas e colocadas pelo homem em uma órbita em torno de um planeta, geralmente a Terra, são conhecidas como satélites artificiais. Esses, por sua vez, receberão a designação de satélites de sensoriamento remoto quando abrigarem algum sensor remoto. No entanto, o termo "satélite" é comumente utilizado em referência a plataformas orbitais de menor porte, geralmente não tripuladas. Plataformas maiores, capazes de abrigar um ou mais tripulantes e uma maior quantidade de equipamentos, são conhecidas por estações orbitais. É bom lembrar que as órbitas para satélites de sensoriamento remoto são definidas levando-se em consideração a freqüência de recobrimento desejado e as limitações de construção (engenharia) dos sensores, além de ter uma inclinação e um sentido de deslocamento (ascendente ou descendente) tal que atendam às solicitações das diferentes áreas de aplicação para as quais os sensores foram elaborados, determinando horários que privilegiem a observação do fenômeno desejado. As órbitas descritas pelos satélites imageadores são classificadas em: a) Geoestacionárias (Geossincronizadas): Possuem velocidade angular de rotação igual à velocidade angular de translação da Terra, ou seja, para um observador situado no nosso planeta, tal satélite aparenta estar parado. Outra característica importante é que ele sempre aponta para uma mesma região. Satélites espiões e meteorológicos possuem esse tipo de órbita. b) Geocêntricas: São aqueles em que o centro da órbita descrita pelo satélite coincide com o centro da Terra. Tal órbita podem ocorrer tanto no eixo equatorial, quanto no eixo polar. c) Heliossícronas ou Sol-síncronas: Possuem mesmo ângulo entre planeta, satélite e Sol. Propicia imagens com a mesma condição de iluminação.

DIVISÃO DE ENSINO

SSDMD

20

EEAR

Resumindo, teremos: - Ativo: possui fonte própria de radiação Quanto à dependência da fonte - Passivo: não possui fonte própria de radiação. Quanto à região do espectro explorada

- Ópticos: operam dentro da faixa óptica do espectro. Utilizam lentes, prismas, etc. - Microondas: operam dentro da faixa de microondas. Utilizam antenas.

- Imageadores: produzem imagem em alguma faixa do espectro Quanto ao tipo de dado gerado eletromagnético. - Não-Imageadores: não produzem imagens, gerando apenas gráficos de grandezas radiométricas. - Quadro: captam toda a cena de uma única vez. Quanto ao processo de aquisição de dados

- Varredura: captam a cena pela justaposição de várias faixas. - Analógicos: gravam os dados sobre um filme.

Quando ao modo de gravação de dados

- Eletrônicos: gravam os dados em forma de sinais elétricos. - Terrestres: são operados na superfície terrestre

Quanto ao nível de operação do sensor

DIVISÃO DE ENSINO

- Aerotransportado: são operados na atmosfera. - Espacial: operados no espaço.

SSDMD

21

EEAR

Unidade 2: Sensoriamento Remoto na Faixa do Visível 2.1 Características da radiação visível A radiação visível, conhecida Espectro Óptico Refletido, pode ser definida como aquela porção do espectro eletromagnético ao qual o olho humano é sensível. Esta radiação, indo desde o violeta até o vermelho, tem somente uma pequena variação de comprimento de onda, iniciando com valores acima de 0,38μm até 0,72μm.

Fig. 22 Obtenção de imagens na faixa do visível

Esta faixa foi dividida, uma vez mais por conveniência, em três sub-faixas, que corresponde às cores primárias: a) Azul, quando 0,40 μm < λ ≤ 0,50 μm; b) Verde, quando 0,50 μm < λ ≤ 0,60 μm e c) Vermelho, quando 0,60 μm < λ ≤ 0,72 μm É importante ressaltar que a divisão feita acima é só para se ter uma idéia aproximada pois na realidade encontraremos uma imensa variedade de tonalidades dentro do espectro visível. Este tipo de radiação pode ser produzido, por exemplo, por corpos muito quentes. Esta faixa de comprimentos de onda é de grande importância para o SR, pois imagens produzidas na mesma, geralmente apresentam excelente correlação com a experiência visual para o intérprete.

DIVISÃO DE ENSINO

SSDMD

22

EEAR

Fig. 23 Vários tipos de interação da radiação visível com a atmosfera

Tal região encontra limitações de utilização quanto às condições meteorológicas e temporais. Portanto, nessa faixa, só é possível realizar sensoriamento se houver iluminação suficiente (pois o visível é radiação refletida) e se a meteorologia estiver em boas condições (principalmente para sensores aerotransportados e espaciais), pois esta radiação é facilmente absorvida pelas nuvens.

2.2 Sensores Eletro-Ópticos Sensores eletro-ópticos são sistemas que integram basicamente seis dispositivos, filtros e elementos de dispersão, conhecidos como componentes primários: dispositivo de varredura, óptica de imageamento, detectores, eletrônica dos sinais e conversor Analógico-Digital (A/D). É bom ressaltar que o termo "eletro-óptico" deve ao fato de tal sensor gravar seus dados eletronicamente (eletro) e captar a radiação através de dispositivos ópticos (espelhos, lentes e prismas)

Fig. 24 Componentes primários de um sistema eletroóptico de sensoriamento remoto. Apesar da geometria da plataforma ser um fator externo ao sistema sensor propriamente dito, essa tem um efeito importante sobre a qualidade e características finais da imagem.

O dispositivo de varredura, a óptica de imageamento, os filtros e elementos de dispersão podem ser abrangidos como um único subsistema, chamado de subsistema óptico. Esse é responsável pelas propriedades espaciais (posição, tamanho e forma), espectrais DIVISÃO DE ENSINO

SSDMD

23

EEAR

(distribuição de energia em função do comprimento de onda/freqüência) e de polarização (orientação do vetor campo elétrico) do sensor. Os detectores compõem o subsistema de detecção. Esse subsistema é tido como o “coração” do sistema, por ser responsável pela conversão do fluxo radiante coletado em um sinal elétrico, que poderá ser amplificado e processado. É normalmente referido com “plano focal”, tendo seu desempenho apresentado através das chamadas “figuras de mérito”. Os eletrônicos compõem o subsistema de condicionamento do sinal. Esse subsistema é responsável por todo o tratamento necessário dado ao sinal que sai do detector, inclusive a préamplificação e a filtragem, tornando-o pronto para ser utilizado em um dispositivo de saída. A pré-amplificação é necessária para possibilitar um nível de sinal suficiente para a quantização sem, contudo, incorrer em uma saturação. Essa quantização é realizada com base na correspondência entre a amplitude máxima de radiância da cena e o respectivo sinal de saída do detector. O ganho aplicado ao sinal de saída do detector é ajustado para preencher toda a escala de Números Digitais do sistema quando da sua conversão. Por fim, o conversor analógico-digital (A/D) faz parte do subsistema de saída e visualização do sinal. Esse transforma o sinal analógico em níveis digitais discretos, os NDs e também é responsável pela apresentação gráfica ou áudio-visual do sinal tratado. Dependendo do sistema, pode incluir, também, dispositivos de transmissão e armazenamento de dados. Observação: A abordagem dada aos sensores eletro-ópticos, nessa unidade, se refere-se apenas à produção de imagens no espectro visível, porém tais sensores também podem ser empregados para obtenção de imagens no infravermelho termal. Observação 2: Relembrando

Eletro-óptico Modo de gravação dos Modo dados de gravação

Modo de captação da REM Forma de captação

dos dados.

da energia radiante.

DIVISÃO DE ENSINO

SSDMD

24

EEAR

Unidade 3: Sensoriamento Remoto na Faixa do Infravermelho 3.1 Características da radiação termal A descoberta desse tipo de radiação foi feita por acaso. Sir William Herschel, um astrônomo inglês, descobriu o infravermelho em 1800. Construiu seus próprios telescópios ficando, portanto, bastante familiarizado com lentes e espelhos. Sabendo que a luz solar continha todas as cores do espectro e que era também uma fonte de calor, Herschel queria descobrir qual ou quais as cores responsáveis pelo aquecimento dos objetos. Idealizou um experimento usando um prisma, papelão e termômetros com bulbos pretos onde mediu as temperaturas das diferentes cores. Observou um aumento de temperatura à medida que movia o termômetro de violeta para o vermelho no espectro criado pela luz do sol atravessando o prisma. Descobriu que a temperatura mais quente ocorria, de fato, além da luz vermelha. A radiação que causou esse aquecimento não era visível. Herschel denominou essa radiação invisível como “raios caloríficos”. Hoje, é conhecida como radiação infravermelha. A Radiação infravermelha (também chamada de Espectro Óptico Emitido) é a energia eletromagnética na faixa espectral acima de 0,72μm até 1000μm. O termo “infravermelho” significa “abaixo do vermelho”, portanto essa forma de energia não é visível ao olho humano. Contudo, do mesmo modo que a luz, a radiação infravermelha é proveniente do sol e parte dela é refletida de volta para a atmosfera, mas grande parte dessa radiação penetra na superfície terrestre e em qualquer objeto nela existente e este processo chama-se absorção de energia. Isso faz com que o objeto tenha um ganho de temperatura. A energia absorvida é, então, lentamente emitida pelo objeto durante o dia e, o mais importante, também à noite. A quantidade de energia emitida pelo objeto depende de suas propriedades materiais e do meio onde o mesmo se encontra. Este tipo de radiação, de grande importância para o SR, pode ser dividade em três subfaixas: a) Infravermelho Próximo, quando 0,72µm< λ ≤ 1,3 μm; b) Infravermelho Médio, quando 1,3µm< λ ≤ 3,0 μm e c) Infravermelho Termal (ou distante), quando 3,0 μm< λ ≤ 1,0 mm A radiação do infravermelha termal tem grande importância em sistemas de detecção, já que qualquer objeto que não esteja à temperatura do zero absoluto (0K = -273º C) irá irradiar (emitir) energia eletromagnética nessa região. Tal característica traz como vantagem a possibilidade de detecção de objetos, independente, da irradiação de fontes externas sobre eles, como a luz solar. A radiação infravermelha termal pode ser utilizada em qualquer horário, seja de dia ou de noite. Isso ocorre porque a fonte de radiação termal é o próprio alvo, necessitanto apenas que o mesmo tenha temperatura termodinâmica diferente de zero. Por outro lado, tal radiação não pode ser utilizada em qualquer condição meteorológica, pois essa faixa de comprimento de onda ainda é bastante absorvida por elementos da atmosfera, como nuvens por exemplo. Abaixo, foram listados os principais fatores que influenciam a radiação termal.

3.1.1 Calor O calor é comumente chamado de energia térmica, embora corretamente falando, ele é a energia térmica em trânsito. Toda matéria é composta de átomos, os quais formam pequenos grupos chamados moléculas. Moléculas têm a capacidade de absorver e reter energia e essa absorção faz com que elas se movam. Sólidos contém moléculas que se movem para frente e para trás, em forma de vibrações. Nos líquidos, as moléculas se movem mais livremente, em forma de rotações. Já as moléculas de gases movem-se com total liberdade em linhas retas, como DIVISÃO DE ENSINO

SSDMD

25

EEAR

se fossem projéteis em miniatura. O calor é gerado pela fricção e colisão entre as moléculas em movimento. Calor e infravermelho termal, embora intimamente relacionados, são grandezas distintas. Para melhor analisar imagens termais, o intérprete precisa entender o significado dessas grandezas e como elas estão relacionadas. Infravermelho

Calor

Energia Eletromagnética

Energia Térmica

Tem frequencia

Não tem frequencia

Tem comprimento de onda

Não tem comprimento de onda

Propaga-se no vácuo

Precisa de um meio para transmissão

3.1.2 Radiação Emitida Quando os materiais na superfície terrestre são aquecidos por insolação, seu movimento atômico e molecular aumenta, causando um aumento correspondente na radiação por eles emitida. Nesses materiais, a uma temperatura relativamente baixa (cerca de 27º C ou 300º K), a maior parte da radiação emitida é infravermelha. A maioria dos sensores termais opera na faixa entre 8 a 14 mícrons, na qual existe também uma janela atmosférica (porções do espectro onde a influência atmosférica é mínima). Há, no entanto, sensores termais que operam em outra janela espectral, entre 3 e 5 mícrons, os quais são utilizados para aplicações especiais, como mapeamento de queimadas, esclarecimento marítimo, busca e salvamento e designação de alvos. Nessa faixa espectral, objetos muito acima da temperatura ambiente são detectados com melhor definição. Felizmente, objetos diferentes emitem diferentes quantidades de IVT e um sensor termal capta essas diferenças, o que permite que os objetos, em contraste com o terreno, sejam visualizados na imagem. A intensidade da radiação IVT emitida por qualquer objeto é função de vários fatores, quais sejam: sua temperatura termodinâmica, sua capacidade térmica, a textura de sua superfície, sua cor, meio onde o mesmo se encontra (fundo) e sua emissividade.

3.1.3 Temperatura Termodinâmica É a temperatura de um objeto que, normalmente, é medida em graus Celsius ou graus Kelvin (temperatura absoluta). Um aumento na temperatura termodinâmica causa um aumento na intensidade de energia IVT emitida.

Fig. 25 A diferença de temperatura termodinâmica entre a lateral e o topo do tanque (mesmo material) causou uma diferença na intensidade da energia IV emitida.

DIVISÃO DE ENSINO

SSDMD

EEAR

26

3.1.4 - Capacidade Térmica É a capacidade dos materiais de absorver e armazenar calor. A capacidade térmica de um objeto decide, em grande parte, sua temperatura termodinâmica em qualquer ponto no tempo. Devido às suas diferentes capacidades térmicas, alvos terrestres emitem mais energia IVT que a água durante o dia, mas passam a emitir menos durante a noite.

Fig. 26 A imagem superior, tomada durante o dia, revela que a água está emitindo menos IV que a terra inferior, tomada pelo mesmo sensor durante a noite, mostra que a água absorveu e reteve mais calor e, portanto, está emitindo mais que a terra.

DIVISÃO DE ENSINO

SSDMD

EEAR

27

3.1.5 Textura da Superfície Quando a energia eletromagnética incide sobre a superfície de um objeto, parte dela é absorvida e parte refletida ou transmitida. Um objeto de superfície rugosa absorve mais energia do que um outro, feito do mesmo material, de superfície lisa. Isso se deve ao fato de que o primeiro tem uma superfície maior em contato com a radiação. Se um objeto absorve mais, conseqüentemente emitirá mais energia.

Fig. 27 Ilustração demonstrando a influência da textura da superfície dos objetos na quantidade de energia eletromagnética absorvida pelos mesmos.

3.1.6 Cor A cor de um objeto afeta a quantidade de energia que este pode absorver. Por exemplo, um carro branco absorve menos energia que um carro preto do mesmo modelo, isso porque o primeiro reflete mais energia. Conseqüentemente, se ambos os carros estiverem em um estacionamento, expostos à luz solar, o carro branco estará emitindo menos energia IVT.

DIVISÃO DE ENSINO

SSDMD

28

EEAR

3.1.7 Fundo O calor sempre se transfere de objetos quentes para objetos frios. Assim, um objeto posicionado em um terreno (fundo) frio transferirá parte de seu calor para o terreno e, portanto, se tornará mais frio. Um objeto idêntico, posicionado em um terreno quente, absorverá parte do calor do terreno e se tornará mais quente. Devido às suas diferenças de temperatura termodinâmica, a quantidade de energia que cada um dos objetos emite será também diferente.

3.1.8 Emissividade Emissividade é uma propriedade dos materiais. Ela é definida como a capacidade do material de absorver e, subseqüentemente, emitir radiação em proporção ao total de energia eletromagnética incidente sobre o mesmo. Um absorvedor perfeito (radiador hipotético chamado corpo negro) absorve toda a energia nele incidente e tem, portanto, emissividade igual a 1. Todos os objetos são, no entanto, corpos cinza e absorvem apenas parte da radiação neles incidente, sendo a outra parte refletida ou transmitida. Desta forma os materiais têm valores de emissividade menores que 1. Por exemplo, a tinta de alumínio absorve uma unidade de energia IV de cada duas unidades nela incidente e tem, portanto, emissividade de 0,5. Também é bom ressaltar que objetos metálicos possuem valores de emissividade baixíssimos, se comparados com objetos não-metálicos. MATERIAL

e

MATERIAL

e

alumínio oxidado

0,02 - 0,4

água

0,96 - 0,98

chumbo polido

0,05 - 0,1

asfalto

0,95

cobre polido

0,18

concreto

0,95

latão polido

0,01 - 0,05

madeira

0,9 - 0,95

zinco polido

0,02

plástico

0,95

zinco oxidado

0,1

tinta comum

0,9 - 0,95

0,5

solo

0,9 - 0,98

tinta aluminizada

Emissividade de materiais típicos na faixa de 8 a 12 µm

3.1.9 Temperatura Radiométrica A temperatura de brilho ou temperatura radiométrica é a temperatura resultante da combinação entre a temperatura termodinâmica (medida em graus Celsius ou Kelvin) e a emissividade do alvo, expressa através da seguinte expressão matemática: T R = e 1/4. T T Onde: TR é a temperatura radiométrica (em K); e é a emissividade do material (grandeza adimensional); e TT é a temperatura termodinâmica (em K) Desta combinação resultará em um maior ou menor brilho do alvo, ou seja, este poderá aparentar ter uma temperatura mais elevada que outros porém isto poderá não ser verdadeiro DIVISÃO DE ENSINO

SSDMD

EEAR

29

dependendo da emissividade dos corpos imageados. Portanto, a tonalidade de cinza na imagem depende da temperatura radiométrica (temperatura de brilho) e não apenas de sua temperatura termodinâmica. Se o alvo for a superfície da água, cuja emissividade espectral vale 0,98 sua temperatura termodinâmica será bastante próxima da temperatura radiométrica. O que pode causar alguma confusão é que os corpos metálicos, de baixa emissividade, normalmente atingem temperaturas termodinâmicas maiores o que vem a compensar sua baixa emissividade aparentando estarem mais aquecidos. Uma ponte metálica sobre um rio embora tenha emissividade menor que a da água aparentará estar mais quente que o rio e realmente estará. Ao introduzirmos o conceito de emissividade estamos apenas querendo alertar que haverá alguns casos em que o corpo mais aquecido aparentará estar mais “frio” que outro de temperatura mais elevada.

3.1.10 Inércia Térmica É a capacidade que um corpo possui de transferir calor mais rapidamente que outros. Portanto, um corpo de baixa inércia térmica se aquece e também se esfria com mais rapidez que outro de maior inércia térmica. Como consequências desse fenômeno, temos o cruzamento de temperaturas e a sombra térmica.

3.1.10.1 Cruzamento de Temperaturas Ocorre quando alvos diferentes atingem a mesma temperatura radiométrica em determinada hora do dia. Esse efeito pode ocorrer duas vezes ao dia, normalmente ao amanhecer a ao anoitecer, e deve-se à inércia térmica dos materiais, podendo impossibilitar a detecção de alvos de interesse, já que os mesmos são registrados com tonalidade semelhante na imagem.

Fig. 28 Exemplo do efeito de cruzamento de temperaturas. Na imagem inferior o passadiço da ponte parece ter desaparecido. Isso se deve ao equilíbrio termal alcançado, num dado momento, entre o mesmo e a água.

DIVISÃO DE ENSINO

SSDMD

30

EEAR

3.1.10.2 Sombra Termal As sombras registradas em imagens IVT são chamadas “sombras termais”. Elas podem ser “frias” ou “quentes”. Um exemplo de sombra quente é a causada pelo fluxo de motores a jato, que permanece algum tempo após a aeronave ter saído do local.

Fig. 29 Sombra quente provocada pelo jato dos motores da aeronave.

Sombras termais frias são provocadas por objetos que protegem o terreno da radiação solar. Um bom exemplo disso é a silhueta deixada por uma aerona esteve estacionada no local e que, subseqüentemente, partiu. A sombra mostrando a figura plana de uma aeronave aparece escura, porque é mais fria que o terreno adjacente e pode ser utilizada para identificar o tipo de aeronave.

Fig. 30 Sombras frias revelando silhuetas de aeronaves.

DIVISÃO DE ENSINO

SSDMD

31

EEAR

3.1.11 Distorções nas Imagens Termais 3.1.11.1 Distorção Tangencial de Escala Ocorre devido ao modo de varredura para obtenção da imagem, que é em linha.

Fig. 31 DistorçãoTangencial de Escala em tanques de armazenagem de petróleo

3.1.11.2 Distorção devido ao Relevo Topográfico Ocorre porque a imagem termal é formada de modo unidirecional, composta por várias linhas justapostas.

Fig. 32 Distorção devido ao relevo topográfico

DIVISÃO DE ENSINO

SSDMD

32

EEAR

3.1.11.3 Distorção de Parâmetros de Voo É provocada pelo movimento de rolamento da aeronave durante o imageamento.

Fig. 33 distorção devido aos parâmetros do voo

3.1.11.4 Saturação da Imagem Termal É provocada por alvos emitindo alta intensidade de energia.

Fig. 34 O nível de radiação IV emitido pelos objetos marcados com os círculos é tão intenso que o sistema de detectores ficou saturado. O tamanho do objeto fica alterado na imagem (a forma também é afetada).

3.2 Sensores Termais Existem dois tipos básicos de sensores termais: a) sistemas infravermelhos de varredura de linha (IRLS, do inglês Infrarer Linnescan) e os DIVISÃO DE ENSINO

SSDMD

33

EEAR

b) sensores infravermelhos de visada frontal, comumente conhecidos como FLIR (Forward Looking Infrared). O primeiro tipo utiliza uma quantidade menor de detectores que “varrem” a cena perpendicularmente ao deslocamento da plataforma é necessário para a formação da imagem.

Fig. 35 Modos de varredura : Line Scannig (a), Wiskbroom Scanning (b) e Pushbroom Scanning (c).

O segundo tipo possui uma matriz de detectores que capturam a radiação ao mesmo tempo, semelhante a uma filmadora. A imagem é gerada quadro a quadro, ou seja, as linhas e colunas são geradas ao mesmo tempo.

Fig. 36 Imageador de quadro

3.2.1 Sensores Infravermelhos de Varredura de Linha Os sensores que utilizam o sistema de varredura de linha são amplamente empregados no meio militar. Possuindo um detector constituído de material mais sensível a radiação termal (HgCdTe - telureto de cádmio e mercúrio) e operando na faixa espectral de 8 a 14 µm, são utilizados em aeronaves de reconhecimento tático que necessitam sobrevoar território hostil a baixa altura e alta velocidade para diminuir as chances de ser abatida.

DIVISÃO DE ENSINO

SSDMD

34

EEAR

3.2.1 A Razão V/H Na varredura de linha, um espelho ou prisma rotativo coleta as radiações eletromagnéticas dos alvos e as projetam sobre o detetor (ou detetores) que responde apenas às radiações termais enviando sinais elétricos proporcionais aos captados da cena. Para que possamos formar uma imagem, deslocamos o sensor e efetuamos a varredura perpendicularmente ao sentido de deslocamento de modo a formarmos uma imagem composta por estreitas faixas justapostas. É fácil perceber que se não houver um perfeito sincronismo entre três fatores que são a velocidade (V) e a altura da plataforma de transporte (H) e a velocidade do sistema de varredura do sensor (ω), haverá distorções na imagem podendo comprimi-la ou alongá-la. Se a velocidade de varredura for maior que a razão entre a velocidade e a altura da plataforma (razão V/H) a imagem será alongada. Caso ocorra o contrário, ou seja, a velocidade de varredura seja menor que a razão V/H a imagem será comprimida. Podemos verificar este efeito (ou defeito) na figura seguinte.

Fig 37 Efeitos dos desvios de V e H em relação aos valores ideiais

DIVISÃO DE ENSINO

SSDMD

35

EEAR

Resumindo, temos: Se ω > V/H, então a imagem sairá alongada (super-amostragem); Se ω = V/H, então a imagem sairá com tamanho normal; e Se ω < V/H, então a imagem sairá comprimida (sub-amostragem). Obs: ω é medido em rad/s.

Imagem comprimida por falta de sincronização V/H.

3.2.2 Tipos de Sensores Termais de Varredura de Linha 3.2.2.1 Sistema Imageador Infravermelho Termal (SISIMI) Protótipo desenvolvido pelo CTA de um sistema imageador infravermelho termal operando na faixa de 8 a 14 μm.

Fig. 38 Imagem do Protótipo do SISIMI na Bancada.

DIVISÃO DE ENSINO

SSDMD

36

EEAR

3.2.2.2 Sensor de Varredura Multiespectral (MSS) Sensor que equipa as aeronaves R99-B do 2º/6º GAv, em Anápolis-GO. Possui 31 bandas espectrais operando desde o visível até o infravermelho termal.

Fig. 39 Imagem do Sensor MSS Instalado no R99-B

3.2.3 Sensores Infravermelhos de Visada Frontal (FLIR) Este grupo de sensores (Forward Looking Infrared System – FLIR) opera atualmente, na faixa de 3 a 5μm e capta toda radiação termal de uma vez. Sensores que operam nessa banda do termal sofrem pouco com a atenuação da atmosfera, provocada por vapor d’água, neblina e bruma. Em contrapartida, como possuem uma matriz de detectores, são mais caros em sua construção e necessitam de calibração periódica, a fim de que não se tenha uma resposta inconsistente de um detector para outro. Considere um sensor com uma matriz de 320x240, são 76.800 detectores que precisam ser calibrados. Em comparação com o SISIMI, que possui apenas um detector operando, os sensores IV de visada frontal são sem dúvida muito mais onerosos. O FLIR usa a detecção da energia termal para criar imagens do terreno e exibi-las em vídeo. Este tipo de sensor pode ser utilizado para auxiliar os pilotos e motoristas a guiarem seus veículos à noite ou através de neblina; assim como detectar objetos mornos em um fundo frio, quando está completamente escuro, tal como em uma noite nublada ou sem lua. Ainda não há tecnologia para o desenvolvimento de FLIR na faixa de 8 a 14 μm. Sensores FLIR são freqüentemente utilizados em embarcações navais, aviões, helicópteros e veículos de combate. Na guerra, eles apresentam três grandes vantagens: 1ª) O imageador é de difícil detecção pelo inimigo; 2ª) Detectam calor, o que é difícil de camuflar; e 3ª) O FLIR pode “ver” através da fumaça, da névoa e de outras influências atmosféricas, diferentemente de uma câmera que opera na porção visível do espectro e, principalmente, podem ser operados à noite. Os imageadores infravermelhos de visada frontal têm as mais variadas possibilidades de emprego, podendo ser utilizados a bordo de qualquer veículo aéreo, terrestre ou aquático, no DIVISÃO DE ENSINO

SSDMD

37

EEAR

cumprimento de uma série de missões. Uma possibilidade de emprego é na escolha de alvos. Essa versatilidade advém de suas características de funcionamento, pois, diferentemente dos sistemas infravermelhos de varredura de linha, não utilizam o movimento da plataforma para compor a imagem.

3.2.3.1 - Sensor Óptico e Infravermelho (OIS) Sistema que opera nas aeronaves R99-B do 2º/6º GAv a serviço do SIVAM. O sistema é composto pelo imageador infravermelho termal FLIR, uma câmera CCD e uma câmera Spotter Scope, sendo que as duas últimas produzem imagens coloridas do espectro visível. O FLIR do SIVAM é composto por uma matriz de 320x240 detectores de Antimonieto de Índio (InSb), operando na fixa espectral de 3 a 5μm e refrigerados a 77 K através de um sistema de nitrogênio líquido de ciclo fechado. Possuindo seis FOV´s diferentes (combinando o zoom digital de 2X) é capaz de detectar objetos situados a mais de 1.400 metros e discriminar alvos com diferença de temperatura de até 0,1 ºC.

Fig. 40 A Torreta do Sensor OIS do SIVAM

Observação 1: Os sensores termais possuem três modos para visualização das imagens: a) White Hot: quanto maior for a temperatura radiométrica do alvo, mais claro o mesmo aparece. b) Black Hot: quanto maior for a temperatura do alvo, mais escuro o mesmo aparece. c) Paleta de Cores: cada intervalo de temperatura é associado a uma cor. Geralmente, cores mais claras (azul claro, por exemplo) são mais frias (temperatura menor) e cores mais escuras (vermelho, por exemplo) são mais quentes. Observação 2: Não confunda o FLIR operado no sistema OIS com o FLIR operado isoladamente. Na prova, se a questão falar apenas em "FLIR", a mesma não estará se referindo àqueles operados no sistema OIS. DIVISÃO DE ENSINO

SSDMD

38

EEAR

Unidade 4: Sensoriamento Remoto na Faixa das Microondas 4.1 Características das Microondas Corresponde ao intervalo do Espectro Eletromagnético que vai de 0,3 até 300 GHz, definindo, assim, comprimentos de onda que vão de valores acima de 1 mm até 1 m. É comum a designação de faixas do espectro de microondas através de letras. Esta designação teve sua origem no meio militar e, quando o uso da tecnologia de radar tornou-se disponível ao público civil, ela se manteve, provavelmente por hábito e pela necessidade de uma nomenclatura mais curta e descomplicada. Uma revisão das letras mais freqüentemente adotadas hoje em dia para a designação das diversas bandas de microondas é apresentada logo abaixo: Banda Frequência λ (cm) Banda Frequência λ (cm) Banda Frequência λ (cm) (GHz) (GHz) (GHz) P

0,225 a 0,39 133 a 77

C

4,2 a 5,75

L

0,39 a 1,55

77 a 19

X

5,75 a 10,9 5,2 a 2,75

S

1,55 a 4,2

19 a 7

K

10,9 a 36

7 a 5,2

2,75 a 0,83

Q

36 a 46

0,83 a 0,65

Y

46 a 56

0,65 a 0,54

W

56 a 100

0,54 a 0,30

Designação de Bandas e Freqüências

Os sistemas sensores de microondas podem ser ativos ou passivos. O termo “ativo” significa que o próprio sensor emite a energia que, após ser refletida pelos objetos, por ele será captada. Os radares são sensores imageadores ativos, ao passo que os radiômetros de microondas são sensores passivos. Esses são instrumentos que respondem a níveis extremamente baixos de energia, a qual é emitida e/ou refletida naturalmente pelos objetos. Os sistemas de microondas são representados pelo imageador RADAR, o qual emite seu próprio sinal que atinge um objeto e retorna ao imageador com informações sobre a geometria, material e distância em que este objeto se encontra. Por possuir sua própria fonte de energia, é considerado um imageador ativo, não dependendo de iluminação solar , o que lhe possibilita imagear no período noturno e, para comprimentos de onda maiores que 4cm, em quaisquer condições climáticas (onde nem mesmo nuvens de chuva podem impedir o imageamento das superfícies sob elas). Seu princípio básico está na comparação que seu sistema eletrônico realiza entre o sinal emitido e o recebido. Nunca é demais salientar que por encontrar-se fora do espectro óptico não se utiliza de lentes ou prismas e sim de antenas. Normalmente uma mesma antena serve tanto para o envio como para a recepção das ondas de rádio. Outra característica importante das microondas é seu poder de penetrabilidade nas camadas vegetais e até mesmo no solo dependendo do comprimento de onda (λ), do grau de umidade da superfície e do ângulo de incidência da onda em relação à superfície. Em desertos, por exemplo, consegue-se penetrar vários metros abaixo da superfície se a areia estiver bem seca o que possibilita a descoberta de sítios arqueológicos e instalações subterrâneas. Vejamos agora, de forma mais detalhada, cada característica das microondas.

DIVISÃO DE ENSINO

SSDMD

EEAR

39

4.1.1 Constante Dielétrica A constante dielétrica é uma medida das propriedades elétricas dos materiais, incluindo o grau com que absorve, reflete e transmite microondas em resposta à radiação incidente. Materiais com elevada constante dielétrica interagem ativamente com as microondas, aumentando o coeficiente de retroespalhamento. A intensidade do sinal de retorno é, portanto, dependente da constante dielétrica dos materiais. De um modo geral, na natureza, a água, a vegetação verde, os metais e os sais apresentam elevada constante dielétrica, enquanto a areia, a vegetação morta e solos secos possuem baixa constante dielétrica. Como se pode perceber, a constante dielétrica está diretamente ligada ao grau de umidade do alvo. Quanto maior o grau de umidade, maior será a constante dielétrica e, consequentemente, a reflexão das microondas será maior. Quanto menor o grau de umidade, menor será a constante dielétrica e, consequentemente, a reflexão das microondas será menor.

4.1.2 Penetração A capacidade de penetração de uma onda EM depende de diversos fatores, tais como: comprimento de onda da radiação, rugosidade do alvo, umidade do alvo, densidade do alvo, ângulo de incidência, etc. Na faixa das microondas, essa característica, entre outras, tornou o uso do radar muito atraente, especialmente pela penetração de nuvens ou até mesmo de chuva. A transparência atmosférica é certamente o maior atributo da radiação EM na faixa das microondas. Nuvens de gelo, suficientemente densas para obscurecer o solo, impossibilitando o uso de fotografias aéreas, quase não afetam as microondas. As nuvens de chuva, por sua vez, têm um efeito significativo somente a partir de λ inferiores a 2 cm, sendo esse efeito realmente forte com λ inferior a 1 cm. A chuva possui um efeito maior que aquele provocado pelas nuvens, porém, esse efeito é desprezível para λ superiores a 4 cm, tornando-se considerável apenas para λ menores que 2 cm. Além da transparência atmosférica, há outros motivos que tornam o sensoriamento remoto na faixa das microondas interessante. Um deles é que, também na vegetação, a penetração das microondas é mais profunda que a da radiação ótica.Como se pode observar na Figura 41, os λ maiores penetram bem mais que os λ menores.

DIVISÃO DE ENSINO

SSDMD

40

EEAR

Fig. 41 Penetração dos sinais radar na vegetação, em função da umidade e do ângulo de incidência.

Desta forma, os λ menores propiciam informações acerca das camadas superiores da vegetação, enquanto os λ maiores nos dão informações das camadas inferiores e do solo. Neste caso porém, não é somente o λ que influencia, mas também o grau de umidade existente, a densidade da vegetação e o ângulo de incidência da radiação EM. Estas relações também são mantidas quando se trata de solo, sendo o grau de umidade, neste caso, de extrema importância. Desta figura pode-se observar que a profundidade de penetração diminui com o aumento da umidade, independentemente do tipo de solo e da freqüência. O ângulo de incidência modifica a interação entre a onda EM e a floresta, devido à sua influência no poder de penetração da onda no dossel. O ângulo de incidência determina a extensão, no interior do alvo, com a qual a energia EM irá interagir. A profundidade vertical de penetração da microonda em um alvo diminui com o aumento do ângulo de incidência. Um aumento no ângulo de incidência causa uma redução na capacidade de comprimentos de onda longos interagirem com sua principal fonte de retroespalhamento. O sistema de radar que opera com comprimento de onda longo apresentará alto nível de retorno para pequenos ângulos de incidência.

DIVISÃO DE ENSINO

SSDMD

41

EEAR

Outro fator a ser considerado é a rugosidade relativa do alvo. Neste caso, para a definição da rugosidade relativa de um alvo, deve-se levar em consideração o comprimento da onda incidente e o ângulo de incidência. Uma superfície pode ser considerada lisa, pelo critério de Rayleigh, se

h < λ / 8 cosθ

ou

h < c / 8 f cosθ

onde h é a altura média das variações da superfície, λ é o comprimento de onda, c é a velocidade da luz, ƒ é a freqüência, e θ é o ângulo de incidência. Como pode ser notado nesta fórmula, um dos efeitos do ângulo de incidência é o poder de modificar a característica de rugosidade da superfície do alvo. Um aumento do ângulo de incidência resulta em uma grande alteração na rugosidade. Como pode ser notado nesta fórmula, um dos efeitos do ângulo de incidência é o poder de modificar a característica de rugosidade da superfície do alvo. Um aumento do ângulo de incidência resulta em uma grande alteração na rugosidade.

4.2 Radares Imageadores Ao contrário de radares de vigilância ou diretores de tiro, para o radar imageador, a energia retroespalhada pelo solo não é descartada e consiste no alvo de interesse do sistema. Logo, pode-se conceituar Radar Imageador como sendo um sensor ativo que emite e recebe radiação eletromagnética na faixa das microondas, sendo o espaçamento temporal entre os pulsos condição necessária para formação da imagem.

4.2.1 Tipos de Radares Imageadores 4.2.1.1 Radar de abertura real (RAR) Este sistema é o mais simples e sua resolução em azimute é uma função da distância entre o radar e o alvo (linha de visada) e do diagrama de irradiação horizontal da antena. O termo abertura real deve-se, justamente, a essa dependência da antena. Nos radares aerotransportados de visada lateral, a antena é disposta de forma a direcionar seus pulsos perpendicularmente à linha de vôo, sendo possível produzir um feixe largo verticalmente e estreito horizontalmente. Geralmente, são utilizadas grandes antenas fixadas à lateral da aeronave. A imagem é produzida com o movimento da aeronave em relação à área a ser imageada. Um pulso curto é transmitido do radar e, quando incide sobre um alvo, uma parte do sinal retorna para o mesmo. O eco recebido a cada pulso é amostrado e corresponde a uma linha da imagem radar. A seqüência de pulsos é ajustada para estar em sincronismo com o movimento da aeronave. Assim, quando a aeronave se deslocar o equivalente a uma largura de feixe, o sinal de retorno será proveniente de uma faixa de solo diferente e adjacente. A seqüência de sinais, que é formada com o deslocamento da aeronave, forma a imagem de radar. A Figura 42 ilustra o diagrama esquemático de como é feita uma coleta de imageamento por radar.

DIVISÃO DE ENSINO

SSDMD

42

EEAR

Fig. 42 Diagrama esquemático de um imageamento com radar

4.2.1.2 Radar de Abertura Sintética (SAR) O Radar de Abertura Sintética é um sistema que, através do processamento dos sinais recebidos pelo radar e armazenados na memória, cria uma antena virtual centenas de vezes maior que seu tamanho físico, permitindo obter resoluções em azimute muito melhores e independentes da distância do alvo. O conceito de abertura sintética foi desenvolvido para solucionar o problema de resolução espacial apenas na direção paralela à trajetória do sensor radar, denominada de “azimute”. Entretanto, os sistemas SAR são concebidos para fornecer resoluções equivalentes, tanto em azimute, como em alcance. O refinamento da resolução em alcance é possibilitado pelo alargamento da largura de banda do pulso transmitido pelo radar. Uma imagem SAR é um mapeamento bidimensional do sinal recebido pelo radar. A intensidade de cada pixel deriva da energia do sinal recebido da área correspondente a ele na imagem. A Figura 43 apresenta um exemplo de uma imagem SAR. A imagem original possui 1000x1000 pixels, com distância entre pixels de 5m, correspondendo a uma área de 5x5 km, com resolução de 6 m nos dois eixos. A plataforma estava do lado esquerdo, deslocando-se de cima para baixo. O ponto mais brilhante próximo ao centro da imagem corresponde a um alvo com refletividade muito elevada, causando saturação ao seu redor.

DIVISÃO DE ENSINO

SSDMD

43

EEAR

Fig. 43 Imagem SAR do campo de provas da Ford, Detroit

4.2.1.2.1 Abertura Sintética A abertura sintética é a essência do processamento SAR. Assim como no radar de abertura real, vários pulsos são transmitidos para gerar uma imagem. A diferença ocorre na forma como o sinal eco é processado. Para criar uma rede de antenas virtual, o radar deve emitir uma série de pulsos uniformemente espaçados ao longo de uma trajetória retilínea. Esse espaçamento uniforme resulta do deslocamento da plataforma do radar a uma velocidade constante e é um requisito importante para permitir o processamento do sinal amostrado. A Figura 44 mostra uma região do solo sendo iluminada após a emissão de um pulso do radar no instante t3.

Fig. 44 Síntese de uma rede de antenas através do deslocamento do radar

DIVISÃO DE ENSINO

SSDMD

44

EEAR

4.2.2 Características do Imageamento Radar 4.2.2.1 Geometria de Imageamento (Visada Lateral) A geometria de imageamento Radar é fundamentalmente diferente daquela inerente aos sistemas ópticos. Essa diferença deve se principalmente ao fato de que o sensor radar é um sistema baseado em medidas de tempo/distância. Há também que se considerar a visada lateral dos sensores radar, cujas influências na geometria da imagem e, conseqüentemente, na forma e tamanho de representação dos objetos são significativas, conforme se observa na figura 45.

Fig. 45 Geometria de Imageamento RADAR.

Para os radares imageadores, o sensor não poderá ser posicionado na posição ventral da aeronave, pois, do contrário, um problema insolúvel de ambigüidade de distâncias e intervalos de tempo ocorrerá. Os pares de alvos A1/A5 e A2/A4 aparecem agrupados por estarem à mesma distância do sensor. O efeito seria semelhante ao de se projetar uma imagem ótica superposta a uma outra.

DIVISÃO DE ENSINO

SSDMD

45

EEAR

Fig. 46 Ambigüidade no imageamento por radar com visada vertical

Desta forma, a visada lateral – utilizada por alguns sistemas sensores ópticos, mas por outros motivos que não ambigüidade – é empregada por radares imageadores para a solução de tal problema. Assim, ecos provenientes de diferentes alvos na superfície não têm suas posições confundidas em função da recepção simultânea dos mesmos pelo sistema sensor.

4.2.2.2 Resolução Espacial O tamanho da célula de resolução no solo de um sistema sensor radar é controlado por dois parâmetros independentes: duração do pulso (τ), dada em microssegundos, e largura horizontal do feixe (βh), dada em radianos. A duração do pulso dita a resolução espacial na direção de propagação da energia, chamada resolução transversal (Rt). A largura horizontal do feixe determina o tamanho da célula de resolução na direção de vôo, conhecida como resolução em azimute (Ra).

Fig. 47 Resolução Espacial RAR.

DIVISÃO DE ENSINO

SSDMD

46

EEAR

No imageamento radar de abertura real (RAR - Real Aperture Radar), a resolução transversal é degradada para distâncias menores, enquanto a resolução em azimute é degradada nas distâncias maiores. Isso faz com que a forma do pixel seja alongada na direção transversal para pequenas distâncias e na direção longitudinal para longas distâncias. Entretanto, com o desenvolvimento dos radares de abertura sintética (SAR - Syntetic Aperture Radar), essa e outras distorções podem ser reduzidas ou eliminadas por meio de processamento computacional.

Fig. 48 Variações no Tamanho da Célula de Resolução.

4.2.2.3 Coeficiente de Retroespalhamento e Seção Transversal Radar Quando um objeto é iluminado pelo feixe do radar, percebe-se que ele reflete parte da energia incidente em todas as direções. Essa reflexão é denominada espalhamento, um termo oriundo da física, e a distribuição do campo resultante no espaço depende do tamanho, forma, composição do objeto e da direção da onda incidente. A distribuição espacial de espalhamento de energia pode ser descrita em termos da Seção Transversal de Espalhamento. Na maioria dos radares, as direções de incidência e reflexão são as mesmas porque a fonte e o detector estão muito próximos um do outro, se não forem coincidentes. Nesse caso, o eco recebido é denominado retroespalhamento. Apesar do espalhamento indicar um caráter aleatório da distribuição do campo eletromagnético devido à inserção de um objeto em um campo eletromagnético simples, a noção de uma área, mesmo que fictícia, parece ser mais facilmente compreensível. Engenheiros de antenas têm associado a capacidade de captura de sinais a uma área efetiva que geralmente não tem a mínima relação com a área real da antena. É provavelmente mais natural e conveniente descrever as características do eco de um alvo através de uma área equivalente, a Seção Transversal Radar. Essa definição pressupõe que o radar está suficientemente afastado do alvo para que a onda incidente seja esférica e a potência do campo decaia com o inverso do quadrado da distância entre eles. Supõe, também, que o alvo é suficientemente pequeno para que a onda retroespalhada também seja esférica. Em essência, a definição da seção reta radar implica na comparação entre as densidades de potência medidas sobre o alvo e sobre o receptor do radar. Ao interceptar um feixe de radiação EM proveniente de um sistema de radar, todo alvo pode ser caracterizado por três fatores comuns: uma área efetiva de recepção do alvo (As), um ganho (Gs) de espalhamento na direção do receptor e um fator de perda por absorção (fa). A área efetiva de recepção do alvo, em geral diferente de sua área real, pode ser entendida como a área de uma antena cuja potência seria totalmente absorvida, se se admitir que a potência do restante do feixe se mantivesse ininterrupta. A área efetiva é função da orientação DIVISÃO DE ENSINO

SSDMD

47

EEAR

relativa do alvo com o feixe incidente, de forma que A s se aplica somente na direção deste, enquanto o ganho Gs se aplica na direção do receptor, em função das características de espalhamento do alvo. O terceiro fator, perda por absorção, leva em conta que o alvo, não sendo um isolante ou um condutor perfeito, absorve parte da radiação incidente, irradiando o restante em várias direções. O produto da área efetiva As pelo ganho Gs, corrigido para o fator de perda fa, define a seção transversal do radar. Ou seja:

σ = As. Gs. (1- fa) A seção transversal do radar é uma característica do alvo e tem dimensões de área (m²) e é função apenas do alvo Se um alvo pode ter seu comportamento caracterizado pelo coeficiente de retroespalhamento, este, por sua vez, é afetado pelas características do alvo. A influência maior se deve às características geométricas, pois objetos isolados podem aparecer de maneiras bem distintas, conforme o ângulo no qual são imageados. Além da geometria do alvo, o coeficiente de retroespalhamento também é fortemente influenciado por duas outras características, também intrínsecas ao alvo, que são: rugosidade e permissividade, descritas a seguir.

4.2.2.3.1 Influência da Permissividade Na faixa das microondas, a refletividade (ou emissividade) de um determinado alvo é extremamente dependente da sua permissividade. A refletividade define a interação energiamatéria que o caracteriza e, portanto, é uma característica inerente ao alvo. Existem diversas maneiras de se conceituar ou definir a permissividade. Ela expressa, por exemplo, a relação entre as características da radiação no vácuo e no meio considerado, definindo para este meio um índice de refração, analogamente ao conceito de índice de refração na faixa do visível (Lei de Snell). A partir do conhecimento da permissividade, pode-se, através das equações de eletromagnetismo, determinar a refletividade/emissividade do alvo e a capacidade de penetração da onda no meio, entre outras coisas. Na maioria dos casos, ε* é função da freqüência (exemplo típico é a água). O grau de umidade tem uma influência direta nas propriedades elétricas do objeto alvo (solo, vegetação) e o coeficiente de retroespalhamento cresce com a permissividade do alvo, em conseqüência, com a umidade. Uma superfície de solo úmido apresentará espalhamento mais forte que a mesma superfície seca, dadas as mesmas condições de imageamento. A penetração da onda EM nos alvos, por sua vez, é inversamente proporcional ao seu conteúdo hídrico. Além disso, ela é também função do comprimento de onda. Em geral, quanto maior o comprimento de onda, maior será a penetração.

4.2.2.3.2 Influência da Rugosidade O retroespalhamento de uma onda depende do microrrelevo na superfície do terreno. Uma superfície é considerada lisa se sua variação em altura for muito menor que o comprimento de onda da radiação EM. Tal superfície é chamada de superfície especular. Quando a variação em altura de uma superfície é comparável ou maior que o comprimento de onda da radiação EM, esta superfície é considerada rugosa. Diante do exposto, pode-se observar que a rugosidade do terreno é uma característica relativa, pois é uma função do comprimento de onda. DIVISÃO DE ENSINO

SSDMD

48

EEAR

Na Figura 49, é ilustrado o retroespalhamento especular de um sinal, no caso de uma superfície lisa, e também o retroespalhamento difuso no caso de uma superfície rugosa.

Fig 49 Ilustração de superfícies lisa (a) e rugosa (b)

Um bom exemplo da influência da rugosidade no retroespalhamento pode ser observado nos limites entre água sem ondulações e terra. Superfícies líquidas tendem a ser lisas, refletindo boa parte da energia na direção oposta ao radar, com pouco espalhamento de volta em sua direção. A terra, por outro lado, geralmente apresenta uma superfície bem mais rugosa e composta de elementos com geometrias diversas. Em geral, o retroespalhamento da água é bem mais fraco e homogêneo que o da terra, o que resulta em áreas bastante escuras nas imagens radar.

4.3 Efeitos Indesejados nas imagens de Radar 4.3.1 Distorção de Escala na Linha de Visada Os radares SAR utilizam dois sistemas diferentes de gravação da imagem: o sistema de gravação na linha de visada (alcance inclinado) e o sistema de gravação de distâncias no terreno (alcance no terreno). O sistema de gravação na linha de visada envolve uma varredura com velocidade constante ao longo de cada linha. Conseqüentemente, o espaçamento entre os pontos da imagem é diretamente proporcional ao intervalo de tempo entre os ecos provenientes do solo.

Fig. 50 Distorção na Linha de Visada

DIVISÃO DE ENSINO

SSDMD

49

EEAR

Sendo esse intervalo proporcional às distâncias na linha de visada, as quais são diferentes das distâncias no terreno, a escala da imagem irá variar numa progressão hiperbólica. Essa distorção será mínima para objetos mais próximos do sensor e máxima para objetos mais afastados. No sistema de gravação de distâncias no terreno, a varredura incorpora uma correção hiperbólica de tempo, na qual o espaçamento entre os pontos da imagem é aproximadamente proporcional às distâncias no terreno.

4.3.2 Deslocamento devido ao relevo (ou deslocamento topográfico) Como nas imagens obtidas por varredura de linha (imagens termais, por exemplo), o deslocamento devido ao relevo no imageamento radar é unidirecional e perpendicular à linha de vôo. Todavia, diferentemente daquelas, nas imagens radar o deslocamento ocorre de maneira inversa, ou seja, na direção do sensor, sendo mais exagerados para objetos mais próximos deste. Isso se deve ao fato de que, num sistema sensor radar, a posição dos pixels é determinada em função das distâncias entre os alvos do terreno e a antena. Quando o pulso radar é direcionado para um objeto com dimensão vertical encontra primeiro seu topo (mais próximo da antena) e depois sua base. Essa característica geométrica pode causar dois efeitos na imagem: encurtamento e inversão.

Fig. 51 O Deslocamento devido ao relevo no imageamento SAR.

4.3.3 Distorções Causadas por Movimento da Plataforma Além das distorções causadas pela própria geometria do imageamento, podem ocorrer ainda distorções relacionadas a movimentos não compensados da plataforma, principalmente nas imagens de sensores aerotransportados. As plataformas orbitais são bem mais estáveis, além de não sofrerem os efeitos de turbulência atmosférica. •Variação de Velocidade: Quando a taxa de amostragem do sinal eco não está adequadamente sincronizada com a velocidade da aeronave, o resultado é um estiramento ou uma compressão DIVISÃO DE ENSINO

SSDMD

50

EEAR

não linear, conforme se diminui ou aumenta a velocidade da aeronave em relação a esta taxa, no sentido azimutal. • Desvio Lateral ou Vertical: Se houver um desses movimentos da aeronave em relação à linha de vôo pretendida, distorções curvilíneas ocorrerão, tornando uma linha reta e paralela à direção de vôo (tal como uma estrada, por exemplo) numa linha sinuosa. • Guinada da Plataforma ("Yaw"): O efeito de guinadas é a distorção da direção relativa entre diferentes pontos, conforme o posicionamento destes em relação à linha de vôo. Guinadas extremas, como a de uma curva, podem distorcer completamente uma imagem. • Arfagem da Plataforma ("Pitch"): Um movimento de arfagem da plataforma irá mover a intercessão do feixe radar com o solo, para frente ou para trás da posição situada lateralmente ao ponto subnadir. O efeito provocado é similar àquele proveniente da variação de velocidade em terrenos planos. • Rolamento da Plataforma ("Roll"): O rolamento lateral da plataforma produz o efeito de mudança de ganho da antena em diferentes pontos da imagem, modulando, conseqüentemente, a escala de cinza da imagem. Na figura baixo, é mostrado o efeito causado nos pixels de uma imagem radar quando ocorrem algumas variações de movimento da plataforma (sensor) como os desvios horizontal e o vertical, a arfagem e a guinada.

Fig. 52 Distorções causadas pelo movimento da plataforma.

4.3.4 Sombreamento ("Shadowing") Devido à visada lateral do imageamento radar, as encostas voltadas para a direção oposta à antena, dependendo de sua inclinação em relação ao ângulo de incidência, terão pouco ou nenhum sinal de retorno, provocando o chamado sombreamento radar, ou seja, áreas escuras ou totalmente negras na imagem (ausência de informação). Esse aspecto é bem característico do imageamento radar e torna as feições relevo bem evidentes, mesmo para um observador pouco experiente. No entanto, deve-se atentar para a correta orientação da imagem a ser estudada, ou seja, as sombras devem sempre estar voltadas DIVISÃO DE ENSINO

SSDMD

51

EEAR

para o observador e, para isso, é necessário que se conheça a direção de iluminação do feixe radar.

Fig. 53 Sombreamento Radar

No caso da direção de iluminação não constar nos dados da imagem, o observador deve identificá-la por meio de algum objeto ou feição conhecida (um rio, por exemplo, no qual a margem oposta à iluminação radar aparecerá sempre com maior brilho). Se a imagem for observada de maneira diferente, isto é, sem que as sombras estejam voltadas para o observador, a impressão de relevo será completamente inversa à realidade.

4.3.5 Encurtamento ("Foreshortening") O sombreamento não é o único efeito relacionado à variação de altura no terreno. Se a superfície fosse perfeitamente plana, elementos mais próximos do ponto subnadir seriam iluminados pelo feixe radar e refletiriam o sinal antes daqueles elementos mais afastados. Os sinais, portanto, seriam refletidos progressivamente no tempo da menor para a maior linha de visada. Todavia, se um elemento da superfície está mais elevado que os elementos vizinhos, ele irá interceptar o pulso radar mais cedo e será mostrado na imagem radar mais próximo do ponto subnadir do que realmente está. A Figura 54 mostra como este efeito provoca um encurtamento ("foreshortening") aparente no plano da imagem radar das encostas, cuja parte inclinada está voltada para o mesmo, ou seja, a encosta AB aparece encurtada na imagem como A' B'.

Fig. 54 Encurtamento

DIVISÃO DE ENSINO

SSDMD

52

EEAR

4.3.6 Inversão ("Layover") Para casos extremos de encurtamento (Figura 55), a ordem de elementos de superfície na imagem radar é inversa àquela no solo, ou seja, B' está mais próximo que A', enquanto A deveria ser mapeado antes de B para um posicionamento correto. A este efeito dá-se o nome de inversão. A Figura 55 ilustra a ocorrência de inversão em uma imagem RADARSAT.

Fig. 55 Inversão

DIVISÃO DE ENSINO

SSDMD

53

EEAR

Fig. 56 Imagem do RADARSAT afetada pelos efeitos de sombreamento, encurtamento e inversão.

DIVISÃO DE ENSINO

SSDMD

54

EEAR

Unidade 5: Sistemas Orbitais 5.1 PROGRAMA LANDSAT O programa Landsat representou no século XX um modelo de missão de sensoriamento remoto de recursos naturais, principalmente porque permitiu incorporar, em seus sucessivos satélites, características requeridas pelos usuários dos dados. Para o Brasil, esse programa foi de fundamental importância, porque possibilitou consolidar e capacitar uma ampla comunidade de usuários. Além disso, os dados do Sistema Landsat são recebidos no Brasil desde 1973, que contou com toda infra-estrutura para sua recepção, processamento e distribuição, através do Instituto Nacional de Pesquisas Espaciais (INPE). Atualmente, não existe garantia de que essa missão prossiga, pelo menos com as características atuais, principalmente por que muito da tecnologia utilizada na construção e operação do satélite se encontra ultrapassada. O pragrama Landsat constitui-se em uma série de 7 satélites desenvolvidos e lançados pela National Aeronauticsand Space Administration NASA a intervalos médios de 3 a 4 anos. O primeiro satélite da série recebeu inicialmente o nome de Earth Resources Technology Satélite – 1 (ERST-1), passando a ser chamado de Landsat em janeiro de 1975. Embora os satélites da série Landsat tenham sido concebidos para terem uma vida útil de 2 anos, eles mantiveram em operação durante muito tempo, como é caso do Landsat 5, que lançado em 1984 se manteve ativo a data de conclusão deste capitulo em 2007. O programa Landsat permitiu, por cerca de 35 anos (1972 a 2007), a aquisição de imagens da superfície terrestre para atender uma ampla comunidade de usuários, incluindo os setores agrícola, florestal, entre outros. A missão do Programa Landsat foi proporcionar a aquisição repetitiva de dados multiespectrais calibrados, com resolução espacial relativamente alta, comparada à dos satélites para aplicações meteorológicas e oceanográficas, de modo global, para permitir comparações do estado da superfície terrestre ao longo do tempo. Os dados Landsat são o mais longo e completo registro das superfícies continentais do planeta terra a partir do espaço, de grande valor para os estudos sobre mudanças globais do planeta. 5.1.1 Componentes do Sistema Landsat O sistema landsat, como qualquer outro sistema de sensoriamento remoto orbital, compõe-se de 2 subsistemas: o Subsistema Satélite e o Subsistema Estação Terrestre, também conhecido atualmente, pelo aumento de complexidade, como “O Segmento Solo". O Subsistema Satélite tem a função básica de adquirir os dados, transformá-los em sinais passíveis de transmissão, coletar informações sobre a atitude e posição da plataforma para auxiliar os processamentos dos dados em terra, suprir a energia necessária para todas as operações da carga útil, e do próprio satélite, fazer atividades de manutenção do satélite e comunicação com a estação terrestre. O Segmento Solo tem a função de dar suporte à operação do satélite, a partir de análise dos dados de telemetria, rastrear o satélite, ativar o processo de recepção e gravação dos dados de carga útil e telemetria. Além disso, faz parte das atividades do segmento solo, processar os dados, arquivá-los e torná-los utilizáveis por especialistas em extração de informações de interesse para a agricultura, para ecologia, geologia etc. Atualmente, como parte das atividades do Segmento Solo, estão incluídos também o desenvolvimento de produtos (índices biofísicos e geofísicos) e sua disponibilização na internet. O segmento Solo atualmente é especialmente distribuído por uma rede de estações de recepção e laboratórios, tanto nos Estados Unidos da América , como em outras regiões do mundo. DIVISÃO DE ENSINO

SSDMD

55

EEAR

5.1.1.1 Satélites Landsat 1, 2 e 3 5.1.1.1.1 Principais Características do Landsat 1, 2 e 3 A figura 57 apresenta os principais componentes do modelo de satélite utilizado nas 3 principais missões da serie Landsat. Podemos observar que ele possui um conjunto de subsistemas com funções especificas de ajuste da órbita, controle de posição do satélite em relação ao plano orbital, medição constante da posição do satélite, suprimento de energia, controle térmico, telemetria, etc. Fig. 57 Componentes do satélite utilizado nas três primeiras missões do Landsat.

O Subsistema de Ajuste de Órbita, conhecido como OAS (Orbit Adjust Subsytems), tem duas funções básicas: corrigir a órbita do satélite após o lançamento e manter ou restabelecer a órbita durante seu período de vida útil. O ajuste de órbita é feito por um sistema de motores a jato que utiliza hidrazina como monopropulsor. Um tipo de deslocamento do satélite do satélite é conhecido por pitch (arfagem), que traduz a movimentação do satélite no plano horizontal, provocando a oscilação de sua base em relação ao seu eixo longitudinal da espaçonave. Outro tipo de oscilação em relação ao plano horizontal é conhecido como roll (rolamento) e provoca movimentação da base perpendicularmente aquela provocada pelo pitch. Finalmente, há um movimento a que esta sujeito o satélite, que recebe o nome de yaw (deriva) e que respresenta a rotação de espaçonave em relação ao seu eixo vertical, o que determina um desvio da direção de órbita. O Subsistema de Controle de Atitude do Satélite (Attitude Control Subsystem - ACS) tem a função de manter essas oscilações de posição dentro de limites toleráveis. A manutenção da estabilidade de base do satélite em relação ao plano horizontal é fundamental para que os subsistemas sensores estejam numa posição paralela a cena imageada. DIVISÃO DE ENSINO

SSDMD

EEAR

56

Outro aspecto fundamental do subsistema de controle de atitude do satélite é garantir que os painéis solares sejam orientados em relação ao sol. Para adquirir o máximo suprimento de energia para a espaçonave, as células solares devem ser mantidas, o mais próximo possível, da posição perpendicular ao vetor Sol-satélite. Além do satélite possuir um subsistema de controle de atitude que detecta os desvios e os corrige automaticamente, ele possui um subsistema capaz de medir esses desvios a cada instante, de modo que os dados coletados sob certas condições fora do padrão de oscilação aceitável sejam corrigidos.Esse subsistema chama-se Sistema de Medidas da Atitude e Posição do Satélite (Attitude Measurement Subsystem - MAS). Essas medidas são tomadas independentemente do subsistema ACS e enviadas para estações terrenas para serem incorporadas a um banco de dados conhecido por SLAT (Spacecraft Locationand Attitude Tape), que poderíamos chamar de “dados para localização e determinação da posição dos satélites”. Estes dados são usados na fase de processamento para geração de imagens de satélite. Outro subsistema importante do satélite é o seu Sistema de Energia. Este subsistema tem a função de gerar, armazenar e distribuir a energia elétrica necessária para operar todos os demais subsistemas componentes da espaçonave. A energia elétrica é gerada por um conjunto de células solares montadas nos painéis solares. A armazenagem de energia é realizada através de baterias. Tanto as baterias quanto os painéis são controlados telemetricamente, de modo a manter a temperatura e o suprimento de energia dentro de níveis ótimos. O controle térmico do ambiente é feito através de um sistema de controle que provê temperaturas entre 20° e 10°C para o perfeito funcionamento dos subsistemas sensores e demais subsistemas de controle. Para atividade de sensoriamento remoto orbital, os subsistemas de transmissão e processamento de dados (Communications and Data-Handling Subsystems) são fundamentais. Estes subsistemas são responsáveis por todo o fluxo de informações interno e externo à espaçonave, incluindo a telemetria, a armazenagem de dados a bordo, e a comunicação interna entre os diferentes subsistemas que compõem o satélite. São formados por dois componentes: um Subsistema de Telemetria de Banda Larga e um Subsistema de Telemetria de Banda Estreita. O Subsistema de Banda Larga (Banda X) é responsável pelo processamento e pela transmissão dos dados coletados pela carga útil enquanto o Subsistema de Banda Estreita (Banda S) é responsável pela coleta e pela transmissão dos demais dados do satélite para estações de recepção . Este subsistema recebe comandos da Space Flight Trancking and Data Network (SDTN) e os implementa a bordo do satélite. Ele provê também a transmissão dos dados coletados pelas PCDs ou Plataforma de Coleta de Dados. 5.1.1.1.2 Características da Órbita dos Satélites Landsat 1,2,3 Os três primeiros satélites da Série Landsat, estiveram inseridos numa órbita circular, quase polar, síncrona com o sol, a uma altitude aproximada de 920 Km. Durantes seu período de operação, os satélites realizavam uma órbita completa em torno da Terra a cada 103 minutos e 27 segundos, de modo a recobrir 14 faixas da superfície terrestre por dia. A configuração da órbita dos satélites 1, 2 e 3 foi estabelecida de tal modo que a cada 18 dias eles passavam sobre a mesma região da superfície terrestre. O ângulo de inclinação da órbita do satélite em relação ao plano do Equador (99°1’) fazia com que tivesse uma trajetória quase polar em torno da Terra, garantindo o imageamento entre as latitudes de 81°N e 81°S. Esta inclinação também garantia que a órbita fosse “síncrona com o Sol”, permitindo que os dados fossem coletados sob condições de iluminação local similares. DIVISÃO DE ENSINO

SSDMD

57

EEAR

Outra característica importante é que o plano de órbita desloca-se em torno da Terra à mesma velocidade do deslocamento da Terra em relação ao Sol. Desta forma, cada vez que o Satélite cruza o Equador em direção ao Sul (orbita descendente), ele o faz durante o mesmo horário local, durante todo o ano. O horário médio de passagem dos satélites pelo Equador é 9h30min, variando conformea longitude.

Fig. 58 Órbitas do Landsat 1, 2 e 3

Esses parâmetros orbitais que envolvem o período orbital ao satélite e o movimento de rotação da Terra fazem com que cada órbita sucessiva seja deslocada em 25,8º em direção a oeste. Isto significa que, no caso dos satélites 1, 2 e 3, se a órbita 1 do dia 1 passasse por São Paulo, a órbita sucessiva estaria deslocada para oeste e assim sucessivamente de tal modo que, no dia 2, a linha de trajetória do satélite teria se deslocado em 1° e 43’ de longitude em direção a oeste, ou cerca de 160 km ao longo do Equador. No 19° dia ou não na 251ª revolução do satélite, DIVISÃO DE ENSINO

SSDMD

58

EEAR

ele já terá se deslocado 25°7’(18 X 1°43’) me longitude, de tal modo que sua posição seria coincidente com a orbita 1 do dia. Devido à antecipação da orbita e às variações na altitude do satélite, entre passagens sucessivas sobre uma mesma área, pode-se registrar variações de até 30 Km em relação ao ponto central da cena imageada. Essa geometria de imageamento também faz com que, entre órbitas sucessivas, haja um recobrimento que varia de, aproximadamente, 14% na região equatorial a 34% a 40º de latitude. Esta característica, na prática, representa um aumento da resolução temporal do sistema nas regiões de recobrimento. 5.1.1.1.3 A carga útil a Bordo dos Landsat 1 ,2 e 3 Como carga útil (payload), devemos entender aqueles instrumentos que estão a bordo do satélite exclusivamente para a coleta de informações sobre a superfície terrestre. Os três primeiros satélites levaram a bordo dois tipos de sensores: um sistema de câmeras de televisão RBV e um subsistema de varredura (MSS). Além desses sensores, a carga útil era composta por um subsistema de gravação de dados a bordo (wideband tape recorders – WBVTRs) responsável pela armazenagem dos dados coletados pelos sensores durante os períodos em que o satélite se encontrava fora do alcance das estações terrestres de recepção. Além destes instrumentos, os satélites carregavam a bordo componentes para recepção e transmissão de dados coletados por plataformas remotas e automáticas, conhecidas como PCD (Plataformas de Coleta de Dados) ou PCM (Plataformas de Coleta de Dados Meteorológicos). Este subsistema é conhecido como Subsistema de Coleta de Dados.

Fig. 59 Carga útil a bordo dos três primeiros satélites da série Landsat

5.1.1.1.4 Imageador Multiespectral – MSS ( Multispectral Scanner Subsystem ) Os subsistemas de varredura a bordo dos Landsat 1, 2 e 3 eram equipamentos que permitiam o imageamento de linhas do terreno numa faixa de 185 Km, perpendicularmente à orbita do satélite. A varredura do terreno era realizada com o auxílio de um espelho que oscilava DIVISÃO DE ENSINO

SSDMD

59

EEAR

perpendicularmente ao deslocamento da plataforma. A figura 60 apresenta de forma resumida as principais características do processo de imageamento do MSS. Na figura 60a podemos observar que, para cada faixa do espectro, eram "varridas" seis linhas do terreno simultaneamente, durante uma oscilação espelho. No caso específico do MSS a bordo do Landsat 3, o canal referente à região do termal registrava duas linhas de varredura a cada oscilação do espelho. Durante a oscilação do espelho, a imagem do terreno, ao longo de uma faixa de 185 Km, é focalizada sobre uma matriz de detectores. Esta matriz de seis detectores para cada faixa do espectro determina o imageamento de seis linhas (uma para cada detector) simultâneas do terreno. O sistema óptico do MSS e as dimensões de cada detector que compõem a matriz de detectores são responsáveis pelo seu campo instantâneo de visada (angular instantaneous field of view - IFOV), que é de 0,086 mrad (milirradianos). Esse ângulo de visada faz com que a resolução nominal do sistema MSS seja de 79 m X 79 m, se for admitida uma altitude média de 913 Km para a órbita do satélite.

Fig. 60 Características de imageamento do MSS-LANDSAT

Pela figura 60a, observamos que o espelho oscila de oeste para leste. A frequência de oscilação do espelho é tal, que permite o imageamento de 5,6m do terreno por microssgundo. A energia proveniente de cada elemento de resolução é transformada em um sinal elétrico. Este sinal é registrado a cada 9,9 microssegundos. O tempo necessário para que o sinal elétrico produzido em cada detector seja amostrado é de 0,3 microssegundos. DIVISÃO DE ENSINO

SSDMD

EEAR

60

Estas características do sistema de registro do sinal fazem com que, ao serem novamente amostrados, os detectores individuais tenham a imagem do terreno deslocada em apenas 56 metros. Como o campo de visada do sistema é de 79 metros, os detectores individuais estarão sempre recebendo radiação proveniente de 11m do pixel precedente, ao longo da linha de varredura. Desta forma, o tamanho efetivo do pixel imageado é de 56 m (ao longo da linha de varredura) por 79 m (perpendicularmente à linha de varredura) Outra característica do processo de imageamento e amostragem do sinal registrado pelo detector é a defasagem entre as bandas. Como o tempo de amostragem de sinal elétrico é finito, o mesmo pixel no terreno é amostrado em tempos diferentes em cada canal. O arranjo da matriz de detectores faz com que, ao se levar em conta o tempo de amostragem, cada detector “observe” uma área de pixels a oeste daquela observada pelo detector do canal que o precede. Desta forma, quando os dados registrados são organizados numa matriz aqueles referentes ao primeiro canal (MSS 4) devem ser deslocados em 6 pixels para corresponderem à mesma matriz de dados do ultimo canal (MSS 7). O processo de imageamento pelo sistema MSS também determina diferenças de localização entre linhas de um mesmo canal em função de taxa de registro do sinal. Entre a linha 1 e a linha 6 há um deslocamento no terreno de aproximadamente 22 metros ao longo da linha de varredura. A cada oscilação do espelho, o satélite desloca-se ao longo da órbita, para proporcionar o imageamento continuo do terreno. Entretanto, o movimento de rotação da Terra provoca um pequeno deslocamento do ponto inicial da varredura para oeste a cada oscilação do espelho, ou seja, a cada seis linhas imageadas. Se considerarmos o deslocamento de 185 Km ao longo da orbita do satélite, há um deslocamento de 12,5 cm entre a primeira e a ultima coluna de pixels. Tais distorções geométricas derivadas do processo de imageamento são posteriormente corrigidas nas estações terrenas. Os detectores utilizados no MSS são tubos fotomultiplicadores, para os canais 4, 5 e 6 e diodos de silício, para o canal 7. No caso do MSS a bordo do Landsat 3, havia ainda o canal termal onde os detectores eram de Telureto de Mercurio- Cádmio (HgCdTe). Quando a energia refletida ou emitida pela superfície atinge os detectores, estes produzem um sinal elétrico. Este sinal é função da potência que chega ao detector e de sua sensibilidade à radiação incidente numa dada faixa do espectro. Este sinal de saída do detector entra num multiplexador (sistema de transmissão simultânea de sinais), que é responsável por todo o fluxo de dados digitais que é enviado do satélite ás estações terrenas.

DIVISÃO DE ENSINO

SSDMD

61

EEAR

Fig. 61 Fluxo seguido pelo sinal desde o sensor até sua trasmissão às estações terrenas

Por meio da figura 61, verificamos que o sinal elétrico produzido pelo sensor é dirigido a um multiplexador analógico, programado para operar de acordo com os parâmetros determinados pelo processo de imageamento. Este sinais são enviados para um conversor de sinal analógico em sinal digital a intervalos de tempo que são controlados por um oscilador de circuitos. 5.1.1.1.5 Sistema RBV (Return Bean Vidcom System) O sistema RBV é um tipo de sensor que permite observar a cena imageada como um todo de forma instantânea á semelhança de uma câmera fotográfica. A figura 62 representa o sistema RBV que operou a bordo dos dois primeiros satélites da Série Landsat. Como pode ser observado na Figura 62 o sistema RBV a bordo desses 2 satélites era concebido para proporcionar informações espectrais e espaciais.

DIVISÃO DE ENSINO

SSDMD

62

EEAR

Consistia de três câmaras independentes que operavam simultaneamente, sensoriando a mesma superfície, em três faixas do espectro determinadas através de filtros espectrais. A cena terrestre imageada pela câmara representava uma área de 185 Km. A energia proveniente dessa área impressionava um tubo fotossensível. Um obturador fechava, então, a entrada de energia proveniente da cena e imagem do terreno no tubo era varrida por um feixe de elétrons, produzindo um sinal proporcional à intensidade de energia incidente. O tempo de varredura eletrônica para cada faixa espectral era de 3,5 segundos e o intervalo entre duas exposições sucessivas era de 25 segundos, a fim de serem produzidas com superposição ao longo da linha de deslocamento do satélite. Fig. 62 Câmara Multiespectral RBV no Landsat 1 e 2

Para o satélite Landsat 3, a concepção do sitema RBV foi totalmente revista. Optou-se pela operação de duas camaras RBV em uma faixa do espectro apenas e com melhor resolução espacial em relação ao MSS.

DIVISÃO DE ENSINO

SSDMD

63

EEAR

A Figura 63 representa, de forma esquemática, o sistema RBV a bordo do Landsat 3. Foram feitas algumas modificações no sistema óptico e no sistema eletrônico das camaras, que se transformaram em camaras pancromáticas com resolução nominal de aproximadamente 25 m X

25 m. Fig. 63 Esquema das câmeras RBV a bordo do Landsat 3

Ao contrário do sistema MSS, os dados RBV não são transformados de analógicos para digitais antes de serem transmitidos as estações terrestres. A tabela abaixo mostra as características dos sensores a bordo dos satelites 1 e 2. Sua análise permite verificar que o sensor MSS apresentava uma vantagem sobre a camara RBV que era de atuar na faixa do infravermelho próximo. Com isso, a comunidade de usuários passou a aumentar sua demanda sobre os dados do sensor MSS, havendo pequeno desenvolvimento de aplicações para os dados RBV. Características da carga útil do Landsat 1 e 2 Satélites

Sensores

Banda

Intervalo (µm)

Resolução (m)

Landsat 1 e 2

RBV

1

0,48 – 0,57

80

RBV

2

0,58 – 0,68

80

RBV

3

0,70 – 0,83

80

MSS

4

0,50 – 0,60

79

MSS

5

0,60 – 0,70

79

MSS

6

0,70 – 0,80

79

DIVISÃO DE ENSINO

SSDMD

64

EEAR

MSS

7

0,80 – 1,10

79

A alternativa adotada, como foi mencionada, foi modificar a carga útil para o terceiro satélite da série. O sensor RBV passou a operar em uma única banda pancromática, produzindo imagens com melhor resolução espacial, e o sensor MSS teve uma banda adicionada para operar na região do infravermelho termal. Essas mudanças na carga útil não demandaram alterações nas características da plataforma, que permaneceu a mesma. Características da carga útil do Landsat 3 Satélites

Sensores

Banda

Intervalo (µm)

Resolução (m)

Landsat 3

RBV

1

0,505 – 0,705

40

MSS

4

0,5 – 0,60

79

MSS

5

0,60 – 0,70

79

MSS

6

0,70 – 0,80

79

MSS

7

0,80 – 1,10

79

MSS

8

10,4 – 12,6

240

5.1.1.1.6 Sistema de gravação a Bordo ( WBVTR) Quando o primeiro satélite da Série Landsat foi lançado, existiam somente 4 estações terrenas (3 nos EUA e 1 no Canadá) aptas a receberem os dados coletados a bordo. Desta maneira, apenas os dados coletados na área de influência destas estações poderiam ser transmitidos às estações terrenas imediatamente após sua detecção (transmissão em tempo real). Os dados coletados nas demais regiões da Terra precisavam, portanto, ser armazenados a bordo até que o satélite se aproximasse da esfera de influência das estações de rastreamento e recepção de dados. O equipamento responsável pela armazenagem dos dados é conhecido por WBVTR. Esse sistema pode armazenar simultaneamente os dados coletados pelos dois sistemas sensores. Um dos maiores problemas envolvidos com a armazenagem de dados a bordo é sua susceptibilidade a falhas de operação desde o lançamento do 1° satélite. No Landsat 1, um dos sistemas de gravação a bordo teve duração de apenas 10 dias. No Landsat 3, um dos sistemas de gravação a bordo tornou-se inútil para o MSS após cerca de uma semana de operação, enquanto o outro continuou em operação até a desativação do satélite. 5.1.1.1.7 Subsistema de Coleta de Dados (SCD) O Subsistema de Coleta de Dados faz parte de carga útil do sistema Landsat, embora não seja um sensor e sim um sistema de comunicação. Cada SCD tem dois componentes principais: um subsistema de retransmissão a bordo do satélite e as plataformas de coleta de dados propriamente ditas, que se encontraram no solo (PCD ou PCM). Tais plataformas terrestres permitem a coleta e a transmissão de dados de 8 sensores que mostram condições locais de temperatura, umidade etc.

5.1.1.2 Satélites Landsat 4 e 5 5.1.1.2.1 Principais Características dos Landsat 4 e 5 Houve mudanças substanciais na configuração dos satélites do programa Landsat a partir do lançamento do Landsat 4. DIVISÃO DE ENSINO

SSDMD

EEAR

65

De acordo com o Landsat 4 Data Users Handbook (USGS 1984), o sistema Landsat, a partir de seu quarto satélite, foi concebido para melhorar a capacidade de aquisição de dados orbitais através de inclusão de sensores mais eficientes e com tecnologia que permitisse o processamento rápido da informação. Um dos maiores óbices para o uso operacional dos dados era o tempo decorrido entre a aquisição dos dados e sua disponibilização para uso em formato de imagens . O Landsat 4 e o 5 representaram, portanto, uma ponte entre as antigas e as novas gerações de sistemas orbitais de sensoriamento remoto da superfície terrestre. Em primeiro lugar, o subsistema satélite foi concebido como uma espaçonave modular (Multimission Module Spacecraf) muito maior que as anteriores, tendo os seguintes funções: adquirir imagens da superfície terrestre através de dois sistemas sensores (MSS e TM); fornecer meios de transmissão das imagens diretamente às estações terrestres através de satélites de telecomunicações (Tancking and Data Relay Satellite System - TDRSS); proporcionar energia para a operação dos instrumentos sensores, equipamentos sensores e equipamentos de suporte, manter estabilidade de altura das estações terrestres; interagir com o ônibus espaciais. Na figura 64, observamos que a forma do subsistema satélite utilizado nas missões Landsat 4 e Landsat 5 é totalmente diferente dos satélites enteriores. A característica mais marcante é a presença de um mastro com 3,7 metros de altura, cuja função era sustentar a antena de transmissão via TDRSS. Outra diferença visível entre as duas configurações é que os satélites posteriores tinham um único painel solar. O corpo principal do satélite é formado por dois módulos, uma correspondente à estrutura do satélite e outro correspondente aos instrumentos. As figuras 64 e 65 permitem observar que os principais componentes do subsistema satélite são basicamente os mesmos das missões precedentes, porem concebidos para melhor desempenho. O módulo correspondente ao satélite propriamente dito é composto por quatro subsistemas: subsistema de suprimento de energia, subsistema de controle de atitude, subsistema de transmissão e processamento de dados e um subsistema de propulsão. Estes subsistemas estão montados numa estrutura triangular (Figura 64). Cada um destes subsistemas é um módulo formatado em recipientes com dimensões de 122 cm por 122 cm por 33 cm, com exceção do sistema de propulsão, que é acoplado na parte posterior do satélite.

DIVISÃO DE ENSINO

SSDMD

66

EEAR

Fig. 64 Módulo satélite Landsat 4 e Landsat 5

O Subsistema de Comunicação e Processamento a bordo permite a transmissão telemétrica de dados de dois modos: um modo adequado à transmissão normal, com uma taxa de transmissão de 8 mil bits por segundo e um modo de transmissão para alívio imediato de memória do computador e correção da transmissão de dados de carga útil. Este sistema inclui ainda dois gravadores de bordo para dados de telemetria. Toda comunicação entre o satélite e as estações terrenas (com exceção dos instrumentos de banda larga) é feita através deste subsistema, que possui ainda um computador de bordo com uma capacidade de memória de 64.000 palavras. Este computador pode ser utilizado para diferentes funções, tais como controle de atitude, orientação da antena, controle da espaçonave, controle da antena TDRSS, cálculo das efemérides solares, detecção e correção de falhas de sensores e monitoramento de telemetria. O sistema previa também que esse computador possa ser operado telemetricamente a partir das estações terrenas. O Subsistema de Controle de Atitude é um sistema considerado de alta precisão para a época em que foi desenvolvido, com uma tolerância de variação da posição nos três eixos de 0,01° e com uma estabilidade de 10° graus por segundo. Há ainda um subsistema alternativo (safe-hold mode) que permitia o controle de atitude sem o auxílio do computador de bordo e que operava de modo semelhante ao dos primeiros satélites da Série Landsat. DIVISÃO DE ENSINO

SSDMD

67

EEAR

O Subsistema de Propulsão é utilizado para fazer os ajustes da órbita do satélite, necessários para manter constante o padrão de cobertura do solo. É, também, utilizado para o controle de atitude, quando o subsistema de controle de atitude apresenta alguma falha de operação. A figura 65 apresenta, de forma esquemática, os principais componentes do módulo de instrumentos. Podemos observar que o sensor TM encontrava-se localizado na base de módulo, enquanto o MSS localizava-se na porção anterior do satélite.

Fig. 65 Módulo de instrumentos Landsat 4 e Landsat 5

O mastro montado para o sistema TDRSS teve a função de proporcionar um amplo campo visada. Além disto, servia de suporte para uma antena que recebesse continuamente informações para o cálculo na posição e a velocidades do satélite. Esta antena era conhecida como Global Position System (GPS) e seus dados alimentavam os algoratimos para controle de atitude implementados no computador de bordo. Estes dados permitem controlar a direção da antena TDRSS e, transmitidos telemetricamente para as estações terrestres, podem ser utilizados para a correção geométrica das imagens TM e MSS. Esse foi, portanto, o primeiro satélite a utilizar um sistema de posicionamento global, uma tecnologia de ponta, para a década de 1980, em que o satélite estava sendo construído. DIVISÃO DE ENSINO

SSDMD

68

EEAR

O subsistema de comunicação em banda larga foi concebido para possbilitar a transmissão de dados MSS (banda S) e TM (banda X), via TDRS ou diretamente às estações terrestres. Nesse módulo de instrumento encontra-se, também, o painel solar responsável pela transformação de energia solar em energia elétrica necessária à operação do satélite. 5.1.1.2.2 Características da Órbita dos Landsat 4 e 5 A órbita dos satélites Landsat 4 e 5 é semelhante à dos satélites anteriores. E repetitiva, circular, Sol-sincroma e quase-polar. Sua altura é inferior a dos primeiros satélites, estando posicionada a 705 Km em relação à superfície terrestre no Equador. A tabela 5.4 permite indentificar as principais as principais diferenças entre as orbitas dos satélites 1,2,3 e a dos satélites 4 e 5 da serie Landsat.

Parâmetros orbitais dos satélites da série Landsat Parâmetros orbitais

Landsat 1,2,3

Landsat 4,5

Altitude (km)

920

705

Inclinação (graus)

99,4

98,2

Período (minutos)

103

98,2

Horário de passagem pelo Equador

9,15

9,45

Duração do ciclo de cobertura (dias)

18

16

A órbita mais baixa do satélite determinou um padrão de cobertura da superfície bastante diferente daquele apresentado pelos primeiros satélites da série. A figura 66 apresenta o padrão de cobertura do terreno proporcionado pelos satélites 4 e 5 da serie Landsat. Os sensores a bordo do satélite coletam dados de uma faixa de 185 Km. O sistema de recobrimento da superfície a cada 16 dias determina o padrão segundo o qual a faixa adjacente à 1° primeira orbita do dia 1 será recoberta pelo satélite apenas na orbita do oitavo dia. A porcentagem de recobrimento entre faixas adjacentes no terreno para os satélites 4 e 5 é bem menor que para os satélites 1, 2 e 3. 5.1.1.2.3 Carga útil dos satélites Landsat 4 e 5 Os sensores a bordo dos satélites 4 e 5 são o MSS (Multispectral Scanner Subsystem) e o TM (ThematicMapper). O sensor MSS é semelhante aos utilizados nos três primeiros satélites da serie Landsat. Entretanto, devido às modificações na altura de orbita do satélite, o sistema óptico do sistema MSS teve de ser adaptado para que mantivesse a resolução de 80 m X 80 m no terreno. A resolução efetiva do sensor também é um pouco diferente do sensor MSS a bordo dos satélites 1,2,3. Entretanto, como para fins de utilização os produtos tem características equivalentes ao longo da serie Landsat, não entraremos em pormenores sobre as adaptações sofridas pelo MSS a bordo dos satélites 4 e 5.

DIVISÃO DE ENSINO

SSDMD

69

EEAR

Fig. 66 Padrão de cobertura pela órbita dos satélites Landsat 4 e 5

O sensor TM foi um sistema avançado de varredura multiespectral , na época em que o satélite foi lançado pela primeira vez, há um quarto do século. Foi concebido para proporcionar: resolução espacial mais fina, melhor discriminação espectral entre objetos da superfície terrestre, maior fidelidade geométrica e melhor precisão radiometrica em relação ao sensor MSS. A Tabela abaixo apresenta as características principais da carga útil dos sensores Landsat 4 e 5. Características dos Sensores a bordo dos satélites 4 e 5 Satélites

Sensores

Banda

Intervalo (µm)

Resolução (m)

Landsat 4 e 5

MSS

4

0,50 – 0,60

82

MSS

5

0,60 – 0,70

82

MSS

6

0,70 – 0,80

82

MSS

7

0,80 – 1,10

82

TM

1

0,45 – 52

30

TM

2

0,52 – 60

30

TM

3

0,63 – 69

30

TM

4

0,76 – 0,90

30

TM

5

1,55 – 1,75

30

TM

6

10,40 – 12,50

120

TM 7 2,08 – 2,35 30 A análise da tabela acima mostra que o sensor TM apresentou várias características inovadoras. Foram incluídas uma banda na região do azul e duas bandas na região do infravermelho de ondas curtas, além da banda termal. A resolução espectral também melhorou, uma vez que as bandas ficaram mais estreitas. Além disso, com base no conhecimento do comportamento espectral dos alvos que se tinha em mente discriminar, essas bandas foram mais bem posicionadas. Com isso, o potencial teórico de aplicação das imagens foi ampliado. 5.1.1.2.4 Imageador TM (Thematic Mapper) O sistema TM é composto por um conjunto de subsistemas configurados para permitir o imageamento do terreno com fidelidade geométrica. A energia proveniente da cena atinge o

DIVISÃO DE ENSINO

SSDMD

70

EEAR

espelho de varredura após passar por um sistema de proteção contra radiação solar direta (sun shade). O espelho de varredura é conectado a um sistema eletrônico que controla sua oscilação. O espelho de varredura oscila perpendicularmente à direção de deslocamento do satélite em sentido leste-oeste e oeste-leste, segundo um ângulo de varredura de 7,7°. A frequência com que o espelho oscila é de 7Hz, sendo necessários 10,7 microssegundos para que este complete uma varredura. O início e o término de cada período de varredura anterior são controlados por uma monitor de ângulo de varredura. O sinal coletado pelo espelho é direcionado para um telescópio com um diâmetro de abertura de 41,15 cm e uma distancia focal de 243,8 cm. O sinal que atravessa o telescópio atinge um segundo sistema óptico constituído basicamente por espelhos, cuja a função principal é corrigir o sinal coletado pelo espelho de varredura. Este sistema é composto por um par de espelhos, cuja oscilação é programada de modo a compensar o efeito do deslocamento da espaçonave sobre o processo de varredura. A figura 67 ilustra o efeito do subsistema óptico de correção de varredura sobre o sinal pelo sensor TM. Na figura 67a, observamos o padrão da varredura, que seria formado se não houvesse um subsistema de correçãp para o efeito resultante do deslocamento da espaçonave. Após a correção(67b), as linhas de varredura tornam-se paralelas, não havendo situações de superposição ou não recobrimento entre linhas sucessivas. Enquanto o espelho oscila de oeste para leste (ou vice-versa), o subsistema de correção das linhas de varredura movimenta o campo instantâneo de visada (IFOV) em direção ao norte. O resultado é que cada varredura torna-se perpendicular às direções de deslocamento do satélite. Para produzir essas correções, o espelho corretor oscila a uma taxa duas vezes maior que a freqüência de oscilação do espelho de varredura. Outro componente do subsistema TM é o seu subsistema de calibração. Ele se encontra colocado na parte anterior do plano focal e é formado por lâmpada de tungstênio, para calibração dos canais TM1 a TM5 e TM7, por um corpo Negro, para a calibração do canal TM6, e por um obturador que oscila à mesma freqüência do espelho de varredura. Desta maneira, a radiação das fontes de calibração é introduzida no campo de visada do detector durante o período de varredura.

Fig. 67 Efeito do subsistema óptico de correção de varredura

DIVISÃO DE ENSINO

SSDMD

71

EEAR

A radiação do alvo e da fonte de calibração incide, alternadamente, sobre a matriz de detectores do Plano Focal Principal, que representa o subsistema responsável pela transformação de energia radiante em um sinal elétrico. O Plano Focal Principal contém uma matriz de 16 detectores de silício referentes aos 4 canais espectrais da região visível, bem como os componentes de amplificação do sinal elétrico. Tendo em vista o aquecimento provocado pela radiação infravermelha, esta é focalizada num outro plano focal, resfriado (Coooled Focal Plane), que contém uma matriz de 16 detectores de antimoneto de índio (InSb) para os canais TM5 e TM7 e uma matriz de 4 detectores de telureto de mercúrio-cadmio (HgCdTe) para o canal TM6. Esse plano focal possui um sistema de controle de temperatura que permite manter três temperaturas selecionadas (90 K, 95 K, 105 K). Desta maneira, o sinal detectado em cada canal é transferido para um multipexer e convertido em sinal digital através de um sistema A/D ( Analogico/Digital). A saída de dados é, então, sequenciada por um multipexer digital que transmite os dados via telemetria. A tabela abaixo apresenta, de forma resumida, as principais características do processo de varredura do sensor TM; para os usuários dos dados, a característica mais relevante é a largura de faixa imageada e o período de varredura. A largura da faixa imageada indica a dimensão máxima da área imageada instantaneamente, e o período de varredura informa o tempo de duração da aquisição do dado. Essas informações para algumas aplicações não são críticas, mas para outras podem interferir na análise e interpretação dos dados. Na geração de modelos empíricos, em que são estabelecidas regressões entre dados coletados no campo e dados espectrais da cena, é sempre útil ter em mente que a cena é obtida num dado instante do tempo, como um “piscar de olhos”, enquanto a aquisição de informações de campo pode levar horas e até mesmo dias, e isto afetara o tipo de interpretação que se dá aos resultados. Em relação à largura da faixa imageada, ela interface no tamanho da região que podemos estudar usando uma única cena. Embora existam procedimentos para normalização de dados, se a região for maior que o limite da área imageada, a utilidade dos dados será mais restrita para algumas aplicações. A figura 68 representa o padrão de imageamento no terreno, proporcionado pelo sensor TM. Cada ponto (pixel) irá produzir um sinal proporcional à sua energia radiante, o qual será transformado em sinal digital para ser armazenado a bordo e/ou transmitido via telemetria. Características do Sensor TM Largura da faixa imageada

185 Km

Período de varredura

142,9 µseg

Frequência de varredura

6,9 Hz

Tempo de varredura ativa

60,7 µseg

Tempo de retorno do espelho

10,7 µseg

Tempo de permanência do IFOV

9,6 µseg

Extensão da linha de varredura

6320 IFOV

Tamanho do espelho

53 x 41 cm

DIVISÃO DE ENSINO

SSDMD

72

EEAR

Fig 68 Padrão de imageamento do sensor TM

5.1.1.3 Satélites Landsat 6 e 7 Com sucesso do Programa Landsat e crescente uso das imagens, o governo americano, em meados de 1984, obrigou a NASA e a NOAA a transferirem para o setor privado o programa Landsat, incluindo a construção, lançamento, recepção e distribuição de dados dos satélites Landsat 4 e 5. Entre 1985 e 1994, os direitos exclusivos de comercialização dos dados dos satélites Landsat 4 e 5 eram da empresa EOSAT (Eartah Observation Satellite Company). Por volta de 1992, ficou claro que o alto custo dos dados fornecidos comercialmente havia restringido sua utilização pelo setor público. Em resposta a isso, o Congresso Nacional aprovou lei estabelecendo uma nova política para o sensoriamento remoto da superfície terrestre: 1) fim da comercialização de dados a partir do lançamento de novos satélites do Programa Landsat; 2) retorno do programa à administração governamental, 3) estabelecimento de uma política de preços dos dados que atendesse às demandas dos usuários; 4) implementação dessa política a partir dos futuros satélites da série; 5) estímulo ao desenvolvimento de sistemas avançados de sensoriamento remoto e criação de novas oportunidades de comercialização. A perda do Landsat 6 em outubro de 1993 fez com que a essa política fosse implementada mais rapidamente. O Landsat 7 foi desenvolvido a partir de cooperação entre a NASA, NOAA e USGS. A NASA era responsável pelo desenvolvimento e lançamento do satélite e pelo desenvolvimento do sistema de recepção terrestre (segmento solo). Para isso, ela DIVISÃO DE ENSINO

SSDMD

EEAR

73

contratou a Hughes Santa Barbara Remote Sensing para a construção do sensor e a Lockhead Marting Missilesand Space, para a construção do satélite. A NOAA ficou responsável pela operação e manutenção do satélite em órbita e pela operação das estações terrenas durante a vida útil do satélite. O USGS é o órgão que executa para a NOAA as atividades de aquisição, processamento, arquivo e distribuição dos dados. Os objetivos da missão Landsat 7 foram: 1) proporcionar a continuidade de aquisição de dados da superfície continental da terra para atender à demanda da comunidade científica voltada para a agenda de mudanças globais; 2) construir e manter atualizado um arquivo global de imagens sem cobertura de nuvens; 3) fornecer imagens da superfície terrestre a baixo custo para usuários; 4) melhorar a calibração absoluta dos dados de modo a torná-la melhor do que 5 %, transformando-se em uma referencia para outras missões; 5) automatizar o sistema de distribuição de dados, de modo que esta se dê num prazo de 48 horas entre a aquisição e a distribuição. A continuidade do programa Landsat que permitiu a construção do Landsat 7, fez parte do Programa americano de pesquisa em mudanças globais (US Global Change Research Program) e do programa da NASA conhecido por Earth Sciences Enterprise, que representa um esforço de longo prazo voltado para o estudo das mudanças globais do ambiente terrestre. O Landsat 7 foi construído para ter vida útil de 5 anos, e para dar continuidade aos satélites Lansat 4 e 5, integrando o sistema de observação da Terra, que envolvia as novas plataformas, tais como os satélites Terra e Aqua. A comparação de figura 5.14 com a Figura 5.10 mostra que o satélite em sua sexta e sétima versão possui basicamente a mesma configuração e componentes dos dois anteriores, mas a operação dos sistemas foi bastante inovada. Para o comando e operação do satélite é utilizada a banda S, enquanto a banda X é usada para a transmissão de dados para as estações terrenas. O sistema também recebeu como inovação um gravador de bordo (Solid State Recorder - SSR) com capacidade para armazenar 378 gigabits ou o equivalente a 42 minutos de dados coletados pelos sensores e 29 horas de dados de telemetria de manutenção. Os satélites 6 e 7, ao contrário dos anteriores, foram configurados para ter como carga útil um único sensor, o Enhaced Thematic Mapper Plus (ETM+ ).

DIVISÃO DE ENSINO

SSDMD

EEAR

74

O sensor ETM+ foi desenvolvido a partir do TM, ou seja, é um sistema de varredura mecânica, que opera de forma idêntica ao TM. A principal distinção entre o TM e o ETM + foi a inclusão de uma banda pancromática e o aumento de ganho na banda termal que permitiu a melhoria de resolução espacial. Além disso, foram adicionadas dois sistemas de calibração solar. A figura 69 mostra os componetes básicos do sensor ETM +. Da mesma forma como o sensor TM, o ETM+coleta, filtra e detecta a radiação numa faixa com largura de 185 Km, a partir da oscilação de um espelho de varredura perpendicular (cross-track scan) à direção de deslocamento do satélite. O movimento do satélites permite a varredura ao longo da órbita (along-trockscan), formando-se assim uma imagem contínua do terreno.Fig. 69 Configuração dos satélites 6 e 7 do Sistema Landsat

Conforme pode ser levado na Figura 70, a radiação proveniente da cena passa através de vários subsistemas do ETM+ antes que seja coletada pelos detectores localizados nos planos focais. O espelho giratório bidirecional varre a linha de visada do detector de oeste para este e de leste para oeste perpendicularmente à orbita do satélite, enquanto a plataforma proporciona o movimento na direção norte-sul. Fig. 70 Componentes do sensor ETM+ a bordo do Landsat 7

O telescópio focaliza a energia sobre os espelhos de compensação de movimento (scan line corrector - correção de linha de varredura), onde ela é redirecionada para o plano local. O sistema de correção de linha de varredura é necessário, devido ao efeito composto do movimento orbital e da varredura que leva a considerável sobreposição e lacunas de imageamento entre varreduras sucessivas. Este sistema é semelhante ao usado para o sensor TM e encontra-se descrito com mais detalhes naquele tópico.

DIVISÃO DE ENSINO

SSDMD

75

EEAR

A energia alinhada atinge o Plano Focal Primário, onde se encontram os detectores de silício para as bandas 1-4 e 8 (pancromática). Parte de energia é rediricionada para o Plano Focal Refrigerado, onde se localizavam os detectores das bandas 5, 6 e 7. A temperatura desse plano focal é mantida em 91 K usando um sistema de resfriamento radiativo. Os filtros espectrais para cada uma das bandas são localizadas em frente aos detectores. O Sistema de Varredura (Scan Mirror Assembly - SMA) faz a varredura perpendicular ao longo de uma faixa de 185 Km de largura. Esse sistema consiste de um espelho plano mantido por pivôs flexíveis em cada um dos lados, componentes para monitorar o ângulo de varredura, dois sistemas para amortecer a parada do espelho antes de mudança da direção de varredura e um sistema de compensação de torque, e toda a eletrônica de controle do processo de varredura pelo espelho. Com isso, a movimentação do espelho em cada direção é interrompida pelo sistema de amortecimento e reiniciada pelo torque durante o período de retorno. A intensidade de torque é controlada por um microprocessador a partir de informações sobre o ângulo espelho. A eletrônica do sistema de varredura é redundante, para que possa ser substituída em caso de falha. A tabela abaixo mostra as bandas de sensor ETM+, as quais, com exceção da banda pancromática, correspondem aquelas do sensor TM. A grande vantagem de banda pancromática de 15m é a sua utilização como entrada para algoritmos que permitem, através de métodos de processamento digital, uma melhoria da resolução espacial das bandas multi-espectrais de 30m. Nesse sentido, o sensor ETM+ representou um avanço em relação ao TM. Características do Sensor ETM+ Satélites

Sensores

Banda

Intervalo (µm)

Resolução (m)

Landsat 7

ETM+

1

045 – 52

30

ETM+

2

0,52 - 60

30

ETM+

3

0,63 - 69

30

ETM+

4

0,79 – 0,90

30

ETM+

5

1,55 – 1,75

30

ETM+

6

10,40 – 12,50

120

ETM+

7

2,08 – 2,35

30

ETM+

Pan

0,50 – 0,90

15

5.2 O programa SPOT (Système Probatoire d´Observation de La Terre) 5.2.1 Características Gerais Do Programa SPOT Os satélites da série SPOT fazem parte do programa espacial francês. A principal diferença entre o programa SPOT (Système Probatoire d`Observation de la Terre) e o programa Landsat é o de concepção. O sistema Landsat foi planejado para adquirir imagens continuamente sobre a superfície da terra, com a possibilidade de distribuir os dados para quem DIVISÃO DE ENSINO

SSDMD

76

EEAR

possuísse uma antena e ou dispusesse a comprar. O sistema SPOT (também grafado como Spot) foi concebido como um sistema comercial, no qual as imagens são adquiridas (gravadas e processadas) apenas sob encomenda. Embora existiam antenas de recepção distribuídas pelo mundo, o planejamento das aquisições e a colocação dos pedidos de imagem são feitos de forma centralizada, para que não haja conflito na programação dos modos de aquisição e operação de carga útil. Para atender à comercialização e à difusão dos dados foi criada uma empresa, a Société Spot Image, que possui filiais em diversos países. A SPOT Image é uma companhia privada com sede na França e foi formada em 1982 para cuidar da distribuição comercial das imagens SPOT, promover o sistema e gerar e processar os dados. Ela estabeleceu uma rede de distribuidores em mais de 20 países. No Brasil, a comercialização destes produtos é feita através da Intersat. Atualmente, a construção e o lançamento dos satélites são financiados pelo governo francês, mas está previsto que, no futuro, a nova geração de satélites seja totalmente financiada pelo setor privado. O programa SPOT teve o seu início em 1978, na França, sob a gerência da Agência Espacial Francesa- CNES em colaboração com os governos da Suécia e da Bélgica. O objetivo do programa era se capacitar para lançar vários satélites cartográficos e de recursos naturais. O primeiro satélite do programa SPOT, o SPOT-1, foi lançado em 22 de fevereiro de 1986 a bordo do foguete Ariene, em Kouru, na Guiana Francesa. Os três primeiros satélites da série SPOT levaram a bordo dois sistemas sensores indênticos (HRV - HAUT Resolution Visible), os quais podem ser ativados independentemente, com possibilidade de apontamento perpendicular ao deslocamento do satélite. Estes sensores operavam no modo pancromático, com uma única banda espectral centrada entre 0,51µm e 0,73µm e resolução espacial de 10m e no modo multiespectral, com três bandas espectrais, duas localizadas no visivel e uma no infravermelho próximo e resolução espacial de 20m (ver tabela abaixo). Estes sistemas sensores representaram um substancial avanço na área do sensoriamento remoto óptico, porque substituíram a tecnologia de varredura mecânica utilizada pelos sensores MSS, TM e ETM, pela varredura eletrônica no plano do objeto. Cada câmera possui uma barra linear de detectores que permite imagear, com o avanço do satélite, uma faixa de varredura de 60 km. Quando os dois sensores HRV operam simultaneamente, a faixa total imageada é de 117 km devido ao recobrimento entre faixas. A resolução radiométrica das imagens é de 8 bits. Características do sensor HRV a bordo dos satélites SPOT 1, 2 e 3 Banda

Resolução Espectral (µm)

Resolução Espacial (m) Largura de faixa imageada (km)

XS1

0,50 – 0,59

20

60 (nadir) – 80 (off-nadir)

XS2

0,61 – 0,68

20

60 (nadir) – 80 (off-nadir)

XS3

0,79 – 0,89

20

60 (nadir) – 80 (off-nadir)

P 0,51 – 0,73 10 60 (nadir) – 80 (off-nadir) Uma das características inovadoras dos instrumentos a bordo do SPOT-1 era a possibilidade de observação off-nadir (apontamento direcional). O sensor podia ser direcionado de modo a observar cenas laterais à orbita em que se encontrava inserido o satélite em dado momento. Esta possibilidade de observação off-nadir tinha como vantagem o aumento da frequência de observação sobre a mesma área , embora comprometendo a uniformidade de geometria de imageamento. Além do aumento da taxa de revisita, a visada off-nadir também DIVISÃO DE ENSINO

SSDMD

77

EEAR

proporcionava a possibilidade de obtenção de pares estereoscópicos, com razão base/altura variando entre 0,5 e 1,1. A aquisição de pares estereoscópicos teve um papel importante em aplicações visando o levantamento de informações topográficas a partir da geração de Modelos Digitais de Elevação do Terreno. Em função da visada lateral, a SPOT IMAGE informa em seus catálogos (www.spotimage.com) que é possível, atualmente, obter dados com frequência entre 2 e 3 dias (em função da latitude) quando se usa apenas um satélite, ou diária quando se recorre à constelação de satélites do programa (atualmente os satélites SPOT 3, 4 e 5). A partir do SPOT 4, o sensor HRV passou a incluir mais uma banda espectral na região do infravermelho de ondas curtas, e teve a resolução espacial melhorada, podendo atingir 2,5 m tanto no modo pancromáticos como no visível recebendo o nome HRVIR. Suas características encontram-se resumidas na tabela abaixo . Pode-se observar que a banda pancromática foi substituída por uma banda vermelha. As demais características continuaram as mesmas dos modos de operação dos sensores a bordo dos três primeiros satélites. Características do sensor HRVIR a bordo do satélite SPOT-4 Banda

Resolução Espectral (µm)

Resolução Espacial (m) Largura de faixa imageada (km)

B1

0,50 – 0,59

20

60 (nadir) – 80 (off-nadir)

B2

0,61 – 0,68

20

60 (nadir) – 80 (off-nadir)

B3

0,79 – 0,89

20

60 (nadir) – 80 (off-nadir)

B4

1,58 – 1,75

20

60 (nadir) – 80 (off-nadir)

M

0,61 – 0,68

10

60 (nadir) – 80 (off-nadir)

O satélite SPOT-4, além do sensor HRVIR também levou a bordo como carga útil o sensor Vegetation, cujas características encontram-se descritas na tabela abaixo. Ele foi construído com a cooperação da Agência Espacial Italiana (Agencia Spatiale Italiana - ASI), do Escritorio Federal da Bélgica para Assuntos Cientificos, Tecnologicos e Culturais (Belgian Federal Oficcie for Scientific, Technicaland Cultural Affairs - OSTC), do Centro Nacional de Estudos Espaciais da França (Centre National d`Ètudes Spatiales - CNES), da Comissão Européia representada pela Diretoria Geral de Pesquisa e pelo Centro de Pesquisa Europeu e Instituto de Aplicações Espaciais (Joint Research Centre/ Space Application Institute) e da Comissão Espacial Nacional Sueca (Swedish National Space Board - SNSB). O vegetation é um sensor com um sistema com um sistema óptico de amplo campo de visada, que lhe permite imagear uma faixa de 2.250 Km a cada passagem do satélite. Ele opera em quatro bandas espectrais selecionadas para o monitoramento de cobertura vegetal (daí o nome de Vegetation -Vegetação). Ele possui uma banda sensível ao azul, que é utilizada para correção atmosférica, bandas no vermelho sensível à atividade fotossintética, infravermelho próximo para detectar variações na estrutura das células e uma banda no infravermelho de ondas curtas com sensibilidade ao solo e ao conteúdo de água foliar. O sensor foi configurado para proporcionar resolução espacial de 1 km quase constante ao longo da faixa imageada de 2.250 Km. Essa ampla faixa de imageamento proporciona frequência diária de observação. Para mais detalhes das especificações do sensor Vegetation consultar http://www.spotvegetation.com/. Este sensor também faz parte de carga útil do SPOT5.

DIVISÃO DE ENSINO

SSDMD

78

EEAR

Características espectrais e radiométricas do sensor Vegetation operando a bordo dos satélites SPOT 4 e 5 Banda

Resolução Espectral (µm)

Resolução Espacial (m)

Largura de faixa imageada (km)

Resolução Radiométrica

B0

0,45 – 0,52

1000 x 1000

2250

10 bits

B2

0,61 – 0,68

1000 x 1000

2250

10 bits

B3

0,79 – 0,89

1000 x 1000

2250

10 bits

B4

1,58 – 1,75

1000 x 1000

2250

10 bits

A carga útil de alta resolução do satélite SPOT-5 foi totalmente modificada. O sensor HRVIR com apontamento perpendicular à orbita para produção de pares estereoscópicos foi substituído pelo sensor HRG (High GeometricResolution - Alta Resolução Geométrica). O HRG, à semelhança do HRV, é composto por duas câmaras que possuem um campo mais amplo de visada do que a distância entre duas órbitas adjacentes, ou seja, a distância entre órbitas é de 108 km no terreno. A área total vista pelos instrumentos HRG observando a superfície verticalmente (nadir) abaixo do satélite é de 117 Km. O HRG também tem a capacidade para observar a superfície, transversalmente à orbita, segundo ângulos ajustáveis até um máximo de mais ou menos 27º em relação ao plano vertical. As estações terrenas podem comandar o giro do espelho de cada instrumento para selecionar regiões distantes da órbita, segundo solicitação dos usuários de dados. O HRG também opera em dois modos de aquisição: O Modo Pancromático (P) e o Modo Multiespectral (XS). A tabela abaixo mostra as características espectrais e radiométricas do HRG. As duas câmaras podem operar em qualquer um dos modos, seja de modo autônomo (uma adquirindo dados pancromáticos e outra adquirindo dados multiespectrais), ou conjuntamente (as duas adquirindo dados pancromáticos numa mesma faixa para obter resolução de 2,5 m ou adquirindo dados numa faixa ampla e contígua no modo espectral e pancromático, ou ainda adquirindo dados numa faixa ampla e contígua no modo espectral e pancromático, ou ainda adquirindo pares estereoscópicos). O sistema de alta resolução estereoscópico, o HRS (High Resolution Stereocopic), permite a aquisição simultânea de duas imagens, uma com visada para frente, na direção da órbita, e outra com visada para trás na direção oposta ao deslocamento do satélite. Esta configuração permite a aquisição quando instantânea de pares estereoscópicos. Em uma passagem do satélite, a visada frontal obtém uma imagem do terreno com um ângulo de visada de 20 º em relação a vertical. Um minuto depois, o telescópio posterior obtém uma imagem da mesma faixa do terreno com o mesmo ângulo de visada, de 20º. Características espectrais e radiométricas do sensor HRG operando a bordo do satélite SPOT 5 Bandas

Resolução Espectral (µm)

Resolução Espacial (m)

Faixa imageada (km)

Resolução Radiométrica

Pancromática

0,48 – 0,71

2,5 / 5

60 a 80 km

8 bits

B1

0,50 – 0,59

10

60 a 80 km

8 bits

B2

0,61 – 0,68

10

60 a 80 km

8 bits

B3

0,79 – 0,89

10

60 a 80 km

8 bits

B4

1,58 – 1,75

20

60 a 80 km

8 bits

DIVISÃO DE ENSINO

SSDMD

79

EEAR

A possibilidade de aquisição instantânea dos pares esterescopicos é uma grande vantagem para aquisição de modelos digitais de elevação do terreno porque torna mais eficiente o uso de processos automáticos baseados em correlação torna mais eficiente o uso de processos automáticos baseados em correlação, uma vez que os parâmetros radiométricos da imagem são praticamente idênticos. O sensor possui uma matriz linear de detectores de 12.000 pixels e cobre uma faixa de 120 km de largura com resolução de 5 metros na direção da órbita. A cena padrão de 12.000 X 12.000 pixels cobre uma área de 120 km X 60 km. A especificação de um sistema com tamanho de pixel menor ao longo da órbita foi necessária para melhorar a precisão vertical dos pares estereoscópicos. A tabela abaixo resume as principais características do sensor HRS. Características espectrais e radiométricas do sensor HRS Bandas

Resolução Espectral (µm)

Resolução Espacial (m)

Largura de faixa imageada (km)

Resolução Radiométrica

Pancromática

0,49 – 0,69

05/10/12

600 x 120 km

8 bits

Desde o segundo satélite da série SPOT, faz parte de sua carga útil o sensor DORIS (Doppler Orbitography and Radiopositioning Integrated by Satelite – descrição da órbita e posicionamento integrado por efeito dopller a partir do satélite). Esse sensor foi desenvolvido para determinação precisa da órbita dos satélites Topex/Poseidon e Jason (satélites oceanográficos), para os quais os dados de altura de órbita precisavam ser medidos com precisão de até 3 cm, para dar suporte a missões de altimetria. É, portanto, um sensor auxiliar para fornecer dados de posição do satélite que posteriormente podem ser usados para a correção e melhoramento da qualidade geométrica das imagens. O sistema evolui, uma vez que a precisão na determinação da órbita passou de 5 cm no SPOT 2 para 1 cm atualmente. Os dados de sensor podem alimentar em tempo real as atividades de correção de atitude dos satélites melhorando também o suporte à operação da carga útil de sensores. 5.2.2 Componenetes do Sistema SPOT À semelhança do Programa Landsat, o programa SPOT também é composto por um satélite e pelo segmento de terra, formado pela Estação de Controle do Satélite, localizada na França, e por várias estações de recepção distribuídas pelo mundo. Atualmente, a recepção de dados SPOT e seu processamento são feitos em vários países diferentes, uma vez que também são comercializadas as antenas de vários tipos para a recepção de dados, bem como terminais de processamento de dados transmitidos pelos satélites. A SPOT Image comercializa o acesso à antena (tempo de gravação e número de imagens gravadas). O Brasil já recebeu dados SPOT, mas suspendeu o contrato devido ao elevado custo da imagem. Existem vários países do mundo que possuem estações de recepção dos dados SPOT, formando uma rede de cobertura quase global. Esses países são: África do Sul, Arábia Saudita, Austrália, Canadá, China, Coreia, Espanha, Estados Unidos, França, Israel, Japão, Malásia, México, Paquistão, Cingapura, Taiwan, Tailândia, Turquia. A figura 71 mostra a configuração do sistema de recepção direta pelas antenas distribuídas nos diferentes países. As antenas disponibilizadas pelo Programa SPOT são de várias dimensões. As menores, de 3,4 metros de diâmetro, permitem receber dados SPOT e, de forma limitada, dados de alguns outros satélites. Os modelos de antena de 4,5 m e 5,4 m de diâmetro podem receber dados de muitos outros satélites, devido ao maior campo de visibilidade. Esse sistema de recepção também conta com terminais nos quais se encontram implementados os sistemas (conjunto de programas e aplicativos) que permitem a aquisição, o inventário, o

DIVISÃO DE ENSINO

SSDMD

80

EEAR

arquivo, o tratamento e a produção das imagens transmitidas pelos satélites. Para garantir a

produção eficiente de imagens, cada terminal é dedicado à recepção de um dado satélite. Fig. 71 Configuração básica de uma estação terrena de recepção de dados de satélite

5.2.3 Características Orbitais dos Satélites SPOT As características orbitais dos satélites da série SPOT não se alteram ao longo das cinco missões. O plano orbital movimenta-se em relação ao eixo terrestre, de modo completar uma revolução por ano, garantindo, desta forma, que o ângulo entre o plano orbital e a direção do Sol mantenha-se constante ao longo do ano. Estas características de órbita garantem que o satélite cruze a linha do Equador sempre à mesma hora solar. A velocidade orbital também é sincronizada com o movimento de rotação da Terra, de tal modo que a mesma área possa ser imageada a intervalos de 26 dias. A figura 72 (parte superior) apresenta o padrão de cobertura pelos orbitais do SPOT num período de 24 horas. Na figura 72 (parte inferior), podemos observar a variação do horário de passagem do satélite em função da latitude. É importante salientar que os parâmetros orbitais foram concebidos de modo que seja mantida uma precisão de + ou – 15 minutos no horário de passagem do satélite sobre uma mesma área. Esta precisão é estimada em 5 km em termos do deslocamento do centro da órbita no terreno entre passagens sucessivas do satélite. Como já mencionada, o intervalo de recorrência para um mesmo ponto do terreno é de 26 dias, mas graças à possibilidade de apontamento perpendicular à orbita, esse intervalo pode ser reduzido para 4 ou 5 dias. a desvantagem é que as imagens serão obtidas com apontamento oblíquo e, portanto com menos qualidade radiométrica e geométrica.

DIVISÃO DE ENSINO

SSDMD

81

EEAR

Fig. 72a e Fig. 72 b Características da órbita do satélite SPOT

5.2.4 Os Sensores de Alta Resolução e Apontamento Perpendicular à Órbita Como já mencionamos anteriormente, os sensores HRV, HRVIR e HRG foram planejados para operar em dois modos: em modo pancromático (ou monocromático no caso do HRVIR), que corresponde à observação da cena numa faixa do espectro eletromagnético (ampla no caso pancromático e estreito no modo monocromático, mas sempre produzindo uma imagem preta e branca) e um modo multiespectral, ou seja, produzindo uma composição colorida sempre falsa cor, uma vez que não opera na banda azul. A figura 73a representa a configuração básica desses sensores de apontamento perpendicular à órbita. A luz proveniente da cena atinge um espelho plano, que pode ser controlado a partir das estações terrenas. O eixo de visada do espelho pode, então, ser orientado em direções perpendiculares à orbita (visão off-nadir), em ângulos que podem variar de 0,6° até 27° em relação ao eixo vertical. DIVISÃO DE ENSINO

SSDMD

EEAR

82

A variação do ângulo de visada off-nadir não é continua, sendo possível a determinação de 45 ângulos de visada entre 0° e 27°, variáveis de 0,6° em 0,6°. Com a possibilidade de visada off-nadir, o sensor pode imagear qualquer porção do terreno compreendida por uma faixa, distante de até 475 km em cada um dos lados da órbita em que se encontra o satélite devido à curvatura da Terra, o ângulo de 27° off-nadir determina que o ângulo efetivo de visada no terreno seja realmente de 33° em relação a vertical. A energia que atinge o espelho plano é focalizada sobre uma matriz linear de detectores tipo CCD (Charge-Coupled Device). Nos três primeiros satélites da série, o sensor possuía matrizes com 6.000 detectores arranjados linearmente, formando o que se convenciona chamar de push-broom scanner ou sistema de varredura eletrônica no plano do objeto. Este sistema permite o imageamento instantâneo de uma linha completa no terreno, perpendicularmente à direção de deslocamento do satélite em sua órbita. Os sistemas posteriores passaram a utilizar matrizes de 12.000 detectores. Como pode ser observado na Figura 73c, o sistema sensor a bordo do SPOT consiste de duas câmaras, de modo que a largura da faixa imageada, quando as duas câmaras estiverem orientadas para o nadir, será de 117 km, descontando-se a superposição de seus campos de visada, que será de ordem de 3 km. A largura da faixa imageada varia, na realidade, com o ângulo de visada, como podemos observar na Figura 73b. na visada nadir, a largura da faixa imageada por uma das câmaras é de 60 km, enquanto, na visada de 27° off-nadir esta largura atinge 80 km. Como já mencionamos anteriormente, uma das características mais importantes apresentadas pelo satélite SPOT é a utilização de sensores com ângulo de visada variável e programável através de comando da estação terrestre.

DIVISÃO DE ENSINO

SSDMD

83

EEAR

Fig. 73a, 73b e 73c. Configuração do sensor HRV

Através desta característica, o sistema SPOT tem aumentado a capacidade de adquirir dados com melhor resolução temporal. Sem a possibilidade de visada off-nadir, a receptividade de imageamento proporcionada pelos parâmetros orbitais do satélite seria de 26 dias (intervalo mais longo que o do atual sistema Landsat). Este intervalo longo apresenta duas desvantagens: a) diminui a probabilidade de aquisição de dados sem cobertura de nuvens; b) dificulta a aplicações dos dados em estudos de fenômenos dinâmicos. Através de visada off-nadir, durante o período de 26 dias que separa duas passagens sucessivas sobre uma mesma área, esta poderá ser observada de órbitas adjacentes em 7 diferentes passagens, se estiver localizada no Equador. Se a área de interesse estiver localizada nas latitudes médias (45°), a possibilidade de aquisição de dados será aumentado para 11 diferentes passagens. A Figura 74 ilustra a maior freqüência de aquisição de dados oferecida pela visada offnadir. Em 74a, temos a situação ilustrada para a latitude de 45°. Se chamarmos de D o dia em que o satélite passa vertificalmente sobre nossa área de interesse, temos a possibilidade de observá-lo novamente nos dias D+11, D+6, D+21 ( visada oeste) e nos dias D+5, D+10, D+15,D+20 e D+25 (visada leste). Na figura 74c, temos a ilustração das diferenças na possibilidade de aquisição repetida de dados em função da latitude.

Fig. 74a, 74b e 74c. Frequência de aquisição de dados proporcionados pela visada off-nadir

A visada off-nadir não foi, porém, concebida apenas para aumentar a freqüência de aquisição de dados. Outra importante possibilidade de aplicação da visada off-nadir, como já mencionado, é a aquisição de pares estereoscópicos. A figura 75 ilustra a geometria de imageamento necessária à aquisição de pares estereoscópicos. Pela análise da Figura 75, podemos observar que, se a mesma área for imageada segundo ângulos de visada opostos, haverá uma diferença de paralaxe tal que se possa obter uma visão tridimensional do terreno.

DIVISÃO DE ENSINO

SSDMD

84

EEAR

Fig. 75 Geometria de aquisição de pares estereocópicos com a visada perpendicular à órbita

5.2.5 O sensor de Apontamento ao Longo da Órbita Como mencionado anteriormente, o sensor HRS possui telescópios orientados para imageamento anterior e posterior à passagem do satélite ao longo da órbita. A figura 76 mostra a configuração do satélite. A figura 77 mostra que o esquema de aquisição de um par estereoscópico pelo sensor HRS, a partir do deslocamento do satélite SPOT-5 em sua órbita. A região "A" é recoberta segundo dois ângulos de observação, em pequeno intervalo de tempo, de tal modo que se possa obter um par estereoscópicos, a partir do qual se pode gerar um modelo digital de terreno.

DIVISÃO DE ENSINO

SSDMD

EEAR

85

Fig. 76 Configuração do sensor HRS – Os telescópios apontam para frente e para trás ao longo da órbita, segundo um ângulo de 20º do plano vertical

Fig. 77 Geometria de aquisição dos pares estereoscópicos pelo sensor HRS, longitudinalmente à órbita do satélite SPOT 5

DIVISÃO DE ENSINO

SSDMD

86

EEAR

5.3 O Programa RADARSAT O RADARSAT é o primeiro satélite de sensoriamento remoto canadense. Ele foi lançado com sucesso no dia 4 de novembro de 1995. À semelhança do Programa SPOT, foi concebido para ser um sistema comercial. O RADARSAT possui um único sensor a bordo, que é um sensor ativo de microondas, Sinthetic Aperture Radar (SAR) operando na banda C (5,3GHz de frequência ou comprimento de onda de 5,6 cm), e polarização HH. O sistema RADARSAT foi concebido para responder a diversas necessidades de aplicações (rugosidade, topografia, limite terra/água, feições antrópicas), embora sua principal aplicação tinha sido voltada para o suporte à navegação no Ártico. Uma das características mais relevantes do RADARSAT é que ele pode ser programado para obter imagens em diferentes modos de aquisição, o que permite que o produto adquirido satisfaça de modo personalizado às necessidades do usuário final dos dados. Conforme figura 78, cada modo de aquisição dos dados RADARSAT é definido pelo tamanho da área imageada e pelo tipo de resolução espacial do dado.

Fig. 78 Modos de operação do SAR

Modos de Imageamento e características dos produtos RADARSAT Modo de Imageamento

Área nominal recoberta (km)

Resolução nominal (m)

Modo scansar (Wide)

500 x 500

100 x 100

Modo scansar (Narrow)

300 x 300

50 x 50

Modo estendido (Low)

170 x 170

35 x 35

Modo estendido (Wide)

150 x 150

30 x 30

Modo standard

100 x 100

30 x 30

Modo estendido (High)

75 x 75

25 x 25

Modo Fine

50 x 50

10 x 10

DIVISÃO DE ENSINO

SSDMD

87

EEAR

Outra característica inovadora do programa RADARSAT é que os diferentes modos de aquisição operam em diferentes ângulos de incidência. O ângulo de incidência da radiação é um parâmetro de extrema importância para muitas aplicações. O range de ângulos disponoveis pelo RADARSAT pode variar entre 20º e 60º, conforme pode ser observado na Figura 79.

Fig. 79 Variação dos ângulos de imageamento do RADARSAT

Alguns modos de aquisição podem ser obtidos com até 6 diferentes ângulos de incidência, gerando a possibilidade de se obterem composições multi-ângulos, aumentando assim o volume de informações disponíveis sobre um mesmo alvo. A órbita RADARSAT tem um ciclo de 24 dias, ou seja, o satélite retorna ao mesmo ponto a cada 24 dias. A antena do RADARSAT, entretanto, pode ser movida, de modo que se possa aumentar a frequência de aquisição de dados. A frequência de aquisição pode variar com a latitude e com o modo de aquisição. No modo ScanSAR, por exemplo, o ciclo pode variar entre 2 e 5 dias no Equador e 1 dia na Latitude de 70 graus. Os dados de radar também podem ser obtidos em duas diferentes direções de imageamento, ou seja, com a antena direcionada para oeste, e com a antena direcionada para leste. Durante a órbita descendente (do Polo Norte ao Polo Sul), a antena observa a Terra em direção Oeste, enquanto que na órbita ascendente (do Polo Sul para o Polo Norte) a antena observa a Terra em direção Leste. Esta característica é exatamente útil quando se trabalaha em áreas de relevo montanhoso, porque permite observar feições que se encontram sombreadas quando uma única direção de observação é utilizada.

DIVISÃO DE ENSINO

SSDMD

88

EEAR

5.4 O Programa JERS O principal objetivo do Japanese Earth Resouces Satellite – 1 (JERS-1) foi o de coletar dados globais sobre a superfície terrestre e realizar observações efetivas sobre os recursos florestais, minerais, o meio ambiente, etc. O satélite JERS-1 foi lançado em fevereiro de 1992 através de um veículo lançador H-1, a partir do Centro Espacial de Tanegashima. O período ativo do satélite foi previsto para 2 anos, mas ele só foi descontinuado em 1998. O satélite JERS-1 possuía dois sensores: um radar de abertura sintética (SAR) e um sensor óptico (OPS), o qual era composto por dois radiômetros (um operando no visível e infravermelho-VNIR, e outro operando no infravermelho médio – SWIR). O satélite JERS-1 ocupava uma órbita polar, sol-síncrona, cujo período orbital permitia uma frequência de aquisição de dados de 44 dias. A tabela seguinte resume as principais características do satélite JERS-1. Características do Satélite JERS-1 Altitude

568 km

Inclinação da Órbita

97º

Órbita

Sol-Síncrona

Período de retorno

44 dias

Sobre o Equador

Movimento para oeste

A tabela seguinte resume as características do sensor ativo de microondas existentes a bordo do satélite JERS-1. O sensor OPS é um sistema de varredura eletrônica com base em tecnologia CCD. Características principais do SAR a bordo do satélite JERS-1 Banda

L

Polarização

HH

Ângulo de incidência

35º

A tabela seguinte resume as características do OPS. Uma características interessante do sensor OPS é que as bandas 3 e 4 podem ser usadas para obtenção de pares estereoscópicos. Características do Sensor Óptico (OPS) a bordo do satélite JERS-1 Banda-1 0,52 a 0,60 µm Visível e Infravermelho Próximo

Banda-2 0,63 a 0,69 µm Banda-3 0,76 a 0,86 µm Banda-4 0,76 a 0,86 µm Banda-5 1,60 a 1,71 µm

Infravermelho Próximo

Banda-6 2,01 a 2,12 µm Banda-7 2,13 a 2,15 µm Banda-8 2,27 a 2,40 µm

Resolução Espacial DIVISÃO DE ENSINO

18,3m x 24,2m SSDMD

89

EEAR

Largura da Faixa Imageada

75 km

5.5 O Programa ENVISAT O programa ENVISAT foi concebido para substituir o programa ERS (Earth Resources Satellite), e representou um avanço em relação a ele. O satélite ENVISAT foi lançado em 2002, com vários sensores a bordo, dentre os quais enfatizaremos os dois sistemas de imageamento na região óptica e de microondas. Os sensor de microondas é o ASAR (Advanced Synthetic Aperture Radar - Sensor Avançado de Abertura Sintética) para dar continuidade à missão ERS (1 e 2 ) operando na banda C. O sensor foi, entretanto, aperfeiçoado incorporando-se flexibilidade maior no tocante aos ângulos de incidência (e faixa imageada), polarização e modos de operação. Esses avanços permitem que os dados SAR possam ser adquiridos em faixas diferentes larguras, de 100 Km ou 400 Km. O sensor MERIS (Medium Resolution Imaging Spectrometer – Espectrometro Imageador de Média Resolução) é um sistema de imageamento que mede a energia refletida pelo Sol com a resolução espacial de 300m e opera em 15 bandas espectrais, localizadas no visível e infravermelho. Uma característica inovadora desse sensor é que a posição e a resolução espectral dessas bandas podem ser programadas pelo usuário em função da aplicação desejada. A grande vantagem adicional desse sensor óptico, em relação a seus semelhantes, é permitir o recobrimento de uma mesma área da superfície terrestre a cada três dias. Ambos sensores de programa ENVISAT têm como principal aplicação o monitoramento dos oceanos, mas tem também sido usados em outras aplicações, no continente. O sensor MERIS é um sistema de varredura eletrônica, baseado em tecnologia CCD. O sensor tem um campo de visada de 68,5º, obtido pela combinação cinco módulos ópticos idênticos organizados na forma de um leque. Esse sistema permite que a faixa imageada a cada varredura seja de 1.150 quilômetros na direção transversal à órbita. Como mencionado anteriormente, esse sensor pode ser programado para adquirir dados de acordo com aplicação desejada. Assim sendo, para as aplicações oceanográficas (cor do oceano) ele pode operar em bandas típicas para essa aplicação, com uma resolução espacial de 1.040m x 1.200m. Em regiões costeiras e continentais essa resolução pode ser melhorada e os dados podem ser adquiridos com resolução espacial de 260m x 300 m. Em relação aos canais de operação do sensor, eles podem ser escolhidos em número de até 15, no range de 390 nm a 1040 nm, com largura de banda (ou resolução espectral) variável de 2,5 a 30 nm. Apesar de ser programável, o sistema opera num modo padrão, para a aquisição de dados para aplicações oceanográficas. Maiores informações sobre o sensor e características técnicas dos instrumentos podem ser obtidas em (http://envisat.esa.int/). O sensor ASAR a bordo do ENVISAT consiste de um sistema SAR, cuja antena é formada por uma matriz coerente de elementos de transmissão e recepção do pulso. Esta antena é montada com o seu eixo maior alinhado na direção de avanço do satélite, o que permite que a porção do terreno à sua direita (em relação à direção de deslocamento) seja imageada. Essa configuração garante conteúdo de informação ilimitado na direção azimutal, mas é limitada na direção de range pela elevação da antena. Essa configuração permite uma representação bidimensional de reflectividade da cena alta resolução tanto na direção de azimute quando em range. Uma característica importante do ASAR é que sua antena permite o controle independente da informação de amplitude e de fase proveniente das diferentes regiões da superfície da antena. Além disso, ela permite que o sinal recebido em diferentes porções da antena seja ponderado de forma independente. Isto oferece grande flexibilidade para a geração e para o controle do feixe da antena, o que permite que o ASAR opere em diferentes modos. Esses DIVISÃO DE ENSINO

SSDMD

90

EEAR

modos de operação usam dois métodos de medida. Um modo é o convencional, conhecido como stripmap, e outro modo, é o ScanSAR.

5.6 Programa EOS (Earth Observing System) Desde sua fundação, em 1958, a NASA tem se dedicado a estudar o planeta Terra e seu ambiente a partir de observações da atmosfera, oceanos, continentes, gelo, neve, e sua influencia no clima e nos estados de tempo. A observação da Terra, a partir de uma perspectiva orbital, ampliou a comprenssão do ambiente global, e provocou uma mudança no paradigma de estudo do planeta, não mais como um conjunto formado de vários componentes, mas como um sistema integrado, em que os vários componentes tem múltiplas interações e retro-alimentações. Essa visão é conhecida como “Ciência do Sistema Terrestre” . Em 1991, a NASA lançou um programa mais amplo para o estudo da Terra como um sistema ambiental, que ficou conhecido como Projeto Ciência da Terra (Earth Science Enterprise). Com esse projeto, a NASA esperava expandir o conhecimento sobre os processos naturais do planeta, de tal modo que pudessem melhorar a produção agrícola, pesqueira, e o manejo dos recursos hídricos e dos ecossistemas, principalmente dos ambientes polares. A NASA tinha a ambição, com esse programa, de desenvolver modelos que permitissem projetar cenários futuros sobre o funcionamento do planeta. O projeto Earth Science Enterprise teve três componentes: um conjunto de satélites de observação da Terra, um sistema avançado para manejo dos dados, e um conjunto de cientistas para analisar os dados gerados. As áreas principais de estudo incluíram nuvens, água e ciclos de energia, oceanos, química da atmosfera, superfície terrestre, processos hidrológicos e ecossistema, glaciais, e as áreas continentais. A primeira fase do projeto compreendeu estudos focalizados em dados derivados de sensores a bordo de várias plataformas (satélites, ônibus espaciais, aeronaves, e estudos de campo). A segunda fase da missão começou em 1999 com o lançamento do primeiro satélite de Observação da Terra (EOS), o satélite Terra (anteriormente chamado de AM-1). O programa EOS é o primeiro sistema de observação que permite a aquisição integrada de medidas da superfície terrestre. Ele é também o principal componente da Missão Terra-Sol da NASA (NASA’s EarthSun System Missions). Essa missão inclui uma série de satélites, um forte componente científico, um sistema de suporte e coordenação de uma série de satélites de órbita polar para observações globais do planeta Terra para a observação da superfície dos continentes, biosfera, atmosfera e oceanos. O objetivo principal desse programa é a aquisição de dados para ampliar a compreensão do planeta como um sistema integrado. Pesquisas recentes em mudanças globais baseadas no conjunto de dados e modelos existentes mostram que as atividades humanas tem um grande potencial de um impacto sobre os processos climáticos e biológicos. Apesar disso, as observações existentes para esse tipo de pesquisa são muito limitadas, devido a um grande grau de incerteza no tocante às conclusões, muitas vezes levando a resultados controversos. Para esse tipo de estudo, os cientistas necessitam de medidas consistentes de longa duração, e com frequência adaptadas á natureza do fenômeno. A falta dessas medidas torna inadequado a base de dados para a validação dos modelos com previsões globais. Nesse contexto, as observações feitas a partir de satélites são essenciais para o avanço do conhecimento sobre essas mudanças de larga escala, visto que os sensores a bordo dos satélites permitem obter medidas consistentes em uma perspectiva global. O objetivo do programa EOS foi, obter variáveis relevantes para a compreensão do Sistema Terrestre, e obter um conhecimento mais profundo dos componentes desse sistema e das interações entre eles. Para definir as variáveis relevantes para essa compreensão, a NASA reuniu cientistas dos diferentes campos do conhecimento, e assim foram identificadas 24 DIVISÃO DE ENSINO

SSDMD

EEAR

91

medidas passíveis de serem obtidas por sensoriamento remoto relativas a atmosfera, continente, oceanos, criosfera e o forçante de radiação solar. Para quantificar as mudanças nos sistema Terrestre, o programa EOS prevê de forma sistemática e contínua, medidas a partir de satélites de órbita baixa que estarão em operação por pelo menos 15 anos.

DIVISÃO DE ENSINO

SSDMD

92

EEAR

Unidade 6: Sensoriamento Multiespectral e Hiperespectral 6.1 Sensores Multiespctrais Os primeiros avanços na concepção dos sensores foi no sentido de permitir que eles pudessem registrar o sinal proveniente de regiões distintas do espectro simultaneamente. Os primeiros sensores fotográficos eram pancromáticos, no sentido de que toda a energia proveniente do alvo era integrada em todos os comprimentos de onda de sensibilidade do filme. Com isso, informações específicas sobre as interações de um objeto com um determinado comprimento de onda da radiação incidente eram perdidas. Foi daí que surgiu a idéia de se obter imagens simultâneas de uma mesma cena, em várias regiões do espectro, e isso deu origem aos sensores multiespectrais. A maior parte dos programas operacionais e mesmo experimentais de sensoriamento remoto usa sensores multiespectrais baseados no princípio da varredura eletro-óptica apesar de o programa espacial soviético ter persistido por mais tempo com o desenvolvimento de sistemas sensores fotográficos orbitais. Os sensores multiespectrais hoje disponíveis representam avanços em relação ao primeiro sensor (Multi-spectral-Scanners- sistema de varredura multiespectral) desenvolvido pela Huges Santa Barbara Research Center (Califórnia) e testado em 1970 na região do parque nacional de varredura multiespectral.

Fig. 80 Componentes de um sistema de varredura multiespectral

O sistema MSS permitiu que a superfície da terra fosse “varrida” por um espelho plano giratório montando em uma haste conectada a um segundo espelho que oscilava em relação ao eixo óptico primário sem sofrer vibrações. A imagem formada em cada posição instantânea pelo conjunto de espelhos oscilatórios era focalizada em sistema de difração que permitia que a radiação proveniente do alvo fosse descomposta em vários comprimentos de onda antes de DIVISÃO DE ENSINO

SSDMD

93

EEAR

incidir sobre uma matriz de detectores. Esse sistema foi levado a bordo de todos os satélites da série Landsat, sendo aperfeiçoado na concepção do sensor Thematic Mapper (TM) que permitiu melhorar suas características de resolução radiométrica, espectral e espacial em relação ao sensor MSS. A maior parte dos programas espaciais em operação e planejados para essa década tem como sensor básico os sistemas de imageamento multiespectral, com bandas no visível (VIS) e infravermelho próximo (NIR), infravermelho de ondas curtas (MWIR) e infravermelho termal (TIR). Os sensores multiespectrais são sistemas que podem ser utilizados operacionalmente para um grande número de aplicações que necessitem de informações espaciais. Para maiores informações sobre sensores a bordo dos satélites dessas missões, consultar PREVIEW Project – FP6 http://www.spacerisks.com/SpaceData

6.2 Sensores Hiperespctrais Os sensores hiperespectrais são sensores que permitem a aquisição de espctros contínuos para cada pixel da imagem. Eles começaram a ser desenvolvidos a partir de 1980 pela National Aeronautics and Space Adminidtrarion. Alguns autores consideram (e isso é o que valerá para o nosso curso, ou seja, para fins de prova) que todo sensor que permitia a aquisição de medidas em pelo menos 100 bandas contíguas na região compreendida entre o visível e infravermelho, é o sensor hiperespectral. Por esse critério, apenas alguns sistemas como o AVIRIS (visible/Infrared Imaging Spectrometer Espectrômetro Imageador no Visível e Infravermelho Aerotransportado), o CASI (Compact Airborne Spectrographic Imager - Imageador espectográfico compacto aerotransportável ), o Hymap (Hymap Airborne Hyperspecctral Scanner - Varredor hiperespctral aerotransportado), o PHI (Pushbroom Hyperspectral Imager – Imageador Hyperspectral de Varredura Eletrônica), o Hyperion a bordo do satélite EO-1 lançado pela NASA em 2002 e o CHRIS (Compact High Resolution Imaging Spectrometer – Espectrômetro Imageador Compacto de Alta Resolução) a bordo do satélite experimental PROBA lançado pela ESA em 2001, podem ser considerados sensores hiperespectrais. As características esses sistemas podem ser observadas na tabela abaixo. Nessa tabela, não se encontram incluídos os sistemas mais antigos ou protótipos como o sensor HIRIS (High Resolution Imaging - Imageador de Alta Resolução), cuja utilização foi descontinuada em decorrência das inovações tecnológicas introduzidas no campo. Características técnicas de sensores hiperespectrais operacionais, com mais de 100 bandas espectrais contíguas Nome

Região Espectral (mm) Número de Bandas Resolução Espectral (nm)

AVIRIS

0,38 – 2,50

224

10

CASI

0,40 – 1,00

288

2,9

PHI

0,40 – 1,00

244

5

Hymap

0,45 – 2,48

126

13 a 17

Hyperion

0,40 – 2,50

220

10

O componente fundamental de um sensor hiperespctral ou espectrômetro imageador é o sistema de dispersão da radiação eletromagnética que permite decompô-la em pequenos DIVISÃO DE ENSINO

SSDMD

94

EEAR

intervalos de comprimento de onda, para que cada intervalo possa incidir sobre uma matriz de detectores. O sistema mais simples de difração é o prisma. Nos sensores hiperespectrais são utilizados grades de difração que dispersam luz de acordo com diferentes mecanismos. Essas grades são construídas em metal ou vidro, na forma de sulcos paralelos, estreitos e finamente espaçados (cerca de 6.000 sulcos por cm), de tal modo que o espaçamento entre um par de sulcos seja aproximadamente equivalente aos comprimentos de onda do visível e do infravermelho. Cada linha da grade, ao ser irradiada pelo feixe de radiação incidente, provoca sua difração (curvatura). Como sabemos, o ângulo de difração depende do comprimento de onda. Com isso, a radiação é espalhada em vários ângulos de acordo com os comprimentos de ondas neles existentes. Alguns comprimentos de onda possuem mais fótons do que outros em função da intensidade da radiação que chega, e dessa forma, pode-se reconstituir para cada posição da grade de difração a energia que chega em cada região do espectro. Na Figura 81, pode-se observar a configuração do sistema óptico de um sensor hiperespectral. Nessa configuração, a radiação proveniente da superfície é direcionada por um sistema de lentes (1) para o espelho oscilatório (2) que, ao girar, transfere a imagem do terreno para um conjunto de espelhos côncavos (3). Um dos espelhos redireciona a radiação proveniente do terreno sobre a grade de difração (4). A radiação dispersa incide sobre o outro espelho que finalmente a projeta sobre a matriz de detectores CCD (5). Existem muitas outras configurações possíveis.

Fig. 81 Configuração da óptica de um sensor hiperespectral

Enquanto nos sistemas multiespectrais podem ser usadas matrizes lineares de detectores para gerar uma imagem, nos sistemas hiperespectrais, o detector deve ser formado por linhas paralelas de chips, cada uma dedica a uma região estreita e especifica de comprimentos de onda. Nesse caso, o sistema de detecção seria formado por uma matriz bidimensional de detectores.

DIVISÃO DE ENSINO

SSDMD

95

EEAR

Unidade 7: Comportamento Espectral de Alvos 7.1 Introdução Para que possamos extrair informações a partir de dados de sensoriamento remoto, é fundamental o conhecimento do comportamento espectral dos objetivos da superfície terrestre e dos fatores que interferem neste comportamento. O conhecimento do comportamento espectral de alvos não é importante somente para extração de informações de imagens obtidas pelos sensores. É também importante à própria definição de novos sensores, à definição do tipo de pré-processamento a que devem ser submetidos os dados brutos ou mesmo à definição da forma de aquisição dos dados (geometria de coleta dos dados, frequência, altura do imageamento, resolução limite, etc.) Quando selecionamos, por exemplo, a melhor combinação de canais e filtros para uma composição colorida, temos que conhecer o comportamento espectral do alvo de nosso interesse. Sem conhecê-lo, corremos o risco de desprezar faixas espectrais de grande significância na sua discriminação. O objetivo desta unidade continua sendo o de dar algumas informações sobre o comportamento espectral de alvos nas regiões do espectro para as quais dispomos de imagens. Até a década de 1980, as informações disponíveis, com raras exceções, foram coletadas em regiões temperadas e semi-áridas dos Estados Unidos da América. Atualmente, devido à redução do custo dos equipamentos necessários à realização de experimentos, houve uma grande esforço no Brasil de ampliar essa base de dados, para incluir informações de outra regiões geográficas. A partir da década de 1990, surgiram inovações nos instrumentos utilizados para o estudo do comportamento espectral. A resolução espectral desses equipamentos aumentou, e tornou-se possível adquirir dados com intervalos de até 1nm, o que favoreceu também a descoberta de novas bandas de absorção e novas aplicações das informações espectrais. Além da melhoria da resolução espectral, houve uma ampliação também da faixa de sensibilidade dos espectrorradiômetros que passaram a operar na região do infravermelho de ondas curtas. Além disso, a partir daquela década, com a difusão de sistemas computacionais, surgiram também novas técnicas de análise de espectros, e de modelagem numérica do comportamento dos alvos. É importante salientar, entretanto, que os avanços nesse campo não invalidam, mas completamentam o conhecimento existente na década de 1990, porque muitas das informações disponíveis foram obtidas em experimentos altamente complexos e controlados, como é o caso, por exemplo, das missões de coleta de dados radiometricos realizados pelo Large Area Crop Inventory Experiment (LACIE) que, em 1974, iniciou um intenso programa de aquisição de dados agronômicos e meteorológicos. Os dados coletados pelo projeto LACIE representam um dos conjuntos de informações espectrais melhor documentados dentro da pesquisa de comportamento espectral de alvos naturais. Outra fonte importante de informações sobre o comportamento espectral de alvos da superfície terrestre foi oferecida pelo trabalho de compilação e documentação de dados realizados pelo Willow Run Laboratories do Instituto de Ciencia e Tecnologia da Universidade de Michigan. O trabalho de Bowker et al., (1985) ainda continua sendo uma referência relevante para quem deseja atuar nesse campo. Os autores fizeram uma compilação de dados sobre a reflectância de alvos da superfície terrestre, submetendo-os a uma triagem e uniformização, tendo em vista que foram compilados de fontes diversas. Os autores também informam sobre as técnicas de aquisição de tais dados, uma vez que estas interferem nas curvas espectrais dos alvos. Na década de 1980, a grande ênfase era no conhecimento do comportamento espectral dos alvos na região do visível e infravermelho, visto que era nessa região em que havia maior DIVISÃO DE ENSINO

SSDMD

96

EEAR

disponibilidade de imagens. Entretanto, com a perspectiva do lançamento de sensores orbitais de microondas, e até para orientar a definição de missões futuras, houve um grande esforço também na realização de experimentos e de modelagem numérica de interação dos alvos com a radiação de experimentos e de modelagem numérica de interação dos alvos com a radiação eletromagnética na faixa das microondas.

7.1.1. Conceito de Comportamento Espectral O termo comportamento espectral de alvos tem sido atribuído pelos profissionais que atuam na aplicação do Sensoriamento Remoto no estudo dos recursos naturais, como ao estudo da Reflectância Espectral destes recursos quer sejam: vegetação, solos, minerais, rochas, água, etc. Em termos mais abrangentes, o estudo de como um objeto se comporta espectralmente deveria contemplar os três fenômenos já mencionados que ocorrem após a incidência da REM sobre um dado objeto: reflexão, transmissão e absorção. Contudo, serão enfatizadas aqui as propriedades de reflexão dos alvos, uma vez que a maioria dos sensores atualmente disponíveis para o estudo dos recursos naturais utilizam a REM refletida por eles. Teoricamente, se a reflectância de um objeto pudesse ser medida em faixas espectrais adjacentes e estreitas ao longo da região reflexiva do espectro, poder-se-ia contruir um gráfico representativo de sua assinatura espectral. A figura 82 representa, teoricamente, a “assinatura espectral” de uma folha verde. Se a folha, entretanto, tiver sua posição modificada, essa “assinatura” será diferente. Isso significa que, na prática, o que se mede efetivamente é o comportamento espectral da folha, ou seja, sua resposta espectral numa dada circunstância representa uma “boa aproximação” da assinatura espectral de folhas verdes em geral. O comportamento espectral médio da vegetação terá sempre uma configuração que permitirá distinguí-lo de outros tipos de objetos.

Fig. 82 Assinatura espectral de uma folha verde entre 400 e 1200nm.

Geralmente, o estudo do comportamento espectral dos alvos é realizado através de métodos experimentais de laboratório e campo, e a grandeza radiométrica utilizada para expressar esse comportamento é uma medida que permite estimar sua reflectância. Mas não existe uma única reflectância. Como vimos anteriormente, o fluxo radiante, ao interagir com um objeto da superfície terrestre pode ser totalmente/parcialmente refletido (φг) e pode ser expresso pela equação abaixo:

DIVISÃO DE ENSINO

SSDMD

97

EEAR

R = φг/ φί Onde: R = reflectância; φί = fluxo radiante incidente; φг = fluxo radiante refletido. Essa medida de reflectância, conforme definida pela equação acima, é de reflectância difusa, ou seja, pressupõe a radiação incidente em todas as direções e refletida em todas as direções. Não varia, portanto, a distribuição espacial dos fluxos de radiação refletido e incidente.

7.2 Métodos de Aquisição Um dos fatores que tem maior influência sobre as curvas espectrais de objetos da superfície terrestre é a própria forma de aquisição da medida da reflectância. A medida da reflectancia de um objeto poder ser feita de três modos: em laboratório, no campo ou a partir de uma plataforma elavada (helicóptero, avião ou satélite). Na figura 83, podemos observar as condições de aquisição de dados espectrais do projeto LACIE. A coleta de dados baseou-se num espectrorradiômetro a bordo de um helicóptero e em espectrorradiômetros suspensos em plataformas elevadas por braços mecânicos acoplados a caminhões (truck mounted plataforms). Cada um desses modos de coleta de dados determina diferentes resultados, porque são afetados pelos demais fatores que interferem na tomada de medidas: geometria de aquisição de dados, parâmetros atmosféricos e parâmetros relativos ao alvo.

Fig. 83 Condição de aquisição de dados espectrais do projeto LACIE

DIVISÃO DE ENSINO

SSDMD

98

EEAR

Tais fatores podem ser controlados em laboratórios, mas, em experimentos de campo, devem ser conhecidos, para que possam ser corrigidas as medidas efetuadas. Para que possam ser avaliados os efeitos desses fatores sobre as medidas de reflectância, trataremos um deles separadamente.

7.2.1. Geometria de Aquisição de Dados Os parâmetros que variam e interferem na geometria de iluminação da cena são: ângulo zenital do Sol (Ɵz), ângulo de visada (Ɵz), ângulo azimutal (ϕs, ϕsa), ângulo azimutal relativo (Ψ, onde Ψ= ϕs-ϕsa+180) e a altitude do sensor (H). Na figura 84, podemos observar estes parâmetros.

Fig. 84 Variações da geometria de aquisição de dados que afetam as medidas de reflectância

7.2.2 Parâmetros Atmosféricos Nesta discussão está implícito que trataremos de situações em que a atmosfera está livre de nebulosidade. Dentre o parâmetros atmosféricos que interferem nas medidas de reflectância, temos: umidade atmosférica, presença de aerossóis, turbulência etc. A umidade atmosférica interfere através da absorção da radiância na trajetória do fluxo entre a fonte e a superfície e vice-versa. Modificações na umidade provocam alterações na intensidade (profundidade) das bandas de absorção pelo H2O. Além disto, a umidade interfere no tipo e na concentração de aerossóis na atmosfera. O aumento da umidade relativa do ar favorece a manutenção de partículas sólidas e suspensão na atmosfera, alterando as características do espalhamento atmosférico. De modo generalizado, podemos considerar que, com o aumento da concentração de aerossóis na atmosfera, há um aumento do espalhamento.

7.2.3 Parâmetros Relativos ao Alvo

DIVISÃO DE ENSINO

SSDMD

99

EEAR

As características de reflectância dos objetos adjacentes ao alvo de nosso interesse também interferem nas medidas de sua reflectância. A energia espalhada pela vizinhança do alvo pode ter um conteúdo espectral diferente daquele do objeto de interesse e mascarar sua resposta. A Figura 85 mostra-nos o efeito da observação de um objeto rodeado por uma vizinhança com um coeficiente de reflexão mais elevado. Verificamos que a reflectância aparente (ρ ft)é sempre maior, devido à contribuição do “blackground” ou substrato.

Fig. 85 Efeito da visibilidade sobre a reflectância aparente de três superfícies.

7.3 Características Gerais das Curvas de Reflectância 7.3.1 Alvos primários Alguns tipos de materiais são considerados alvos de conhecimento essencial, qualquer que seja a especialização do investigador e a aplicação do estudo, devido a sua predominância na maioria das cenas de sensores remotos. São eles: vegetação, solo e água, que são predominantes em cenas rurais. Além desses, outros alvos vêm se tornando importantes para estudos de regiões antropizadas. Tratam-se de materiais comuns às construções humanas, como madeira, concreto, asfalto, cascalho, materiais cerâmicos (tijolos e telhas), ferro, zinco, amianto, entre outros, que podem predominar em determinadas cenas, conhecidas como artificiais. Nesse ponto, vale ressaltar que, apesar de muitas vezes serem tratados de forma genérica, isso não significa que os alvos de uma mesma classe apresentem um comportamento idêntico. Ao contrário, existe uma grande quantidade de diferenças sutis no comportamento de alvos de uma mesma classe. Por exemplo, existem inúmeras espécies vegetais com comportamentos espectrais diferentes tanto na magnitude dos espectros, quanto na profundidade das bandas de absorção, conforme apresentado na figura 86, com espectros obtidos em laboratório.

DIVISÃO DE ENSINO

SSDMD

100

EEAR

Fig. 86 Espectros de laboratório de quatro essências vegetais diferentes.

Fora das condições controladas de laboratório, nas condições naturais em que são encontrados, outros aspectos influenciam a resposta espectral dos alvos. Além da própria composição, contribuem para essas diferenças o relevo ou posição, a geometria de iluminação e visada, aspectos fisiológicos de sua apresentação e aspectos condicionantes. Os aspectos fisiológicos são aqueles relacionados com a apresentação do material, como: forma (disposição espacial), textura, granulação, rugosidade e compactação. Já os aspectos condicionantes são aqueles aos quais os materiais estão sujeitos no momento da aquisição dos dados, como a umidade, o sombreamento, o vento e a ação antrópica (tratos culturais). Muitos dos aspectos que influenciam a resposta espectral dos alvos estão associados a situações específicas, que exigem um conhecimento in situ para serem adequadamente interpretados. Por esse motivo, apenas alguns aspectos mais genéricos serão comentados nas seções a seguir.

7.3.1.1 Vegetação A vegetação verde sadia, fotossinteticamente ativa, apresenta uma forte absorção na região do visível com reflectância máxima da ordem de 10% na região do verde (0,55 µm). Na região do azul, a absorção ocorre nas proximidades do comprimento de onda de 0,445 µm e está associada à presença dos pigmentos foliares como xantofila, carotenos e clorofilas α e β. Na região do vermelho, apenas a clorofila atua, absorvendo energia em torno de 0,645 µm. Entre ~0,7 e ~0,8 µm, ocorre um brusco aumento da reflectância, que reflete a transição das baixas respostas do visível para os altos valores de reflectância do NIR. Este intervalo é conhecido como região da borda vermelha, característico da vegetação verde saudável. Após essa borda, entre ~0,9 e ~1,3 µm, a reflectância atinge valores superiores a 50%, o que está associado às múltiplas reflexões que ocorrem nas estruturas celulares. Daí em diante, até 2,50 µm (SWIR), há um gradual decréscimo da reflectância, com predomínio de algumas feições de absorção. Nessa região predominam bandas de forte absorção em 1,4 µm e 1,9 µm, devido ao conteúdo de água líquida das folhas, que também provoca feições de menor intensidade na região do NIR, em 0,98 µm e 1,19 µm. À medida que a vegetação verde entra em processo de senescência, com a desidratação e a perda de pigmentos, a sua curva espectral é gradativamente modificada. Com a perda de pigmentos, a forte absorção no visível é reduzida, passando a apresentar maior reflectância. Nessa região, a curva irá aparecer mais suave e crescente, assemelhando-se ao perfil de resposta do solo. No NIR, observa-se uma pequena redução na reflectância, motivada pela diminuição de espaços intercelulares, resultante do processo de desidratação. Finalmente, no SWIR, ocorre a DIVISÃO DE ENSINO

SSDMD

EEAR

101

diminuição da intensidade das feições de absorção de água, também resultante da desidratação. Nessa região, tornam-se evidentes as feições de lignina-celulose, próximas a 2,1 µm e 2,3 µm (figura 87). Os valores de reflectância dependem das características particulares de cada espécie vegetal, além do estágio fenológico, aspectos sanitários e de condições adversas do clima (como secas e geadas). Pode-se afirmar, contudo, que a vegetação verde sadia apresenta, em geral, um comportamento muito próximo do padrão de resposta de suas folhas, o que não significa dizer que um dossel terá o mesmo comportamento espectral do tipo de folha que o compõe, quando estudada individualmente.

Fig. 87 Resposta espectral de folhas isoladas de vegetação verde (grama verde) e seca (grama seca), com a indicação das suas bandas de absorção típicas.

Tratando-se do estudo de um dossel, ou seja, da cobertura vegetal aglomerada, como é encontrada no campo, o número de variáveis aumenta, tornando o estudo mais complexo. Knipling (1970) explicou que variações no ângulo de iluminação, na orientação espacial da folha, sombras e a resposta do solo reduzem a reflectância da vegetação em campo, em comparação com a da folha isolada. Goel (1988) incrementou essa lista incluindo fatores como a geometria do plantio e parâmetros atmosféricos como a umidade relativa, temperatura e velocidade do vento. Esses e outros parâmetros foram abordados por ele, entre outros autores, na modelagem da reflectância espectral de dosséis.

7.3.1.2 Água A água apresenta-se na natureza em diferentes estados físicos, que influenciam de modo fundamental seu comportamento espectral. Gelo, neve e água apresentam respostas espectrais diferentes. No seu estado líquido a água pode, ainda, apresentar-se precipitada na superfície, ou em forma de gotículas em suspensão, como as que compõem as nuvens. Quando em suspensão, compondo as nuvens, a reflectância das gotículas de água é alta em todo espectro óptico refletido (visível, infravermelho próximo e médio), com valores em torno de 70%, mas com feições nítidas e absorção em 1,0, 1,3 e 2 μm. A neve também apresenta alta reflectância no visível e no infravermelho próximo. No intervalo do visível até 1,2 μm, a reflectância é ligeiramente decrescente, mas se mantém superior à magnitude da resposta das DIVISÃO DE ENSINO

SSDMD

102

EEAR

nuvens. A partir de 1,2 μm, ocorre uma diminuição acentuada da reflectância, chegando a atingir valores inferiores a 1%, nas proximidades de 1,5 μm. Desse comprimento em diante, já no infravermelho próximo, alternam-se valores de máximos, próximos a 20% em 1,75 e 2,25 μm, mínimos, muito próximos a zero, em 2,0 e 2,5 μm (figura 88).

Fig. 88 Comportamento espectral da água em diferentes estados físicos

Já a água límpida da superfície apresenta reflectância muito baixa em todo o espectro refletido. De modo geral, a resposta é predominante nos menores comprimentos de onda, com valores de reflectância próximos a 10% na região do Azul, onde predomina o efeito do espalhamento. Da região do azul para o vermelho, ocorre um aumento progressivo da transmitância do meio aquático, o que resulta em uma gradual diminuição da reflectância, até as proximidades de 0,7 μm. Desse ponto em diante, no infravermelho próximo e no médio, a reflectância é praticamente nula, devido ao forte efeito da absorção como pode ser observado através do espectro “Límpida” da figura 89. No entanto, na forma como é encontrada na natureza, a água nem sempre é límpida e cristalina. Geralmente uma quantidade bastante variável de outras substâncias, orgânicas e inorgânicas, diluídas ou em suspensão, estão presentes nos corpos d'água. Trata-se, portanto, de uma mistura, que é mais adequadamente tratada por “ambiente aquático”. Estes corpos d'água terão suas propriedades espectrais bastantes alteradas, dependendo dos compostos presentes. Segundo Novo (1992), a absorção da luz no meio aquático deve-se, além da própria água, a outros três componentes: partículas orgânicas e inorgânicas em suspensão; substância orgânica dissolvida e biota fotossintetizadora (fitoplânctons). Em geral, a presença desses componentes provoca o aumento da reflectância do meio, quando comparado com a água límpida. No entanto, devem ser observadas algumas peculiaridades. Para ilustrar essas diferenças, são apresentados na figura 89 espectros de corpos d'água com diferentes substâncias, juntamente com um espectro da água mais límpida (espectro “Límpida”).

DIVISÃO DE ENSINO

SSDMD

EEAR

103

Fig. 89 Comparação do espectro de água límpida com os espectros de corpos d`água de diferentes composições: elevada concentração de Clorofila (“Fitoplânctons”); sedimentos não-orgânicos em suspensão (“Minerais”); e matéria orgânica diluída (“Matéria Orgânica”).

A presença de algas em corpos d'água é revelada pela semelhança com o perfil espectral da vegetação verde, que indica a presença de clorofila. Os fitoplânctons, por exemplo, aumentam o espalhamento no visível, mas devido à absorção das radiações do azul e do vermelho pela clorofila, sobressai-se apenas um pico de reflectância no Verde. Como esses organismos não possuem a mesma estrutura celular da vegetação, não é observado o brusco aumento de reflectância na transição para o infravermelho próximo, caracterizada pela feição da borda vermelha. Uma eventual presença desta feição (borda vermelha) em um espectro de corpo d'água, poderá estar associado à presença de vegetação de estrutura celular mais complexa, como as plantas aquáticas. Os particulados inorgânicos em suspensão são minerais de rochas e solos transportados, principalmente por ação do vento e da chuva ou decorrentes da erosão do leito dos corpos d'água. Esses particulados provocam o aumento do espalhamento e o conseqüente aumento da reflectância. Quanto mais clara for a partícula e menor a sua granulometria, maior será o espalhamento provocado, principalmente na região do Verde e do Vermelho (Novo, 1992). A presença de minerais em maiores concentrações pode mascarar a presença de algas, deslocando o pico de reflectância para a região do vermelho. Tal efeito é verificado no espectro “Minerais”, na figura 89. O material orgânico dissolvido, por sua vez, é responsável pela coloração marromamarelada de alguns corpos d'água. Em ambientes aquáticos com alta concentração de matéria orgânica diluída, a presença de outras substâncias, como fitoplânctons e minerais, fica mascarada pela absorção das substâncias húmicas, que provocam um achatamento do espectro no visível, conforme pode ser observado no espectro “Matéria Orgânicas”, na figura 89. Assim como ocorre com o alvo vegetação, ambientes aquáticos também sofrem variações sazonais na concentração das substâncias contidas. Por exemplo, na região amazônica, a concentração de substâncias húmicas é bem mais alta no início do período chuvoso, do que no período de estiagem, porque as primeiras chuvas transportam as substâncias húmicas acumuladas na terra durante a seca dos igapós. Fenômenos como esse, repercutem no comportamento espectral do alvo, dificultando a sua análise.

DIVISÃO DE ENSINO

SSDMD

104

EEAR

7.3.1.3 Rochas e Minerais A resposta espectral das rochas é predominantemente caracterizada pelas feições espectrais do minerais que as compõem. A profundidade da banda de absorção indica a quantidade do material absorvedor. Do UV até 1,2μm, predominam feições de absorção geralmente amplas e rasas, resultante de processos de transições eletrônicas principalmente associadas aos Óxidos de ferro (Hematita – O3Fe2) e Hidróxidos de ferro (Goetita – FeOOH). Transições intraatômicas no Fe2+ e no Fe3+ provocam absorção entre 0,7 e 1,1μm, enquanto transições interatômicas no Fe2+ e no Fe3+ absorvem fortemente no UV abaixo de 0,4μm. Além desses, o Enxofre (S) também provoca forte absorção abaixo de 0,4μm devido à banda de condução. Acima de 1,2μm, são mais evidentes os processos vibracionais de absorção, principalmente aqueles provocados pela presença de Carbonatos (CO3), Hidroxilas (OH) e Água (H2O), em diversos minerais. Carbonatos são responsáveis por feições estreitas e pouco acentuadas entre 1,85 e 2,15μm e feições mais profundas entre 2.3 e 2.5μm, presentes, por exemplo, na Calcita e na Dolomita. A Hidroxila, isoladamente, provoca fortes absorções em 1,4 μm, em minerais como a Caolinita, Muscovita e Alosita e, vinculada à presença de metais como Alumínio (Al-OH), Ferro (Fe-OH) e Magnésio (Mg-OH) gera feições nas proximidades de 2,2 a 2,3μm. Essas feições são identificadas em minerais como a Alunita, a Jarosita, a Antigorita e, novamente, a Muscovita e a Caolinita. A água provoca feições em 1,9µm devido à flexão da molécula e, também em 1,4µm, devido às distensões das suas ligações O-H. Além dessas, outras várias bandas de absorção por processos vibracionais estão presentes nas regiões do SWIR e TIR, devido aos compostos já citados ou a outros, como o Óxido de Silício (SiO 2), o que permite uma ampla faixa de avaliação espectrais de rochas e minerais. A figura 90 ilustra as feições de absorção mais pronunciadas de alguns minerais.

Fig. 90 Espectros de minerais, coma indicação de alguns elementos de influência.

DIVISÃO DE ENSINO

SSDMD

105

EEAR

7.3.1.4 Solos Em muitos aspectos, o comportamento dos solos é semelhante ao das rochas, o que pode ser explicado pelo fato dos solos serem formados a partir de intemperismo das mesmas. Além da mineralogia, alguns fatores que afetam a reflectância dessa classe de alvos são o conteúdo de umidade, a textura (proporção de areia, silte e argila), a rugosidade da superfície, o conteúdo de matéria orgânica (decomposta ou não), a estrutura do solo, a presença de grandes fragmentos, as encrostações, as sombras e as práticas culturais. A textura, a mineralogia e o conteúdo de matéria orgânica são propriedades intrínsecas desse alvo, enquanto os demais são aspectos condicionantes da superfície. Algumas feições de absorção de tipos característicos de solos são apresentadas na Figura 91.

Fig. 91 Resposta espectral de dois tipos característicos de solo com a indicação das suas bandas de absorção típicas.

De forma geral, a presença de umidade diminui a reflectância dos solos, sendo este efeito maior na faixa do SWIR. Na faixa do NIR, há ocorrência de apenas duas bandas de fraca absorção, em 0,96µm e 1,2µm. Solos argilosos também apresentam bandas de absorção, devido à hidroxila. Textura e umidade estão fortemente relacionadas. Solos de textura grosseira são normalmente bem drenados, resultando em um baixo conteúdo de umidade e uma reflectância mais alta; solos de textura fina, mal drenados, geralmente têm reflectância mais baixa. Para muitos solos, quando úmidos, a reflectância diminui pela metade. A presença de matéria orgânica tem uma forte influência nos solos, geralmente diminuindo a reflectância em toda a região do visível e do NIR. Se presente com um conteúdo maior do que 2%, a matéria orgânica pode mascarar as características de absorção de outros constituintes do solo. Quando em conteúdo superior a 5%, a curva de reflectância dos solos freqüentemente apresenta um perfil côncavo entre 0,5 e 1,3µm e, se acima de 20% (solos orgânicos), os solos têm um comportamento espectral variável, dependendo do grau de decomposição do material orgânico. O Ferro, o Óxido e o Hidróxido de ferro também são freqüentemente encontrados nos solos. O Óxido e o Hidróxido de ferro atuam mais fortemente no UV e no visível, gerando feições espectrais caracterizadas por uma depressão, presente na maioria dos espectros dos tipos de solo. Esses induzem feições de absorção entre 0,4µm e 0,55µm, em 0,7µm, 0,87µm e em 1,0µm. Além desses, minerais de argila (ex. Caolinita), carbonatos, sulfatos e fosfatos influenciam fortemente no SWIR. Por fim, a rugosidade, a umidade, a presença de grandes fragmentos (como os resíduos vegetais), a estrutura do solo e as encrostações, ou seja, as condições da superfície, são fácil e DIVISÃO DE ENSINO

SSDMD

106

EEAR

freqüentemente alteradas pelo clima e pelos tratos culturais, apresentando comportamento variável em cada caso.

7.3.1.5 Superfícies Construídas (Concreto, Asfalto) A figura 92 apresenta as curvas espectrais do concreto e do asfalto, que são materiais que compõem grande parte das áreas edificadas pelo homem. Pela análise da curva "a", podemos verificar que o asfalto apresenta as seguintes características espectrais: a) reflectância baixa e decrescente entre 0,3 µm e 0,4 µm; b) reflectância crescente entre 0,4 µm e 0,6 µm; c) reflectância de 0,2 entre 0,6 µm e 1,0 µm; e d) reflectância crescente até 1,3 µm. Através da curva "b", verificamos que o comportamento espectral do concreto é mais complexo, caracterizando-se por um aumento da reflectância com o comprimento de onda, mas apresentando feições amplas de absorção em 0,38 mm, entre 0,6 µm e 0,8 µm e em 1,1 µm.

Fig. 92 Comportamento espectral do concreto e do asfalto

7.3.2 Interpretação de Gráficos de Comportamento Espectral Para se interpretar corretamente gráficos como o da figura abaixo, é preciso observar as regiões onde as diferenças de resposta são muito grandes e é exatamente nestes pontos onde devemos escolher nossa banda (faixa espectral) a fim de discriminarmos melhor os alvos. Por exemplo: se quisermos distinguir grama artificial de grama natural deveremos optar pela banda 4 onde teremos a maior diferenciação, talvez até a banda 3 mas nunca as bandas 1 ou 2 pois, para estes alvos, esta faixas espectrais apresentam respostas muito semelhantes.

DIVISÃO DE ENSINO

SSDMD

107

EEAR

Fig. 93 Comportamento Espectral de alguns alvos..

DIVISÃO DE ENSINO

SSDMD

108

EEAR

Unidade 8: Resoluções O termo resolução refere-se às características da imagem de acordo com a radiometria, tamanho do pixel e faixas espectrais. Quando se fala em resolução, qualquer que seja, é preciso ter em mente que, nesse caso, os termos melhor resolução e pior resolução são conceitos relativos e, portanto, não estão ligados a valores absolutos. Em outras palavras, se um sistema apresenta uma resolução espacial de 30 m, enquanto um outro possui 20m, significa dizer que este último possui uma melhor resolução espacial do que aquele de 30m. Caso haja interesse em adotar os termos maior ou menor, deve-se ter o cuidado de acrescentar o termo poder de resolução, a fim de se evitar uma inversão nos parâmetros considerados. Assim sendo, o sistema que possui 20m de resolução espacial, no exemplo acima citado, detém um maior poder de resolução espacial do que o de 30m, e não uma resolução espacial maior.

8.1 Resolução Espacial É definida como o menor elemento de área que um sistema sensor é capaz de distinguir, sendo uma expressão da qualidade óptica da imagem produzida por um sensor e caracteriza a capacidade desse sistema em manter a integridade geométrica do objeto observado. Ela fornece os parâmetros para determinar se o alvo pode ser identificado na imagem, em função de seu tamanho. A Figura 94 ilustra uma mesma cena imageada com três resoluções espaciais diferentes. No caso, um “pixel” (“picture element” - elemento da imagem) é disposto de maneira exagerada para exemplificar os diferentes graus de abragência, em função da resolução espacial considerada. Na representação da direita, de resolução espacial mais pobre (pior), um pixel integra a informação disponível em dois tipos de cultura dispostas perpendicularmente uma à outra, além da influência do fundo (solo). Na representação central, de resolução espacial intermediária, um pixel integra a informação disponível em um tipo de cultura e no fundo à sua volta (solo). Finalmente, na representação da esquerda, de melhor resolução espacial, um pixel integra somente a informação disponível num tipo de cultura.

Fig. 94 Efeito da resolução espacial.

Em outras palavras, no caso do imageamento de uma aeronave de transporte C-130 Hércules (aproximadamente 40 m de envergadura por 30 m de comprimento) estacionada num pátio, por exemplo, seria necessária, para uma identificação precisa, uma resolução espacial da ordem de centímetros. À medida que tal resolução for sendo degradada, o intérprete terá seu leque de informações reduzido progressivamente. Assim, com uma resolução de 2 m., é possível determinar que se trata de uma aeronave quadrimotor de transporte. Entretanto, no caso de uma resolução de 30 m, o C-130 estará praticamente contido num ponto, ou seja, num único pixel. DIVISÃO DE ENSINO

SSDMD

109

EEAR

Ao ampliar-se mais e mais uma imagem digital monocromática, passam a ser observados retângulos justapostos em diferentes tons de cinza, organizados em linhas e colunas alinhadas, formando uma grade ou matriz. Cada um desses pequenos quadrados representa um elemento de cena (pixel – picture element) que corresponde, por sua vez, a uma pequena área da superfície, ou elemento de superfície, cujo fluxo radiante emergente foi amostrado e convertido em sinal elétrico. Nesse sentido, a resolução espacial também pode ser entendida como a capacidade do sensor dividir a área observada em um número discreto de elementos de cena (Slater, 1980): para uma dada cena, quanto maior o número de elementos de cena (pixels) que a compõem, menor será a dimensão desses elementos e, conseqüentemente, melhor será a resolução espacial do sensor. O valor da resolução espacial (geralmente fornecido em metros) representa a área que cada pixel cobre no solo. Por exemplo, se um sensor possui resolução espacial de 30m, isso significa que cada pixel cobre no solo uma área quadrada de 30m x 30m, ou seja, 900m2. A Figura 95 ilustra a degradação da resolução espacial de um alvo. A letra “Q” apresentada em (a) representa um alvo imageado da superfície, nas mesmas condições, por três sensores de características idênticas, exceto pelas resoluções espaciais. Com seus dados foram geradas as imagens em (b), (c) e (d). O sensor que gerou a imagem da Figura 95b melhor preservou a qualidade geométrica do alvo da Figura 95a, logo, sua resolução espacial é melhor do que a dos sensores que geraram as imagens das Figuras 95c e 95d.

Fig. 95 Degradação progressiva, de (b) para (d), da resolução espacial do alvo “Q”, apresentado em (a).

O elemento de superfície é a menor área da superfície que o sensor é capaz de distinguir, sendo conhecido por campo de visada instantâneo no solo (Ground-projected Instantaneous Field Of View - GIFOV). O GIFOV pode ser entendido como a projeção do elemento detector na superfície imageada, através do sistema óptico do sensor (Schowengerdt, 1997). Na Figura 95, houve uma nítida perda da resolução espacial, com a diminuição do número de elementos de cena para representar a mesma área da superfície. Isso correspondeu a um aumento do GIFOV de um valor unitário, em (b) para 6 vezes esse valor, em (d). Mas o GIFOV não é o único responsável pela resolução espacial. O espaçamento entre os detectores ou a taxa de amostragem também a influenciam. Isso porque a grade de pixels, que compõe as duas dimensões espaciais da imagem, é formada por uma amostragem regularmente espaçada desses elementos de superfície, em um processo contínuo de aquisição do fluxo radiante da superfície. Sensores eletro-ópticos de aquisição em quadro, como as câmeras de vídeo e os Foward Looking InfraRed (FLIR), possuem, para cada canal espectral, uma matriz bidimensional de detectores, que são expostos à radiação ao mesmo tempo. Nesse caso, o elemento detector estará associado a um único elemento de cena, como resultado da sua projeção na superfície, de acordo DIVISÃO DE ENSINO

SSDMD

EEAR

110

com a sua posição na matriz. Após o tempo de sensibilização dos detectores, é realizada uma “leitura eletrônica” do sinal elétrico de cada um dos detectores, um a um, de forma a organizálos em uma seqüência temporal lógica (multiplexagem temporal), processo conhecido como varredura eletrônica. Os sensores de varredura geralmente envolvem uma menor quantidade de detectores por canal espectral. A “leitura do sinal” pode ser realizada elemento após elemento, de forma a compor as linhas e colunas que constituem essa imagem. Esse processo é conhecido por varredura mecânica (ou simplesmente varredura), que simplifica o seqüenciamento do sinal. O fluxo radiante é captado com os movimentos de varredura em linha e na trajetória. O espaçamento entre os elementos de superfície é proporcionado pela amostragem do sensor, ou seja, a freqüência com que o detector converte um fluxo radiante em sinal elétrico (associada ao tempo de resposta do detector), sendo conhecido por intervalo de amostragem no solo (Ground Sample Interval - GSI). O pixel é a amostragem espacial na imagem, logo, corresponde ao GSI. É coerente que o GSI tenha, no máximo, a mesma dimensão do GIFOV, a fim de evitar-se uma subamostragem da superfície (vazios onde o fluxo radiante não foi captado), conforme explica Schowengerdt (1997): “É uma prática comum entre os construtores, salvo raras exceções, estabelecer uma taxa de amostragem tal que o GSI coincida com o GIFOV”. O GIFOV é determinado geometricamente pela relação entre a altura H do sensor, a distância focal f do seu sistema óptico, e a dimensão do detector d: GIFOV = d x H / f (Equação válida para o ponto NADIR) Obs: O GIFOV é medido em metros e seus submúltiplos. Em um sistema estático, o GIFOV representa exatamente a área de projeção do detector sobre a superfície. No entanto, devido aos movimentos de varredura lateral e de rotação da Terra o GIFOV é ligeiramente deslocado, resultando em uma área projetada no solo efetiva (Efective IFOV – EIFOV) maior do que este. Muitas vezes, refere-se ao GIFOV como sendo a Resolução Espacial do sensor, entendida como a área no solo que é representada por um pixel. No entanto, esse tratamento deve ser coberto de precauções. Primeiramente, porque desconsidera as aberrações e efeitos de difração que ocorre no sistema óptico. Em segundo lugar, porque há um efeito de arrasto da cena, devido aos movimentos de varredura (no caso de varredura lateral) e de translação do sensor, causando uma maior abrangência efetiva da superfície do que simplesmente a dimensão do GIFOV. Em terceiro lugar, porque no caso de haver uma sub-amostragem, devido a um maior tempo de integração estabelecido para o detector, a área abrangida na superfície será estabelecida pelo GSI, nesse caso, maior que o GIFOV. E por fim, porque no caso de sensores aeroembarcados, a distância alvo-sensor pode ser variada, incorrendo em diferentes GIFOV, um para cada altura de aquisição. Atenção: Para resolução de problemas envolvendo cálculo do GIFOV na prova, deve-se considerar: que o sistema é estático, que o valor do GIFOV coincide com o tamanho do pixel (resolução espacial) e que a equação matemática do GIFOV vale qualquer ponto da imagem (não só para o NADIR). Para evitar esses contratempos, a característica espacial dos sensores remotos ópticos é apresentada, pelos construtores, em referência ao ângulo de visada determinado pelo sistema óptico. Esse é conhecido como Instantaneous Field Of View (IFOV), que independe da altura do imageamento, dos movimentos do sensor, e da taxa de varredura: DIVISÃO DE ENSINO

SSDMD

111

EEAR

IFOV = 2 arctg (d / 2f) ≅ d / f Obs: O IFOV é medido em radianos e seus submúltiplos (principalmente em mrad = 10-3 rad). Tal resultado é obtido de uma relação trigonométrica simples: seja o IFOV de um sensor, então tg(α/2) = d/2f . Mas, para f muito maior que d, o ângulo α/2 é muito pequeno, próximo a zero, podendo ser adotada a aproximação tg(α/2) ≅ α/2 . Logo, α/2 ≅ d /2.f ⇒ α ≅ d /f. Assim, para obter o GIFOV a partir do IFOV, basta multiplicar este ângulo pela altura (H) do imageamento. Além dessas características, interessa saber qual a dimensão lateral máxima que é possível obter com um determinado sensor. Essa é conhecida como Campo de Visada (Field Of View - FOV) e é expressa como um ângulo máximo de varredura lateral. No entanto, esse ângulo corresponde à largura de faixa imageada sendo, muitas vezes, apresentado o seu comprimento (Ground FOV – GFOV). A relação geométrica entre o FOV e o GFOV é dada por : GFOV = 2.H.tg (FOV/2) onde H é a altura do imageamento. Obs: O GFOV é medido em metros e seus submúltiplos.

Fig. 96 Relação entre o GIFOV e o GSI para os sensores em geral (a) e, em perspectiva, entre o GIFOV, o IFOV e o EIFOV (b). Em (c) é apresentada uma visão bidimensional expandida da relação entre a distância focal (f), o tamanho do detector (d) e o IFOV, representado pelo ângulo α. Relação entre o FOV e o GFOV. O ângulo α representa o IFOV.

O FOV, e conseqüentemente o GFOV, só têm dimensão lateral.

DIVISÃO DE ENSINO

SSDMD

EEAR

112

8.2 Resolução Radiométrica É definida como a menor diferença de brilho que um sistema sensor é capaz de perceber. Ela determina se o alvo pode ser visto na imagem, em função de seu contraste com os alvos vizinhos. A resolução radiométrica é dada pelo número de níveis digitais (ND´s), representando níveis de cinza, usados para expressar os dados coletados pelo sensor. Quanto maior o número de níveis, melhor é a resolução radiométrica. Na Figura 97, por exemplo, uma mesma cena é apresentada em 256 níveis de cinza (a) e em quatro níveis de cinza (b), variando do preto ao branco. A quantidade de detalhes perceptíveis na primeira é claramente maior que na segunda. Portanto a cena “a” possui melhor resolução radiométrica que a cena “b”.

Fig. 97 Imagens reproduzidas em diferentes resoluções radiométricas: (a) 8 bits (2 8 = 256 níveis); e (b) 2 bits (22 = 4 níveis).

O equipamento utilizado para captar a radiação na faixa óptica do espectro é comumente chamado de Radiômetro. Esse equipamento converte a radiância proveniente do elemento de superfície em sinal elétrico, através dos seus detectores. O sinal dos detectores, analógico, é posteriormente quantizado em valores discretos inteiros, chamados de Números Digitais (ND). Cada ND está associado a um tom de cinza da imagem, que indica um brilho (radiância) diferente da superfície. Assim, quanto mais ND, mais informação estará disponível. A capacidade de quantização do sistema é conhecida como resolução radiométrica. Tal quantização é feita em sistema binário, utilizado na codificação digital, e apresentado em número de bits do sistema. Cada bit de quantização multiplica por 2 o número de possibilidades de ND. Logo, para um sistema de “n” bits, tem-se 2 n NDs. Por exemplo, para um sistema de 8 bits tem-se 2 8 ND, ou 256 tons de cinza, cuja numeração inicia em 0 (zero). O padrão digital adotado associa o último tom (p.ex. 255, em um sistema de 8 bits), ao Branco e o DIVISÃO DE ENSINO

SSDMD

EEAR

113

primeiro, 0 (zero), ao Preto, sendo os demais números digitais associados a tons intermediários de cinza entre esses extremos. A quantização do sinal está diretamente associada à qualidade da informação apresentada, da mesma forma que a resolução espacial. Assim, sistemas de baixa quantização poderão degradar a informação, mesmo se obtida com um sensor de alta resolução espacial. A figura 98 ilustra como a quantização pode afetar a qualidade geométrica da imagem. Na figura 98a é apresentado um alvo hipoteticamente imageado, nas mesmas condições, por três sensores de características idênticas, exceto pela resolução radiométrica, que foi estabelecida sendo de 8, 2 e 1 bits. Observa-se que o empobrecimento da resolução radiométrica de 8 bits (Figura 3.9b) para 1 bit (Figura 3.9c) afetou a apresentação do alvo, de forma a torná-lo quase não identificável.

Fig. 98 Degradação da resolução radiométrica. O alvo apresentado em (a) foi degradado de 256 ND (8 bits), em (b), para 4 ND (2 bits), em (c) e 2 ND (1 bit) em (d), preservando-se a mesma resolução espacial de (b).

Sensores de concepção mais antiga como o MultiSpectral Scanner (MSS), do Land Sattelite-5th (Landsat-5), foram quantizados em 6 bits. O Thematic Mapper (TM), da mesma plataforma, mas de concepção mais moderna, já foi quantizado em 8 bits. Com essa mesma quantização temos o High Resolution Visible (HRV), do Systeme Probatoire d'Observation de la Terre-3 (Spot-3). Sensores mais modernos, como o MODerate Imaging Spectroradiometer (MODIS), da plataforma Earth Observing System-1th (EOS- 1), já têm sido quantizados em 12 bits (4096 NDs).

8.3 Resolução Espectral A resolução espectral é definida como a menor porção do Espectro Eletromagnético que um sistema sensor é capaz de segmentar. Ela determina se o alvo pode ser visto na imagem, em função de seu comportamento espectral. Trata-se de um conceito inerente às imagens multiespectrais de SR. Quanto mais estreitas, espectralmente falando, as bandas (canais) de um dado sistema, maior é a capacidade desse sistema de discriminar variações no comportamento espectral do alvo a ser estudado.

DIVISÃO DE ENSINO

SSDMD

EEAR

114

Na figura 99a, por exemplo, uma cena foi fotografada com filme pancromático (de 0,4 µm. a 0,9 µm.), no qual, tanto a grama natural (fora do estádio), quanto a artificial (no interior do estádio), apresentam tonalidades fotográficas similares. A figura 99b, no entanto, mostra a mesma cena fotografada com filme infravermelho preto e branco, atuando entre 0,7 µm. e 0,9 µm. Nesse caso, a grama natural possui uma tonalidade fotográfica bastante clara (alta reflectância no infravermelho próximo), ao contrário da grama artificial, que possui tonalidade bastante escura (baixa reflectância no infravermelho próximo).

Fig. 99 Fotografias aéreas oblíquas de baixa altitude, obtidas simultaneamente, ilustrando a diferença de comportamento espectral entre a grama natural, nos arredores do estádio, e a grama artificial, no interior do mesmo, em função da resolução espectral do filme utilizado. Em (a), uma foto pancromática (0,4 a 0,9 µm.); e em (b), uma foto infravermelho (0,7 a 0,9 µm.), de melhor resolução espectral.

Dito isto, é preciso que alguns conceitos ligados à resolução espectral sejam esclarecidos, a saber: Faixa espectral é definida como a região do Espectro Eletromagnético na qual um sistema sensor opera. Ela determina o domínio do sistema sensor utilizado, em função da característica da radiação por ele empregada. Abrangência espectral é a faixa ou região total do espectro que se consegue cobrir com o equipamento. Essa é importante para que se possa obter um diagnóstico de absorção espectral do alvo que envolva tantos comprimentos de onda quantos necessários para se distinguir uma feição espectral. Assim, quanto maior a abrangência, maior a quantidade de informação sobre o objeto estudado. Existem algumas regiões espectrais de uso comum, estabelecidas pelas limitações da tecnologia dos detectores, que são as regiões do UV, Vis, NIR, SWIR e TIR Amostragem espectral refere-se ao número de faixas em que a abrangência espectral é segmentada. Essas faixas são conhecidas por Canais ou Bandas espectrais. Quanto maior o número de faixas (bandas, ou canais), maior será a amostragem. A capacidade de distinguir feições depende, em grande parte, do tipo de amostragem. Essa pode ser de dois tipos: contínua e intercalada. Na amostragem contínua não há regiões espectrais sem amostragem dentro dos limites da abrangência espectral do equipamento, obtendo-se um espectro contínuo com faixas espectrais adjacentes. Na amostragem intercalada, o equipamento capta a radiação em faixas não adjacentes, havendo intervalos sem amostragem. Largura espectral de banda é a abrangência espectral de cada uma das bandas operadas pelo sensor. Quanto menor for essa largura, mais precisa será a informação das bandas de absorção resultantes da interação da radiação com o alvo. No entanto, mesmo com bandas estreitas a informação espectral será pobre se a amostragem espectral for pobre. Nesse caso, com uma subamostragem, obtêm-se informações em pontos descontínuos, espaçados por vazios de informação espectral. Ao contrário, no caso de haver bandas muito largas com alta amostragem, ocorrerá uma grande sobreposição de regiões espectrais, com perda de precisão da DIVISÃO DE ENSINO

SSDMD

EEAR

115

informação espectral devido à largura da banda. A soma da largura espectral de banda com a amostragem é conhecida como a Resolução Espectral do equipamento.

8.4 Resolução Temporal (Repetitividade) A resolução temporal é definida como a freqüência com a qual um sistema sensor é capaz de imagear um mesmo alvo. Ela determina o período mínimo a ser aguardado para um novo imageamento de determinado alvo. Trata-se de um parâmetro somente aplicável aos satélites de SR, uma vez que estes possuem órbitas de períodos regulares como característica imposta pela Mecânica Orbital, ao contrário das aeronaves, por exemplo. Dois parâmetros relacionados à plataforma - o nível de emprego (orbital, aéreo e de superfície) e a capacidade de uso (posse e grau de imunidade à interceptação) - afetam a resolução temporal. O nível de emprego determina, de maneira geral, o alcance do sistema e sua manobrabilidade. A capacidade de uso determina a disponibilidade do mesmo para emprego durante um conflito armado. As informações apresentadas até aqui são de grande importância para o planejador militar não-especializado em SR, sendo adequado, portanto, tecer alguns comentários adicionais a respeito. Apesar de não constituir regra, em geral os alvos de valor estratégicos (usinas de energia, instalações portuárias, siderúrgicas, indústrias, entre outros) possuem dimensões maiores que os alvos de valor tático (uma aeronave pousada, ou uma coluna de blindados, por exemplo). Um sistema com elevado poder de resolução espacial pode “enxergar” ambos os tipos de alvos, enquanto um sistema com resolução espacial relativamente limitada permite a identificação apenas dos alvos de grandes dimensões. Assim sendo, pode-se dizer que grande parte dos sistemas imageadores podem ser usados para o reconhecimento estratégico, mas apenas os que possuem poder de resolução espacial elevado se prestam ao reconhecimento tático. Usando uma abordagem semelhante, em geral se pode dizer que os alvos de valor estratégico são imóveis e sujeitos a poucas alterações no decorrer do tempo (refinarias de petróleo, fábricas de armamentos, aeródromos), enquanto os alvos de valor táticos podem ser movidos (tropas, embarcações, aeronaves), ou modificados (defesas de um aeródromo, pontes móveis) com relativa rapidez. Dessa forma, qualquer que seja a resolução temporal do sistema, ele se prestará para o reconhecimento estratégico, mas somente os sistemas de alta resolução temporal poderão ser considerados para o reconhecimento tático. Os princípios abordados acima são sintetizados e esquematizados na Figura 100.

DIVISÃO DE ENSINO

SSDMD

EEAR

116

Fig. 100 Relação entre a natureza tático-estratégica dos alvos militares e as resoluções espacial e temporal dos sistemas de SR.

DIVISÃO DE ENSINO

SSDMD

117

EEAR

CONCLUSÃO

É interessante termos em mente que o Sensoriamento Remoto não se esgota em si mesmo, na realidade ele é uma ferramenta extremamente eficaz para fornecer informações, portanto nunca deve ser visto como uma ciência ou arte estanque. Por ser um instrumento muito poderoso é utilizado em diversos setores como controle ambiental, planejamento urbano, planejamento de malhas hidroviárias, ferroviárias, rodoviárias e aeroviárias, estudos geológicos, biológicos, arqueológicos, oceanográficos. A Cartografia faz uso cada vez maior das várias opções de imagens para sua vasta gama de pesquisa e produtos. Não podemos relegar sua importância para as atividades militares, observando-se aqui também, a mútua influência entre estas e as atividades civis. Muitos projetos com fins militares hoje são utilizados com sucesso por entidades civis e vice-versa. Ao falarmos hoje em SIGs, Sistemas de Informações Geográficas, podemos ver um entrelaçamento de dados cartográficos, estudos físicos de sensores, tecnologias computacionais, comparações multitemporais ao estudarmos a evolução durante os meses ou anos de alterações em determinada região. A utilização conjunta com o GPS, Sistema de Posicionamento Global, possibilita a localização rápida e precisa da imagem, bem como indica o posicionamento correto do sensor sobre o alvo desejado na coleta da imagem. O Sensoriamento Remoto, então, necessita de um assessoramento constante de outras ciências para poder cumprir seu papel de informar de forma cada vez mais precisa, rápida, atualizada e confiável acompanhando o dinamismo crescente da humanidade. Sinceramente esperamos que esta breve apostila tenha atingido o objetivo de lhe trazer uma visão abrangente do assunto e principalmente tenha lhe despertado o desejo de continuar a expandir seus conhecimentos no universo do Sensoriamento Remoto.

DIVISÃO DE ENSINO

SSDMD

118

EEAR

ANEXO 1

HISTÓRICO 1822 - Desenvolvimento da teoria sobre a luz (espectro eletromagnético), Newton decompõe a luz branca, Herschel descobre a radiação infravermelha e Niepce (francês) obtém a primeira imagem fotográfica utilizando uma câmara primitiva e papel quimicamente sensibilizado. 1858 - Primeira fotografia aérea tirada a bordo de um balão por Tournachon (Paris). Utilização de pipas para fotografar São Francisco (EUA) e a primeira imagem aérea de um balão nos EUA. 1903 - Desenvolvimento de mecanismo de exposição automática e produção de câmaras leves com negativos de 38mm possibilitando tomada de fotografias aéreas por pombos. 1909 - Tomada de fotografias aéreas por aviões. 1931 - Conhecimento do comportamento espectral dos objetos na superfície da Terra e desenvolvimento do filme infravermelho (Stevens, nos EUA). 1947 - Aperfeiçoamento e intensificação de pesquisas sobre o comportamento do espectro eletromagnético (Krinov, na URSS). 1961 - Aperfeiçoamento de foguetes de lançamento após a II Guerra. Primeira fotografia orbital MA-4 Mercury (NASA), reconhecida a utilidade para recursos naturais e aprovado o programa GEMINI (aquisição de fotos da superfície terrestre de forma repetitiva). 1972 - Colocado em órbita pela NASA o primeiro satélite de recursos naturais: Landsat 1 (na época o ERST-1 - Earth Resource Tecnological Satellite). 1975 - Landsat 2. 1978 - Landsat 3. 1982 - Landsat 4. 1983 - Desenvolvimento de detetores mais sensíveis e de equipamentos ópticos mais precisos. Desenvolvimento da mecânica orbital. Desenvolvimento de microprocessadores e soluções para armazenagem e transmissão de dados a grandes distâncias. 1984 - Landsat 5. 1986 - SPOT 1 (francês). 1988 - NOAA-11(meteorológicos) e IRS-1A. 1990 - SPOT 2 1991 - ERS-1 (European Remote Sensing Satellite) com sensor radar (SAR). 1992 - JERS-1 (Japonese Earth Resources Satellite) que possui dois sensores : um radar de abertura sintética (SAR) e um óptico do visível ao infravermelho médio. 1993 - SPOT 3. Lançamento e perda do Landsat 6. 1994 - IRS-P2 e RESURS-1. 1995 - IRS-1C e Radarsat (canadense). 1996 - IRS-P3.

DIVISÃO DE ENSINO

SSDMD

119

EEAR

ANEXO 2 CARACTERÍSTICAS DE ALGUNS SATÉLITES

SATÉLITE

Landsat (EUA)

ÓRBITA/ ALTITUDE

SPOT (França)

Quase polar, Heliossíncrona, 705Km Heliossíncrona, 830Km

Radarsat (Canadá)

Heliossíncrona, 798Km

JERS Heliossíncrona, (Japão) 568Km CBERS Quase polar, (China/Brasil) Heliossíncrona, 778Km METEOSAT Geoestácionária, (meteorológ) sobre o Equador, (Europa) 36.000Km GOES Geoestácionária, (meteorológ) um em 75ºW e (EUA) outro em 135ºW, 36.000Km NOAA Quase polar (meteorológ) Heliossíncrona (EUA) 844Km

DIVISÃO DE ENSINO

RESOLUÇÃO ESPACIAL/ TEMPORAL 80m (multiesp), 30m (pan), 16 dias

LARGURA DA FAIXA (Km)

20m (multiesp), 10m (pan),

117

26 dias 100m (área 500 maior), 10m (área menor), 24 dias 18m , 44 dias 160m (termal), 80m (pan), 26dias 2,5Km

185

50 75 890 113

1.000m (pan), 7.000m (termal) 1.100m

SSDMD

More Documents from "Jairo Oliveira"

Geo Process Amen To
January 2021 1
Optica
January 2021 5
Fotografia Aerea I
January 2021 1
January 2021 5