Sensoriamento Remoto
e
Classificação
de Imagens
Ronei Marcos de Moraes
Departamento de Estatística
CCEN - UFPB
Campus I - João
Pessoa
1999
Sensoriamento Remoto
A Imagem e o
Espectro Eletromagnético
Problemas na Deteção
O Básico do Processamento Digital de Imagens
(P.D.I.) em Sensoriamento Remoto
Recursos do P.D.I.
Restauração e Eliminação
do Ruído
Realce de Contraste
Incorporação de Informações
Tratamento de Imagens
Classificação
Método Não-supervisionado
Método Supervisionado Clássico
Método Supervisionado Contextual
Métodos de Relaxação
Pós-classificação
Interpretação Visual da Imagem
Testes e Controle
Sensoriamento Remoto
Pode-se entender por Sensoriamento Remoto, como formas de obtenção de dados sobre um objeto, terreno, espécime, etc, sem contato físico com o mesmo. Como exemplo bem simples de Sensoriamento Remoto, tem-se a fotografia.
Na tabela 1, pode-se observar algumas das várias
áreas de aplicação do Sensoriamento Remoto.
Tabela 1. Alguma áreas de aplicação
do Sensoriamento Remoto.
Nosso estudo encara
o Sensoriamento Remoto efetuado por satélites. Existem vários
tipos de satélites orbitando a Terra e alguns planetas do Sistema
Solar. Cada tipo de satélite pode ter características distintas,
dependendo ao que se destina. Alguns satélites meteorológicos,
por exemplo, orbitam a Terra em órbitas chamadas geo-estacionárias,
ou seja, todo o tempo, estão "vendo" a mesma Terra da mesma posição
e parecem estar sempre "parados" sobre o mesmo ponto. Exemplos deste tipo
de satélite podem ser observados na figura abaixo [1]:
Alguns satélites utilizam sistemas de radar para coletar seus dados. São denominados SAR (Radar de Abertura Sintética). Exemplos de satélites desse tipo são o Seasat (EUA), ERS-1 (Europa), JERS (Japão) e Radarsat (Canadá).
Os satélites
de coleta de dados, em geral, não são geo-estacionários
e cobrem todo o globo. Geralmente, demoram alguns dias para passar sobre
o mesmo ponto da Terra e se utilizam de vários sensores embarcados.
Por exemplo, o satélite SPOT (França) tem um ciclo de 26
dias e 3 sensores espectrais; o LANDSAT V (EUA) tem um ciclo de 16 dias
e 6 sensores espectrais e um sensor termal. Esses satélites são
denominados Multi-espectrais.
Figura. Satélite Landsat V.
A Imagem e o Espectro Eletromagnético
As imagens são registros de cenas focalizadas por sensores com resposta em freqüência perfeitamente definidas do espectro. No entanto, os sensores não conseguem captar todo o espectro e registram faixas de freqüência. Analogamente, o olho humano capta uma faixa muito estreita do espectro. Várias técnicas codificam as freqüências do espectro não-visível de modo a tornar possível a visualização de uma imagem.
Dois tipos de sensores podem ser utilizados na obtenção
de uma imagem; são eles: ativos - transmitem pulsos de energia e
medem a energia refletida desses pulsos pelos objetos (satélites
com sensores SAR, por exemplo); passivos - medem radiações
refletidas ou emitidas pelos objetos (satélites com sensores multi-espectrais).
Este trabalho trata de imagens geradas por satélites de sensoriamento
remoto do tipo comercial, ou seja, munidos de sensores do tipo passivo.
A caráter de ilustração da obtenção
de uma imagem por sensores passivos, será mostrado a forma de coleta
dos dados dos satélites LANDSAT MSS 1 e 2 [2]. O satélite
desloca-se no sentido Norte-Sul, enquanto um espelho a bordo imageia a
superfície terrestre de Oeste para Leste em 33 milissegundos. São
tomadas 3300 amostras em intervalos regulares de 9,95 microssegundos, ao
longo de uma varredura de 185,2 km (figura abaixo). Nesta varredura, são
imageadas seis linhas de dados por banda espectral, a cada vez.
Figura. Obtenção da imagem pelo LANDSAT MMS.
O Campo de Visão Instantânea - VIC - cobre
uma área de 79m x 79m [3]. Entre cada amostragem, os sensores movem-se
56m, o que resulta um elemento de imagem ou ''pixel'' correspondendo
a uma área de 56m x 79m. A esta redução de área
dá-se o nome de Recobrimento - figura abaixo. Apesar dos
dados serem tomados de uma área maior, para evitar distorções,
os dados são arranjados como se tivessem sido tomados de uma área
menor
Figura. Obtenção de um ``pixel'' [3].
Problemas na Deteção
Existem vários problemas na detecção de um objeto pelos sensores. Por exemplo, se o objeto focado tiver um tamanho menor que o VIC, ele não será detectado, a menos que o seu valor de brilho - VB, ou índice de luminosidade - se sobreponha ao da sua circunvizinhaça. Se o objeto tiver um tamanho exatamente igual ao do VIC, também não será detectado, a menos que o VIC se sobreponha exatamente sobre ele e o seu VB seja maior que o da circunvizinhança.
Outra questão a ser considerada é o que
se chama "confusão espectral". Um objeto qualquer tem uma curva
espectral definida, porém esta curva se altera quando o objeto é
imageado na presença de outro - figura abaixo.
Figura. "Confusão" espectral dentro da VIC do MSS Landsat,
sem se considerar os efeitos atmosféricos [3].
Os sensores do tipo passivo sentem muito o efeito atmosférico
de duas formas: dispersão e absorção.
Enquanto a dispersão acrescenta luminosidade, a absorção
retira. A atmosfera dispersa o comprimento de onda verde [0,5mm;0,6mm]
quatro vezes mais que o comprimento de onda infravermelho [0,7mm;1,1mm].
A absorção afeta principalmente a faixa infravermelha do
espectro. É possível fazer correções para a
dispersão, mas é muito difícil fazê-lo para
a absorção. Um outro problema grave é a qualidade
da luz refletida que depende da radiação incidente. A assinatura
espectral muda muito se o dia tem nuvens ou não.
(a) Imagem tomada a 45 graus a cerca de 150 m sobre Recife - PE, próximo ao aeroporto.
(b) Imagem tomada a 45 graus, em alguma parte de Pernambuco a cerca de 3000m.
(c) Imagem tomada a 45 graus, em alguma parte da Paraíba a cerca de 2000m.
(d) Imagem tomada a 45 graus, nas proximidades de Santa Rita - PB a cerca de 500m.
Figura. Efeitos atmosféricos da dispersão em imagens
aéreas,
adquiridas em 23/10/99 entre 13:30h e 14:00h.
Outra questão é que dois objetos distintos
podem ter diferenças espectrais desprezíveis na zona multiespectral,
ou seja, em várias bandas espectrais. A poluição pode
distorcer a radiação dentro das chamadas ''janelas atmosféricas''
- intervalo do espectro que não é absorvido. Assim, é
importante ressaltar que a escolha correta dos canais a serem observados
pode contornar a maioria destes problemas. Em geral, se utiliza combinações
dessas bandas espectrais em estudos de Sensoriamento Remoto. As combinações
ideais dependem do tipo de aplicação.
Figura. Efeitos atmosféricos da absorção
e dispersão
na aquisição da imagem [3].
O Básico do Processamento Digital de Imagens (P.D.I.) em Sensoriamento Remoto
Didaticamente, pode-se pensar na imagem como uma matriz
de pequenos quadrados, onde cada elemento - pixel - contém um valor
de sombreamento proporcional a refletibilidade da imagem na respectiva
posição.
Figura. Codificação (C) da matriz (A) resulta
em uma imagem (B) [13].
Sinteticamente, na geração da imagem, para
cada valor atribui-se uma cor (quando o equipamento é colorido),
ou níveis de cinza (quando o equipamento é preto e branco).
Pode-se pensar no campo de P.D.I., segundo o fluxograma abaixo:
Figura. Fluxograma do P.D.I. em Sensoriamento Remoto [8].
De acordo com este fluxograma, será feita a seguir uma análise suscinta de cada um dos seus pontos, dando ao leitor além de uma visão global do processo, alguns detalhes do mesmo.
Recursos do P.D.I.
Existem recursos para modificar ou restaurar uma imagem dentro da idéia de correção de deficiências. Esses recursos são de grande valia ao usuário. A seguir será dado uma breve introdução a estes recursos; o que objetiva cada um deles e a necessidade da sua utilização.
Restauração e Eliminação do Ruído
A restauração da imagem ou eliminação do ''ruído'', pode ser necessária para as imagens obtidas próximas ao limite de resolução dos seus sensores, como em Astronomia, Microscopia Eletrônica, Sensoriamento Remoto Militar, etc. Nestes casos, onde a resolução é bem alta, ou sob condições adversas, como movimento rápido relativo objeto-sensor; ou turbulência, pode-se notar na imagem distorções, borramentos e outros tipos de imperfeiçõees. A restauração, como o próprio nome já diz, consiste no uso de um conjunto de complexas técnicas obtidas a partir de modelos estatísticos, matemáticos ou físicos, que constituem funções de transferência para os pontos-problema, ou até toda a imagem, num caso mais complexo.
Comumente, em casos onde a imagem captada está contaminada por ruído aleatório, são utilizados processos de filtragem na imagem. Isso faz com que o ''ruído'' presente na imagem seja removido. A implementação destes filtros pode ser feita por ''software'' [4] - que também tece várias comparações entre diversos filtros - ou por ''hardware'' [5] - que mostra em detalhes a implementação de um filtro por gradiente de Roberts.
Realce de Contraste
Basicamente, a necessidade de se realçar contrastes
em uma imagem deve-se ao fato da visão humana poder distinguir um
número finito de níveis de sombreamento, que é muito
inferior ao que uma tela de computador pode oferecer. Assim, esta limitação
pode causar muita confusão à vista humana quando os níveis
de sombreamento são muito próximos. As metodologias aplicadas
permitem modificar as tonalidades de sombreamento - no caso de imagens
em preto e branco - para que sejam melhor identificadas. Pode-se destacar
os filtros lineares, não lineares e técnicas de
equalização de histograma [6]. Um recurso que por vezes
é utilizado, dependendo do equipamento disponível, é
o da falsa cor. Este recurso bem simples, permite colorir a imagem
com tonalidades diferentes, independentes das suas cores reais - daí
o seu nome - de acordo com o nível de sombreamento determinado.
Isso aumenta em muito a capacidade de discernimento da vista humana, já
que para níveis de cinza é da ordem de centenas e para cores,
a capacidade de distinção chega a alguns milhares.
Figura. Imagem tomada a 45 graus, nas proximidades de Santa Rita - PB a
cerca de 500m: original (acima) e realçada por equalização (abaixo).
Incorporação de Informações
O uso de informações adicionais sobre a
topografia do terreno, apontou a necessidade da criação dos
chamados Modelos Digitais de Terreno - M.D.T. - que consiste em alocar
em determinados pixels, informações sobre a topografia do
terreno naquele ponto. Essa ferramenta, em conjunto com outras informações
sobre a localidade em questão (informações espaciais
ou não), dão origem aos Sistemas de Informação
Geográfica [7] e o conjunto de técnicas utilizadas em seu
tratamento é denominado Geoprocessamento [8]. Em geral, utiliza-se
"softwares" específicos que combinam um banco de dados com o tratamento
e processamento de imagens e mapas. Um bom exemplo é o sistema Spring
[18] do INPE. que pode ser obtido gratuitamente
pela Intenet.
Figura. Mapa Cadastral da Paraíba em sistema Spring [18].
Figura. Composição RGB falsa-cor da região
de Brasília - DF, utilizando o Spring .
Figura. Modelo Numérico de Terreno utilizando o Spring da região de Brasília - DF.
Suas principais aplicações são: construções de imagens em perspectiva ou 3D, estudos de luminosidade, avaliações de projetos ambientais e urbanos e até mesmo estudo e previsão de catástrofes.
Tratamento de Imagens
Geralmente, não se possui o equipamento adequado para trabalhar com a imagem da forma que se deseja, visto que são necessários grandes esforços computacionais para um estudo deste tipo. Quando esta situação ocorre, se faz necessário uma ''compressão'' dos dados. Sendo X 1 x n , o vetor de atributos (espaço de todas as medidas possíveis feitas pelos sensores do satélite), comprimir esses dados, significa reduzir a dimensão n deste vetor a níveis aceitáveis pelo usuário e pelo equipamento. Deve-se realçar, no entanto, a necessidade de procurar sempre a maior sofisticação de técnicas e equipamento o quanto possível. Com a facilidade de acesso a diferentes tipos de tecnologias de ''software'' e ''hardware'' e com a diminuição dos seus custos, estes tipos de técnicas para selecionar atributos poderão vir a se tornarem desnecessárias no decorrer dos próximos anos. Porém, como ainda são necessárias em muitos casos, far-se-á aqui uma breve descrição destes tipos de técnicas.
Os dois conjuntos de técnicas mais empregadas utilizam métodos estatísticos. O primeiro conjunto é constituído de transformações nos espacos dos atributos e o segundo utilizam medidas de distância.
No primeiro caso, o objetivo é reduzir a dimensão preservando ao máximo a representação de padrões e/ou a discriminação entre as classes caracterizadas pelos atributos. São utilizados os critérios do Erro Médio Quadrático (Componentes Principais) ou Entropia.
Resumidamente, a técnica de Componentes Principais [9] considera a distribuição multivariada global da mistura de classes. Obtém-se a matriz de covariâncias Sn x n do vetor de atributos. A matriz de transformação T p x n será tal que as linhas da matriz T são auto-vetores correspondentes aos maiores auto-valores de S. Assim, as componentes do vetor Y=TX , são não-correlacionadas e Y terá dimensão p<n. A escolha do valor numérico de p é dada ao usuário que geralmente dispõe de uma avaliação sobre a representação do vetor Y para vários valores de p. Uma boa discussão sobre transformações em imagens por Componentes Principais e sua aplicação também em rotação de imagens por intermédio dos seus auto-vetores, pode ser visto em Gonzalez and Wintz [19].
O critério da Entropia [7], procura reduzir a dimensão
preservando o máximo de informação possível.
H(X) = -E[log (fk (X))]
Por exemplo, se X tiver distribuição Normal, ou Gaussiana, com matriz de covariância S, então:
Aplicando Componentes Principais :
No segundo caso, ou seja, medidas de distância, visa-se a redução da dimensão procurando minimizar a probabilidade de erro. Na realidade, os critérios fornecem limites inferiores e superiores para esta probabilidade. São muito utilizados os critérios da Divergência e a Distância J-M.
A Divergência [9] toma as classes Wi
e Wj, com suas respectivas probabilidades
condicionais : f(X | Wi) e f(X
| Wj). Seu princípio consiste
em tomar a razão de verossimilhança Lij
(X)
como:
Lij (X) = f(X | Wi) / f(X | Wj)
e,
L'ij (X) = loge
[Lij
(X)]
Figura. Definição da razão de verossimilhança
no ponto.
A Divergência é definida por :
Dij = E [L'ij (X) | Wi) + E [L'ij (X) | Wj)
onde :
Um procedimento usual para computar a Divergência
entre M classes, M>2, é computar a divergência
média entre todos os pares de classes e, selecionar o subconjunto
de N atributos, para o qual a divergência média definida
por :
é máxima.
No entanto há problemas, pois essa forma não é ótima. Um único termo da somatória pode elevar muito o resultado final. Uma recomendação seria analisar cada divergência entre as classes i e j, num processo de seleção.
Para evitar os problemas da Divergência, pode-se utilizar a Distância Jeffries-Matusita [2]. Ela é uma medida da diferença média entre funções densidades de duas classes, e é definida formalmente por:
Classificação
Não se entrará aqui nos méritos das formas atualmente utilizadas para classificação de imagens orbitais, mas dos fundamentos destes processos. Lembrando o fluxograma da figura 1.6, vê-se as diversas formas de classificação. Todos estes processos tem por base a Teoria Estatística de Decisão, idealizada por Fisher [9] e [12] - ver figura abaixo - na década de 30.
Figura. Princípio discriminante de Fisher [13].
O modelo sugerido de discriminação entre duas classes, poderia também alocar novos objetos aos grupos. Observa-se, no entanto, que mesmo para um caso muito simples, alguns pontos serão classificados de maneira errônea. Na realidade, para toda e qualquer classificação, sempre haverá o risco de se classificar um objeto em uma classe a qual, na verdade, ele não pertence.
Os métodos de classificação dividem-se em dois grupos principais: os não-supervisionados e os supervisionados. Este último, por sua vez, também se subdivide em dois: Métodos Clássicos e Métodos Contextuais. Os não-supervisionados dividem as classes automaticamente e em sua maioria baseiam-se no Princípio de Fisher. Alguns métodos podem ser baseados também em funções discriminantes matemáticas, como por exemplo a Teoria dos Grafos e relações nebulosas [14]; abordagens estatísticas assintóticas [15], ou ainda modelos de pertinência nebulosa [16]. Os supervisionados são mais precisos por levarem em consideração informações fornecidas pelo usuário, a verdade terrestre ou mapa de referência. Baseiam-se, além de funções discriminantes, na teoria de Bayes e requerem alguns conhecimentos prévios das classes [2, 11, 13, 17].
Método Não-supervisionado
São métodos nos quais o próprio algoritmo procura "descobrir" classes na imagem por agrupamento ou aglomeração, ou seja, procurando agrupar "pixels" semelhantes entre si, ou separando grupos de "pixels" diferentes. O usuário só informa ao algoritmo o número de classes desejado ou um critério para que o agrupamento seja considerado "estável". O resultado desse tipo de método é uma imagem com classes sem rótulos, ou seja, não se conhece a previamente a identificação das classes resultantes. O próprio usuário deve ao final do processo rotular essas classes da melhor maneira possível.
Um método não-supervisionado bastante didático
é o método do Agrupamento Hierárquico [1]. Ele não
necessita de um número pré-definido de classes. O algoritmo
inicia assumindo que cada "pixel" é um agrupamento. Numa segunda
fase, distâncias são calculadas entre os "pixels", procurando
os vizinhos mais próximos unindo-os em um novo agrupamento. O método
termina quando todos os "pixels" estão agrupados em um único
grande agrupamento. Os resultados são mostrados em geral em um dendograma
- ver figura - e o usuário pode ao final decidir com quantas classes
a imagem deve ficar.
Esse método, por poder proporcionar resultados
intermediários, é interessante do ponto de vista da análise
dos agrupamentos. Porém, trabalha com matrizes de distâncias
que são constantemente recalculadas e o método exige muita
memória do computador e em geral, são lentos. Outra desvantagem
é a possibilidade de decisão errônea em situações
onde vários agrupamentos são igualmente possíveis
- ver figura.
Problemas deste tipo podem ser contornados com informações extras advinda do usuário. Os métodos supervisionados iteragem com o usuário visando diminuir o número de operações envolvido e também fornecer um número mais confiável de classes previamente rotuladas.
Método Supervisionado Clássico
Nos métodos clássicos, cada ''pixel'' é classificado tomando-se em consideração as informações contidas no ''pixel''. Já nos contextuais, leva-se em conta também as informações dos ''pixels'' da vizinhança, para a classificação.
Apenas a título de ilustração, será mostrado aqui um método de cada. Será dado maior atenção aos métodos supervisionados, por serem próximos à área de interesse deste trabalho. Como exemplo do método supervisionado clássico, será mostrado o Método do Custo Mínimo de Classificação Errônea (ECM) [11]. Apesar de não ser um recurso ótimo em termos computacionais, é bastante didático. Sendo o vetor de atributos X composto por variáveis aleatórias xi, com densidades fi(X), i=1,2,...,N que serão atribuidas às populações pi (partição do espaço dos atributos), com probabilidades a priori P(pj), j=1,2,...,M; M<N e associadas às densidades f(X|pj). O custo de se classificar um objeto é dado por C(pk|pj), com probabilidade P(pk|pj).
Assim, o risco médio de se decidir pela população pi, é dada por :
Têm-se ainda que o cálculo da probabilidade de classificação correta é dada por:
Método Supervisionado Contextual
Os métodos contextuais, fundamentalmente, introduzem
um fator de correção denominado fator de correção
contextual [17]. Resumidamente, temos K classes possíveis para classificação,
com probabilidades a priori p1,
p2, ..., pk
com densidade da classe k dada por fk
(x).
Reserva-se também a possibilidade de se classificar
um "pixel" de forma duvidosa (D). Assim, o espaço
das decisões será:
W= { 1, 2,..., K, D }
Para facilitar a compreensão, assume-se que a perda incorrida por todos os erros de classificação seja um, e que a perda por se estar em dúvida seja . Nos sistemas, geralmente, essa função-perda é implementada com valores fixos, ou "default" para cada classe. Esses valores também podem ser alterados, privilegiando certa(s) classe(s) de acordo com a conveniência do usuário, fazendo diferenças mais realistas na classificação.
Num método como este, pode-se fazer com que a classificação
de cada "pixel" dependa até de todos os outros "pixels" da imagem.
Didaticamente, consideram-se apenas um "pixel" e sua vizinhança.
Para o "píxel" i, temos a sua vizinhança denotada por Vi,
e o seu vetor característico por Di.
Se Vi consiste em n "pixels"
em adição ao "pixel" central, o vetor característico
será denotado por
Di= {xi,xi1, ..., xin}
onde as variáveis aleatórias x também podem vir a ser vetores aleatórios X, quando no caso de imagens multiespectrais.
A regra de classificação Bayesiana pode ser :
D, se Pi
(k|Di) < 1- e, para
todo k=1,...,K
ci
=
m, se Pi (k|Di)
= max Pi
(k|Di) >= 1 - e
k <= K
onde Pi (k|Di) é a probabilidade de ci. seja igual a k dado Di, ou seja a probabilidade a posteriori da classe k, dado os vetores característicos em Vi. Assim, sem entrar em muitos detalhes, tem-se a expressão:
Pi (k|Di) = pk fk (xi) Rk (xi,xi1, ..., xin) / Pi (Di) (1.a)
onde :
Rk (xi1, ..., xin) = h(xi1, ..., xin | xi, k, k1, ..., kn) g( k1, ..., kn | k) (1.b)
e onde a função h descreve a densidade de probabilidade conjunta dos vetores característicos Di, dado que os "pixels" em Vi. pertencem à classe k ("píxel" central), k1, k2, ..., kn. O segundo fator, função g, é a probabilidade desta configuração em particular de classes, dado que o "píxel" central pertence à classe k. A somatória é o total das possíveis configurações.
A expressão (1 - a e b) pode parecer de difícil resolução à primeira vista, principalmente pelo grande número de termos envolvidos, mas não o é na prática. O denominador, como no método clássico é independente de K, o que facilita, bastando maximizar o numerador. Nos métodos clássicos maximiza-se pk fk (xi), podendo-se dizer que Rk é aquele fator de correção contextual mencionado anteriormente. O exemplo abaixo ilustra o mecanismo
# Exemplo 1.1.: Seja Vi = "pixel" i + 4 "píxels-vizinhança".
A função g é:
A função h é:
Até aqui foram apresentados apenas a nível
introdutório os sistemas de classificação. Mais detalhes
sobre o método contextual pode ser visto em [13]. Para mais detalhes
de diversos métodos de classificação estatística,
pode-se citar Baridó [19] que em sua dissertação de
mestrado tece comentários sobre vários métodos - paramétrícos
e não-paramétricos - e os compara a partir de simulações.
O próprio método contextual tem a sua versão não-paramétrica
que pode ser visto em Baridó [19] e James [20] que também
fornece além do algorítmo, um programa simples em linguagem
BASIC para o caso de um vizinho (1-NN). Também em James [20], pode-se
ver no capítulo 10 uma explanação introdutória
sobre o reconhecimento de padrões e classificação
auxiliado por inteligência artificial.
Métodos de Relaxação
Os métodos de relaxação que são utilizados como dispositivos de classificação contextual são baseados em uma filosofia diferente da apresentada na seção anterior. Inicialmente, estimam-se os "graus de pertinência" de um "pixel" a cada uma das K classes possíveis. Normalmente, utiliza-se para o "pixel" i, as K probabilidades a posteriori P(k | xi), k = l,...,K. Neste ponto, observa-se os vizinhos deste "pixel" para checar se os "graus de pertinência" destes estão em razoável correspondência com aqueles do"pixel" i. Esta avaliação é baseada em alguns conhecimentos a priori dos padrões nos quais as classes ocorrem. Classifica-se assim o "pixel" i numa classe concordante com os seus vizinhos, a partir das informações das probabilidades a posteriori - "graus de pertinência" - e probabilidades a priori obtidas de informações da própria imagem [17].
O procedimento pode ser ilustrado a partir do seguinte exemplo:
# Exemplo 1.2.: Dentre todas as classes disponíveis para um dado "pixel" i, a que obteve maior "grau de pertinêncía" foi a classe "Campo de Feijão". No entanto, os "pixels" da sua vizinhança obtiveram maior grau para a classe "Bosque de Eucaliptos" e as informações a priori fornecidas dão conta que um campo de feijão em meio a um bosque de eucaliptos é de probabilidade muito pequena. Num caso como este, deseja-se ajustar as estimativas iniciais para o "pixel" i e sua vizinhança. Inicia-se assim um procedimento iterativo visando ajustar as probabilidades a posteriori para o "pixel" i e seus vizinhos. Faz-se necessário observar que as probabilidades a posteriori são obtidas a partir de um procedimento não-contextua1. #
Este procedimento iterativo pode ser formulado de muitas maneiras diferentes, existindo portanto, vários tipos de métodos de relaxação [17, 21 e 22].
Estimativa de Parâmetros - Treinamento do Classificador
Os métodos de classificação supervisionados
necessitam de estimativas para os parâmetros das funções
discriminantes. Apesar de ser possível em alguns casos, determinar
tais funções com base em considerações teóricas,
com o conhecimento prévio a respeito da imagem, ou eventualmente
pela intuição, o mais comum é o uso de informações
retiradas de áreas de treinamento na própria imagem, fotografias
aéreas, mapas, ou investigação direta no campo. Esses
conhecimentos, denominados verdades terrestres, são na realidade,
"pixels" sobre os quais se conhece suas verdadeiras classes - daí
o nome. Com base nisto, o classificador é "treinado" a reconhecer
"pixels" de estrutura semelhante. A estimativa da densidade de probabilidade
para o vetor de atributos, fk
(x), k = 1,...,K e os parâmetros das classes, como probabilidades
a priori, probabilidades condicionais, etc, requerem diferentes tipos de
conhecimento da verdade terrestre. Por exemplo, para estimar as densidades
fk (x), necessita-se de áreas
razoavelmente homogêneas de treinamento para cada classe. No entanto,
para as probabilidades à priori p(k),
as estimativas não podem advir de tais áreas de treinamento,
necessitando de uma sistemática diferente, como por exemplo, uma
inspeção visual da cena ou pontos amostrados aleatoriamente.
No caso de classificadores contextuais, as funções discriminantes
necessitam da verdade terrestre dos pontos e de um número determinado
de vizinhos, de acordo com o modelo, exigindo uma forma de amostragem especifica
para estes pontos.
A tabela 2, adaptada de Saebo et alii [17], mostra alguns
métodos de classificação, a densidade multivariada
comumente utilizada, os parâmetros de cada modelo a serem estimados
e possíveis caminhos para fazê-los:
Tabela 2. Alguns métodos de classificação
e metodologia de treinamento.
Uma explanação detalhada sobre os métodos
pode ser encontrada em [17, 22, 23], sobre o método contextual de
Owen & Switzer em [24] e sobre o Método da Máxima Verossimilhança,
podem ser encontrado detalhes em [2].
Pós-classificação
A pós-classificação é uma forma de reduzir erros de classificação na imagem. Seu conceito básico é que pontos isolados de uma classe A dentro de uma área homogênea de uma classe B devem ser classificados como classe B e não como classe A.
Normalmente, usa-se um processo de filtragem para eliminar
esses pontos isolados. Uma abordagem é utilizar o filtro da moda,
reclassificando o "pixel" segundo os seus vizinhos dentro de uma janela,
por exemplo 3 x 3. A pós-classificação pode ser utilizada
sequencialmente até que as alterações na imagem classificada
se estabilize. Porém, deve-se tomar cuidados para que o processo
não afete outras áreas, nas quais os resultados já
são aceitáveis.
Interpretação Visual da Imagem
Neste tópico, será dado uma breve introdução às metodologias de análise para quem não dispõe de nenhum dos recursos citados anteriormente. Trata-se da Interpretação Visual da Imagem (I.V.I.) [25]. A imagem é então adquirida já classificada, porém sem um fim específico. Normalmente, quando se utiliza um processo de classificação, a tendência é a procura de uma melhor qualidade na área especifica de interesse. Este pode ser o grande ponto desfavorável a interpretação visual. Este tipo de material é fornecido pelo Instituto de Pesquisas Espaciais - INPE - como sendo uma grande foto em papel, podendo ser esta colorida ou preto e branco, de determinada época de interesse, mono ou multiespectral, etc; ou seja, há várias opções de modo que o usuário deve procurar a que melhor se adeque à sua necessidade. Tendo a imagem em mãos, o passo seguinte é o de reconhecer o que existe na imagem e extrair dela o que se interessa.
A interpretação visual requer do usuário conhecimentos prévios de razoável monta. Por exemplo, há a necessidade do conhecimento prévio da época adequada para a obtenção da imagem, tipo de produto (colorido, ou P/B, já que nem sempre o colorido é que traz mais informações), as bandas a serem escolhidas (cada banda reflete uma determinada faixa do espectro). Para trabalhos com monitoramento ambiental, por exemplo, pode-se encontrar boas indicações em Tucker [26], as escalas (que devem ser ao máximo compatíveis com mapas, cartogramas, etc; disponíveis sobre a região), entre outros. Dependendo do tipo de interesse, a IVI requer mais conhecimentos da área "in loco", o que nem sempre é possível, ou associações com fotos aéreas, entre outros.
Os fotointerpretadores podem ser classificados em três grupos: primeiro, os que possuem conhecimento de campo; segundo, os que não possuem este conhecimento e, por fim, os que não possuem este conhecimento, mas que possuem fontes de informações adicionais. Os primeiros conseguem interpretar de forma mais fácil que os demais. Os do terceiro grupo podem ter dificuldades em cruzar as informações de que dispõem com a imagem. Já os do segundo grupo, dificilmente conseguirão fazê-lo sem o uso de chaves de interpretação - conhecimentos utilizados que são estruturados como se fossem formulações para se resolver um problema. É de grande valia que o uso das chaves de interpretação, quando necessárias (na maioria das vezes), seja feita de forma invariante, ou seja, não possa mudar de um fotointerpretador para outro. Para isso, cria-se legendas que vão funcionar como critérios de separação das diversas classes. Além de fixar a interpretação, as legendas auxiliam uma leitura mais rápida.
Feita a interpretação, parte-se para extrair da imagem as informações que se procura desde o início. Supondo um exemplo agrícola de estimativa de áreas plantadas, pode-se agir de duas formas. Na primeira, usa-se uma malha de pontos proporcionais à escala para se estimar a área, como um método grosseiro de integração. Logicamente que os resultados serão induzidos a muitos erros, às vezes até podem comprometer todo um trabalho. Uma solução seria trabalhar com uma malha de pontos bastante densa, o que ainda assim proporciona um risco de proporções razoáveis se o terreno em questão tiver um relevo acidentado. Uma segunda forma, já bem mais sofisticada, requer um computador em associação a uma mesa digitalizadora. A mesa transfere contornos da região ao computador e em associação a um mapa da região, incorpora também informações sobre o relevo. A seguir, um simples processo de integração numérica fornece a estimativa da área com erros bastante aceitáveis. Esta forma, porém é bastante onerosa, mas permite que se leve em consideração a tridimensionalidade. Com a tecnologia atual - a utilização de "scanners" pode transformar o trabalho ainda mais preciso, pois evita o contato manual - a transferência da imagem é feita por um processo digital de leitura da imagem. A grande desvantagem destes dois últimos processos é a necessidade de ?software" específico, nem sempre disponível com facilidade para este tipo de aplicação.
Em algumas aplicações da área agrícola,
quando possível em termos de escala, pode-se utilizar dados amostrais
do espaçamento médio no plantio na área de interesse
para a estimativa da área plantada [27]. No entanto, a distância
do pesquisador pode impossibilitar este procedimento. Geralmente, para
se obter uma escala que permita tal visualização, deve-se
recorrer ao uso de aeronaves, o que pode tornar inviável economicamente
um projeto desta natureza. Porém, conseguindo-se agrupar recursos
desta magnitude, os resultados deverão ser bastante confiáveis,
podendo-se precisar de forma estatística o erro envolvido na operação.
Testes e Controle
Qualquer que seja o tipo de classificação, seja visual ou assistida por computador com qualquer algoritmo que se possa utilizar, sempre irão aparecer dúvidas com respeito à classificação obtida. Para sanar este problema, o procedimento usual é visitar o local. No entanto, este tipo de procedimento nem sempre é possível ou, em certos casos, nem mesmo viável. Uma forma de solução para o caso é a conjugação de imagens, tanto no aspecto espectral - imagens multiespectrais - quanto no aspecto temporal - imagens obtidas em diferentes épocas do mesmo local. Por exemplo, no caso agrícola da seção anterior, fotos obtidas em diferentes épocas mostrarão taxas de cobertura de solo diferenciadas, permitindo a diferenciação de culturas.
Na maioria das vezes os erros cometidos na classificação
são inversamente proporcionais aos recursos - humanos , financeiros
e de equipamento - alocados para o cumprimento da tarefa. Por estes motivos,
é sempre recomendável o máximo aproveitamento e utilização
de recursos e a maior sofisticação possível. É
claro, que isto depende da finalidade com que se faz um processamento de
uma imagem, já que não vale a pena investir na melhoria da
classificação de uma região que não a de interesse,
e da proporção de erro aceitável para o cumprimento
da análise.
Referências
[1] Richards, J. A.; Remote Sensing Digital Image Analysis - An Introduction. Berlin, Springer-Verlag, 1995.
[2] Swain, P.H. and Davis, S.M.; Remote Sensing - The Quantitative Approach. New York, McGraw Hill International Book Company, 1978.
[3] Garcia, G.J.; Sensoriamento Remoto: Princípios e Interpretação de Imagens - Editora Nobel, 1982.
[4] Barros, M.A.; Filtros Espaciais: Implementação, estudo comparativo e aplicação em Sensoriamento Remoto. Dissertação de Mestrado - Departamento de Engenharia Elétrica - UFPb - Campina Grande, 1990, 156 pg.
[5] Barros, L.A.; Um circuito integrado para detecção de bordas com o Operador de Roberts. Dissertação de Mestrado - Departamento de Engenharia Elétrica - UFPb - Campina Grande, 1990.
[6] Ciampi, M.G.; ''Nociones Generales de Processamiento Digital de Imagines''. Revista Selper, marco, 1986.
[7] Câmara, G.; Casanova, M. A.; Hemerly, A. S.; Magalhães, G. C. e Medeiros, C. M. B.; Anatomia de Sistemas de Informação Geográfica. X Escola de Computação, Campinas, 1996.
[8] Assad, E. D. e Sano, E. E.; Sistemas de Informação Geográfica - Aplicações na Agricultura. EMBRAPA, Brasília, 1998.
[9] Johnson, R.A. and Wichern, D.W.; Applied Multivariate Statistical Analysis. Prentice-Hall Inc., 1982.
[10] Gonzalez, R.F. and Wintz, P.; Digital Image Processing, Addison-Wesley Publishing Co., 1977.
[11] Mascarenhas, N.D.A. e Velasco, F.D.R.; Processamento Digital de Imagens - IV Escola Brasileiro-Argentina de Informática - Termas de Rio Hondo, Argentina, 1989.
[12] Fisher, R.A.; ''The use of multiple measurements in taxonomic problems''. Ann. Eugen. v.7, 1936, pg 178-188.
[13] Moraes, R. M.; Implementação de um sistema contextual de classificação de imagens orbitais compatível com o sistema SITIM. Dissertação de Mestrado, UFPb, 1992, 100 pg.
[14] Dunn, J.C.; ''A Graph Theoretic Analysis of Pattern Classification via Tamura's Fuzzy Relations''. IEEE Trans. Syst. Man. Cybern., vol SMC-4, 1974, pg 310-313
[15] Cooper, D.B. and Freeman,J.H.; ''On the Asymptotic Improvement in the Outcome of Supervised Learning Provided by Additional Nonsupervised Learning''. IEEE Transactions on Computers, vol.19, n.11, november, 1970.
[16] Kent, J.T. and Mardia, K.V.; ''Spatial Classification Using Fuzzy Membership Models''. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.10, n.5, September, 1988, pp 659-671.
[17] Säebo, H.V.; Braten, K.; Hjort, N.L.; Llewllyn, B. and Mohn, E.; Contextual Classification of Remotly Sensed Data : Statistical Methods and Development of a System - Report n.768 - Norwegian Computing Center - Oslo - 1985.
[18] Teles, M. M. F.; Estudos sobre Sistemas de Informação Geográfica. Relatório PIBIC, Universidade Federal da Paraíba, João Pessoa, agosto de 1999.
[19] Baridó, M.P.F.; Uma comparação entre diferentes métodos multivariados de classificação. Dissertação de Mestrado - Instituto de Matemática - UFRJ - Rio de Janeiro, 1989, 189 pág.
[20] James, M.; Classification Algorithms - John Wiley and Sons Inc., 1985.
[21] Fu, K.S. and Yu, T.S.; Statistical Pattern Classification using Contextual Information - Research Studies Press, 1980.
[22] Hjort, N. L. and Mohn, E.; A comparison of some contextual methods in remote sensing classification. In: Säebo, H.V.; Braten, K.; Hjort, N.L.; Llewllyn, B. and Mohn, E.; Contextual Classification of Remotly Sensed Data : Statistical Methods and Development of a System - Report n.768 - Norwegian Computing Center - Oslo - 1985.
[23] Hjort, N. L.; Estimating parameters in neighbourhood based classifiers for remotely sensed data, using unclassified vectors: In: Säebo, H.V.; Braten, K.; Hjort, N.L.; Llewllyn, B. and Mohn, E.; Contextual Classification of Remotly Sensed Data : Statistical Methods and Development of a System - Report n.768 - Norwegian Computing Center - Oslo - 1985.
[24] Owen, A. and Switzer, P.; A neighbourhood based classifier for Landsat data. Technical Report. Dep. of Statistics, Stanford University, 1982.
[25] Duarte, V.; ''Metodologia de Interpretação Visual de Dados Orbitais''. Publicação interna INPE (no prelo).
[26] Tucker, C.J.; ''A comparison of satellite sensor bands for vegetation monitoring''. Photogrammetric Engineering and Remote Sensing, vol.44, n.11, november, 1978.
[27] Rudorff, B.F.T.; Palme, U.W.; Duarte, V.; Krug, T.;
Tardin, A.T.; Batista, G.T.; Medeiros, J.S. e Godoy Jr.,M.; Sensoriamento
Remoto na Detecção de áreas plantadas e perdas na
produção agrícola no município de Irecê
- BA. Publicação interna - INPE - abril, 1986