123
Página 1 de 123 INTRODUCCION A LA PERCEPCION REMOTA CONTENIDO 1. DEFINICION Y CONCEPTOS FUNDAMENTALES. 2. NATURALEZA DE LAS RADIACIONES ELECTROMAGNETICAS. 3. INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE LOS ESPECTROS. 4. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA SUPERFICIE TERRESTRE. 5. INTERACCIONES ATMOSFERICAS. 6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES. 7. SENSORES. 8. ESTRUCTURA DE LAS IMÁGENES DIGITALES. 9. PROCESAMIENTO DE LAS IMÁGENES DIGITALES. 10. ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA. APENDICE I: NOCIONES BASICAS SOBRE SENSORES DE RADAR. APENDICE II: BANDAS ESPECTRALES DE ALGUNOS SATELITES ACTUALES. APENDICE III: BIBLIOGRAFIA SUGERIDA.

Introduccion a La Percepcion Remota

  • Upload
    man-olo

  • View
    5.413

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Introduccion a La Percepcion Remota

Página 1 de 123

INTRODUCCION A LA PERCEPCION REMOTA

CONTENIDO

1. DEFINICION Y CONCEPTOS FUNDAMENTALES.

2. NATURALEZA DE LAS RADIACIONES ELECTROMAGNETICAS.

3. INTERACCION DE LA RADIACION CON LA MATERIA Y ORIGEN DE

LOS ESPECTROS.

4. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA

SUPERFICIE TERRESTRE.

5. INTERACCIONES ATMOSFERICAS.

6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELITALES.

7. SENSORES.

8. ESTRUCTURA DE LAS IMÁGENES DIGITALES.

9. PROCESAMIENTO DE LAS IMÁGENES DIGITALES.

10. ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA.

APENDICE I: NOCIONES BASICAS SOBRE SENSORES DE RADAR.

APENDICE II: BANDAS ESPECTRALES DE ALGUNOS SATELITES ACTUALES.

APENDICE III: BIBLIOGRAFIA SUGERIDA.

Page 2: Introduccion a La Percepcion Remota

Página 2 de 123

1. DEFINICIONES Y CONCEPTOS FUNDAMENTALES.

Percepción remota (PR) es la ciencia y arte de obte ner información de un objeto, área o fenómeno a trav éééés del análisis de los datos adquiridos mediante alg ún dispositivo que no esta en contacto físico con el objeto, área o fe nómeno investigados.

Los humanos tomamos conocimiento del mundo exterior detectando y midiendo los

cambios que los objetos imponen a los campos que los envuelven, según sean

éstos electromagnéticos, acústicos, gravimétricos o magnéticos: bastará poseer el sensor

adecuado para cada caso. Desde un punto de vista práctico, más acorde a nuestros fines,

podemos restringir la generalidad de este concepto limitándonos a utilizar el término

“percepción remota” (o “teledetección”) en conexión con técnicas electromagnéticas de

adquisición de información. Si quisiéramos historiar la evolución de la percepción

remota deberíamos, en un sentido estricto, retroceder algunos cientos de millones años

cuando alguna forma inferior de vida comenzó a diferenciar algunas de sus células

volviéndolas fotosensibles, proceso que evolucionó también durante millones de años

hasta convertirlas en un sensor altamente sofisticado como el ojo humano. Si bien éste

fue y sigue siendo el sensor utilizado en muchas aplicaciones cotidianas de la

percepción remota, ya desde el siglo XIX comenzó a ser sustituído por un mecanismo

que lo imitaba ofreciendo algunas ventajas como el del registro permanente de las

observaciones: la cámara fotográfica. Esta fue montada en plataformas tan dispares

como palomas y globos aerostáticos en un principio, luego en aviones y en épocas más

recientes en las primeras plataformas orbitales. El vertiginoso desarrollo de estas

últimas, acompañadas por los avances tecnológicos paralelos llevaron a la situación

actual en que innumerables plataformas orbitan la Tierra observándola con sofisticados

sensores como escáneres multiespectrales, sensores térmicos infrarrojos, sistemas de

radar y laser, etc.

La Percepción Remota involucra dos procesos básicos:

· Adquisición de datos desde plataformas con sensores adecuados

· Análisis de los datos mediante dispositivos visuales o digitales

Muchas veces la información así adquirida se complementa con datos de referencia ya

existentes de la región en estudio (mapas de suelos, estadísticas de cosechas, planos

catastrales, etc.) Toda esta información es usualmente combinada en forma de capas de

Page 3: Introduccion a La Percepcion Remota

Página 3 de 123

información en lo que usualmente se denomina un SIG (Sistema de

Información Geográfico) o GIS de acuerdo a sus siglas en inglés.

FIG 2

Page 4: Introduccion a La Percepcion Remota

Página 4 de 123

2. NATURALEZA DE LAS RADIACIONES ELECTROMAGNÉTICAS

Dada la importancia de las radiaciones electromagnéticas en la adquisición de

información por PR se justifica estudiar su naturaleza con mayor detalle. La energía

electromagnética o energía radiante es una entidad física que se manifiesta bajo dos

aspectos complementarios entre sí: el ondulatorio y el corpuscular. La concepción

ondulatoria que permite explicar ciertos fenómenos como los de difracción e

interferencia interpreta la la radiación como un campo eléctrico y uno magnético

oscilando en planos perpendiculares (Fig. 3). El fenómeno ondulatorio posee una doble

periodicidad: en el espacio y en el tiempo.

La periodicidad espacial determina la longitud de onda que es la distancia entre dos

puntos consecutivos de igual amplitud del campo eléctrico o magnético. El intervalo de

tiempo transcurrido entre dos instantes consecutivos en que uno u otro campo alcanza

igual valor se denomina período t. Se define la frecuencia de la radiación como la

relación 1/t que se expresa en ciclos por segundo

Fig 3.

.

La concepción corpuscular permite explicar ciertos hechos experimentales como el

efecto fotoeléctrico y la absorción de radiación por las moléculas y consiste en

concebir la radiación como un haz de corpúsculos llamados cuantos de radiación o

fotones que se desplazan en la dirección del haz con la velocidad de la luz.

Las concepciones ondulatoria y corpuscular de la radiación se concilian en la relación

de PLANCK:

La relación de Planck permite que un haz de radiación de determinada frecuencia

(o longitud de onda) sea interpretado como un flujo de cuantos de determinada energía.

En la Fig. 5 se representa el espectro electromagnético. Obsérvese que la región visible

Page 5: Introduccion a La Percepcion Remota

Página 5 de 123

del espectro electromagnético representa sólo una pequeña

fracción de éste.

Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la

región espectral considerada. En nuestro estudio, que se centrará fundamentalmente en

las regiones conocidas como visible e infrarrojo nos bastará con recurrir a los

micrómetros o micras (1 µm= 10-4 cm)o a los nanometros (1 nm = 10-3 µm). Para las

regiones de radar convendrá referirse a centímetros.

Obsérvese que la región visible del espectro electromagnético representa sólo una

pequeña fracción de éste.

Por razones de practicidad se utilizan diferentes unidades de longitud de onda según la

región espectral considerada. En nuestro estudio, que se centrará fundamentalmente en

las regiones conocidas como visible e infrarrojo nos bastará con recurrir a los

micrómetros o micras (1 µm= 10-4 cm) oalos nanometros (1 nm = 10-3 µm). Para las

regiones de radar convendrá referirse a centímetros.

Page 6: Introduccion a La Percepcion Remota

Página 6 de 123

3. INTERACCION DE LA RADIACION CON LA MATERIA Y ORI GEN DE LOS ESPECTROS.

Los objetos físicos se hallan constituidos por sistemas atómico-moleculares. El

contenido energético total de tales sistemas puede considerarse, en una primera

aproximación, como la suma de varios aportes energéticos: energía translacional,

energía vibracional, asociada a las vibraciones de los átomos en torno a sus posiciones

de equilibrio en las moléculas, energía rotacional, asociada a las rotaciones de la

molécula en torno a ciertos ejes y energía electrónica, asociada a los electrones

contenidos en la molécula: algunos de tales electrones participan decisivamente en los

enlaces químicos intramoleculares. Salvo la energía translacional las demás formas de

energía están sujetas a severas restricciones impuestas por la Mecánica Cuántica, no

pudiendo adoptar sino ciertos valores discretos de energía que se denominan niveles

energéticos. La Fig. 6 esquematiza una distribución de niveles energéticos para una

molécula hipotética.

Con A y B representamos dos niveles electrónicos, que son los que involucran un

mayor diferencial de energía. Cada uno de ellos posee sus propios niveles

vibracionales v y a su vez éstos poseen una estructura “fina” rotacional r.

En la misma figura se representa una transición entre los dos niveles electrónicos., Esta

puede iniciarse y terminar en diversos niveles vibracionales o rotacionales de ambos

niveles electrónicos, siempre que ciertas reglas de selección de la Mecánica Cuántica

autoricen tal transición. Para nosotros el hecho más importante a destacar es que los

patrones de niveles energéticos como el representado en la Fig 6 son específicos de

cada especie atómico-molecular.

Page 7: Introduccion a La Percepcion Remota

Página 7 de 123

En condiciones usuales de temperatura ambiente los sistemas atómico-moleculares

suelen encontrarse en sus niveles energéticos más bajos, pero por el aporte de diversas

formas de energía (eléctrica, térmica, electromagnética, etc.) pueden ser excitados a

niveles energéticos superiores. Si la energía suministrada al sistema es suficiente podrá

provocar transiciones entre niveles electrónicos, usualmente acompañadas, como ya

vimos, por cambios vibracionales y rotacionales. Si las energías aportadas son menores

las transiciones sólo se producirán entre niveles vibracionales e incluso sólo

rotacionales. Consideremos la excitación de las moléculas por aporte de energía

radiante mediante un haz de radiación que posea un rango continuo de longitudes de

onda (o, lo que es equivalente, por un haz de fotones cuyas energías cubren un amplio

rango continuo de valores): este es el caso típico de la radiación emitida por el sol o por

cuerpos incandescentes. Este tipo de radiación suele llamarse continua o de espectro

continuo. El objeto o sistema irradiado absorberá aquellos fotones que poseen la

energía justamente necesaria para producir las transiciones que le son permitidas. Es así

que en el haz transmitido o reflejado luego de interaccionar con el sistema el número de

fotones de ciertas longitudes de onda se verá reducido, o dicho de otro modo, la

intensidad de las radiaciones de determinadas longitudes de onda se verá reducida.

Este efecto se representa en el caso hipotético de la Fig. 7: un haz incidente de

composición espectral dada por la curva A ve modificada dicha composición espectral

de acuerdo a la curva B, que puede ser considerada la curva espectral del objeto

irradiado.

La forma de dicha curva depende del patrón de niveles energéticos del objeto irradiado

y siendo dicho patrón altamente específico para el sistema atómico molecular del

objeto irradiado, es decir de su estructura química, la curva espectral de éste constituye

algo así como una impresión digital o firma espectral del objeto en cuestión

permitiendo su identificación.

Page 8: Introduccion a La Percepcion Remota

Página 8 de 123

4. INTERACCION DE LAS RADIACIONES CON LOS OBJETOS D E LA SUPERFICIE TERRESTRE.

Cuando la radiación incide sobre un dado objeto de la superficie terrestre pueden

considerarse los tres tipos fundamentales de interacciones que se representan en la Fig.8

con el correspondiente balance energético según la ley de la conservación de la energía

Es decir que la energía incidente se fracciona en varios componentes: energía reflejada,

absorbida y/o transmitida, siendo todos estos componentes dependientes de la longitud

de onda. Conviene aquí destacar dos puntos:

• La proporción de energía reflejada, absorbida o transmitida variará con los diferentes

objetos, dependiendo del tipo de material que compone dichos

objetos así como de su condición.Esto permite identificar diferentes objetos en una

imagen.

• La dependencia con la longitud de onda determina que la proporción de energía

reflejada, absorbida y/o transmitida varíe para las diferentes longitudes de onda. Esto

hace que dos objetos que pueden ser indistinguibles entre sí en un dado rango espectral

puedan ser perfectamente diferenciados en otro rango. Es conocido el uso de película

infrarroja en lugar de la pancromática común para detectar, por ejemplo, equipos

bélicos camouflados. La manera como un objeto refleja la energía que incide sobre él

afecta sensiblemente las características de la energía que detecta un sensor que esté

observando dicho objeto. En efecto, el tipo de reflexión que se produce quedará

determinado por la textura o grado de rugosidad de la superficie del objeto así como

del ángulo de incidencia de la energía radiante sobre el objeto. La reflexión especular

se produce cuando la radiación incide sobre una superficie relativamente lisa (esto

ocurre cuando el tamaño de las partículas de la superficie es menor que la longitud de

onda de la radiación incidente). En este caso los ángulos de incidencia y reflexión son

iguales, siguiendo las leyes de la óptica geométrica. La reflexión difusa o lambertiana

ocurre en el caso inverso, es decir cuando la superficie es más rugosa y la longitud de

onda de la radiación incidente es menor que el tamaño de las partículas de la

superficie. En este caso la radiación es reflejada en todas direcciones. Ver Fig. 9.

Page 9: Introduccion a La Percepcion Remota

Página 9 de 123

Entre estos dos casos caben todas las posibilidades intermedias.

Como puede observarse (a) (b) también en la Fig. 9 (c) en el caso de la reflexión difusa

la radiación penetra hasta cierta profundidad en el material y tiene oportunidad de

interaccionar con los componentes químicos de éste. La radiación reflejada en forma

difusa posee pues más información que la especular acerca del objeto irradiado.

Obviamente, en Percepción Remota será pues particularmente importante medir las

propiedades de la reflectancia difusa de los objetos terrestres. Las características del

fenómeno de reflexión por parte de un objeto sobre la superficie terrestre puede ser

cuantificada midiendo la porción de energía incidente sobre el objeto que es reflejada

por éste. Podemos entonces definir la Reflectancia Espectral como:

Dada su simplicidad y claridad el concepto de superficie lambertiana se utiliza

usualmente como una aproximación del comportamiento óptico de los objetos

observados por percepción remota. Sin embargo, esta es una aproximación que pocas

veces se cumple para las superficies naturales, particularmente cuando el sensor opera

fuera del nadir, es decir, en observaciones laterales. En efecto, las propiedades de

reflectancia de un objeto pueden variar, no sólo con la longitud de onda sino también

con los ángulos de irradiación y de observación. Se define así una Función de

Distribución de Reflectancia Bidireccional (BRDF: bidirectional reflectance

distribution function) que no es sino la reflectancia espectral de un objeto en función

delas geometrías de iluminación y observación que se le apliquen. La función BRDF es

necesaria en muchas aplicaciones de percepción remota para efectuar correcciones en

mosaicos de imágenes, para clasificaciones de coberturas terrestres, para detección de

Page 10: Introduccion a La Percepcion Remota

Página 10 de 123

nubes, correcciones atmosféricas etc. y se han desarrollado modelos matemáticos para

representarla. Si bien no entraremos en mayores detalles sobre este tema debemos

señalar que esta función, matemáticamente compleja, simplemente describe algo que

nosotros observamos día a día: que los objetos lucen diferentes cuando los observamos

desde diferentes ángulos o cuando los iluminamos desde diferentes direcciones. Así

por ejemplo, el campo de soja de la Fig. 10 cuando el observador está de espaldas al

sol (a) o cuando está de frente a él (b). En este último caso se observa la reflexión

especular de muchas hojas.

Dada la importancia de la reflectancia espectral en Percepción Remota creemos

interesante analizar aquí las características espectrales de algunos objetos que aparecen

muy frecuentemente en las aplicaciones de esta tecnología: vegetación, suelo y agua.

En la Fig. 11 se representan las correspondientes curvas de reflectancia espectral.

Page 11: Introduccion a La Percepcion Remota

Página 11 de 123

LA REFLECTANCIA EN LOS VEGETALES

La reflectancia de los vegetales es usualmente relativamente baja en la región visible,

con un máximo a aproximadamente 0.53 µm, es decir en el verde. Aumenta

bruscamente en el infrarrojo (IR) para luego caer a valores muy bajos a 2.5 µm. La baja

reflectancia en el visible se atribuye a la elevada absorción de los pigmentos vegetales,

principalmente clorofila. Estos pigmentos, sin embargo, son altamente transparentes a la

radiación IR, y la elevada reflectancia en dicha región estaría determinada por la

estructura interna de la hoja.

Los mínimos de reflexión a 1.45, 1.95 y 2.5 µm corresponden a la elevada absorción de

las moléculas de agua presentes en la hoja. La Fig. 12 representa un corte transversal de

una hoja, mostrando su estructura interna: Las superficies interna y externa están

tapizadas por una simple capa de células epidérmicas

Page 12: Introduccion a La Percepcion Remota

Página 12 de 123

carentes de clorofila y recubiertas por una delgada película de ceras. El tejido

mesodérmico entre las dos epidermis está formado por dos capas. La superior contiene

células oblongas dispuestas en forma regular y ordenada (tejido en empalizada). Estas

células son ricas en las clorofilas a y b que están contenidas en cuerpos subcelulares

denominados cloroplastos, componentes predominantes del grupo de cromoplastos

que también contienen pigmentos como xantofilas y carotenos (las clorofilas reflejan el

verde, las xantofilas el amarillo, verde y rojo y los carotenos el rojo). La parte inferior

del tejido mesodérmico es esponjoso, formado por células de forma irregular,

flojamente empaquetadas, dejando entre ellas numerosos espacios intercelulares y

cavidades de aire. En la misma Fig. 12 se indican posibles trayectorias para la

radiación que atraviesa la hoja. Generalmente sólo una pequeña fracción de la

radiación incidente es reflejada directamente por la superficie externa.pues la cutícula y

la epidermis son casi transparentes al visible y al IR cercano. Otra fracción de

radiación puede ser transmitida directamente a través de la hoja. Finalmente, el resto de

la radiación sufre interacciones con la estructura interna de la hoja. Parte de ella puede

ser absorbida por los pigmentos de la hoja ,pero una fracción importante sufre

reflexiones y refracciones múltiples en el tejido esponjoso debido a la sensible

diferencia de índices de refracción entre el aire (n=1.0) y las paredes de las células

hidratadas (n=1.3).

Como consecuencia de tales reflexiones parte de la radiación vuelve hacia atrás,

pudiendo emerger como radiación reflejada. Como la clorofila es transparente al IR

cercano la hoja refleja intensamente dicho rango espectral (en dicha región típicamente

es reflejado un 40-50% de la radiación incidente en la hoja). Resumiendo, podemos

decir que las características espectrales de la radiación reflejada por una hoja en la

región visible depende fundamentalmente de la absorción de radiación por parte de los

pigmentos de la hoja, mientras que en el IR cercano, en la región de 0.7 a 1.3 µm, es

consecuencia primaria de la estructura interna de la hoja. Para valores superiores a 1.3

µm aparecen mínimos de reflectancia a 1.4, 1.9 y 2.7 µm asociados a las bandas de

absorción del agua. SUELOS.

La curva de reflectancia espectral de suelos es más monótona que la de la vegetación.

Entre los factores que afectan la reflectancia del suelo citemos su contenido de

humedad, su textura, rugosidad, presencia de materia orgánica y contenido de óxido de

hierro.. en particular, el contenido de humedad está estrechamente ligado a la textura:

los suelos arenosos, de partículas grandes, usualmente están bien drenados, resultando

con baja humedad y relativamente alta reflectancia. La inversa ocurre con los suelos

Page 13: Introduccion a La Percepcion Remota

Página 13 de 123

mal drenados. La rugosidad y la materia orgánica, así como el óxido de hierro

disminuyen la reflectancia del suelo, a lo menos en la región visible.

LA REFLECTANCIA EN EL AGUA

Absorbe intensamente en el IR cercano: los cuerpos de agua aparecerán en dicha región

como cuerpos oscuros, facilitando su observación y delineamiento. Para longitudes de

onda visibles hay factores que complican la interpretación. En efecto, la reflectancia de

un cuerpo de agua puede generarse por interacción con la superficie (reflexión

especular), con material en suspensión o con el fondo mismo del cuerpo de agua. El

agua clara absorbe poca energía con longitudes de onda por debajo de 0.6 µm, pero a

medida que aumenta la turbidez la reflectancia en el visible aumenta rápidamente.

Igualmente la presencia de clorofila (algas, fitoplancton) modifica la reflectancia

del agua, efecto que se aplica al monitoreo por percepción remota de concentraciones de

algas. La Fig. 13 es una imagen MODIS que permite observar los sedimentos en el Río

de la Plata provenientes de los ríos Paraná y Uruguay y que se extienden hasta

aproximadamente Atlántida.

LA REFLECTANCIA EN LOS SUELOS

La curva de reflectancia espectral de suelos es más monótona que la de la vegetación.

Entre los factores que afectan la reflectancia del suelo citemos su contenido de

humedad, su textura, rugosidad, presencia de materia orgánica y contenido de óxido de

hierro, en particular, el contenido de humedad está estrechamente ligado a la textura:

los suelos arenosos, de partículas grandes, usualmente están bien drenados, resultando

con baja humedad y relativamente alta reflectancia. La inversa ocurre con los suelos

mal drenados. La rugosidad y la materia orgánica, así como el óxido de hierro

disminuyen la reflectancia del suelo, a lo menos en la región visible.

Page 14: Introduccion a La Percepcion Remota

Página 14 de 123

5. INTERACCIONES ATMOSFERICAS

La radiación registrada por sensores remotos debe realizar una trayectoria a través de

la atmósfera, a consecuencia de la cual sufre variados efectos. La entidad de éstos

depende del trayecto recorrido, de las condiciones atmosféricas presentes y de la

longitud de onda de la radiación. En general intervienen dos mecanismos principales:

dispersión y absorción.

DISPERSION: Es una difusión de la radiación producida por partículas de la atmósfera y

podemos considerar tres mecanismos principales: dispersión de Rayleigh, dispersión de

Mie y dispersión no selectiva. La dispersión de Rayleigh es consecuencia de la

interacción de la radiación con moléculas de los gases atmosféricos y con otras

partículas pequeñas de diámetro mucho menor que la longitud de onda de la radiación

con la que interaccionan. Este efecto es inversamente proporcional a la 4ta potencia de

la longitud de onda, tal como se representa en la Fig14.

En consecuencia existirá mayor tendencia a dispersar las longitudes de onda más

cortas. El “azul del cielo” se debe a este efecto: en ausencia de él el cielo aparecería

negro, pero como la atmósfera dispersa sobretodo las cortas longitudes de onda (como

el azul en el rango de espectro visible) el cielo nos aparece azul. La dispersión de

Rayleigh es una de las causas primarias de nebulosidad en muchas imágenes que ven

así reducida su nitidez o contraste. La dispersión de Mie se produce cuando los

diámetros de las partículas atmosféricas son esencialmente iguales a la longitud de

onda de la radiación (vapor de agua, polvo fino, etc.) y tiende a influenciar la radiación

de longitudes de onda mayores que las afectadas por la dispersión de Rayleigh.

La dispersión no selectiva constituye un fenómeno mucho más molesto que los

anteriores y se produce cuando los diámetros de las partículas que producen la

dispersión son mucho mayores que las longitudes de onda con que interaccionan. Un

ejemplo típico lo constituyen pequeñas gotas de agua con diámetros comprendidos entre

5 y 100 mm que dispersan en igual forma todas las radiaciones en las regiones visible e

IR cercano y medio. Al ser su dispersión no selectiva respecto a la longitud de onda

Page 15: Introduccion a La Percepcion Remota

Página 15 de 123

ocurrirá que en el espectro visible se dispersan en igual proporción las radiaciones

azules, verde y rojas, con la consecuencia de que las nubes y la niebla aparecen blancas.

ABSORCION

Contrariamente a lo que ocurre en la dispersión, en la absorción se produce una

transferencia de energía de la radiación a los constituyentes atmosféricos. Este

mecanismo implica absorción de energía de determinada o determinadas longitudes de

onda. Desde este punto de vista los absorbentes más eficaces de radiación solar son las

moléculas de agua, de dióxido de carbono y ozono. La absorción selectiva de ciertas

longitudes de onda por estas moléculas hace que la atmósfera constituya un medio

opaco para ciertos rangos espectrales, mientras que ofrezca ventanas libres de

absorción para otros rangos. A través de dichas ventanas deben mirar los satélites de

observación. En la Fig.15 se observan los efectos combinados que diversos

componentes atmosféricos ejercen sobre la radiación electromagnética solar en el

rango de 0.1 a 3mm a través de la absorción, dispersión y eventual reflexión en nubes.

Page 16: Introduccion a La Percepcion Remota

Página 16 de 123

6. LA ADQUISICION DE DATOS Y LAS PLATAFORMAS SATELI TALES

Hemos visto cómo las radiaciones electromagnéticas, fundamentalmente emitidas por

el sol y reflejadas por los objetos terrestres, o incluso emitidas por dichos objetos (p.ej.

en el infrarrojo térmico), todas más o menos afectadas por efectos atmosféricos, se

combinan generando “señales” de las cuales es posible extraer información acerca de

dichos objetos y de las coberturas terrestres. La detección de tales señales

electromagnéticas puede efectuarse por medios fotográficos o electrónicos.

Históricamente fueron la placa o el film fotográfico, usualmente sobre plataformas

aéreas, los sensores remotos por excelencia. Estos, a partir de las últimas décadas,

debieron convivir con los sensores electrónicos, más adecuados para las exigencias a

que son sometidos sobre plataformas suborbitales y satelitales. De todos modos la

detección sobre plataformas aéreas, sea con sensores fotográficos o electrónicos sigue

constituyendo una valiosa fuente de información en un amplio rango de aplicaciones, y

la decisión final sobre el uso de tal o cual tipo de plataforma debe ser cuidadosamente

analizada, particularmente cuando la relación costo/beneficio gravita sensiblemente

sobre el presupuesto de un proyecto. Fue a partir de la década del 60 que comenzó el

desarrollo vertiginoso de la percepción remota desde plataformas satelitales. Distintos

factores han condicionado este comportamiento que ha ido llevando a la percepción

remota satelital a una etapa esencialmente comercial. El más importante de dichos

factores fue seguramente la liberación para aplicaciones civiles al fin de la Guerra Fría

de tecnología reservada hasta entonces para uso militar. Hasta 1946 la observación

terrestre por percepción remota se efectuaba desde aviones o globos. En 1946 se

adquirieron las primeras fotografías desde cohetes V2 capturados a los alemanes,

siendo estas experiencias decisivas para ilustrar el potencial de la fotografía desde

alturas orbitales. Este potencial se volvió más evidente con las misiones orbitales y

espaciales a partir de la década del 60: uno de ellos fue el proyecto CORONA de

espionaje militar. Un número no determinado de estos satélites de corta vida (1 a 16

días) orbitando a unos 130 km de altura y utilizando cámaras fotográficas de alta

resolución realizó misiones de espionaje entre los años 1960 y 1972. El caudal

fotográfico así obtenido fue desclasificado en 1995. En la Fig. 16 se observa una

imagen de las ciudades de Artigas y Quarai obtenida en el año 1965 por un Satélite

Corona.

Page 17: Introduccion a La Percepcion Remota

Página 17 de 123

Un zoom sobre dicha imagen permite detectar objetos de10m. Entre las misiones

espaciales citemos las misiones Mercury, Gemini y Apolo. En particular el Apolo IX

realizó la primera experiencia controlada de fotografía orbital multiespectral. Estas

experiencias fueron continuadas en posteriores misiones (Skylab,Apolo-Soyuz, etc.)

Sin embargo, el año 1972 marca un hito en el avance de la percepción remota satelital

con el lanzamiento, por parte de E.E.U.U., del primero de una serie de satélites ópticos

especialmente destinados a monitorear los recursos terrestres. Dicha serie se llamó

LANDSAT y actualmente operan Landsat-5 y Landsat-7, Fig. 17, este último

actualmente con serias dificultades en su sistema de barrido constituyendo un

obstáculo para muchas de sus aplicaciones. Por su parte Francia, con la participación

de Suecia y Bélgica, lanzó en 1986 el primer satélite de laserie SPOT (Systeme Pour

l'Observation de la Terre) de la cual operan actualmente los Spot -2, -4 y –5 (Fig. 18).

Actualmente existen muchas otras plataformas satelitales similares a las anteriores y

pertenecientes a distintos países o resultantes de acuerdos entre dichos países (Rusia,

Japón, India, Argentina, China, Brasil, etc.). En general todos estos satélites se

caracterizan por órbitas quasi polares y solar –sincrónicas con parámetros similares a

los ejemplificados en la Fig. 19. En una órbita solar-sincrónica la rotación de la Tierra

en torno al sol, la inclinación de la órbita y el período orbital son tales que en cada

órbita el satélite cruza el Ecuador a la misma

hora solar local. En el caso del Landsat es a la

hora 09:45.

Adelantándonos a un tema que más adelante

analizaremos respecto a la resolución espacial

de los satélites, es decir, el tamaño mínimo de

los objetos que son capaces de discernir en sus

imágenes, diremos que los satélites que

acabamos de mencionar son de resolución

espacial moderada, pudiendo variar entre 5 y 30

m.

Page 18: Introduccion a La Percepcion Remota

Página 18 de 123

En los últimos años se han puesto en órbita satélites comerciales de alta resolución

espacial como el Ikonos (Fig.20), el Quickbird (Fig.21) y el Orbview-3 (Fig.22). Las

órbitas de estos satélites son más bajas(680 y 450 km) y sus resoluciones espaciales

alcanzan a 1 m y 0.6m. La Fig. 23 permite apreciar visualmente en imágenes de un

cultivo agrícola el efecto de la resolución espacial.

Como una posibilidad ofrecida por los últimos desarrollos espaciales debemos

mencionar la adquisición de imágenes desde la Estación Espacial Internacional (ISS)

(Fig. 24) que vino a sustituir a la estación rusa MIR, que debió ser destruida al cabo de

su vida útil.

SATELITES METEOROLOGICOS Y AGROMETEOROLOGICOS

Existen también otras series de satélites destinados fundamentalmente a misiones

meteorológicas, agrometeorológicas, atmosféricas y oceánicas. Algunos de estos

satélites, como los de las series NOAA (Nacional Oceanic and Atmospheric

Page 19: Introduccion a La Percepcion Remota

Página 19 de 123

Administration -USA), SEA STAR (USA) describen órbitas cuasi polares sincrónico-

solares a altitudes del orden de 850 km y resoluciones espaciales de 1km. Otros

satélites, como los de las series GOES (Geostationary Operational Environmental

Satellite) y METEOSAT (Eutmetsat – Europa), etc. Se mantienen en órbitas

geoestacionarias a aproximadamente 36000 km y con resoluciones espaciales de 1km.

Debe tenerse en cuenta que el período de un satélite, es decir el tiempo que tarda en

completar su órbita aumenta con la altitud: a 36000 km un satélite posee el mismo

período que la Tierra. Así, si se posiciona en el plano ecuatorial permanece estacionario

respecto a la superficie de la Tierra, es decir, observando siempre el mismo hemisferio. La

operación de estos satélites se esquematiza en la Fig. 25

LOS NUEVOS SATELITES PARA LA OBSERVACION DE LA TIER RA

Numerosos satélites orbitan actualmente la Tierra en misiones de observación no sólo

de las coberturas terrestres sino también de su atmósfera, sus océanos,etc., y en

general investigando la interacción de los dinámicos sistemas geofísicos. Estos

satélites transportan sofisticados instrumentos para cumplir dichas misiones.Queda

fuera del alcance de nuestro estudio referirnos a la extensa lista de dichas plataformas

y sus instrumentos. De todos modos nos referiremos a dos ejemplos notables de tales

plataformas: los satélites TERRA (y su gemelo AQUA) y ENVISAT. TERRA es un

satélite multinacional de investigación científica de la NASA. Recorre una órbita solar-

sicrónica y es la “nave insignia” del Earth Observing System de la NASA. Fue puesto en órbita

en febrero del 2000 y transporta a bordo cinco sensores remotos destinados a medidas

terrestres ambientales y de cambios en el sistema climático. El ENVISAT , lanzado en el 2002

en órbita solar-sincrónica y operado por la ESA es posiblemente el mayor satélite de

observación construido hasta el momento (8000 kg). Transporta a bordo 10 sofisticados

sensores ópticos y de radar para monitorear permanentemente las cubiertas terrestres y

oceánicas, la atmósfera y los casquetes polares.

RECEPCION Y TRANSMISION DE LA INFORMACION SATELITAL

Page 20: Introduccion a La Percepcion Remota

Página 20 de 123

Ya mencionamos que los satélites utilizan sensores diferentes a los de la fotografía

convencional. En general se trata de sensores electrónicos de estado sólido, adecuados

a las regiones espectrales para las que se desea obtener imágenes. Como detallaremos

más adelante cada satélite puede registrar las imágenes terrestres simultáneamente en

varias regiones visible e infrarrojo cercano, medio o térmico del espectro

electromagnético. Los sistemas óptico-telescópicos del satelite enfocan las escenas

terrestres sobre arreglos de tales detectores y las señales analógicas generadas por éstos

son digitalizadas para su retransmisión, sea a otros satélites geosincrónicos sea a

estaciones rastreadoras terrenas. Estas posibilidades se esquematizan en la Fig.26.

Los datos del satélite B pueden ser transmitidos directamente a una estación terrena si

ésta está en la línea de visión del satélite (A).

En caso contrario la información puede ser almacenada a bordo de B para su posterior

retransmisión a una estación terrena. B puede también enviar sus datos a un sistema

satelital repetidor que consiste en una serie de satélites de comunicaciones en órbita

geosincrónica. Los datos son enviados de un satélite repetidor C) a otro hasta alcanzar

un estación terrena adecuada.

Page 21: Introduccion a La Percepcion Remota

Página 21 de 123

7. SENSORES

7.1. Consideraciones generales. Hemos visto cómo la radiación electromagnética es

portadora de la información acerca deaquellos materiales u objetos de interés en

percepción remota. Pero para adquirir y luegopoder procesar dicha información son

necesarios ciertos dispositivos denominados sensores. Existen gran número de sensores

destinados a numerosas aplicaciones, muchas de las cuales caen fuera del área

específica de nuestro estudio. Aquí nos concentraremos fundamentalmente en los

llamados espectroradiómetros de barrido (scanning radiometers) de particular

importancia en sistemas de percepción remota.En la gran mayoría de estos

instrumentos el mecanismo de base es el efecto fotoeléctrico: cuando un haz de fotones

incide sobre una placa negativamente cargada o sobre algún material fotosensible

adecuado se produce una emisión de partículas negativas (electrones). Estos electrones

pueden fluir desde la placa generando una señal electrónica. La magnitud de la

corriente eléctrica producida (número de fotoelectrones por unidad de tiempo) es

directamente proporcional a la intensidad luminosa. La energía cinética de

losfotoelectrones emitidos varía con la longitud de onda asociada a los fotones

incidentes. Sinembargo, debe tenerse en cuenta que diferentes materiales que

manifiestan el fenómeno fotoeléctrico liberan fotoelectrones bajo diferentes intervalos

de longitudes de onda: cada uno de ellos presenta un umbral de longitudes de onda

para el que el fenómeno se manifiesta y otro umbral de longitudes de onda para el que

el fenómeno cesa. Los sensores que aquí nos interesan son del tipo pasivo,

caracterizados porque la radiación que llega a ellos proviene de una fuente externa

(p.ej. el Sol). Además, los electrones liberados son capaces de inducir la formación de

una imagen cuando son recogidos por dispositivos adecuados de detección (detectores)

Como los sensores son instrumentos capaces de medir cuantitativamente la radiación

electromagnética en determinadas regiones del espectro se denominan radiómetros.

Cuando este sensor incluye además un componente del tipo de un prisma o red de

difracción o filtros de interferencia que pueden dispersar la radiación de una dada región

del espectro en longitudes de onda discretas que son dirigidas hacia los detectores se

denomina espectrómetro. Cuando la radiación es dispersada no en longitudes de onda

discretas sino en bandas espectrales más anchas, es decir cubriendo ciertos intervalos de

longitudes de onda el término más conveniente para el sensor es espectroradiómetro.

Este es el caso más usual en los sensores aeroespaciales. Como en general estos

sensores se desplazan barriendo la escena estática que están observando se dice que

operan en modo de barrido o escaneado (scanning mode). Podemos distinguir dos

categorías de estos escáneres: los óptico- mecánicos y los óptico-electrónicos. Los

primeros se caracterizan por tener un componente mecánico, p.ej. un espejo rotativo que

opera en el barrido de la escena, mientras que los segundos el mismo sistema óptico

enfoca la radiación sobre un arreglo lineal de detectores.

Otra característica que conviene distinguir en los sensores remotos es la manera como

ellos registran la información a medida que avanzan según su trayectoria u órbita. En

general el área barrida se extiende a ambos lados de la trayectoria (swath width) y su

anchura queda determinada por la óptica del sistema por ej. por el telescopio que debe

llevar el sistema para observaciones desde cientos de kilómetros de altura y determina

el campo de visión (Field of View o FOV) Las dos principales opciones de barrido se

esquematizan en la Fig. 27. El modo cruzado con la trayectoria (cross track o

Page 22: Introduccion a La Percepcion Remota

Página 22 de 123

whiskbroom mode) normalmente utiliza un espejo rotatorio u oscilante, es decir que

constituye un sistema óptico-mecánico. Este barre la escena a lo largo de una línea

simple (o múltiple) transversal a la trayectoria. Esta línea es muy larga (kilómetros)

pero muy angosta (metros).

Cada línea se subdivide en una secuencia de elementos espaciales individuales cada

una de las cuales representa una pequeña área de la escena terrestre que se examina.

O sea que a lo largo de la línea existe un arreglo de celdas continuas, cada una de las

cuales refleja radiación y que son sensadas secuencialmente a lo largo de la línea. En el

sensor cada una de estas celdas está asociada a un pixel (o picture element) ligado a un

detector microelectrónico y se caracteriza por un dado valor de radiación que a través

del efecto fotoeléctrico genera una corriente electrónica.

El área cubierta por el píxel, es decir el área de la celda terrestre que se corresponde a

dicho píxel, queda determinada por el Campo de Visión Instantánea del sensor

(Instantaneous Field of View – IFOV).

El IFOV podemos definirlo como el ángulo sólido que se proyecta desde el detector al

área terrestre que está midiendo en cada instante. El IFOV es función de la óptica del

sensor, del tamaño del detector, de la altitud de la plataforma, etc. Los electrones

emitidos son recogidos sucesivamente, píxel por píxel, generando una señal variable

que representa la variación espacial de la radiación por el muestreo progresivo que el

sensor va efectuando sobre la escena terrestre estudiada. Esto permite asignar a cada

píxel un valor discreto llamado Número Digital (DN – digital number). Estos números

digitales resultan de convertir las señales analógicas generadas por el detector en valores

digitales constituidos por números enteros que cubren un intervalo finito, por ejemplo

28 cubriendo el intervalo de 0 a 255. Estos valores digitales permitirán construir la

imagen a través de dispositivos adecuados, por ejemplo el monitor de una computadora.

Page 23: Introduccion a La Percepcion Remota

Página 23 de 123

En el modo de barrido en la dirección de la trayectoria (along track pushbroom) no

existe espejo oscilante, sino un arreglo lineal de pequeños detectores cuyas minúsculas

dimensiones permiten que se asocien hasta miles de ellos en dicho arreglo. El sistema

de filtros incorporado al arreglo permite seleccionar las longitudes de onda. Cada

detector es un dispositivo de acoplamiento de carga (Charge-Coupled Device – CCD –

ver más adelante).

En este modo de barrido, los píxeles que constituirán la imagen final corresponden a

estos microdetectores con sus correspondientes filtros incorporados en el arreglo lineal.

A medida que la plataforma avanza en su órbita la radiación proveniente de las celdas

terrestres a lo largo del campo de visión del satélite llega simultáneamente a los

correspondientes detectores. La señal generada por cada detector es removida en

milisegundos, siendo el detector reseteado a cero quedando pronto para recibir la

radiación proveniente de la nueva línea del campo de visión.

7.2 Naturaleza de los detectores. En los primeros tiempos de la percepción remota los

detectores eran del tipo de los fotomultiplicadores. Actualmente la mayoría de los

detectores son de estado sólido, constituido por aleaciones o metales semiconductores.

Estos poseen una conductividad eléctrica intermedia entre la de un metal y la de un

aislador.

En condiciones normales o no excitados estos semiconductores poseen sus electrones

en un nivel de energía completo (desde el punto de vista de la configuración

electrónica del modelo atómico mecánicocuántico). Bajo ciertas condiciones, como la

interacción con fotones, electrones de dicho nivel son excitados a otro nivel

denominado banda de conducción. La resistencia a esta transferencia varía

inversamente al número de fotones incidentes. Diferentes materiales responden de

distinta manera a las diferentes longitudes de onda (es decir, a la energía de los

fotones), lo que los hace espectralmente selectivos. Es así que para la región visible se

utilizan fotodiodos de silicio y de PbO (óxido de plomo), en el infrarrojo cercano PbS

(sulfuro de plomo) e In-As (indio-arsénico), en el infrarrojo medio (3-6 µm) InSb

(indioantimonio) y en el infrarrojo térmico (8 –14 µm) Hg-Cd-Te (mercurio-cadmio-

teluro). Estos últimos deben ser enfriados a muy bajas temperaturas para optimizar la

eficiencia de la emisión electrónica. Uno de los dispositivos que en los últimos tiempos

ha adquirido gran importancia es el detector de acoplamiento de carga (charge-coupled

device – CCD).

Un CCD está formado por un material fotosensible embebido en un chip de silicio. Se

genera en éste un foso de potencial que recibe los electrones liberados por los fotones

incidentes en el chip posteriormente a su enfoque y filtración por el sistema óptico. Los

componentes fotosensibles del chip pueden llegar a ser muy pequeños, del orden de 1µ

de diámetro. Estos elementos pueden ser interconectados a través de microcircuitos para

formar arreglos lineales o bidimensionales. Puede llegar a prepararse arreglos lineales

que en 2 cm de longitud con hasta 1000 detectores individuales.

La Fig. 28 esquematiza un CCD individual

Page 24: Introduccion a La Percepcion Remota

Página 24 de 123

La Fig. 29 muestra una imagen obtenida con un microscopio electrónico de un

fragmento de un arreglo lineal de CCD´s.

Page 25: Introduccion a La Percepcion Remota

Página 25 de 123

7.SENSORES: BANDAS ESPECTRALES LANDSAT TM y SPOT HR VIR

7.3 Estudio de dos casos: LANDSAT y SPOT. Para profundizar algo el estudio de los

mecanismos de recolección de datos por percepción remota hemos seleccionado como

ejemplos típicos los casos de dos plataformas clásicas cuyas respectivas familias han

contribuido y siguen contribuyendo decisivamente a las aplicaciones prácticas de esta

disciplina: LANDSAT y SPOT. El primer caso es un ejemplo típico whiskbroom y el

segundo de pushbroom. En la Fig 30 se representa el esquema óptico del sensor TM

(Thematic Mapper) diseñado para Landsat-4 y Landsat-5. Nota.-Posteriormente se

desarrolló el ETM (Enhanced Thematic Mapper) para el Landsat-6 , que se perdió en

ellanzamiento. El actual Landsat-7, que permanece operativo junto con el Landsat-5,

lleva a bordo el ETM+ (Enhanced Thematic Mapper Plus). Este último, aunque

similar, presenta mejoras frente al TM, por ejemplo una banda pancromática de 15 m

de resolución y una mayor resolución de las bandas infrarrojas térmicas. Sin embargo,

un defecto aparentemente irreparable en el sistema óptico ha reducido mucho la

eficiencia de sus aplicaciones.

FALTA FIGURA 30

Este sensor está diseñado para tomar imágenes en el nadir, es decir imágenes de areas

terrestres ubicadas directamente debajo del sensor. El escaneado lo realiza un espejo

oscilante bidireccional que permite un ancho de barrido de 185 km. Un telescopio

dirige la radiación hacia un corrector de las líneas barrido (SLC-scan lines corrector).

Este último es necesario para corregir el efecto acumulado del desplazamiento del

satélite en su órbita y el barrido cruzado realizado por el espejo. El SLC es un sistema

de espejos que rota perpendicularmente al espejo de barrido y compensa el efecto

orbital.Luego de la corrección la radiación incide en el plano focal primario donde se

encuentran los detectores para visible e infrarrojo cercano con sus correspondientes

filtros espectrales (bandas 1 a 4). Una parte de la energía es redirigida por un relay

óptico al plano focal refrigerado (91ºK) para infrarrojo medio y térmico donde se

encuentran los correspondientes detectores con sus filtros. Los detectores para visible e

infrarrojo cercano son de silicio organizados en 4 líneas de 16 detectores cada uno.

Para las bandas 5 y 7 (IR medio) los detectores son de antimoniuro de indio

organizados cada uno en líneas de 16 detectores. Por su parte el detector de infrarrojo

térmico es un arreglo de cuatro detectores de telururo de cadmio y mercurio. El IFOV

del TM es de 30x30m para las bandas 1-5 y 7, y de 120x120m para la banda infrarroja

térmica. En el ETM+ del Landsat-7 este último valor ha sido mejorado a 60x60m. La

familia SPOT está constituida por 5 satélites (SPOT-1, lanzado en 1986 hasta el SPOT-

5 lanzado en el 2002) de los cuales están operativos los miembros 1,2,4 y 5. Todos se

caracterizan por el sistema pushbroom de barrido. Los sensores de estos satélites HRV

(High Resolution Visible) para 1,2 y 3 y HRVIR (High Resolution Visible Infrared)

para 4 y 5 se caracterizan por estar duplicados en cada satélite y por poder ser

orientados independientemente para efectuar observaciones con distintos ángulos. En

la Fig. 31 se esquematiza un SPOT con sus dos instrumentos enfocados al nadir. Cada

uno de ellos cubre una línea de barrido de 60 km. En la Fig. 32 se esquematizan las

posibilidades de observación de cada sensor.

Page 26: Introduccion a La Percepcion Remota

Página 26 de 123

La radiación reflejada desde el terreno entra al HRV o HRVIR vía un espejo plano y

un telescopio la proyecta sobre dos arreglos CCD de 6000 detectores cada uno

dispuestos linealmente (ver Fig. 29). Cuando los dos instrumentos “miran”

directamente el terreno debajo del sensor se pueden disponer de modo de cubrir franjas

adyacentes, con un campo de visión total de 117 km y una sobreposición de 3 km. Sin

embargo, es también posible seleccionar desde la estación operadora terrestre ángulos

de observación fuera de nadir. De esta manera es posible observar desde una posición

centrada en la proyección terrestre de la trayectoria del satélite cualquier región de

interés dentro de una franja terrestre de 950 km. Esto hace que, pese a que el satélite

tiene un período de revisita de 26 días, puede observar una misma área en intervalos de

4 o 5 días en pasajes por órbitas cercanas realizando observación oblicua. También

pueden realizarse observaciones en pasajes en días sucesivos de modo que las dos

imágenes sean adquiridas según ángulos a ambos lados de la vertical (Fig.33). Se

obtienen así imágenes para medidas topográficas.

Page 27: Introduccion a La Percepcion Remota

Página 27 de 123

7.3 Bandas Espectrales de LANDSAT TM y SPOT HRVIR. En la Tabla siguiente se

presentan los rangos de longitudes de onda abarcados por las bandas espectrales de

estos satélites:

TM Rango espectral (µm) HRVIR Rango espectral (µm)

Banda 1 0.45-0.52 Banda 1 0.50-0.59

Banda 2 0.52-0.60 Banda 2 0.61-0.68

Banda 3 0.63-0.69 Banda 3 0.79-0.89

Banda 4 0.76-0.90 Banda 4 1.58-1.75

Banda 5 1.55-1.75

Banda 6 10.4-12.5

Banda 7 2.08-2.35

IFOV Nadir 30x30m (b. 1-5,7) IFOV Nadir 20x20m

120x120m (b. 6)

Barrido 180 km Barrido 60 km (c/instrumento)

Las principales aplicaciones de las bandas del LANDSAT TM (y por similitud de

rangos espectrales también las del SPOT) son las siguientes:

Banda 1 (0.45-0.52µm)(azul): buena penetración en cuerpos de agua. Diferenciación

de suelos y vegetación y de coníferas con vegetación de hojas caducas.

Banda 2 (0.52-0.60µm)(verde): reflectancia en el verde para vegetación en buenas

condiciones.

Banda 3 (0.63-0.69µm) (rojo): absorción de la clorofila.. Diferenciación de especies

vegetales.

Banda 4 (0.76-0.90µm) (infrarrojo cercano): evaluación de biomasa. Delineación de

cuerpos de agua.

Page 28: Introduccion a La Percepcion Remota

Página 28 de 123

Banda 5 (1.55-1.75µm) (infrarrojo medio): estado hídrico en vegetales.

Discriminación entre nubes, nieve y hielo

Banda 6 (10.4-12.5µm) (infrarrojo térmico): stress térmico en vegetales y mapeados

térmicos.

Banda 7 (2.08-2.35µm) (infrarrojo medio): Estudios geológicos, identificación de

zonas con alteraciones hidrotérmicas en rocas.

Page 29: Introduccion a La Percepcion Remota

Página 29 de 123

7. RESOLUCION

7.4 Resolución. Los sistemas de percepción remota difieren en la resolución, es decir,

el nivel de detalle con que pueden capturar las imágenes, su frecuencia temporal,

“finura espectral”, etc.. Desde este punto de vista podemos considerar cuatro diferentes

tipos de resolución: espacial, espectral, radiométrica y temporal.

7.4.1 Resolución espacial. La resolución espacial se refiere a la finura de detalles

visibles en una imagen: cuanto menor es el área terrestre representada por cada píxel en

una imagen digital mayores son los detalles que pueden ser captados y mayor es la

resolución espacial. En las Figs. 26 a, b y c se observan imágenes de una misma región

a tres diferentes resoluciones espaciales (baja, mediana y alta, correspondiendo

respectivamente al MODIS 1.1 km , LANDSAT-5, 30m y QUICKBIRD, 0.60m.

Existen diferentes factores que influyen en la resolución espacial: además de los

obviamente asociados al sensor, como ser el poder resolutivo del sistema

óptico, debemos considerar las influencias atmosféricas, presencia de humo, neblina,

bajos niveles de iluminación, etc.

También existen factores asociados a las características del objeto a detectar y de su

entorno: un buen contraste y bordes nítidos del objeto son favorecen la detección. La

selección de la resolución espacial necesaria para un dado proyecto debe analizarse

cuidadosamente. En efecto, pretender resoluciones mayores que la necesaria encarece el

costo de las imágenes y la carga de proceso.

SATELITES RESOLUCION ESPECTRAL

7.4.2 Resolución espectral. Ya vimos cómo los sistemas de percepción remota están

usualmente diseñados para captar imágenes en determinados rangos de longitudes de

onda denominados bandas o canales. Dependiendo de la aplicación pueden

seleccionarse sensores con bandas relativamente estrechas o anchas. La resolución

espectral se refiere al número y ancho de las bandas espectrales registradas por un

sensor. Cuanto más estrechas sean estas bandas mayor será la resolución espectral. Ya

nos hemos referido brevemente a este tema en la Sec. 7.1. cuando hablamos de

espectrómetros y espectroradiómetros. Para referirse a la multiplicidad y anchos

espectrales de las bandas de los sensores de percepción remota suele distinguirse entre

los sistemas multiespectrales y los hiperespectrales. El LANDSAT y el SPOT son

sistemas multiespectrales, que se caracterizan por un número no muy elevado de

bandas espectrales (V. tabla en Sec. 7.3). El sensor ASTER en el satélite TERRA de la

NASA posee 14 bandas en las regiones visible, infrarroja y térmica del espectro. Los

sistemas hiperespectrales (imaging spectrometers) se caracterizan por registrar

imágenes en cientos de bandas espectrales muy estrechas. Una limitación al número de

bandas consiste en que cuanto más estrecha es la banda menor es la energía que

transmite al detector. Las figuras 35 y 36 permiten visualizar la diferencia en los

perfiles espectrales de una dada región de la imagen según se analice con un sensor

multiespectral o hiperespectral.

Page 30: Introduccion a La Percepcion Remota

Página 30 de 123

El primero es similar al del LANDSAT 7, y el segundo es el sensor HYPERION del

satélite EO-1 de la NASA. La Fig. 35 corresponde a un área agrícola próxima al río

Cuareim en Artigas, y la segunda corresponde a un muestreo del Cuareim. Si bien los

dos espectros poseen abscisas expresadas en diferentes sistemas, las líneas roja, azul y

verde en ambos perfiles corresponden a las mismas longitudes de onda. Se sugiere

comparar estas gráficas con las de la Fig. 11.

7.4.3 Resolución radiométrica. Resolución o sensibilidad radiométrica hace

referencia al número de niveles digitales utilizados para expresar los datos recogidos

por el sensor. En general, cuando mayor es el número de niveles mayor es el detalle

con que se podrá expresar dicha información. En las Figs. 37 y 38 se representan dos

casos bien iferenciados. Ambos representan el área de Rincón del Bonete en Uruguay,

visualizándose la ciudad de Paso de los Toros. En la Fig.37 los niveles digitales son

muy pocos y la imagen aparece prácticamente en blanco y negro. En la Fig. 38 , con

muchos más niveles digitales, el grado de detalle es muy superior, visualizándose la

ruta 5 , las calles de la ciudad el puente sobre el Río Negro etc. El puente también se

llega a distinguir en la Fig. 37 dado el elevado contraste con el agua del río.

Page 31: Introduccion a La Percepcion Remota

Página 31 de 123

Page 32: Introduccion a La Percepcion Remota

Página 32 de 123

En la Sec. 7.1 ya mencionamos los números digitales (DN) asociados a cada píxel en

las imágenes digitales y que generan lo que llamamos escala de grises que en realidad

es la escala de niveles digitales disponibles para representar los detalles de la imagen.

El número de niveles de grises se expresa comúnmente en términos de dígitos binarios

(bits) necesarios para almacenar el valor del nivel de gris máximo para el caso

considerado.

Un bit es la unidad fundamental de un sistema binario pudiendo poseer sólo los valores

1y 0. Usando un arreglo de bits puede representarse un número cualquiera dentro de los

límites de “longitud de palabra” de la computadora. Para lograr una imagen de pantalla

con variaciones de brillo prácticamente continuas desde el punto de vista visual se

necesitan 5 o 6 bits por píxel.

El número de valores que pueden ser representados por una serie dígitos es xn , donde x

es el número de valores que cada dígito puede representar y n es el número de dígitos

usados. En una base binaria el número de valores será 2n . Por ejemplo, para 5 bits

tendremos 32 valores, para 8 bits 256 valores, para 11 bits 2048, etc. En el caso del

Landsat y el HRVI se tienen 8 bits, es decir, la escala de grises se extiende de 0 a 255,

totalizando 256 valores.

7.4.4 Resolución temporal. La Resolución Temporal es una medida de la frecuencia

con la que un satélite es capaz de obtener imágenes de una determinada área. También

se denomina intervalo de revisita. Altas resoluciones temporales son importantes en el

monitoreo de eventos que cambian en períodos relativamente cortos, como

inundaciones, incendios, calidad del agua en el caso de contaminaciones, desarrollo de

cosechas, etc. Asimismo, en áreas con cubiertas nubosas casi constantes como por

ejemplo las selvas tropicales, períodos cortos de visita, es decir altas resoluciones

temporales, aumentan la probabilidad de obtener imágenes satisfactorias. Si

consideramos un satélite de la familia LANDSAT, ( 5 o 7), su resolución temporal es

relativamente baja. En efecto, como sólo registra imágenes en el nadir para volver a

registrar una dada área habrá que esperar que vuelva a recorrer la misma órbita, lo cual

ocurre cada 16 días. Esto puede apreciarse en las Figs. 39 y 40:

Page 33: Introduccion a La Percepcion Remota

Página 33 de 123

En la Fig. 39 vemos que las características orbitales del LANDSAT hacen que la

distancia entre el trazado terrestre de dos órbitas consecutivas sea de 2752 km en el

ecuador. En la Fig. 40 se observan las órbitas recorridas en días sucesivos. El intervalo

de tiempo entre órbitas adyacentes es de 7 días. De todos modos como LANDSAT-5 y

LANDSAT-7 están defasados 8 días, cuando ambos satélites se encuentran operativos

puede lograrse para una dada región una cobertura LANDSAT cada 8 días.

Otros satélites, como SPOT, IKONOS y QUICKBIRD poseen sensores que pueden

orientarse según diferentes ángulos, con lo cual pueden registrar imágenes no sólo en el

nadir sino también a través de enfoques laterales, frontales o traseros. Esto permite

lograr períodos de revisita mucho más cortos, incluso de dos o tres días. Otro ejemplo

de satélites con alta resolución temporal lo constituyen los de la serie NOAA con sus

sensores AVHRR.

Estos poseen un tiempo de revisita de 12 horas, lo cual permite una cobertura diaria

global diurna y nocturna. Sin embargo, debe tenerse en cuenta que la resolución

espacial de éstos es de 1 km, es decir mucho menor que la de los satélites anteriormente

mencionados. De todos modos, su elevada resolución temporal, los hace sumamente

útiles en monitoreos ambientales o agrometeorológicos sobre áreas muy extensas. Estas

características son compartidas con el instrumento MODIS a bordo de los satélites

TERRA y ACQUA sobre áreas muy extensas. Estas características son compartidas con

el instrumento MODIS a bordo de los satélites TERRA y ACQUA.

SATELITES: ESCALA Y RESOLUCION ESPACIAL

7.5 Escala y resolución espacial.

Los conceptos de escala y resolución espacial están estrechamente relacionados con el

grado de detalle con que podemos visualizar una dada imagen. Sin embargo difieren en

ciertos aspectos que conviene puntualizar.

7.5.1 Escala. La escala de una imagen o de un mapa hace referencia a la diferencia

relativa de tamaño o distancia entre los objetos de la imagen y los reales terrenos. Esta

diferencia se expresa como la relación entre la distancia sobre la imagen y la real

terrena.. Así por ejemplo, una escala de 1: 100000 significa que 1 cm en el mapa o

imagen corresponde a 100000 cm (1 km) sobre el terreno.

Los siguientes son ejemplos de escalas y las correspondientes distancias terrenas para

tres distancias medidas sobre un mapa o imagen:

Un cálculo similar puede efectuarse para áreas. Así, para una escala 1:10000 un área

de 1mm x 1mm en el mapa o imagen corresponde a 0.01 ha. sobre el terreno.

Page 34: Introduccion a La Percepcion Remota

Página 34 de 123

Igualmente, un área de 5cm x 5 cm sobre el mapa corresponde a un área de 25 ha

sobre el terreno. Es común referirse a una escala diciendo que es mayor o menor que

otra escala. Sin embargo, esta manera de expresarse puede llevar a confusiones. En

efecto, una escala de por ejemplo 1:100000 suele llamarse “escala de 100000” y una

escala de 1:40000 “escala de 40000”. Sin embargo la primera es menor que la

segunda, ya que el número 1/100000 es menor que el de 1/40000. Lo mejor sería decir

que 1:100000 es una escala “gruesa” y 1:40000 una escala “fina”.

Para calcular la escala desconocida de una imagen o un mapa es necesario comparar la

distancia entre dos puntos sobre una referencia conocida y los mismos dos puntos sobre

el mapa o imagen de escala desconocida. La referencia puede ser otra imagen o mapa

de escala conocida o una distancia medida sobre el terreno. El método de cálculo difiere

según la referencia sea una imagen o mapa o bien una medida sobre el terreno. En el

primer caso la fórmula a aplicar es:

ED = DD / DR * ER

donde ED: escala desconocida a calcular; DR: distancia entre dos puntos medida sobre

la imagen o mapa de referencia; DD: distancia entre los mismos dos puntos medida

sobre la imagen o mapa de escala desconocida. Ejemplo:

Un mapa topográfico a escala 1:100000 se usará para determinar la escala de una

imagen satelital. Se seleccionan dos puntos que pueden ubicarse fácilmente sobre la

imagen y el mapa. La distancia entre ellos en el mapa topográfico es de 8.3 mm y en la

imagen es de 40.0 mm. La escala de la imagen será

ED = 40.0 / 8.3 * 1/100000 = 1/20750

En el caso de que la referencia sea una medida sobre el terreno la fórmula a emplear

será:

ED= MD/RD

donde ED: escala desconocida a calcular; RD: distancia entre dos puntos medida sobre

el terreno; MD distancia entre los mismos dos puntos medidos sobre el mapa o imagen

Nota.Las unidades de RD y MD deben ser las mismas.

Ejemplo: si la distancia medida sobre el mapa o imagen es de 40.0 mm y la distancia

sobre el terreno son 415 m (415000 mm) la escala desconocida será

ED = 40.0 / 415000 = 1/10735

7.5.2 Escala vs. Resolución Espacial. Ya vimos (Sec. 7.4.1) que la resolución

espacial de una imagen es una indicación del tamaño del pixel expresada en términos

de dimensiones sobre el terreno. Usualmente se presenta por un valor único

correspondiente a la longitud de un lado del cuadrado correspondiente a dicho pixel.

Así, una resolución espacial de 30 m significa que el pixel representa un área de 30 m

Page 35: Introduccion a La Percepcion Remota

Página 35 de 123

x 30 m sobre el terreno. Si el pixel fuera rectangular debería ser representado por su

largo y ancho, por ejemplo 56 m x 79 m. La resolución espacial es una indicación del

potencial de detalle que ofrece una imagen. Si una imagen de satélite de 1 m de

resolución se imprime a una escala de 1/500000 se perdería el potencial de detalle que

ofrece dicha imagen. La inversa también es cierta: si se imprime una imagen de baja

resolución espacial, por ej. 500 m, a una escala muy fina sólo veríamos los pixeles

individuales. Cuando efectuamos “zoom” repetido sobre una imagen digital (es decir,

cuando vamos “afinando” la escala) llega un momento en que comienzan a visualizarse

los pixeles, y a partir de ese punto aunque sigamos afinando la escala no se aumentará

su nivel de detalle llegando a dificultarse su interpretación.

Page 36: Introduccion a La Percepcion Remota

Página 36 de 123

8. ESTRUCTURA DE LAS IMÁGENES DIGITALES

Antes de encarar el procesamiento de las imágenes satelitales entendemos conveniente

resumir aquí una serie de conceptos básicos ya considerados previamente acerca de las

imágenes digitales, así como ampliarlos con otros que serán útiles en las posteriores

etapas de este estudio.

Ya vimos como una imagen digital consiste de elementos discretos denominados

pixeles. Estos elementos bidimensionales constituyen los menores elementos no

divisibles de la imagen. En la Fig. 41 vemos en forma esquemática cómo una imagen

digital está compuesta de pixeles ubicados en la intersección de cada fila i y columna j

en cada una de las k bandas correspondientes a una dada escena.

Cada pixel en cada banda está en perfecto registro geométrico con sus equivalentes de

las restantes bandas. Asociado a cada pixel existe un número (Número Digital, DN)

que mide la radiancia promedio o brillo correspondiente al área de escena abarcada por

dicho pixel. En una base binaria de 8 bits el DN poseerá 28 valores en un rango de 0 a

255.

Estos valores pueden ser modulados para producir en la pantalla de una computadora

un escala de grises que va desde el negro (DN=0) hasta el blanco (DN=255). O sea que

para cada pixel en una escena que consta de k bandas espectrales habrá asociados k

niveles de grises. Estos definen un espacio espectral k dimensional en el que cada pixel

es representado por un vector que constituye su firma espectral y que permitirá, a

través de operaciones de clasificación basadas en algoritmos matemático-estadísticos,

asignar dicho pixel a clases temáticas definidas. El área terrestre representada por un

pixel está determinada por la altura del sensor y los parámetros de diseño de éste,

particularmente el campo de visión instantáneo (IFOV). Obviamente al reducirse dicha

área más detalles de la imagen serán aparentes, es decir que aumenta la resolución

espacial.

En esta rápida revisión no ha aparecido nada esencialmente nuevo acerca de los

conceptos que ya se habían analizado previamente. Sin embargo, vamos ahora a

profundizar algo más acerca de la estructura espectral de un pixel. De acuerdo a lo que

hemos visto, un pixel es una unidad espacial arbitraria cuyas propiedades básicas

(tamaño, forma, ubicación) quedan principalmente definidas por variables

Page 37: Introduccion a La Percepcion Remota

Página 37 de 123

dependientes del sensor y no directamente por las propiedades del terreno. Sin embargo,

debemos considerar que de acuerdo a las características del terreno (textura, coberturas,

etc.) el área abarcada por un pixel puede incluir más de un tipo de objetos o clases

temáticas, por ej. arbustos, pasturas, suelo descubierto, agua, etc. Evidentemente la

radiación reflejada correspondiente a dicho pixel que llega al detector estará compuesta

por las contribuciones de las firmas espectrales de las clases temáticas que incluye, tal

como se esquematiza en la Fig. 42:

O sea que desde el punto de vista espectral se trata de un pixel mezclado. Conociendo

los espectros puros de cada objeto o clase que incluye el pixel (obtenido de

bibliotecas adecuadas o de ensayos de laboratorio previos), a través de técnicas de

desmezclado se puede efectuar un análisis subpixel para estimar la proporción de las

diferentes clases

Este desmezclado espectral suele basarse en la suposición de que la respuesta espectral

xp de un pixel p es una suma lineal ponderada de las respuestas espectrales de sus

clases componentes. Matemáticamente esto se expresa a través de la ecuación

donde E es una matriz de k por c en la que k es el número de bandas espectrales del

sensor y c el número de clases; f es un vector de longitud c que expresa la cobertura

proporcional de clases en el área representada por el pixel y e es el error residual. Las

columnas de la matriz E son las respuestas espectrales de las clases . Así definido el

modelo de mezcla puede ser utilizado para estimar la composición por clases del pixel,

representada por f, a través de su respuesta espectral xp. Las restricciones del modelo

son

Page 38: Introduccion a La Percepcion Remota

Página 38 de 123

También relacionado con la composición espectral del pixel existe un problema

significante aunque usualmente ignorado. En efecto, se demuestra que una proporción

importante de la señal que aparentemente proviene del área de terreno representada por

un dado pixel proviene de los pixeles vecinos, tal como se esquematiza en la Fig. 43.

Aunque los pixeles de una imagen usualmente aparecen cuadrados, la radiación que se

ha registrado y que define la composición espectral de dichos pixeles proviene de un

área circular (o elíptica si el sensor no observa directamente el nadir) aproximadamente

doble del área cubierta por la proyección del pixel.

A pesar de que los detectores del sensor son más sensibles en el centro del FOV del

detector (lo que hace que la mayor parte de la radiación capturada provenga del área

cubierta por el pixel) la radiación proveniente de los pixeles vecinos hace una

contribución significante al valor del pixel. Este efecto es consecuencia de muchos

factores, incluyendo la óptica del instrumento, del detector, de la electrónica asociada

así como incluso de efectos atmosféricos.

Los efectos atmosféricos, particularmente en el caso de que la atmósfera presente

niebla, se debe a que las partículas de ésta desvían los fotones de su trayectoria recta.

Page 39: Introduccion a La Percepcion Remota

Página 39 de 123

9. PROCESAMIENTO DE LAS IMÁGENES SATELITALES

El procesamiento de las imágenes digitales consiste en la manipulación numérica de

dichas imágenes e incluye:

· Preprocesamiento

· Realce

· Clasificación.

9.1 Preprocesamiento. Consiste en el procesamiento inicial de los datos crudos para

corregir las distorsiones radiométricas y geométricas de la imagen y eliminar el ruido.

Las distorsiones radiométricas obedecen a mecanismos que alteran los valores de brillo

de los pixeles y se deben fundamentalmente a interferencias atmosféricas y a efectos

asociados a a instrumentación. Las correcciones atmosféricas constituyen un problema

muy complejo si se quieren aplicar sobre la base de modelos físicos del

comportamiento de las radiaciones. En efecto, estos modelos tienen el mérito de su

rigor científico, precisión y aplicabilidad a un amplio rango de circunstancias, pero

suelen exigir complejos programas de computadora así como información

meteorológica detallada relativa a las condiciones en que se registró la escena. Esta

información es muy difícil de obtener y podemos decir que la aplicación rutinaria de

estos modelos actualmente no es posible. Una aproximación sencilla y práctica a la

corrección del efecto atmosférico se basa en la consideración de los histogramas de las

imágenes espectrales. Un histograma es un gráfico o tabla que muestra el número de

pixeles f(DN) de una imagen que poseen un valor DN. En la Fig. 44 se observan los

histogramas para las bandas 1 a 4 del LANDSAT.

FALTA FIGURA 44

Como era de esperar de acuerdo a lo que vimos acerca de la relación entre longitud de

onda y efectos de dispersión atmosféricos los valores más bajos de los histogramas

corresponden a las mayores longitudes de onda: en particular la banda infrarroja

cercana es la que posee el valor más bajo. En esta banda los cuerpos de agua clara y las

sombras topográficas poseerían un valor de reflectancia de cero o muy próximo a cero

si no fuera por el efecto dispersivo. Se admite que el desplazamiento del extremos

inferior de los histogramas es debido fundamentalmente al componente dispersivo de

la interferencia atmosférica. En efecto, suponemos que las demás bandas,

particularmente cubriendo áreas geográficas extensas deben poseer algunos pixeles

(por ejemplo sombras topográficas o de nubes, cuerpos de agua clara y profunda, etc.)

que si no fuera por el efecto atmosférico tendrían valor cero. Para apoyar esta

suposición observemos cómo en una escena lunar, Fig. 45, la ausencia de atmósfera

hace aparecer las sombras totalmente negras. Las correcciones que habría pues que

hacer a las bandas 1 a 4 es restarle respectivamente los valores 42, 37, 24 y 12.

Los efectos instrumentales se asocian principalmente a desajustes en las equivalencias

de las curvas de respuesta de los diferentes detectores de un instrumento (ej. diferentes

valores en la “corriente oscura” y en la ganancia en las curvas de respuesta). Se puede

efectuar una corrección adoptando un sensor como standard y ajustando el brillo de

todos los pixeles registrados por los demás detectores de modo que los brillos

promedio y desviaciones standard se emparejen con los del detector de referencia.

Page 40: Introduccion a La Percepcion Remota

Página 40 de 123

Las distorsiones geométricas responden a muy diversas causas y pueden clasificarse

en gsistemáticas y no sistemáticas. Las principales causas de distorsiones geométricas

sistemáticas son las siguientes:

• Sesgo de escaneado: causado por el movimiento de avance de la plataforma durante

el tiempo requerido para cada barrido del espejo (sistemas whiskbroom).La línea de

arrido sobre el terreno no es normal a la proyección de la trayectoria sino que resulta

ligeramente oblicua, produciendo una distorsión geométrica cruzada con la trayectoria.

• Velocidad del espejo de escaneado. La velocidad de éste usualmente no es constante

durante un dado ciclo, produciendo una distorsión geométrica a lo largo del

escaneado.

• Efecto panorámico y curvatura terrestre. El efecto panorámico deriva del hecho de

que como para los sensores de las plataformas satelitales el IFOV angular es constante,

el tamaño del pixel sobre el terreno será mayor en los extremos de la oscilación que en

el nadir. También la curvatura terrestre conduce a un efecto similar, aunque para

satélites de barrido poco extenso, como el LANDSAT (185 km) o el SPOT (120 km) el

efecto es despreciable, a diferencia de lo que ocurre con los NOAA, con 2700 km de

FOV.

• Velocidad de la plataforma. Si la velocidad de la plataforma cambia, la cobertura

terrestrea lo largo de su traza terrestre para sucesivos escaneos también cambiará. Se

producirá una distorsión de escala a lo largo del trayecto.

• Rotación de la Tierra. A medida que el sensor escanea el terreno la Tierra se

desplaza de oeste a este. De modo que un punto del terreno registrado al fin del

escaneado va a estar más al oeste que cuando comenzó el barrido. Esto produce una

distorsión según la traza de barrido. Como casos de distorsiones geométricas no

sistemáticas citemos los efectos por altitud y actitud.

• Altitud. Si la plataforma se desvía de su altitud normal o si aumenta la elevación del

terreno se producen distorsiones de escala.

• Actitud. Hace referencia a la orientación del satélite (o bien plataforma aérea) en el

espacio tridimensional en que se desplaza. En tal sentido podemos definir un sistema

de tridimensional de coordenadas ortogonales centrado en el centro de gravedad de la

plataforma considerada. De acuerdo con esto puede definirse la orientación de la

plataforma por la contribución de los movimientos respecto a estos ejes principales

(Fig. 46).

Page 41: Introduccion a La Percepcion Remota

Página 41 de 123

ROLL YAW PITCH: Estos movimientos se definen como: balanceo (roll), cabeceo

(pitch) y desvío (yaw) y son obviamente. causa de distorsiones geométricas.

Algunas de las distorsiones geométricas que hemos mencionado previamente (debidas

a rotación de la Tierra, efectos panorámico y curvatura terrestre, sesgo de escaneado)

son bien comprendidas y pueden ser modeladas con funciones matemáticas que

permitan su evaluación y corrección. Las restantes distorsiones geométricas pueden

ser minimizadas estableciendo una relación matemática entre las coordenadas de los

píxeles en la imagen y los correspondientes puntos sobre el terreno. Esto puede hacerse

independientemente del conocimiento que el analista pueda tener de la fuente y tipo de

distorsión. Esta técnica de corrección de imagen requiere la identificación de una serie

de características existentes tanto en la imagen como en un mapa de referencia. Estas

características se denominan usualmente puntos de control de tierra (GCP, Ground

Control Points). Estos son usualmente detalles de la escena bien definidos y

espacialmente pequeños: curvas en ríos, detalles costeros, cruce de caminos o de pistas

de aeropuertos, etc. Una vez que se estableció la relación matemática ésta es aplicada

para rectificar o reubicar cada pixel de la imagen original en su posición geométrica

más correcta en la imagen corregida. En cuanto al ruido en las imágenes se trata de

señales espúreas provenientes de diversas fuentes potenciales, desde derivas periódicas

o funcionamiento defectuoso de un detector a interferencias electrónicas entre

componentes del sensor e interrupciones en las transmisión y registro de datos.

Hemos visto en esta sección que las correcciones radiométricas y geométricas

constituyen un tema complejo en el preprocesamiento de las imágenes satelitales. Sin

embargo, para tranquilidad del potencial usuario debemos decir que las estaciones

receptoras y distribuidoras de imágenes de satélite realizan en base a la información

telemétrica recibida del mismo satélite, las correcciones radiométricas y geométricas

pertinentes a dichas imágenes.

9.2 Realces Son procedimientos que tienden a mejorar la interpretabilidad visual de

una imagen, aunque no aumentan la cantidad de información contenida en ella. El

rango de opciones de que dispone el analista para realces de imagen es virtualmente

ilimitado, aunque la mayoría de estas técnicas pueden ubicarse en dos grupos:

operaciones de punto, que modifican

Page 42: Introduccion a La Percepcion Remota

Página 42 de 123

independientemente el brillo de cada pixel y operaciones locales, que modifican el

valor de cada pixel basadas en el valor de los pixeles vecinos. Dentro de las primeras

citaremos algunas como estiramiento de contraste y manipulaciones espectrales, y

entre las segundas el filtrado espacial.

9.2.1 Estiramiento de contraste.

Este procedimiento involucra un cambio de forma del histograma reasignando los

valores de los pixeles. En las Figs. 47 a,b,c,d vemos un ejemplo de cómo, a través de

una función de tranferencia lineal se puede efectuar dicha transformación.

El caso de nuestro ejemplo es el de un estiramiento de contraste lineal, donde vemos

cómo el rango de valores iniciales de los pixeles (20 a 127) es expandido hasta obtener

el rango máximo de 0 a 255. Al expandir la escala de grises se logra realzar detalles

sutiles de la imagen, difíciles de discriminar con la compresión inicial. El caso de

contraste lineal que hemos descrito es el más sencillo, y puede también ser descrito por

el algoritmo:

DNmodificado = [(DNoriginal – MIN)/(MAX – MIN)]*255

DNmodificado : número digital asignado al pixel en la imagen de salida Fig. 48

DNoriginal : número digital del pixel en la imagen de entrada

MIN : mín. valor de DN en la imagen de entrada

MAX : máx. valor de DN en la imagen de entrada

Page 43: Introduccion a La Percepcion Remota

Página 43 de 123

En la Fig.48 se representa gráficamente la función de transferencia lineal.

Los estiramientos de contraste pueden realizarse utilizando otras funciones de

transferencia como la gaussiana, la de igualación, la de raíz cuadrada (que implica

tomar la raíz cuadrada del histograma original y aplicarle un estiramiento lineal, etc.

En general los softwares de percepción remota ofrecen las facilidades de cálculo para

estas y otras modalidades, y el analista aplicará una u otra según sus preferencias.

9.2.2 Filtrado espacial. Las operaciones de contraste descritas en la sección previa no

alteran los datos de la imagen, simplemente modifican su visualización. En el filtrado

espacial, en cambio, los datos de la imagen son modificados. En efecto, el valor de un

pixel en una dada ubicación es cambiado en función de los valores de los pixeles

vecinos.

En percepción remota las imágenes se caracterizan por un parámetro denominado

frecuencia espacial. Esta puede definirse como el número de cambios que ocurren en el

valor del pixel (o brillo) por unidad de distancia para alguna región particular de la

imagen. Si sobre una dada área de la imagen ocurren pocos cambios de brillo se

considera como un área de baja frecuencia (ej. grandes extensiones agrícolas, cuerpos

de agua extensos, etc.) .

Si, por otra parte, los cambios de brillo son numerosos y notorios tendremos un área de

alta frecuencia (calles o caminos en zonas urbanas, parcelas agrícolas pequeñas,etc.).

En las imágenes de percepción remota la frecuencia espacial puede realzarse o

deprimirse según la conveniencia del analista utilizando el filtrado espacial.

Este no es sino una aplicación de la operación general de procesamiento de imágenes

denominada convolución y que implica el siguiente procedimiento:

1. Se define una ventana móvil que contiene un arreglo de coeficientes o factores

ponderales.Estos arreglos se definen como operadores o kernels, cuyo tamaño es

normalmente el de un número impar de pixeles (3x3, 5x5, 7x7, etc)

Page 44: Introduccion a La Percepcion Remota

Página 44 de 123

2. Dicho kernel se mueve a través de la imagen original, y el valor del pixel central del

kernel en la imagen de salida se obtiene multiplicando cada coeficiente del kernel por

el correspondiente valor del pixel en la imagen original y sumando el resultado de

todos los productos resultantes . La operación se repite para cada pixel de la imagen

original.

En la Fig. 49 se esquematiza el concepto de ventana móvil.

VENTANA MOVIL IMAGEN PROYECCION DE LA VENTANA MOVIL SOBRE

LA IMAGEN A PROCESAR

La Fig. 50 esquematiza la operación de un filtro de baja frecuencia

Este filtro puede considerarse un filtro de media ya que el resultado es el valor

promedio de todos los pixeles cubiertos por la ventana móvil. Existen muchos tipos de

filtros de convolución. En las siguientes imágenes se dan ejemplos de los efectos

obtenidos con algunos de dichos filtros (Figs. 51 a,b y c, y Fig.51 bis a,b y c.

Page 45: Introduccion a La Percepcion Remota

Página 45 de 123

Page 46: Introduccion a La Percepcion Remota

Página 46 de 123

Page 47: Introduccion a La Percepcion Remota

Página 47 de 123

Los filtros de baja frecuencia reducen las desviaciones respecto al promedio local de la

imagen y ésta aparece como más difusa, efecto que aumenta al aumentar el tamaño de

la ventana (5x5, 7x7, etc.).

Este filtro suele ser útil para reducir ciertos patrones de ruido, como por ejemplo los

efectos de ¨salt-and-pepper¨ de algunas imágenes. Los filtros de alta frecuencia

deprimen los componentes de baja frecuencia reteniendo los de alta frecuencia

(variaciones locales). Pueden ser utilizados para realzar bordes entre distintos objetos

de una imagen así como para hacer ésta más nítida. Una importante aplicación es en la

identificación y mapeos de características geológicas, incluyendo fallas, fracturas,

monoclinas, que poseen diferentes rangos de frecuencias espaciales. Un kernel de alta

frecuencia puede ser el siguiente:

Los filtros de mediana sustituyen cada pixel de la imagen por la mediana de los

pixeles vecinos. Ejemplo:

En orden crecientes los valores de los pixeles cubiertos por la ventana móvil son

115, 119, 120, 123, 124, 125, 126, 127, 150

El valor de la mediana será pues 124.

La mediana es un parámetro de posición más robusto que la media. En efecto, un pixel

vecino con un valor no representativo no afectará significativamente el valor de la

mediana. Además, como la mediana es uno de los valores de los pixeles vecinos,

conduce a resultados más realistas que la media. Esto hace que la mediana si bien

¨suaviza¨ la imagen preserva los bordes más grandes cuyas dimensiones sean mayores

que las dimensiones del kernel. Esto es muy conveniente cuando este filtro se aplica

para eliminar ruidos como los de ¨salt and pepper¨ o los speckles de las imágenes de

radar.

La detección de cambios significantes de DN al pasar de un pixel a otro es un

problema común en percepción remota. Dichos cambios usualmente indican límites

físicos en la escena, como una línea costera, una carretera, el borde de una sombra, etc.

Page 48: Introduccion a La Percepcion Remota

Página 48 de 123

Si bien existen muchas aproximaciones para el tratamiento de este problema una de las

más usadas es el empleo de algún filtro de gradiente, como por ejemplo el de Sobel.

Este consiste en filtrar la imagen en dos direcciones ortogonales, por ej. horizontal y

vertical.

Los filtros de gradiente utilizados son:

Componente horizontal Componente vertical

Los resultados g x y g y para cada pixel se combinan en un vector cuya magnitud y

dirección vienen dadas por:

Además de los filtros que hemos mencionado como ejemplos típicos se han descrito

muchos otros que escapan del alcance de esta Introducción. Citemos por ejemplo los

filtros gaussianos, laplacianos, de transformada de Fourier, etc.

ANALISIS POR COMPONENTES PRINCIPALES

9.2.3 Análisis por Componentes Principales. Un problema frecuente en el análisis de

imágenes multiespectrales es el de la correlación existente entre ellas, es decir que

contienen mucha información redundante. Esta no aporta nada nuevo y aumenta

enormemente la carga computacional cuando dichas imágenes son sometidas a

procesos matemáticos. Esto podemos apreciarlo en la Fig. 56, en la que se observan

los dispersogramas típicos de los pares de bandas TM1/TM2, TM2/TM3 y TM3/TM4

del LANDSAT. Sólo las bandas 3 y 4 presentan baja correlación.

Page 49: Introduccion a La Percepcion Remota

Página 49 de 123

La técnica de Análisis por Componentes Principales (PCA, Principal Components

Analysis) es una transformación que permite reducir esta redundancia y puede ser

aplicada previamente a un análisis visual o a un proceso más complejo de clasificación

a través de algoritmos matemático-estadísticos.

El propósito de esta técnica es “comprimir” toda la información contenida en un

conjunto original de N bandas espectrales a un conjunto menor de nuevas bandas o

componentes. Sin entrar en detalles matemáticos sobre esta transformación

representaremos gráficamente los conceptos involucrados. Para simplificar tomemos

sólo dos bandas espectrales. Representemos por d1 el valor del pixel en la banda 1 y

por d2 el valor del pixel en la banda 2. Podemos definir una combinación lineal de

estas dos bandas:

donde d'1 y d'2 representan los valores del pixel luego de la transformación. Esta puede

ser representada gráficamente como en las Figs. 57 a y b

Page 50: Introduccion a La Percepcion Remota

Página 50 de 123

Los componentes principales del conjunto de dos bandas está constituido por el sistema

de combinaciones lineales de dichas bandas, que con una adecuada selección de los

coeficientes aij resultarán independientes y no correlacionados entre sí. Esto se ilustra

en las Figs. 57 a y b. En (a) los valores de los pixeles graficados en el espacio

bidimensional d1 y d2 están notoriamente correlacionados. En (b) se observa cómo,

luego de una adecuada combinación lineal la correlación es removida.

Vemos que la transformación no es sino una rotación en el espacio bidimensional de

los valores de los pixeles, y el ángulo de rotación quedará determinado por la

correlación entre los valores de d1 y d2.El eje d'1 define la dirección del primer

componente principal, y el eje d'2 la dirección del segundo componente principal.

Puede observarse que los datos a lo largo del primer componente principal poseen una

varianza o rango dinámico mayor que el correspondiente a cualesquiera de los dos ejes

originales. Por su parte los datos a lo largo del segundo componente principal (eje d'2)

poseen una varianza considerablemente menor que la correspondiente a d'1. Es decir

que hemos volcado la mayor parte de la información al primer componente principal.

El tratamiento podemos generalizarlo para un sistema de N bandas, representándolo en

forma matricial:

donde d es un vector columna conteniendo los N valores originales de los pixeles de d1

a dN, d' es el correspondiente vector luego de la transformación y A es la matriz de

los coeficiente aij. . Obviamente la clave de una transformación exitosa radica en la

optimización de los coeficientes aij, lo cual puede hacerse por una transformación en

componentes principales (PCT) también conocida como transformación de Karhunen-

Loeve o de Hotelling, cuyos detalles escapan del alcance de esta Introducción. En

general los softwares para tratamiento de imágenes ofrecen módulos para realizar este

tipo de transformación. En el caso de imágenes de más de tres bandas usualmente

ocurre que el primer componente principal incluirá cerca de 90% de la varianza total de

la imagen, mientras que los sucesivos PC2, PC3,...,PCN poseerán porcentajes

decrecientes. En general PCN será mayormente ruido.

Page 51: Introduccion a La Percepcion Remota

Página 51 de 123

En la Fig.58, se representan las bandas TM 1, 2, 3, 4, 5 y 7 correspondientes a una

imagen LANDSAT 5 (Dpto. de Paysandú). En la Fig. 59, se observa el resultado de

la transformación en componentes principales. En la Fig.60 se presentan algunos

dispersogramas de las bandas resultantes de la transformación, donde se puede

observar la ortogonalidad de los CP.

FALTA FIGURA 58

Page 52: Introduccion a La Percepcion Remota

Página 52 de 123

Page 53: Introduccion a La Percepcion Remota

Página 53 de 123

COMBINACIONES DE COLORES

9.2.4 Combinaciones de color. Vimos que las imágenes satelitales suelen ser

multiespectrales, es decir que son registradas simultáneamente en varias regiones del

espectro electromagnético. Estas imágenes pueden ser estudiadas individualmente en

escalas de grises o en imágenes coloreadas obtenidas a partir de las primeras. Estas

últimas se generan según el modelo de color RGB. ( del inglés Red, Green, Blue). Este

hace referencia a la composición del color en términos de la intensidad de los colores

primarios con los que se forma: el rojo, el verdey el azul. Es un modelo de color basado

en la síntesis aditiva, es decir basado en la mezcla por adición de dichos primarios. Para

indicar en qué proporción se mezcla cada color se asigna un valor a cada uno de los

colores primarios. Así por ejemplo, para un display de computadora de 8 bits por pixel

el rango de valores posibles (o sea de DN) para cada componente de color es de 0 a

255. En consecuencia existirán 2563 = 16.777.216 combinaciones posibles de rojo,

verde y azul, y a cada pixel de una combinación de color corresponderá un punto dentro

del cubo de color representado en las Figs. 61 y 62 (a esta última se le extrajo un sector

para mejor visualización interior).

Page 54: Introduccion a La Percepcion Remota

Página 54 de 123

Por lo tanto, las coordenadas del rojo serán (255,0,0), del verde (0,255,0) y del azul

(0,0,255). La ausencia de color, es decir el negro corresponde al punto (0,0,0). La

combinación de dos colores a nivel 255 con un tercero a nivel 0 da lugar a tres colores

intermedios: el amarillo (255,255,0), el cyan (0,255,255) y el magenta (255,0,255). El

blanco se forma con los tres colores primarios a su máximo nivel (255,255,255).

La escala de grises es la diagonal que une el blanco y el negro. Concretando, para

preparar una combinación de color se seleccionan tres bandas de interés de la escena

multiespectral y computadora mediante se le asigna a cada una de ellas uno de los tres

colores primarios.

El display nos entregará una combinación RGB correspondiente a las bandas

seleccionadas y a la asignación de colores. Las bandas a seleccionar quedarán

condicionadas, aparte de las posibilidades ofrecidas por el sensor del satélite, por

aquellos rasgos de la escena que se desea realzar, y la asignación de colores además de

ser condicionada por dicho factor puede corresponder a un criterio profesional o

heurístico del analista. De todos modos, existen ciertas combinaciones que demostraron

ser de particular interés, sobre todo asociadas a temas ambientales y agronómicos.

Dichas combinaciones son:

RGB 3,2,1

Esta combinación suele llamarse “color natural” pues involucra a las tres bandas

.,visibles y se le asigna a cada una de ellas su verdadero color, resultando una

combinación que se aproxima a los colores naturales de la escena. La vegetación

aparece en diversos tonos de verde y los suelos en colores marrones o tostados.

Además, las bandas visibles tienen buena penetración en los cuerpos de agua y esta

combinación permite observar detalles en agua poco profundas (turbidez, corrientes,

batimetría, plumas de sedimentos, etc.).

RGB 5,4,3

Constituye una “simulación”del color natural, pese a utilizar 2 bandas infrarrojas.

Page 55: Introduccion a La Percepcion Remota

Página 55 de 123

RGB 4,3,2

Esta combinación suele llamarse “falso color infrarrojo” pues los colores resultantes en

la imagen son similares a los de las fotografías obtenidas con film infrarrojo color. Al

asignar el rojo a la bandas 4 (NIR) resultará que todos los tonos de rojo, desde el rojo

muy oscuro al rosado pálido corresponden a vegetación: los tonos más oscuros se

relacionan con la presencia de vegetación arbórea densa, como bosques, montes, etc.,

pudiéndose identificar algunas especies como pinos y eucaliptos. Rojos claros indican

cultivos y praderas vigorosas. Los rosados corresponden a vegetación poco densa

como pasturas naturales. El celeste corresponde a suelo desnudo, seco o áreas rocosas.

El azul-celeste puede corresponder a zonas urbanas. El azul oscuro a negro se

relaciona con agua clara en cursos o cuerpos de agua. Si éstos presentan partículas en

suspensión aparecerán con tonalidades azul-verdosas (cian). Los colores verde a verde

azulado corresponden a parcelas aradas o suelos descubiertos con mayor o menor

contenido de humedad.

RGB 4,5,3

Al asignarle el color rojo a la banda 4 (infrarroja cercana) esta banda va a tener ciertas

similitudes con la combinación RGB 4,3,2 . Sin embargo, al dar más peso a la región

infrarroja (bandas 4 y 5) se ve realzada la diferencia de humedad en suelos y

vegetales. Generalmente cuanto mayor es la humedad del suelo más oscuro aparecerá

éste.

En las Figs. 63 y 64 , se presenta una imagen LANDSAT de una forestación en

Paysandú. A efectos comparativos esta imagen fue sometida a las combinaciones de

color arriba mencionadas.

Page 56: Introduccion a La Percepcion Remota

Página 56 de 123

Las combinaciones de color que acabamos de ver (pag. anteror) hacen referencia a las

bandas del LANDSAT, pero los criterios son aplicables a otros satélites teniendo en

cuenta las características espectrales de sus bandas. No todas las imágenes satelitales

presentan la diversidad de bandas del LANDSAT, y en tales casos algunas de las

Page 57: Introduccion a La Percepcion Remota

Página 57 de 123

combinaciones antes referidas no pueden realizarse con las escenas de dichas satélites,

no obstante lo cual el analista puede intentar otras combinaciones que permitan realzar

características de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-

17 captada sobre el Uruguay en Mayo de 2007, en un período de intensas

inundaciones. Este satélite sólo posee una banda visible (roja), dos en el infrarrojo

(cercano y medio) y dos en el infrarrojo térmico.

La combinación de color utilizada en este caso es RGB 3,2,1 (infrarrojo medio,

infrarrojo cercano, rojo). Las bandas infrarrojas que son intensamente absorbidas por el

agua permiten destacar nítidamente los contornos de los ríos (color negro), algunos de

los cuales en este período estaban desbordados, así como las zonas anegadas al oeste

de la laguna Merim (colores oscuros). Las áreas forestadas aparecen con color verdoso

más intenso(Rivera, Paysandú). Otro ejemplo es el caso del ASTER (instrumento a

bordo del satélite TERRA) que en el modo de resolución espacial de 20 m sólo posee

una banda en el verde, otra en el rojo y una tercera en el infrarrojo cercano. En este

caso es posible la combinación RGB 3,2,1 (i.r. cercano, rojo, verde) como se aprecia en

la Fig. 66, captada sobre Rincón del Bonete.

diversidad de las bandas del LANDSAT,y en tales casos algunas de las combinaciones

antes referidas no pueden realizarse con las escenas de dichos satélites, no obstante lo

cual el analista puede intentarotras combinaciones que permitan realzar características

de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-17 captada

sobre el Uruguay en Mayo de 2007, en un período de intensas inundaciones.

Este satélite solo posee una banda visible (roja), dos en el infrarrojo (cercano y medio) y

dos en el infrarrojo térmico. La combinación de color utilizada en este caso es RGB

3.2,1 (infrarrojo medio, infrarrojo cercano, rojo). Las bandas infrarrojas que son

intensamente absorbidas por el agua permiten destacar nítidamente los contornos de los

ríos (color negro), algunos de los cuales en este período estaban desbordados, así como

las zonas anegadas al oeste de la laguna Merín (colores oscuros). Las áreas forestadas

aparecen con color verdoso más intenso /Rivera, Paysandú). Otro ejemplo es el caso del

ASTER (instrumento a bordo del satélite TERRA) que en el modo de resolución

espacial de 20 m solo posee una banda en el verde, otra en el rojo y una tercera en el

infrarrojo cercano. En este caso es posible la combinación RGB 3,2,1 (r.r. cercano, rojo,

verde) como se aprecia en la Fig. 66, captada sobre Rincón del Bonete.

Page 58: Introduccion a La Percepcion Remota

Página 58 de 123

IMAGENES SATELITALES – CLASIFICACION

9.3 Clasificación. En las etapas de procesamiento de imágenes que acabamos de

discutir se busca sea corregir distorsiones geométricas y realizar correcciones

radiométricas eliminando formas de ruido presentes en los datos, sea aplicar

manipulaciones de realce para mejorar la interpretación visual de la imagen. Con la

clasificación llegamos a la etapa de operaciones extracción de información

reemplazando el análisis visual de la imagen mediante la aplicación de técnicas

cuantitativas para automatizar la identificación de los objetos contenidos en una

escena. Esto implica el análisis de datos de escenas multiespectrales aplicando distintas

técnicas, entre ellas reglas de decisión basadas en conceptos estadísticos para

establecer la identidad de cada pixel en una imagen. Antes de seguir, repasemos

algunos conceptos previos. Vimos que cada pixel de una dada banda espectral tiene un

pixel coincidente en cada una de las demás bandas. Así, para una imagen que conste de

K bandas habrán K niveles de grises asociados a cada pixel. Esos K niveles de grises

generan un espacio espectral k-dimensional en el que cada pixel está representado por

un vector que es su firma espectral. Vayamos a un caso sencillo y concreto.

Supongamos que queremos analizar una imagen multiespectral identificando tres

clases muy generales como suelo, agua y vegetación. Para simplificar supongamos que

nuestro conjunto de bandas está formado sólo por las bandas LANDSAT TM 2,3 y 4.

En la Fig. 67 se representan las curvas de reflectancia espectral de las clases

consideradas. A dichas curvas se han superpuesto los rangos espectrales de las bandas

TM 2,3 y 4. En el espacio tridimensional definido por estas bandas las clases suelo,

agua y vegetación están representadas por los vectores (firmas espectrales) de la Fig.

68.

Page 59: Introduccion a La Percepcion Remota

Página 59 de 123

Sin embargo, la reflectancia de una dada cubierta terrestre no está usualmente

caracterizada por una curva única y definida. En efecto, la operación de diversos

factores naturales (topograficos, atmosféricos, genéticos, fenológicos, etc.) hacen que

en lugar de una sola curva haya que considerar una Familia de curvas, parecidas entre

sí pero que introducen cierta indeterminación en la caracterización de la cubierta

considerada.

O sea que no bastará un solo vector para representar una clase sino que caracterizarán

por vectores próximos entre sí y cuyas puntas determinarán un cluster, tal como se

aprecia en el diagrama de dispersión tridimensional de la Fig. 69, en la que se han

representado sólo los extremos de los vectores.

Hasta aquí nuestro ejemplo ha sido un poco simplista en el sentido de que no hemos

planteado una situación que se da corrientemente y es la superposición parcial de los

clusters. En estos casos se presentan dificultades para asignar un dado pixel a una u

otra de las clases cuyos clusters se solapan. Este problema obliga a recurrir a

soluciones de compromiso recurriendo a procedimientos de clasificación que

pasaremos a considerar. Concretando, el proceso de clasificación intenta categorizar

Page 60: Introduccion a La Percepcion Remota

Página 60 de 123

todos los pixeles de una imagen digital asignándolos a una o más clases de coberturas

terrestres o clases temáticas. Esta clasificación de carácter multiespectral no es sino un

proceso de extracción de información que analiza la firma espectral de los pixeles y

los asigna a clases basadas en firmas similares. Para lograr la mencionada

categorización de los pixeles se recurre a clasificadores que pueden ser considerados

como ciertos programas de computadora que implementan estrategias específicas para

la clasificación de la imagen. En el curso del tiempo se han diseñado muchas de tales

estrategias, y entre éstas el analista debe resolver cuál de ellas se adapta mejor a las

necesidades de su trabajo. Actualmente no es posible decidir qué clasificador es el

mejor para todas las situaciones dada la gran variedad de escenas y circunstancias que

los trabajos de percepción remota enfrentan. En tal sentido será conveniente referirnos

a las estrategias alternativas para la clasificación de imágenes.

Los métodos tradicionales de clasificación involucran dos alternativas: no supervisada

y supervisada. El método no supervisado crea agrupamientos espectrales o clusters

que no tienen mayor significado desde el punto de vista del usuario, por lo que el

analista debe intentar asociar una clase temática a cada uno de dichos grupos. En el

método supervisado, en cambio, el analista supervisa el proceso de categorización del

pixel especificando al algoritmo de la computadora descriptores numéricos de los

varios tipos de coberturas terrestres presentes en la escena. Para ello debe recurrirse a

un muestreo de sitios representativos de coberturas conocidas, llamadas áreas o sitios

de entrenamiento que permitan compilar un código de interpretación numérica que

describe los atributos espectrales para cada cobertura de interés.

Cada pixel de la escena es entonces comparado con el código de cada categoría

asignándole el nombre de aquella categoría a la que más se asimila. O sea que en el

enfoque supervisado el analista define sus categorías de interés y examina su

separabilidad espectral, mientras que en el no supervisado primero determina las clases

espectralmente separables y luego define las clases temáticas de interés. La preferencia

por uno u otro enfoque va a depender de la naturaleza del problema en estudio. En los

casos en que la definición de las áreas de entrenamiento y la correspondiente

codificación de las clases de interés sea satisfactoriamente realizable, el método

supervisado va a ser superior al no supervisado y será el preferido. En el caso de áreas

de terreno complejas, en cambio, el método no supervisado resultará superior al

supervisado. En efecto, en este caso el analista tendrá dificultades para definir sus áreas

de entrenamiento dada la variabilidad de la respuestra espectral dentro de cada clase.

Además, el enfoque supervisado es subjetivo en el sentido de que el analista intenta

definir clases temáticas compuestas a veces por varias clases espectrales, lo que no

ocurre en el método no supervisado que revela clases espectralmente distinguibles

dentro de las condicionantes impuestas al algoritmo de agrupamiento (o

“clusterificación”). Además, el método no supervisado posee el potencial para revelar

clases temáticas no previstas previamente.

9.4.1 Clasificación supervisada. Podemos definir esta clasificación como un proceso

en que pixeles de identidad conocida, ubicados dentro de las áreas de entrenamiento, se

utilizan para clasificar pixeles de identidad desconocida. La clasificación supervisada

involucra las siguientes etapas:

Page 61: Introduccion a La Percepcion Remota

Página 61 de 123

· Etapa de entrenamiento.

· Selección del algoritmo de clasificación adecuado y clasificación.

· Operaciones de post clasificación.

En la etapa de entrenamiento el analista selecciona áreas de identidad conocida de la

cubierta terrestre de interés (cultivos, forestaciones, suelos, etc.) delineándolas sobre la

imagen digital bajo formas de rectángulos o polígonos cuyos datos numéricos quedan

archivados en la computadora como regiones de interés constituyendo los “datos de

entrenamiento”. Para realizar la selección el analista debe tener un conocimiento previo

del área de estudio, sea por reconocimientos de campo, sea por consulta de mapas,

fotografías aéreas, etc.

Una vez que se dispone de un conjunto de estos datos de entrenamiento debe tratase de

adjudicar cada uno de los pixeles de la escena a alguna clase. Entre los algoritmos

clásicos para estos fines citemos los siguientes:

· Clasificador por mínima distancia

· Clasificador por paralelepípedos

· Clasificador por máxima probabilidad

9.4.1.1 Clasificador por mínima distancia.

Con este clasificador los datos de entrenamiento se utilizan sólo para determinar la

media de las clases seleccionadas como regiones de interés. El programa efectuará la

clasificación ubicando cada pixel no identificado en la clase cuya media se encuentra

más cercana para lo cual puede utilizar la distancia euclidiana. El procedimiento se

ejemplifica gráficamente en el diagrama de dispersión de la Fig. 70. Por razones de

simplicidad la representación la hacemos tomando sólo dos bandas (Banda I y Banda

II), pero debe tenerse en cuenta que cuando el procedimiento se implementa

numéricamente puede generalizarse para cualquier número de bandas.

Page 62: Introduccion a La Percepcion Remota

Página 62 de 123

Un pixel a de identidad desconocida, será adjudicado a una dada clase computando las

distancias euclidianas entre el pixel y el centroide de cada clase. Aunque simple desde

el punto de vista computacional este algoritmo tiene ciertas limitaciones, entre ellas la

insensibilidad a los diferentes grados de varianza en las respuestas espectrales de las

diferentes clases.

Así por ejemplo el punto b en la Fig. 70 clasificador lo adjudicaría a clase 3, aunque la

mayor variabilidad de la clase 1 nos hace pensar que tal vez sería más realista

adjudicarlo a ésta.. Por tal motivo este clasificador no es muy apropiado para aquellos

casos en que las clases espectrales están muy próximas entre sí en el espacio de medida

y a la vez tienen elevadas varianzas.

9.4.1.2 Clasificador por paralelepípedos.

Este clasificador se implementa definiendo un subespacio en forma de paralelepípedo

(es decir, un hiper-rectángulo) para cada clase. En este procedimiento se introduce

sensibilidad respecto a la varianza de las clases. En efecto, los límites de cada

paralelepípedo son definidos por el rango de valores para cada área de entrenamiento,

o sea por los números digitales máximo y mínimo para dicha área. Alternativamente,

dichos límites pueden definirse tomando cierto número de desviaciones standard para

ambos lados de la media del área de entrenamiento. En este caso la regla de decisión

es que el pixel de identidad desconocida caiga dentro de alguno de los paralelepípedos

para adjudicarlo a la correspondiente clase. Un ejemplo de la aplicación de este

clasificador en el caso sencillo de un diagrama de dispersión de sólo dos bandas se

presenta en la Fig. 71:

Este clasificador es rápido y fácil de implementar. Tiene sin embargo fuentes de error

asociadas al relativamente frecuente solapamiento de los paralelepípedos: un pixel

puede caer dentro de más de un paralelepípedo si éstos se solapan. Puede darse

también el caso de que no caiga en ninguno. Estos factores quitan robustez al

clasificador.

9.4.1.3 Clasificador por máxima probabilidad (maximum likelihood). Es un

algoritmo paramétrico que, a diferencia de los anteriormente considerados (no

paramétricos) asume alguna distribución estadística particular para las clases

consideradas. El clasificador de máxima probabilidad es uno de los más empleados en

Page 63: Introduccion a La Percepcion Remota

Página 63 de 123

la clasificación supervisada y utiliza un modelo probabilístico, comúnmente la

distribución gaussiana para formular sus reglas de decisión en la categorización de los

pixeles.

Los parámetros necesarios para el modelo, como la media y la matriz de covariancia se

obtienen de los datos de las áreas de entrenamiento. Veamos los fundamentos de este

clasificador.

Supongamos que una imagen posee un total de M clases espectrales que

representaremos como

Para determinar la clase a que pertenece un pixel en la posición x, nos interesa

fundamentalmente conocer las probabilidades condicionales

El vector posición x es un vector columna de valores de brillo para el pixel. O sea que

describe al pixel como un punto en un espacio multiespectral con coordenadas

definidas por el brillo. El término p(Ci | x) da la probabilidad de que la clase correcta

para un pixel en la posición x sea Ci. La clasificación se llevará a cabo según la regla:

Nuestro problema es que los p(Ci | x ) en la [1] son desconocidos. Ahora bien, si

tenemos suficientes datos de entrenamiento podremos estimar una distribución de

probabilidad p(x| Ci ) que describe la chance de de encontrar un píxel de una clase Ci

en la posición x. Obviamente habrán tantas p(x | Ci ) como cubiertas o clases terrestres

presentes.

Más tarde veremos cuál puede ser la forma de esta función de distribución.

Concretando, para un pixel en una posición x en un espacio mutiespectral existirá un

conjunto de probabilidades relativas de que el pixel pertenezca a cada una de dichas

clases. Esta probabilidad podremos estimarla a partir de los datos de entrenamiento.

Tenemos ahora una probabilidad desconocida, p(Ci | x ), que es la que nos interesa, y

una conocida p(x | Ci ) obtenible a partir de los datos de entrenamiento. Ambas están

relacionadas por el teorema de Bayes:

donde p(Ci) es la probabilidad de que la clase Ci esté presente en la imagen. Si, por

ejemplo 15% de los pixeles de una imagen pertenecen a la clase Ci entonces p(Ci)

valdrá 0.15. Esta probabilidad se denomina a priori pues debe ser estimada antes de la

clasificación. Esta estimación usualmente es difícil de obtener, ya que el analista debe

recurrir a fuentes externas como reconocimiento del terreno, mapas, datos históricos,

etc. Por tal motivo en la mayoría de los casos se asume que es la misma para todas las

Page 64: Introduccion a La Percepcion Remota

Página 64 de 123

clases. En cuanto a p(x) es la probabilidad de encontrar un pixel de cualesquiera delas

clases en la posición x. Aunque para lo que sigue p(x) no va a ser importante podemos

notar que

Basándonos en [2] podemos escribir la regla [1] como

En la [3] se eliminó p(x) al ser factor común. Por conveniencia matemática definiremos

funciones discriminantes g i(x) como

con lo cual podremos escribir la [3] como

Pasemos ahora a considerar la forma de la función de distribución de probabilidad

p(x| Ci ). Asumiremos para dicha función el modelo normal multivariado. En

consecuencia, para un caso de N bandas espectrales puede demostrarse que:

Page 65: Introduccion a La Percepcion Remota

Página 65 de 123

En la Fig. 73 se esquematiza el criterio de decisión en este método.

Page 66: Introduccion a La Percepcion Remota

Página 66 de 123

La proyección de superficies en campana sobre el plano espectral genera

dispersogramas cuyos contornos de equiprobabilidad elipsoidales son los que se

representan en la figura.

En las Figs. 74 a,b y c , a través de la escena de un sector de forestación se observan

los resultados de un clasificador supervisado aplicando el método de máxima

probabilidad. En (a) se observa en una combinación de color RGB 4,5,3 la imagen a

clasificar. En (b) se indican, sobre la banda TM 3 las áreas de entrenamiento. Dichas

áreas corresponden a eucaliptus, pinos y varias cubiertas de vegetación natural y áreas

taladas o suelo descubierto. En (c) se observa la imagen clasificada a la cual se

aplicaron algunas operaciones cosméticas de post clasificación. En la Fig. 75 se

observan los perfiles espectrales de las clases seleccionadas y en la Fig.76 un

dispersograma en el plano espectral de las bandas TM 3 y 4. En los perfiles espectrales

de la Fig. 75 las líneas verticales azul y roja indican la posición de las bandas 3 y 4.

Las porciones de espectros comprendidas entre las dos líneas mencionadas pueden

servir para interpretar la posición de los clústeres en el diagrama de dispersión.

Particularmente obsérvese que los espectros de las clases C4 y C5 son muy similares

entre sí, lo que hace que a los menos en el dispersograma de las bandas TM3 -TM4 no

exista una buena discriminación entre los clústeres de dichas clases.

Page 67: Introduccion a La Percepcion Remota

Página 67 de 123

Page 68: Introduccion a La Percepcion Remota

Página 68 de 123

9.3.2 Clasificación no supervisada. Como ya hemos mencionado, el método no

supervisado crea agrupamientos espectrales o clusters y el analista debe intentar

asociar una clase temática a cada uno de dichos grupos. Se han propuesto numerosos

algoritmos para crear estos clusters. Como ejemplo nosotros nos referiremos al

conocido como ISODATA (Iterative Self-Organizing Data Analysis Technique).

Se trata de un método iterativo que requiere relativamente poca intervención humana,

siendo usual que el analista deba especificar:

• Número máximo de clusters que el algoritmo debe identificar (p.ej 10, 20 o más

según el caso)

• Máximo porcentaje de pixels cuyos valores se permite permanezcan incambiados

entre iteraciones. Cuando se alcanza dicho número el algoritmo se detiene.

• Máximo numero de iteraciones. Cuando se alcanza dicho número el algoritmo se

detiene.

• Número mínimo de miembros en un cluster. Si un cluster contiene menos de dicho

mínimo es eliminado y los miembros son asignados a un cluster alternativo.

• Máxima desviación standard. Cuando la desviación standard para un cluster excede

el máximo especificado y el número de miembros que contiene es más que el doble del

mínimo especificado, el cluster se divide en otros dos clusters.

• Suele también fijarse valores mínimos para las distancias entre los centros de los

clusters. Cuando la distancia resulta inferior a dichos valores los clusters se fusionan.

Para ilustrar cómo procede el algoritmo ISODATA consideremos un caso

bidimensional: un típico diagrama de dispersión entre bandas 3 (rojo) y 4 (infrarrojo

cercano) del LANDSAT.

La forma de la nube de puntos responde a la ya mencionada baja correlación entre

dichas bandas. Para definir la región en el espacio de dispersión utilizaremos la media,

µk yla desviación standard sk de las bandas consideradas. Consideremos un caso

hipotético de 5 vectores. Los 5 vectores se distribuirán desde la ubicación µ3-s3, µ4-s4

hasta µ3+ s3, µ4+ s4 y constituyen los centros de los clusters iniciales. Se crea así el

paralelepípedo de la Fig. 77(a) que no cubre completamente la nube de puntos del

diagrama de dispersión. En la primera iteración cada pixel de la base de datos se

compara con la media de cada cluster y se asigna a aquél cuya distancia euclidiana al

pixel es menor. Luego de esta primera iteración se calcula una nueva media para cada

cluster. El proceso iterativo se repite nuevamente para cada pixel tomando ahora como

referencia las medias de los nuevos clusters. El proceso se continúa hasta que se

cumple alguna de las condicionantes planteadas al comienzo: se alcanza el umbral de

cambios estipulado o se alcanza el máximo número de iteraciones establecido.

Veamos ahora un caso sencillo de aplicación, para lo cual podemos volver a utilizar la

imagen la Fig. 78 que ya utilizamos en el caso de aplicación del método de máxima

probabilidad en la clasificación supervisada. En este caso, sin embargo, no definiremos

Page 69: Introduccion a La Percepcion Remota

Página 69 de 123

áreas de entrenamiento sino que aplicaremos el módulo ISODATA del software ENVI.

Nuestra especificación fue la siguiente:

10 clusters, máximo 20 iteraciones, umbral de cambio: 5%, máxima desviación

standard por clase:1, distancia mínima entre medias de las clases: 3 (DN), máximo

número de pares de clases a fusionarse: 2.

El resultado se ve en la Fig. 79 donde se han indicado la clases identificadas como

eucaliptus 1 (C.1), eucaliptus 2 (C.2), pinos (C.3), 2 clases de vegetación natural

(C.4,5) y áreas taladas o totalmente descubiertas (C 6).

Page 70: Introduccion a La Percepcion Remota

Página 70 de 123

ESTIMACION DE LA EXACTITUD DE UNA CLASIFICACION - M ATRIZ DE CONFUSION

9.3.3 Estimación de la exactitud de una clasificación: Matriz de confusión. En un

sentido estricto ninguna clasificación puede considerarse completa hasta que su grado

de exactitud sea evaluado. Este puede definirse como el grado de concordancia entre

las clases asignadas por el clasificador y sus ubicaciones correctas según datos de tierra

recolectados por el usuario y considerados como datos de referencia.

Al tomar como referencia el conjunto de datos de entrenamiento, aunque obviamente

este procedimiento conduce a sobreestimar la exactitud de la clasificación. Este

procedimiento constituiría en realidad sólo una evaluación de la calidad de selección de

las áreas de entrenamiento. También podría recurrirse a una validación cruzada basada

en comparaciones con los resultados de otros clasificadores.

Page 71: Introduccion a La Percepcion Remota

Página 71 de 123

El instrumento más usual para evaluar la exactitud de una clasificación es la matriz de

confusión, también llamada matriz de error o de contingencia. Esta es una matriz

cuadrada de n x n, donde n es el número de clases. Dicha matriz muestra la relación

entre dos series de medidas correspondientes al área en estudio. La primera serie

corresponde a datos de referencia adquiridos de observaciones de campo, inspección

de estadísticas agrícolas, interpretación de fotos aéreas y otras fuentes similares. La

segunda corresponde a la categorización de los pixeles realizada por el clasificador

para las clases de interés. En una matriz de confusión las columnas corresponden a los

datos de referencia, mientras que las filas corresponden a las asignaciones del

clasificador.

A partir de una matriz de confusión pueden deducirse varios índices relativos a la

exactitud de la clasificación. Para definir y comentar dichos índices calcularemos,

computadora y software mediante, la matriz de confusión para la escena LANDSAT

de la Fig.80 a.

Dicha escena corresponde a un área pequeña al norte de la ciudad de San Pedro, Jujuy,

Rep. Arg. registrada en noviembre de 2005. Clasificamos la imagen por el método

supervisado utilizando el algoritmo de las mínimas distancias. Las áreas de

entrenamiento para coberturas terrestres de interés las definimos en base al examen de

las combinaciones RGB color natural y falso infrarrojo apoyados por el análisis de los

perfiles espectrales. Las áreas de entrenamiento corresponden a las siguientes

regiones:

1. Forestación

2. Cerros sin vegetación

3. Cultivos

4. Areas no cultivadas

Puesto que no teníamos suficiente información terrestre para ser empleada como

referencia en la evaluación de la exactitud de dicha clasificación, efectuamos

paralelamente una clasificación supervisada utilizando el algoritmo de máxima

probabilidad y declarándola (a efectos del presente ejercicio) nuestra fuente de datos de

referencia, es decir nuestra verdad terrestre. Las imágenes clasificadas por ambos

métodos se presentan en las Figs. 80 b y c.

Calculada la matriz los resultados se exponen en la Fig. 81.

Page 72: Introduccion a La Percepcion Remota

Página 72 de 123

Fig. 81 – Tabla de valores de la matriz de confusión

Page 73: Introduccion a La Percepcion Remota

Página 73 de 123

Tenemos dos versiones equivalentes de la matriz: una cuyas entradas se expresan en

pixeles y otra en que se expresan como porcentajes. Obsérvese que además de las

cuatro clasesde interés se introduce una columna y fila correspondiente a los pixeles

que no pudieron ser clasificados. Los elementos en rojo de la diagonal indican los

pixeles que fueron correctamente clasificados. Todos los elementos fuera de la

diagonal indican errores de omisión o de comisión. Los errores de omisión

corresponden a los elementos no diagonales de las columnas (ej.: un total de 4105

pixeles que debieran haber sido clasificados como “forestación” se asignaron a varias

otras clases). Los errores de comisión corresponden a los elementos no diagonales de

las filas (ej.: 2440 pixeles no clasificados, 8 de forestación, 993 de cerros sin

vegetación y 630 de cultivos se incluyeronerróneamente en la clase “áreas no

cultivadas”.

A partir de la matriz de confusión podemos calcular varias otras medidas de interés

desde el punto de vista de la exactitud:

Exactitud global (overall accuracy).

Se calcula dividiendo el número total de pixeles correctamente clasificados por el

número total de pixeles de referencia y expresándolo como porcentaje. En nuestro

caso,

(131261 / 160000)*100 = 82.0381%

Este índice es global y no nos indica cómo la exactitud se reparte entre las diversas

categorías individuales. Muchas veces las categorías individuales presentan

exactitudes drásticamente diferentes pero se combinan de modo que esto no se refleja

en la exactitud global. Examinando la matriz de confusión vemos que podemos utilizar

dos métodos para evaluar la exactitud de las categorías individuales:

Page 74: Introduccion a La Percepcion Remota

Página 74 de 123

Exactitud del usuario (user’s accuracy).

Se calcula dividiendo el número de pixeles correctamente clasificados en cada

categoría por el número total de pixeles que fueron clasificados en dicha categoría

(total de la fila). Como ejemplo en nuestro caso tenemos para la forestación

(9476 / 14280)*100 = 66.36%

Se justifica este índice en el sentido de que el usuario está especialmente interesado en

el porcentaje de cada clase que ha sido correctamente clasificado.

Exactitud de productor (producer’s accuracy).

Resulta de dividir el número de pixeles correctamente clasificados en cada categoría

por el número de pixeles de referencia utilizados para dicha categoría (total de la

columna). En nuestro caso tendremos para la categoría forestación,

(9476 / 13581)*100 = 69.77%

El productor está más interesado en este índice pues le dice cuan bien los pixeles de

referencia han sido clasificados.

Las medidas de exactitud que acabamos de considerar, aunque simples de usar están

basadas sea en la diagonal principal, sea en las filas y columnas de la matriz de

confusión solamente. Estas medidas no aprovechan la información contenida en dicha

matriz considerada en conjunto. Más aún, puede ocurrir que una distribución

totalmente aleatoria de los pixeles en las clases pueda conducir a resultados

aparentemente correctos en la matriz de confusión.

Buscando superar estos inconvenientes se ha propuesto un índice denominado

coeficiente kappa. Este estadístico es una medida de la diferencia entre la exactitud

lograda en la clasificación con un clasificador automático y la chance de lograr una

clasificación correcta con un clasificador aleatorio.

La definición conceptual del coeficiente kappa es la siguiente:

Page 75: Introduccion a La Percepcion Remota

Página 75 de 123

OTROS METODOS DE CLASIFICACION

9.3.4 Otros métodos de clasificación. En las secciones anteriores hemos considerado

algunos de los métodos más usuales de clasificación y que podríamos llamar clásicos.

Existen sin embargo muchos otros métodos, tanto paramétricos (es decir que asumen

alguna clase particular de distribución estadística, usualmente la distribución normal)

como no paramétricos (es decir que no hacen suposiciones acerca de la distribución de

probabilidad de los datos que procesan). Aunque el alcance de este trabajo no nos

permite referirnos a todos ellos, nos referiremos brevemente a dos de ellos, ambos no

paramétricos: los neuronales y los difusos, que son ejemplos de aplicación de métodos

de inteligencia artificial.

9.3.4.1. Clasificador de red neuronal artificial. Desde un punto de vista operacional

nuestro cerebro está constituido de un enorme número, del orden de 100 billones, de

unidades procesadoras simples llamadas neuronas. Cada neurona está interconectada a

aproximadamente 10000 otras neuronas. (V. Fig.82)

Page 76: Introduccion a La Percepcion Remota

Página 76 de 123

Estas conexiones son complejas, y cada neurona recibe como entrada los resultados

producidos por otras neuronas y a su vez envía sus señales a otras neuronas. El cerebro

puede pues ser descrito en términos de un conjunto de redes de neuronas que realizan,

por mecanismos no bien comprendidos, funciones específicas como las de la visión, el

olfato, etc. Se trata de una red neuronal biológica.

Las redes neuronales artificiales (Artificial Neural Networks – ANN) intentan de una

manera muy simple simular el trabajo del cerebro. Para ello crean una red de unidades

procesadoras interconectadas (neuronas artificiales), cada una de las cuales es una

simple computadora que recibe señales ponderadas provenientes de otras neuronas, las

suma, realiza una operación sencilla sobre dicha suma y el resultado lo envía a otras

neuronas. En las Figs. 83 a, b y c representamos un ejemplo de una red neuronal básica

y su modo operativo.

Page 77: Introduccion a La Percepcion Remota

Página 77 de 123

Esta red tiene tres capas de neuronas: la capa de entrada (input layer) es simplemente

una interfase que no realiza ningún procesamiento. Las capas media (“hidden layer”) y

de salida (output layer)contienen los elementos procesadores de cada nodo de la red.

En esta red hay una sola capa media, pero podrían haber más. En un caso simple de

clasificación la información de entrada serían los vectores multiespectrales de los

pixeles de entrenamiento, una banda por nodo. En cada nodo de la capa media se

produce una sumatoria y una transformación como se representa en la Fig.83.(b). Para

cada nodo j de la capa media llega una entrada pi ponderada sobre la cual se efectúan

las siguientes operaciones:

hj es la salida del nodo j, y es dirigida a cada nodo de salida k. La salida de éste, ok,

vendrá dada por las operaciones

La función de transformación más usual es la sigmoidal, y se denomina función de

activación

Page 78: Introduccion a La Percepcion Remota

Página 78 de 123

que se representa gráficamente en la Fig. 83.(c).

CLASIFICACION DE REDES NEURONALES ARTIFICIALES

Esta red tiene la capacidad de aprender ajustando los pesos de sus conexiones en un

proceso iterativo de entrenamiento con patrones de referencia. Para esto utiliza un

algoritmo de retropropagación del error (back propagation). Este es un algoritmo

iterativo degradiente descendente que propaga el error hacia atrás en la red generando

el reajuste de pesos y minimizando el error de salida respecto al patrón de referencia.

Desde el punto de vista computacional una red neuronal puede se considerada como

un algoritmo abierto, o programa incompleto, en el sentido de que ciertos parámetros

numéricos, los pesos, no son especificados por el programador. Dichos pesos son

calculados durante la fase de entrenamiento. Esta requiere ciertos datos, los conjuntos

de datos de entrenamiento, y otro programa, el algoritmo de aprendizaje. La razón por

la que los pesos no pueden ser especificados es porque usualmente no disponemos de

una clave como la relación causa – efecto, es decir, cómo los diferentes valores de los

pesos afectan el proceso computacional de la red. Esta situación resulta de la esencia

misma de las redes neuronales, que son básicamente “cajas negras” cuyo

comportamiento es en gran parte impredecible. En efecto, el usuario puede seleccionar

la “arquitectura”de la red, el número y tipo de neuronas, la manera como están

interconectadas, etc. Sin embargo no podrá establecer, ni siquiera intentar adivinar, los

pesos. Estos sólo podrán ser establecidos en el proceso de aprendizaje. Entre las

ventajas de las redes neuronales artificiales citemos la de poder aceptar todo tipo de

entradas numéricas, respondan o no a alguna distribución estadística. Esto hace que

datos provenientes de percepción remota pueden ser adicionados de datos de otro

origen.

Esta característica es muy útil en el caso de un SIG (Sistema de Información

Geográfica) ya que diferentes tipos de datos espaciales pueden ser usados

simultáneamente para mejorar el desempeño del clasificador. Por otra parte, al estar

constituidas por varias capas de neuronas conectadas por enlaces ponderados son

tolerantes al ruido existente en los patrones de entrenamiento: el resultado final podría

no verse afectado por la pérdida de una o dos neuronas como resultado del ruido en

aquellos.

Entre sus desventajas citemos la duración de los tiempos de entrenamiento. Además, el

algoritmo de gradiente descendente puede alcanzar mínimos locales (es decir un

mínimo en la función que relaciona los pesos con el error) más que un mínimo global.

También puede oscilar. Otro problema es que los valores de pesos que se aplican

inicialmente y que suelen ser valores pequeños y aleatorios influyen en los

resultados pudiendo hacer que la red converja hacia diferentes mínimos locales, con lo

cual son de esperar diferentes exactitudes de clasificación. Como ejemplo de aplicación

utilizaremos la misma imagen de la Fig. 78 (forestación en Paysandú)que hemos

utilizado para aplicar el método supervisado de alta probabilidad y el ISODATA.

Como datos de entrenamiento utilizamos regiones de interés similares a las

Page 79: Introduccion a La Percepcion Remota

Página 79 de 123

seleccionadas en los casos anteriores. Para la clasificación se utilizó una red neuronal

de dos capas ocultas y 2000 iteraciones. En las Figs 84 (a) y (b) se observan la imagen

original y la clasificada. En la Fig.85 la gráfica muestra la evolución del proceso

iterativo.

CLASIFICADORES DIFUSOS (FUZZY CLASSIFIERS)

9.3.4.2 Clasificadores difusos (fuzzy classifiers). Las técnicas de clasificación que

hasta ahora hemos descrito conducen a que cada pixel individual reciba una

categorización única y precisa. En tal sentido se trata de clasificadores “duros”. Esta

situación es aceptable en percepción remota cuando el analista se encuentra con

extensiones importantes de coberturas terrestres relativamente uniformes, como

extensas áreas agrícolas, grandes cuerpos de agua claros y profundos, etc. En muchos

casos, sin embargo, se examinan áreas heterogéneas donde incluso con resoluciones

medias de 30 m como la del Landsat no se puede asegurar que un dado pixel contenga

una sola clase de cobertura (un problema de esta naturaleza lo encaramos en la Sec. 8

cuando nos referimos al análisis subpixel). Es obvio pues que en ciertos casos la

aplicación de clasificadores “duros” va a deteriorar la exactitud de una clasificación.

Obsérvese el siguiente ejemplo. Dos clusters, como los representados en la Fig. 86(a)

Page 80: Introduccion a La Percepcion Remota

Página 80 de 123

pueden ser erróneamente particionados por un ISODATA duro cuyo resultado se

representa en la Fig.86(b).

Conceptos derivados de la “Lógica Difusa” (Fuzzy Logic), una disciplina

relativamente joven, nos ayudarán a enfrentar el problema. Surgen así los conceptos

de conjuntos difusos, clasificadores blandos o difusos, grados de membresía, etc.

Como caso típico de esta metodología consideremos un procedimiento que podemos

llamar “ISODATA difuso o blando”. Este, en lugar de generar una partición dura

admite que cada pixel puede pertenecer a todos los clusters pero con diferentes grados

de membresía que van entre 0 y 1. Sea U la matriz de grado de membresía con n

columnas, una por pixel, y p filas, una por cluster. El número de clusters es

especificado por el usuario y los centros iniciales de los clusters son generados

aleatoriamente o suministrados por el usuario:

Este algoritmo, como el ISODATA, es iterativo en la búsqueda de los centros o

centroides de clústeres que minimizan la diferencia entre los elementos de U. El

procedimiento comienza con una inicialización aleatoria de U con la condición dada

por la [1] :

La distancia euclidiana de un pixel i a un centro j viene dada por la expresión usual:

Page 81: Introduccion a La Percepcion Remota

Página 81 de 123

Los centros c de los clusters se calculan de acuerdo a:

10. ALGUNAS APLICACIONES DE LA PERCEPCION REMOTA

Los avances tecnológicos de las últimas décadas en el campo de la percepción remota y

de sus cada vez más numerosas aplicaciones nos hacen desistir de intentar realizar

acerca de éstas una presentación sistemática y formal, sobre todo si queremos

Page 82: Introduccion a La Percepcion Remota

Página 82 de 123

mantener el carácter introductorio de este trabajo. Ya en los capítulos anteriores, al

referirnos a diversos aspectos y procedimientos de la Percepción Remota los hemos

ilustrado con algunos ejemplos de aplicación a casos de monitoreo de recursos

terrestres. Para este capítulo final hemos elegido algunos temas de aplicación puntuales

que creemos pueden ser de especial interés para quienes nos han acompañado hasta

aquí. Estos temas son:

· Aplicaciones en agricultura.

· Temperaturas terrestres y marinas.

· Monitoreo de áreas de desastre.

Esta selección no pretende restar importancia a aplicaciones como urbanismo, geología

y mineralogía, hidrología, estudios climáticos y atmosféricos, etc.

10.1 Aplicaciones en Agricultura. La percepción remota se ha convertido en una

importante fuente de información en el manejo de la producción agrícola, no sólo a

escalas locales sino a nivel global, particularmente para aquellas regiones en que el

suministro de alimentos suele pasar por períodos críticos. En estas aplicaciones la

percepción remota es particularmente empleada para la identificación de cultivos así

como analizar el estado de éstos, jugando para ello un papel primordial las

características espectrales de las principales coberturas terrestres a que ya nos hemos

referido en el Capítulo 4 del presente trabajo.

Indices de vegetación.

Vamos a referirnos a ciertas operaciones algebraicas efectuadas sobre los valores

numéricos de los pixeles correspondientes sobre dos o más bandas pertenecientes a la

misma escena. Entre las más importantes figuran las que conducen a evaluar los

índices de vegetación. Un índice de vegetación es un número generado por alguna

combinación de bandas espectrales y que puede tener alguna relación con la cantidad

de la vegetación presente en un dado píxel de la imagen

El más conocido es el Indice Diferencial de Vegetación Normalizado (NDVI –

Normalized Difference Vegetation Index)

Valores muy bajos de NDVI, del orden de 0.1, corresponden a áreas rocosas, arenosas

o nevadas. Valores de 0.2 a 0.3 pueden corresponder a áreas pobres con arbustos o

pasturas naturales. A partir de estos valores tendremos los niveles correspondientes

apraderas, cultivos, forestaciones etc. dependiendo el valor alcanzado, que puede llegar

hasta 0.6 y 0.8, del estado de desarrollo y sanidad de tales áreas.

Page 83: Introduccion a La Percepcion Remota

Página 83 de 123

Es obvio, de acuerdo a lo expuesto en el Cap. 4, que el fundamento de la definición del

NDVI radica en las características del espectro de los vegetales. En efecto, ya vimos

(Fig. 11, pág. 9) que la radiación reflejada por una hoja en la región visible depende

fundamentalmente de la radiación absorbida por los pigmentos de la hoja, mientras que

en el infrarrojo cercano, en la región de 0.7 a 1.3 mµ, depende de la estructura interna

de la hoja. Para valores mayores de 1.3 mµ aparecen mínimos de reflectancia a 1.4,

1.9 y 2.7 mµ. El stress vegetal suele manifestarse cuando por efecto de factores como

sequía, enfermedades, infección por plagas, etc., la hoja ve reducido su contenido de

agua. Esto produce el colapso de las células del mesodermo inferior (Fig. 12, pág.9), lo

cual reduce la reflectancia en el IR cercano, constituyendo un síntoma previsual de

stress ya que suele manifestarse días e incluso semanas antes de que comiencen a

apreciarse cambios visualmente o a través de la fotografía color convencional. El

espectro vegetal de la Fig. 11 posee el aspecto típico del obtenido con un

espectrómetro de laboratorio o bien con un sensor hiperespectral. Como los satélites

más usuales actualmente son sólo multiespectrales no nos pueden suministrar una

curva espectral con la alta resolución de un espectrómetro o un sensor hiperespectral.

Sin embargo, con sus datos, por ejemplo con las 6 bandas visibles e infrarrojas del

Landsat, podemos construir un espectro grosero como el de la Fig.87 que de algún

modo refleja las características del espectro de laboratorio y que nos puede brindar

mucha información acerca del estado de un cultivo, de una forestación, etc. La curva a

corresponde a pleno vigor vegetativo, la b representa una etapa más próxima a la

maduración y la c marca ya un estado de senescencia. Obsérvese el quiebre de las

curvas a aprox. 1.6mµ, que es un reflejo del contenido de agua de la hoja y permite

diferenciar claramente por el cambio de concavidad de la curva la transición a un

estado de stress. Si se consideran los valores relativos de las reflectancias en el rojo y

en el infrarrojo cercano para cada banda se comprende que ocurrirá un notorio

decrecimiento del NDVI al pasar de la banda a a la c

Algunos ejemplos de aplicación del NDVI

· Seguimiento de una sequía.

Page 84: Introduccion a La Percepcion Remota

Página 84 de 123

Durante los meses de noviembre de 1999 a marzo de 2000 se produjo en Uruguay una

intensa sequía. Esta fue seguida desde nuestra estación de rastreo de El Pinar a través

de imágenes NOAA de 1 km de resolución y calculando los índices de vegetación. Las

imágenes obtenidas se representa en la secuencia de la Fig. 88

· Seguimiento de cultivos

Las Figs. 89 a 91 de la pág. 82 muestran una secuencia de imágenes temporales de

algunas arroceras a lo largo de un pequeño sector del Río Cuareim cerca y al NNW de

la ciudad de Artigas. Las imágenes cubren aproximadamente 14 km x 14 km y fueron

extraídas de una imagen Landsat standard de 185 km x 185 km. Junto a cada imagen

se muestra la foto del estado de desarrollo de una pequeña arrocera cuya posición se

indica en la imagen (ensayo de La Escuela Agraria de Artigas).

La Fig. 89, corresponde al 30-11-98, y la arrocera de referencia posee un NDVI de 0.1

0.2. Se observan otras áreas (blancas) cuyos índices son prácticamente cero y con

menores desarrollo que la de referencia.

En la Fig. 90 se muestra la situación al 01-01-99 y puede observarse cómo el NDVI de

la referencia ha aumentado a aprox. 0.7, observándose que algunas áreas blancas han

elevado su NDVI, algunas notoriamente. Obviamente se trata de otras arroceras en

diferentes estados de evolución. En la Fig. 91 el NDVI de referencia a aumentado a

0.8-0.9 y también otras arroceras han aumentado notoriamente sus índices.

Vemos cómo la percepción remota ofrece la posibilidad de monitorear el estado de los

cultivos y, estando las imágenes georreferenciadas también permitirá calcular las áreas

cultivadas.

· Monitoreo a nivel global

Los ejemplos anteriores son de carácter localizado. Sin embargo existen actualmente

satélites como los de la serie NOAA y TERRA (Ver en la página 17 de este trabajo

nuestros comentarios sobre Satélites Meteorológicos y Agrometeorológicos así como

acerca de Los Nuevos Satélites Para la Observación de la Tierra) que en el marco de

programas de monitoreo permanente de la superficie terrestre como por ejemplo el

programa EOS (Earth Observation System) de la NASA, suministran información

permanente sobre cambios en las coberturas terrestres. Entre los productos que estos

programas suministran se encuentra el NDVI a nivel global. Estos productos están

disponibles en Internet en resoluciones espaciales de 250m a 1 km por pixel. Uno de

los sitios más apropiados para bajarlos es el

Earth Observing System Data Gateway.

http://edcimswww.cr.usgs.gov./pub/imswelcome/

Page 85: Introduccion a La Percepcion Remota

Página 85 de 123

Page 86: Introduccion a La Percepcion Remota

Página 86 de 123

Page 87: Introduccion a La Percepcion Remota

Página 87 de 123

INDICES N-DIMENSIONALES - TASSELED CAP

10.1.2 Indices N-dimensionales “Tasseled Cap”. Los índices descritos anteriormente

se basan en operaciones algebraicas realizadas sobre sólo dos bandas espectrales, la R

y la IRC en el caso del EVI se agrega la azul. Sin embargo, es obvio que las demás

bandas espectrales también contienen información de interés en el estudio de las

cubiertas vegetales, de vegetación N-dimensionales. En la Sec. 9.2.3, pág. 46 del

presente trabajo nos referimos al análisis por Componentes Principales. Vimos que

éstos se obtenían a través de una transformación matemática que permitía comprimir

toda la información contenida en un conjunto de N bandas espectrales a un conjunto

menor de nuevas bandas o componentes. Una transformación similar fue desarrollada

por Kauth y Thomas pero pensada de modo que los nuevos ejes maximicen

información de importancia en agricultura. Esta transformación, llamada “Tasseled

Cap”, permite resaltar los fenómenos más importantes (espectralmente observables)

que ocurren durante el desarrollo de un cultivo. Esta transformación, aplicada a las seis

bandas TM (excluida la térmica) del LANDSAT indica que la información de valor

agronómico ocupa esencialmente tres dimensiones:

1. Brightness: está asociado a las variaciones de reflectancia del suelo

2. Greeness: está correlacionado con el vigor de la vegetación

3. Third (o Wetness): está influído por las bandas en el IR medio y tiene que ver con la

humedad vegetal y del suelo.

Las tres primeras dimensiones definen dos planos: el de vegetación y el de suelos

(Fig.93):

Page 88: Introduccion a La Percepcion Remota

Página 88 de 123

En el plano de vegetación podemos representar la evolución estacional de un cultivo

(Fig.94):

1: suelo sin cubierta vegetal o

con siembra reciente

2: cultivo emergente

3: madurez, cosecha

4: suelo sin cubierta o con rastrojo

El dispersograma de la imagen de un cultivo en el plano de vegetación sería

proximadamente el esquematizado en la Fig. 95:

Page 89: Introduccion a La Percepcion Remota

Página 89 de 123

Su forma se parece al gorro de Santa Claus (gorro con borlas = tasseled cap): de ahí el

nombre de la transformación. Pasando a un caso real, en las Figs. 96 a, b, c y d vemos:

a: Un área donde se observan tierras descubiertas, pasturas, areas de cultivos y montes.

b y c: Las imágenes correspondientes a los índices de Brightness y Greeness según la

transformación del Tasseled Cap.

d: El dispersograma de dichas imágenes. Figs.96 a,b,c y d

Veamos ahora otro ejemplo de aplicación. Para ello volveremos a considerar el caso de

la zona arrocera al norte de la ciudad de Artigas con la que recientemente ilustramos

el seguimiento de un cultivo utilizando el NDVI aplicado a imágenes multitemporales.

En las Fig. 97a aparece una imagen RGB color natural de dicha zona adquirida el

30/11/99 y en las Figs 97 b, c y d las imágenes de brightness, greeness y wetness

obtenidas luego de aplicar la transformación de tasseled cap. Con estas tres últimas

imágenes podemos realizar una combinación RGB tal que R=brightness, G=greeness y

B=wetness. Esta combinación se representa en la Fig.98a. La Fig. 98b corresponde a

Page 90: Introduccion a La Percepcion Remota

Página 90 de 123

una transformación similar realizada para una imagen de la misma zona captada en la

fecha 17/01/00.

En las Figs. 98, a y b, las áreas rojizas corresponden a suelo, las verdes a vegetación y

las azules a zonas húmedas o agua. Las situaciones intermedias aparecen como

balances entre dichos colores. En particular se puede observar el grado de inundación de

los arrozales, rojo oscuro o violáceo (suelo y humedad) o azul (totalmente inundados).

Comparando ambas imágenes puede detectarse en enero el aumento de tonalidades

rojizas, indicando una reducción de la cubierta de pasto y aparición de suelo

Page 91: Introduccion a La Percepcion Remota

Página 91 de 123

descubierto (el verano1999-2000 se caracterizó por una intensa sequía). En la zona de

arrozales pueden observarse los cambios que en cuanto a grado de inundación,

comienzo de emergencia, etc., ocurrieron durante el período. INDICES DE VEGETACION A PARTIR DE IMAGENES HIPERESP ECTRALES

10.1.3 Indices de vegetación a partir de imágenes hiperespectrales De los índices

de vegetación bidimensionales (ej. NDVI) hemos pasado a los Ndimensionales (ej.

Tasseled Cap, que utiliza 6 bandas del Landsat). Una extensión de estos últimos lo

constituyen los índices obtenidos a partir de imágenes hiperespectrales, es decir,

obtenidas con sensores de elevada resolución espectral que permiten recoger

información terrestre no en unas pocos canales espectrales, como el SPOT o el

LANDSAT, sino en un gran número de ellos, pudiendo llegar a 200 o más. Los

espectros así obtenidos son comparables a los espectros obtenidos con los

espectrómetros en el laboratorio. Originalmente los sensores hiperespectrales se

montaron en plataformas aéreas, como el AVIRIS (airborne visible / infrared imaging

spectrometer) de la NASA, puesto en servicio en 1989 y que posee 210 canales que

operan entre 0.4 y 2.45 µm con anchos de bandas de 10 nm. Un sensor de

características similares (Hyperion) se encuentra a bordo del satélite EO-1 de la

NASA, lanzado en noviembre del 2000. La Fig. 99 permite comparar la resolución

espectral de un espectro multiespectral (LANDSAT) y uno hiperespectral (EO-1

Hyperion) en el caso de una cubierta vegetal terrestre:

El potencial analítico que ofrecen las imágenes obtenidas con sensores hiperespectrales

es obvio, y una de sus grandes posibilidades es el procesamiento en derivadas de las

curvas espectrales, que permite reducir la influencia de interferencias.

Page 92: Introduccion a La Percepcion Remota

Página 92 de 123

Veamos un ejemplo. En la Fig. 100 se esquematizan los espectros del suelo y del

vegetal así como del espectro resultante de la adición de ellos, que es el espectro que

realmente registra el sensor del satélite.

Consideremos sólo la región espectral entre aproximadamente 0.625 y 0.770 um. En el

intervalo elegido el espectro del suelo puede considerarse prácticamente lineal ( y = ax

+ b). La Fig 101 permite comprobar cómo la derivación permite eliminar la influencia

del suelo.

Estas propiedades de las derivadas podemos aplicarlas a:

1. Al análisis del “borde rojo” del espectro de los vegetales. Dicho borde corresponde al

punto de inflexión que se produce entre el rojo y el IR cercano en el espectro de los

vegetales verdes. Los desplazamientos de su posición se han asociado a cambios

fenológicos y al stress vegetal. La posición del borde rojo puede determinarse con

precisión ubicando el máximo de la derivada primera del espectro. V. Fig. 102(a)

2. Calculo de un nuevo índice de vegetación:

Supongamos que el sensor hiperespectral está recibiendo radiación reflejada por un

cultivo junto con la reflejada por el suelo de los surcos intermedios o reflejada por el

suelo mismo debajo del follaje y que atraviesa nuevamente la cubierta vegetal en

dirección al sensor. Esta situación se representó gráficamente en la Fig. 100. Se propuso

emplear la integral de la derivada segunda como un índice de vegetación para eliminar

la influencia del suelo (Fig. 102(b).

Page 93: Introduccion a La Percepcion Remota

Página 93 de 123

Las consideraciones que anteceden permiten prever un amplio campo de investigación

en la evaluación de las cubiertas vegetales basado en las posibilidades que nos abre la

modalidad hiperespectral de las plataformas satelitales.

PERCEPCION REMOTA EN EL INFRARROJO TERMICO

10.2.1 Generalidades sobre el infrarrojo térmico (IRT). Todo objeto cuya temperatura

se encuentre por encima del cero absoluto emite energía electromagnética en la región

infrarroja térmica (3 a 14 mµ) del espectro electromagnético. Si bien el ojo humano es

insensible a dichas radiaciones existen, como ya hemos visto en el Capítulo 7 de

este trabajo, sensores capaces de detectarlas. Efectivamente, los sistemas de percepción

remota en el IRT son capaces de registrar imágenes térmicas que ofrecen incontables

aplicaciones, fundamentalmente en el monitoreo de las superficies terrestres y

oceánicas así como de fenómenos atmosféricos. Es una práctica usual medir la

temperatura de un cuerpo mediante un termómetro que está en contacto o sumergido

en dicho cuerpo. La magnitud así medida es la llamada temperatura cinética que

constituye una manifestación interna de la energía translacional asociada al movimiento

aleatorio y colisiones de las moléculas del cuerpo considerado. Esta energía interna

puede convertirse en energía radiante y ser emitida como tal, haciéndola accesible a las

técnicas de percepción remota. Se puede medir así la temperatura radiante del objeto

que está correlacionada, aunque no es exactamente igual, a la temperatura cinética.

Efectivamente, aquélla es siempre algo más baja que esta última debida a una

propiedad térmica de los cuerpos que llamamos emisividad y que más adelante

consideraremos.asociada al movimiento aleatorio y colisiones de las moléculas del

cuerpo considerado. Esta energía interna puede convertirse en energía radiante y ser

emitida como tal, haciéndola accesible a las técnicas de percepción remota. Se puede

medir así la temperatura radiante del objeto que está correlacionada, aunque no es

exactamente igual, a la temperatura cinética. Efectivamente, aquélla es siempre algo

Page 94: Introduccion a La Percepcion Remota

Página 94 de 123

más baja que esta última debida a una propiedad térmica de los cuerpos que llamamos

emisividad y que más adelante consideraremos.

En la gráfica de la Fig. 103 se representan las curvas de radiación del cuerpo negro

para distintas temperaturas

FILAMENTO DE TUNGSTENO

Page 95: Introduccion a La Percepcion Remota

Página 95 de 123

La energía total W emitida por la superficie del cuerpo negro a una dada temperatura

viene dada por el área bajo la curva y matemáticamente se describe por la ley de

Stefan-Boltzmann:

Saliendo ahora del plano puramente teórico diremos que en general los objetos terrestres

no son emisores perfectos como el cuerpo negro, sino que a una dada temperatura

emiten menos radiación que el cuerpo negro a la misma temperatura. La fracción que

ellos emiten respecto al cuerpo negro es una medida de su emisividad (e). Así por

Page 96: Introduccion a La Percepcion Remota

Página 96 de 123

ejemplo, si a una dada temperatura y longitud de onda una superficie emite la mitad de

la radiación que emitiría un cuerpo negro en las mismas condiciones su emisividad

será de 0.5. Ejemplos de emisividad para algunos materiales en la región de 8-14 mµ:

De acuerdo a la definición que dimos de emisividad ésta podrá variar entre 0 y 1, pero

cabe aquí señalar que un cuerpo que posee una emisividad menor que 1 pero que

permanece constante para todas las longitudes de onda se denomina cuerpo gris. Es

decir que para este tipo de objeto a todas las longitudes de onda su emisividad es una

fracción constante de la del cuerpo negro. Si en cambio la emisividad del objeto varía

con la longitud de onda se denominará radiador selectivo. La Fig. 105 permite

comparar las curvas de emisión para el cuerpo negro, para un cuerpo gris y para un

radiador selectivo.

El agua es por ejemplo un cuerpo gris, mientras que el cuarzo es un radiador selectivo.

APLICACIONES DEL INFRARROJO TERMICO

10.2.2 Aplicaciones La medida de temperatura desde plataformas orbitales constituye

un parámetro de fundamental importancia en la estimación de diversas variables de

interés terrestre y oceánico. La tradicional medida de temperaturas mediante

termómetros o termistores por contacto está obviamente asociada a elevados costos

Page 97: Introduccion a La Percepcion Remota

Página 97 de 123

operacionales y dificultades cuando dichas medidas pretenden cubrir extensas áreas

geográficas.

La gran solución a este problema la constituyen las mediciones desde satélites con

sensores que operan en la región del IRT. Existe actualmente muchos satélites con tales

sensores, pero aquí nos limitaremos a citar como ejemplos los de la serie NOAA

(National Oceanic and Atmospheric Administration – USA) y los satélites TERRA y

AQUA del sistema EOS de la NASA con su instrumento MODIS.

Refiriéndonos en particular a la serie NOAA, diremos que es una familia de satélites

solar- sincrónicos que orbita a 833 km de altitud. Su sensor AVHRR (Advanced High

Resolution Radiometer) ha sido tal vez el más ampliamente utilizado para las medidas

de temperatura. Posee cinco canales: uno en el visible (0.63 mµ ), uno en el IR

cercano (0.91 mµ), uno en el límite IR cercano/térmico (3.7 mµ) y dos en el IRT (10.8

mµ y 12 mµ).

Este sensor posee una resolución espacial de 1.1 km y un ancho de barrido de 2400 km.

Los satélites en actividad de esta serie son NOAA-12, 14, 15, 16, 17 y 18. Debe

tenerse en cuenta que pese a su gran eficiencia para medir temperaturas sobre grandes

extensiones geográficas sus mediciones no están libres de dificultades, particularmente

por la acción combinada de perturbaciones debidas a la emisividad del terreno y el

efecto atmosférico. La perturbación atmosférica es debida fundamentalmente a la

absorción y emisión de radiación térmica por parte del contenido de vapor de agua

atmosférico, mientras que el efecto de emisividad se debe a la heterogeneidad de los

elementos presentes en la superficie terrestre. En consecuencia, una adecuada

estimación de temperatura desde plataformas satelitales requerirá corregir los defectos

indicados.

Dentro de las técnicas disponibles para estas correcciones se destaca el método

conocido como de “ Ventana Dividida o Split Window” que combina los datos

obtenidossimultáneamente por dos canales espectrales en la misma ventana de

transmisión atmosférica. Se basa en el hecho de que la atenuación atmosférica que

experimenta la radiación emitida por la superficie terrestre es proporcional a la

diferencia de las correspondientes medidas efectuadas desde satélite y realizadas

simultáneamente desde dos canales térmicos distintos. En tal sentido se han propuesto

algoritmos para estimar la temperatura de superficies terrestres y oceánicas basándose

en los canales AVHRR 4 y 5 que aprovecha el efecto diferencial de la atmósfera sobre

la señal radiométrica en la región de la ventana atmosférica en la que operan estos

canales. La forma básica del algoritmo de ventana dividida para los canales AVHRR 4 y

5 es la siguiente:

Donde a y b son constantes que pueden ser estimadas a través de modelos de

simulación o por correlación con observaciones terrestres.

La medida de temperatura es un buen indicador para el monitoreo del balance

Page 98: Introduccion a La Percepcion Remota

Página 98 de 123

energético en la superficie terrestre y sirve como indicador del efecto invernadero.

Esto la hace esencial para variados estudios de naturaleza climática, hidrológica,

ecológica y biogeoquímica.

10.2.2.1 Temperatura del mar. Consideremos algo más en detalle las medidas de

temperaturas marinas. Debe tenerse en cuenta que como las radiaciones infrarrojas

térmicas son intensamente absorbidas por el agua las medidas de temperatura que se

obtienen corresponden a una capa superficial de pocos milímetros de espesor

(temperatura de piel) y van a ser algo inferiores a la de aguas más profundas. Sin

embargo, como a través de esa “piel”ocurren importantes procesos de intercambio

térmico entre el mar y la atmósfera, estas medidas de temperatura son de fundamental

importancia para estudios climáticos a nivel global. Citemos como típico ejemplo de

monitoreo de una anomalía térmica el fenómeno de El Niño. Este consiste en un

conjunto de alteraciones que tienen lugar en el Pacífico oriental a intervalos de tiempo

irregulares, por lo general de cuatro a siete años. Su origen se atribuye a procesos

complejos de interacción océano-atmósfera, algunos aúnpoco comprendidos, y con

efectos desastrosos a nivel global.

En la Fig. 106 se representan un mapa de la NOAA, generado a través de datos

satelitales, de las anomalías térmicas en el Pacífico en Setiembre de 1997, temporada

en que el fenómeno de El Niño se había presentado con especial intensidad y había

alcanzado ya su “madurez”

En la Fig. 107 se indican los eventos climáticos que indujo en el globo, incluso a

distancias muy grandes como en la India.

Page 99: Introduccion a La Percepcion Remota

Página 99 de 123

Las observaciones de temperatura superficial del mar son obviamente muy importantes

para los oceanógrafos puesto que permiten el análisis espacial y temporal de las

corrientes oceánicas así como de sus variaciones. Incluso facilitan el pronóstico de

desastres climáticos como los inducidos por la corriente de El Niño.

Si pasamos ahora del nivel global al local veamos como ejemplo una imagen NOAA

de temperaturas del mar en las cercanías del Río de la Plata y regiones costeras

adyacentes. (Fig.108):

La imagen fue registrada a principios de febrero y las temperaturas son relativamente

elevadas.

Son fáciles de distinguir los frentes de confluencia entre aguas de distintas

temperaturas (corriente de las Malvinas-corriente del Brasil). En estos frentes se

producen importantes gradientes de temperatura, como el que se produce a lo largo de

la línea P y se registra en la gráfica de la Fig. 109.

Page 100: Introduccion a La Percepcion Remota

Página 100 de 123

Estos afloramientos de aguas profundas más frías rodeadas de áreas más calientes son

lugares de intensa creación de biomasa (plancton) y ellas inducen la concentración de

peces. Una comprobación gráfica de esto lo constituye la Fig. 110. Esta es una imagen

adquirida por el satélite Sea Star de la NASA de la costa patagónica donde se observa

claramente la península de Valdés. Es una imagen registrada en el rango espectral

visible y permite visualizar el color del mar. Una línea de color más claro marca la

convergencia de las corrientes de las Malvinas y de Brasil. Al oeste de esta línea los

colores verdosos indican afloramiento de fitoplancton sobre las agua más frías de la

corriente de las Malvinas. Al este de la línea de convergencia los colores azules más

profundos indican la ausencia de fitoplancton.

Las medidas de temperatura en el IRT ofrecen así un método para orientar a los

buques pesqueros más directamente a las áreas propicias de captura, reduciendo su

consumo de combustible y aumentando su eficiencia en masa y tiempo de captura.

10.2.2.2. Temperatura terrestre. La temperatura terrestre es un buen indicador del

balance energético y del efecto invernadero, puesto que constituye uno de los

Page 101: Introduccion a La Percepcion Remota

Página 101 de 123

parámetros clave en la física de los procesos que ocurren en la superficie de la Tierra

tanto a nivel local como global. Combina los resultados de las interacciones superficie-

atmósfera y de los flujos energéticos entre la atmósfera y el suelo. Por tal motivo su

medida es necesaria para variados estudios climáticos, hidrológicos, ecológicos y

biogeoquímicos. Su importancia en agricultura radica en que la temperatura del suelo y

del follaje es uno de los factores determinantes del crecimiento vegetal y gobierna el

inicio y terminación de los procesos estacionales de los vegetales. Como en el caso de

las medidas marinas en las terrestres existen abundantes bases de datos de temperatura

a nivel global obtenidos a través de los sensores AVHRR y MODIS, aunque también

se obtiene información de esta naturaleza a través de satélites geoestacionarios (ej.

serie GOES). Como en el caso de la medida de temperatura del mar también aquí se

recurre a algoritmos de cálculo, por ejemplo del tipo de ventana dividida o split-

window para procesar los datos de infrarrojo térmico.

Pasemos ahora a considerar algunos ejemplos más concretos de aplicación de medidas

de temperatura. Uno de ellos, cada vez más importante cuando se asocia a los

cambios climáticos globales que afectan nuestro planeta es el monitoreo de incendios.

Los incendios de diferentes tipos de biomasa como forestaciones, malezas, residuos

agrícolas, etc. juegan un importante rol en los cambios climáticos emitiendo a la

atmósfera gases de invernadero y aerosoles y afectando seriamente la biodiversidad de

los ecosistemas. La información satelital en la prevención y monitoreo de incendios,

particularmente en áreas extensas o en territorios de difícil acceso resulta sumamente

valiosa. Un sensor como AVHRR o MODIS no sólo puede detectar incendios cuando

ya están declarados a través de la visualización de sus plumas de humo (V. Fig.111

Incendios de campo en Paraguay)) sino que puede hacerlo a través de la detección de

anomalías térmicas o puntos calientes antes de que los efectos visuales se manifiesten

notoriamente.

Esta capacidad Fig 111 de detección es mayor en las observaciones infrarrojas

nocturnas, ya que durante el día, particularmente en climas cálidos, pueden confundirse

Page 102: Introduccion a La Percepcion Remota

Página 102 de 123

fuegos activos con superficies arenosas o asfálticas muy calientes. Existen sistemas

satelitales de monitoreo de incendios a nivel global. El FIRMS (Fire Information for

Resource Management System) por ejemplo genera un mapa de puntos

calientes/incendios casi en tiempo real accesible por Internet. El FIRMS, operado por

la NASA y la Univ. de Maryland se basa en el sistema de respuesta rápida de MODIS

(http://rapidfire.sci.nasa.gov/status/).

En la Fig.112 se observa un mapa del sistema de Respuesta rápida de MODIS (Julio de

2006) donde se observan puntos calientes y/o incendios en Uruguay, Paraguay y parte

de la Argentina. Nuevamente se observa una gran densidad de puntos calientes en

Paraguay, correspondientes a incendios de campo como los registrados en la Fig. 111.

Hasta aquí las aplicaciones de detección de incendios que mencionamos se han basado

en sensores de baja resolución espacial. El siguiente caso se refiere a imágenes

captadas por el LANDSAT TM en un incendio registrado en el Parque Nacional de

Yellowstone (USA) en Julio de 1988 (Fig.113). Esta imagen “color natural” se ve

obviamente afectada por el efecto dispersivo del humo y otros componentes

atmosféricos, como era de esperarse tratándose de bandas de longitudes de onda

relativamente cortas.

Page 103: Introduccion a La Percepcion Remota

Página 103 de 123

Si, en cambio consideramos las bandas infrarrojas TM 4, 5 y 7 (Fig.114), esta última

justamente en el límite entre el infrarrojo medio y el térmico, es decir si consideramos

una combinación RGB 754, vemos cómo el efecto del humo desaparece y se observan

detalles de los frentes de ignición. Aunque las bandas que hemos utilizado son

sensibles a la radiación solar reflejada, las zonas en combustión están suficientemente

calientes como para emitir energía a dichas longitudes de onda. Esto se comprende

fácilmente observando las curvas de la Fig. 115, que muestras las bandas espectrales

TM superpuestas a las curvas de emisión radiante a diversas temperaturas

Para completar estas breves consideraciones acerca de la aplicación de las medidas de

temperatura a partir de datos satelitales nos referiremos a un caso en que el objetivo no

era la detección de puntos calientes sino por el contrario el seguimiento de heladas.

Durante el invierno del año 2000 se produjeron temperaturas muy bajas al sur de Brasil

(estados de Paraná, San Pablo, Minas Geraes). Las temperaturas de –4oC y menores

llegan a ser letales para los cafetales y se encomendó a nuestra estación de El Pinar,

Depto. de Canelones, efectuar un seguimiento de las temperaturas nocturnas de la

Page 104: Introduccion a La Percepcion Remota

Página 104 de 123

región, ya que las madrugadas son más propensas a alcanzar dichos mínimos. El

seguimiento se efectuó mediante las bandas térmicas de los satélites NOAA 12 y 14 y

fueron captadas por un sistema AVHRR HRPT (High Resolution Picture

Transmission). En la Fig. 116 se presenta un típico mapa de temperaturas de los

obtenidos durante el monitoreo.

Los contornos verdes marcan la posición de las principales áreas cafetaleras. Puede

observarse que en varias zonas de éstas las temperaturas alcanzadas permiten

pronosticar deterioros irreversibles en las plantaciones.

MONITOREO DE AREAS DE DESASTRE

10.3 Monitoreo de áreas de desastre. Las imágenes satelitales constituyen una

valiosa herramienta para acceder rápidamente a aquellas áreas sometidas a desastres

ecológicos. Su amplia área de cobertura, su facilidad para visualizar rápidamente y

evaluar la situación de aquellos lugares donde las mismas consecuencias del desastre

impiden o dificultan otros tipos de aproximación son factores fundamentales en el

manejo de las acciones de recuperación posteriores al evento. Incluso en muchos casos

la información satelital permite emitir alertas previos al evento: en efecto, muchos

tipos de desastres, como inundaciones, sequías, huracanes, erupciones volcánicas, etc.

poseen señales precursoras que un satélite pude detectar. El alerta temprano permite

reducir los riesgos potenciales y planificar las acciones a tomar durante y luego del

Page 105: Introduccion a La Percepcion Remota

Página 105 de 123

episodio. Cuando hablamos de desastres ecológicos lo hacemos en un sentido amplio.

En efecto, incluimos en dicho concepto no sólo los desastres naturales sino también los

debidos a la acción humana directa o bien inducidos por la acción humana. Algunos

son de rápido desenlace y con resultados devastadores, otros son de desarrollo lento

pero con iguales o más serias repercusiones en el tiempo.

10.3.1 Algunos ejemplos típicos.

· Sequías e incendios. En el desarrollo de este trabajo ya nos referimos a casos de

aplicación de los métodos de percepción remota a eventos ecológicos cuando

presentamos ejemplos de seguimiento de sequías y monitoreo de incendios. En ciertas

regiones estostipos de desastres son frecuentes y con graves consecuencias para las

poblaciones afectadas.

· Inundaciones. Las inundaciones constituyen otro caso cuyo seguimiento y evaluación

es fácilmente realizable desde el espacio. Utilizando imágenes multitemporales, es

decir, tomadas en diferentes fechas, es posible detectar y cuantificar cambios ocurridos

en el área afectada en el lapso transcurrido entre la adquisición de las imágenes. Las

Figs. 117 a y b representan la misma escena: la confluencia de los ríos Missisipi y

Missouri en las proximidades de las ciudades de St.Charles y St.Louis antes y después

de las inundaciones del verano de 1993

Las imágenes corresponden a la banda TM5 del LANDSAT que permite realzar los

cuerpos de agua por su color casi negro. Existe un procedimiento muy útil para

evaluar cambios: si entre las dos fechas no hubiera ocurrido ningún cambio de

importancia en la escena, las dos imágenes TM5 estarían fuertemente correlacionadas

y un dispersograma de ambas evidenciaría dicha correlación. El dispersograma real es

el de la Fig. 118 b donde el sector alargado horizontal en la parte inferior corresponde

a los pixeles inundados. Si pedimos a la computadora que los destaque en la imagen de

la inundación, Fig. 118 a, se evidenciarán (color azul) las zonas inundadas, pudiendo

medirse su área total, el área de las zonas urbanas inundadas, etc. Una combinación

Page 106: Introduccion a La Percepcion Remota

Página 106 de 123

RGB 432 (falso infrarrojo, Fig. 119) complementa la anterior imagen y permite

identificar la naturaleza de algunas áreas emergentes de la inundación

· Terremotos y tsunamis: La aplicación de las técnica de percepción remota a los

terremotos puede considerarse un complemento de los sistemas de monitoreo terrestre.

El concepto de alerta temprano por parte de la percepción remota en este tipo de

eventos es usualmente algo diferente que para otros tipos de desastres. En efecto, el

aporte más útil en este caso es fundamentalmente el rápido suministro de información

post-desastre a las autoridades que manejan la recuperación del área. Esta información

se logra sobre todo a través de imágenes de alta resolución tales como IKONOS o

QUICKBIRD, como se ejemplifica en las imágenes 120 a,b,c, correspondientes a un

terremoto ocurrido en Algeria, región de Boumerdes en Mayo del 2003

Page 107: Introduccion a La Percepcion Remota

Página 107 de 123

Rojo: áreas dañadas y escombros

Verde: asfalto y techos sin daños

Azul: suelo

Amarillo: vegetación

Cian: sombra

No obstante lo expresado anteriormente con carácter general respecto a los alertas

preterremoto, actualmente las técnicas de Percepción Remota pueden realizar su

contribución a éstas a través de detección de deformaciones del terreno previas al

evento sísmico. Esto se realiza mediante satélites con ciertos sensores que dado el

alcance de este trabajo no hemos considerado antes : son los sensores de radar

interferométrico que pueden llegar a detectar las deformaciones del orden de

centímetros que pueden manifestarse previamente a los terremotos.

En cuanto a los tsunamis, olas devastadoras provocadas por terremotos o erupciones

submarinas, son también objeto de alerta y evaluación de daños por técnicas de

Page 108: Introduccion a La Percepcion Remota

Página 108 de 123

Percepción Remota. Fue un caso típico el ocurrido en el Océano Indico en diciembre

de 2004, generado por un terremoto de magnitud 9.0 con epicentro fuera de la costa de

Sumatra. Las Figs. 121 a y b (Sri Lanka) , captadas por el satélite QUICKBIRD, así

como las Figs 122 a y b, captadas por el satélite hindú IRS-P6 son típicos ejemplos de

la información que en estos casos puede suministrar la Percepción Remota casi en

tiempo real.

· Volcanes: Más de 1500 volcanes potencialmente activos están dispersos en la

superficie terrestre, de los cuales aproximadamente 500 han entrado en actividad en

algún momentoen los últimos tiempos. Aunque los científicos tratan de vigilar y prever

la actividad de estos volcanes por los métodos tradicionales basados en tierra, la

percepción remota satelital se ha vuelto una herramienta crucial en esta vigilancia. Uno

de los indicadores de alerta utilizados son los “puntos calientes” que permiten detectar

actividad volcánica en horas previas a su ocurrencia. Sobre dicha base opera el Sistema

Page 109: Introduccion a La Percepcion Remota

Página 109 de 123

de Alerta Térmica del MODIS que realiza una cobertura global completa cada 48

horas, es decir que cada pixel de 1 km en la superficie terrestre es monitoreado una vez

cada dos días en búsqueda de anomalías térmicas.

También las imágenes infrarrojas de satélites geostacionarios captadas cada 15

minutos pueden ser utilizadas para predecir erupciones volcánicas a través de mapeos

térmicos de la superficie terrestre. Una de las posibilidades de la percepción remota en

el monitoreo de la actividad volcánica es el seguimiento de las plumas de humo y

polvo generadas en las erupciones. Dichas nubes que pueden llegar a elevarse hasta

unos 12000 metros, constituyen un grave peligro para los aviones, particularmente en

corredores aéreos muy frecuentados como por ejemplo en el estrecho de Bering, región

en la que hay actividad volcánica. En efecto, si un jet se introduce en una de tales

nubes la temperatura de las turbinas puede fundir las cenizas y partículas minerales

presentes y provocar un desastre. En la Fig. 123 vemos una imagen MODIS de una

pluma de cenizas en la erupción de un vlcán de la península rusa de Kamchatka

· Desertificación: La desertificación es un proceso complejo de degradación de los

suelos que conduce a una disminución o destrucción de su potencial biológico. Este

fenómeno depende de diversos factores: sequías, pastoreos excesivos, deforestación,

prácticas de cultivo inadecuadas, manejo impropio del agua que puede conducir a

erosión, salinización, etc.

Desde hace ya bastantes años los satélites a través de un monitoreo global están

contribuyendo al seguimiento y a una mejor compresión de los fenómenos de

desertificación. Si bien éstos una vez instalados son difícilmente reversibles, la

percepción remota es sin duda una herramienta de gran valor para complementar las

acciones de recuperación que se intenten.

Page 110: Introduccion a La Percepcion Remota

Página 110 de 123

Un caso típico de desertificación monitoreada durante muchos años por percepción

remota es el del Mar de Aral. Este enorme lago, ubicado entre Kazakhstan y

Uzbekistan, que fue en una época el cuarto de mundo por su tamaño perdió más del

40% de su superficie. El factor principal que por los años 1950 disparó este proceso fue

la intensa irrigación de cultivos de algodón efectuada con agua de dos ríos que

alimentaban el lago. El aporte de estos ríos no pudo entonces compensar la

evaporación del lago, hecho agravado por ser la de éste una cuenca originariamente

semiárida. El proceso hizo colapsar la industria pesquera existente y millones de

habitantes se vieron afectados por los vientos transportando sales, arena y partículas

minerales provenientes del lecho del lago. Los problemas de salud incluían cáncer a la

garganta, enfermedades de la visión, problemas respiratorios, incremento de la

mortalidad infantil, etc. Las imágenes de las Figs. 124 a y b reflejan la evolución del

proceso entre los años 1973 y 2004.

Pese a que desde el año 1991, luego del colapso de la URSS, el problema del Mar de

Aral se internacionalizó y se realizan esfuerzos para detener o revertir la situación,

lasimágenes de la Fig. 124 parecen demostrar que ya es muy tarde para lograrlo.

· Derrames de petróleo: La contaminación de los océanos con petróleo es uno de los

grandes problemas ambientales actuales. Esta contaminación se adjudica en su mayor

proporción a operaciones de limpìeza de depósitos en buques tanque y en menor

proporción a accidentes en buques y plataformas petroleras. Son importantes también

las cantidades de petróleo vertidas en ríos y océanos por muchas industrias, incluyendo

refinerías y depósitos de almacenaje. En regiones como el Golfo Pérsico las emisiones

de petróleo han sido casi continuas desde 1982, destruyendo la industria pesquera y

volviendo inoperantes plantas de desalinización.

La percepción remota desde plataformas satelitales es en estos casos muy útil dada su

capacidad de supervisar amplias áreas, de realizar monitoreos localizados y de prestar

asistencia táctica en emergencias. Puede suministrar información acerca de la

velocidad y dirección de los derrames oceánicos a través de imágenes multitemporales

e incluso realizar mapeos de los derrames.

Ilustraremos esta aplicación considerando el derrame de petróleo resultante de los

incidentes bélicos que ocurrieron durante la Guerra del Golfo, en enero de 1991. El

Page 111: Introduccion a La Percepcion Remota

Página 111 de 123

derrame en la costa de Kuwait alcanzó de 4 a 6 millones de barriles de petróleo.

Nuestra zona de estudio se encuentra a 322 km al sur de Kuwait City, sobre la costa de

Arabia Saudita y se centra en la bahía de Ad Daffi , Fig. 125.

Se trata de una bahía poco profunda limitada al este por varias islas. Esa zona jugó en

este caso, como en oportunidad de anteriores derrames, un papel clave bloqueando el

desplazamiento hacia el sur del petróleo derramado. Este derrame se originó el 21 de

enero y las imágenes fueron adquiridas el 4 de marzo. La imagen de la Fig. 126 es una

combinación RGB color natural, mientras que la Fig.127 corresponde a la banda TM5

(infrarrojo medio).

En ésta se destaca la mayor reflectancia del petróleo, distinguiéndolo del agua que

absorbe intensamente dicha radiación y apareciendo casi negra en la imagen. Más aún,

basándoseen los diferentes niveles de reflectancia de las manchas de petróleo se puede

lograr discernir entre aceites pesados y livianos. Las áreas de las manchas y las

distancias costeras pueden ser directamente evaluadas a través del análisis de la

imagen.

· Un accidente nuclear: Chernobyl: El 26 de abril de 1986 ocurrió el peor accidente

registrado en la historia de las aplicaciones civiles de la energía nuclear. Ocurrió en

Page 112: Introduccion a La Percepcion Remota

Página 112 de 123

uno de los cuatro reactores de la planta de Chernobyl en la ex Unión Soviética. Fue

consecuencia de la interrelación de fallas humanas en el manejo del reactor y de fallas

de diseño en éste. La explosión voló la cubierta de 1000 toneladas del reactor y

resquebrajó las paredes dejando expuesto el núcleo de grafito en combustión y

generándose una pluma de 5 km de altura de contaminantes radioactivos. La Fig.128 es

una composición RGB 742 de una escena LANDSAT-5 captada tres días después del

accidente, cubriendo el área de la planta nuclear. Puede distinguirse aproximadamente

el layout de ésta, en particular el lago de recirculación del agua de enfriamiento de los

reactores. En esta imagen, al haber utilizado la banda 7 para el rojo aparece un punto

rojo intenso (muy pequeño en la imagen) que marca la posición del reactor accidentado

que produce una intensa emisión a la longitud de onda de la banda 7 (2.08 2.35µm).

La Fig. 129 es una imagen correspondiente a la banda TM 6 del LANDSAT 5 que es

altamente sensible a las variaciones de temperatura no demasiado alejadas de los

valores de temperatura ambiente en la superficie terrestre. La resolución de esta banda

es de 120m x 120m, lo que hace más difusos los detalles. Sin embargo, nos permite

observar que la temperatura del lago de enfriamiento aún no es uniforme, pese al cese

de actividad de la planta. Los colores rojizos indican las temperaturas mayores y los

verdes y azules los más bajos. Obsérvese que en la mayor parte del lago la temperatura

es superior a la del río que corre en las proximidades.

· Deforestación: La deforestación descontrolada de los bosques tropicales es una de las

graves agresiones al planeta. La destrucción de bosques húmedos tropicales va más allá

de la simple pérdida de áreas pintorescas, y su continuidad irrestricta es un serio factor

de perturbación para el clima y la biodiversidad de la Tierra. La Fig. 130 muestra el

grado en que en unos pocos años avanzó la deforestación en una región de la

Amazonia brasileña y la Fig. 131 muestra una región de la selva peruana donde se

aprecia deforestación condicionada por la instalación de numerosos pozos petrolíferos.

Page 113: Introduccion a La Percepcion Remota

Página 113 de 123

APENDICE I: NOCIONES BASICAS SOBRE SENSORES DE RADA R

En el presente trabajo nos hemos referido fundamentalmente a sensores pasivos, es

decir que necesitan una fuente de iluminación externa, usualmente el sol. Sin embargo,

en algún momento hicimos referencia a otro tipo de sensores, como el radar, que por

poseer su propia fuente de emisión se denominan sensores activos. La palabra radar es

un acrónimo de Radio Detection And Range, que más explícitamente podríamos

traducirlo como “detección y medida de distancias por ondas de radio”. Un sistema de

radar posee tres funciones primarias:

• Emite señales de microondas (en sus principios fueron de radio, de ahí su nombre)

hacia una escena.

• Recibe la fracción de energía reflejada por la escena en su

Page 114: Introduccion a La Percepcion Remota

Página 114 de 123

Es usual en estas imágenes observar patrones de deforestación en forma de “espinas de

pescado”, que corresponden a la difusión de los procesos de deforestación a lo largo

de sendas o caminos.

Si bien el ritmo actual de deforestación es difícil de estimar, el análisis de imágenes

satelitales constituye una gran ayuda para su evaluación y para el desarrollo de

estrategias de control.

10.3.2 El monitoreo a escala global de desastres. En la Sección anterior nos hemos

referido a la forma cómo se manifiestan distintos tipos de desastres, algunos de origen

natural, otros causados directamente por el hombre y otros inducidos por éste. Algunos

de estos desastres ocurren en un corto lapso y sus resultados son devastadores. Otros

ocurren más lentamente pero sus resultados son tan serios o aún más que los

anteriores. La necesidad de alertar sobre estos procesos o bien de ayudar a la

recuperación de las áreas afectadas ha llevado a crear sistemas de monitoreo de

desastres basados en la percepción remota que operan a nivel global. Es así que en la

Conferencia UNISPACE III celebrada en Viena en julio de 1999, la Agencia Espacial

Europea (ESA) y la Agencia Espacial Francesa (CNES) elaboraron la “Carta

Internacional sobre el Espacio y las Grandes Catástrofes”(International Charter “Space

and Major Disasters”) a la cual se unieron

luego Estados Unidos, India, Argentina, Japón y China.

Esto representa que frente a un desastre se active la cooperación de numerosos

satélites como SPOT, LANDSAT, IRS (India), RADARSAT (Canadá), TERRA

(USA), ENVISAT (ESA), NOAA, SAC-C (Argentina), ALOS (Japón),etc., así como

el sistema DMC. Un

Usuario Autorizado puede, por simple llamada telefónica movilizar los recursos

espaciales mencionados. En la Fig. 132 se observa un relevamiento de las

inundaciones de abril-mayo de 2007 en Uruguay realizado en el marco del

International Charter.

Page 115: Introduccion a La Percepcion Remota

Página 115 de 123

En cuanto al sistema DMC, (Disaster Monitoring Constellation) mencionado

anteriormente como integrante del International Charter, es una Asociación liderada

por la Universidad de Surrey (Inglaterra). Consiste en una red de microsatélites, y sus

estaciones terrestres

El sistema +DMC se caracteriza porque cada microsatélite pertenece y es operado por

la nación a la que pertenece, pero todos han sido igualmente espaciados en una órbita

solar- sincrónica de modo de poder ofrecer diariamente imágenes multiespectrales de

cualquier parte del mundo. Desde el año 2002 operan cinco microsatélites operados

por Algeria, China, Nigeria, Turquía, UK, y próximamente se les unirán otros

(España, Vietnam, ets.) Estos satélites poseen un FOV de 640 km y pueden obtener

imágenes multiespectrales con resolución de 32 m en el nadir. Algunos poseen además

sensores pancromáticos de 4 m de resolución.

• Observa la intensidad (detección) y el retardo de tiempo (distancia) de las señales o

eco de retorno.

Como el radar posee su propia fuente de emisión de radiaciones puede operar de día o

de noche, y como además las microondas pueden penetrar la atmósfera bajo

virtualmente cualquier condición climática el radar se convierte en un sensor que, a

diferencia de los que hemos estudiado antes puede operar en todo tiempo. Como

contrapartida, las imágenes de radar son de interpretación más difícil que las

correspondientes obtenidas para las regiones visibles o térmicas del espectro

electromagnético. En efecto, estas últimas pueden correlacionarse más fácilmente con

las apreciaciones realizadas por el ojo humano, mientras que las respuestas de las

microondas son marcadamente diferentes. La Fig. A-1 esquematiza la operación de un

sistema de radar a bordo de un satélite.

Page 116: Introduccion a La Percepcion Remota

Página 116 de 123

El sistema posee una antenaque alternadamente transmite y recibe pulsos de

microondas de longitudes de onda definidas comprendidas en el rango de 1 cm a 1m y

polarizadas en un plano vertical u horizontal.

Aproximadamente se emiten 1500 pulsos de alta energía por segundo y cada pulso tiene

una duración de típicamente 10 a 50 microsegundos. Cuando el pulso de radar alcanza

la superficie terrestre su energía se dispersa en todas direcciones, y parte de ella se

refleja hacia la antena.

AI-2

Este eco o “backscatter” retorna al sensor de radar y es recibido por la antena con una

polarización específica (horizontal o vertical, pero no necesariamente la misma del

pulso emitido).

Lo ecos recibidos son digitalizados y registrados para su posterior procesamiento y

conversión en una imagen. Dado que los pulsos de radar se propagan con la velocidad

de la luz es evidente que midiendo el tiempo necesario para su viaje de ida y vuelta

podrá calcularse la distancia al objeto reflector.

En el caso de los sensores de radar podremos hablar de dos tipos de resolución. El

pulso usualmente cubre una pequeña banda de frecuencias (ancho de banda) centrada

en la frecuencia seleccionada por el sistema de radar. Este ancho de banda determina la

resolución en la dirección del objeto iluminado. Mayores anchos de banda condicionan

resoluciones más finas en dicha dirección. Por otra parte, la longitud de la antena de

radar determina la resolución en la dirección del trayecto del satélite: cuanto más larga

es la antena más fina es la resolución en dicha dimensión. Es así que se desarrolló una

técnica, denominada radar de apertura sintética (Synthetic Aperture Radar – SAR), que

consiste en sintetizar una antena muy larga combinando señales recibidas por el radar a

medida que recorre su trayecto.

Las imágenes de radar están compuestas por pixeles, cada uno de los cuales representa

el eco proveniente de un área correspondientes sobre el terreno: zonas oscuras en la

imagen representan bajo retorno de energía hacia el radar, zonas brillantes

Page 117: Introduccion a La Percepcion Remota

Página 117 de 123

corresponden a alto retorno. Dicho retorno está condicionado por una serie de factores,

algunos dependientes de los parámetros del sistema, otros dependientes de los

parámetros del área de interés y finalmente otros resultantes de las interacciones entre

los anteriores:

• Parámetros del sistema:

1. Longitud de onda (o frecuencia)

2. Polarización

3. Angulo de observación (v. Fig. A-2-a)

4. Dirección de observación

5. Resolución

• Parámetros del blanco o área de interés:

1. Textura de la superficie

2. Propiedades dieléctricas

3. Angulo y orientación de pendientes (v. Fig. A-2-b)

• Interacciones:

1. Textura de la superficie – longitud de onda del sistema

2. Angulo de observación (f) y ángulo de la pendiente (a) – se combinan para

determinar el ángulo de incidencia (.).

3. La dirección de observación y la orientación de la pendiente – influencian el área y

geometría del blanco presentado al radar.

AI-3

El retorno está a menudo relacionado con el tamaño del objeto que dispersa: los objetos

de aproximadamente las mismas dimensiones, o mayores, que la longitud de onda

aparecerán más luminosos, mientras que los objetos menores que la longitud de onda

aparecerán oscuros. Este efecto arroja información acerca de la textura de la región de

Page 118: Introduccion a La Percepcion Remota

Página 118 de 123

interés. Las longitudes de onda más usuales en los sistemas de radar son las

siguientes:

Banda P = ~ 65 cm

Banda L= ~ 23 cm

Banda S = ~ 10 cm

BandaC=~ 5cm

BandaX=~ 3cm

Cuanto mayor es la longitud de onda, o sea menor la frecuencia, mayor es el poder de

penetración en la vegetación y en el suelo. En general cada sistema de radar, aéreo o

satelital utiliza sólo una de dichas bandas según su campo de aplicación, pero en

general la banda C constituye un buen compromiso.

AI-4

En una imagen de radar se observan dos tipos principales de variaciones de brillo:

· Variaciones de tono

· Variaciones de textura

El tono hace referencia a los diferentes niveles de grises del negro al blanco, siendo

proporcional a la intensidad del retorno del radar. Los objetos relativamente llanos

como cuerpos de agua calmos aparecen con tonos oscuros (la reflexión es mayormente

especular y genera poco retorno). Los objetos difusores, como diversas formas de

vegetación, aparecen con tonos intermedios. Finalmente, edificios construidos por el

hombre, barcos, etc. pueden producir tonos brillantes, dependiendo de su forma,

orientación y/o sus constituyentes materiales (v. Fig. A-3).

La textura hace referencia al patrón de las variaciones espaciales de tono, y depende

del grado de uniformidad espacial de los objetos de la escena. La textura puede ser

definida como fina, mediana o gruesa.

Page 119: Introduccion a La Percepcion Remota

Página 119 de 123

AI-5

Las Figs. A-4 a y b constituyen típicas imágenes de radar, en este caso adquiridas por

el satélite ERS de la Agencia espacial Europea en noviembre del 2000. Las imágenes

corresponden a aproximadamente la misma región de una forestación en Paysandú que

ya hemos utilizado como ejemplo de clasificaciones en el presente trabajo. En

particular la parte inferior izquierda puede ser reconocida en las Figs. 74, 78 y 79.

Como vemos, las imágenes de radar son de más compleja interpretación que las de los

satélites ópticos. Además, una característica típica de las imágenes de radar es su

aspecto granulado (“salt and peper”) por efecto de los speckles. Estos gránulos son

inherentes a la naturaleza misma del radar. En efecto, las ondas coherentes emitidas

por el sensor activo del radar, en forma similar a lo que ocurre con un laser, se

propagan en concordancia de fase hasta incidir sobre los objetos terrestres, donde la

coherencia se pierde al reflejarse y retornar: esto se debe a las diferentes distancias que

deben atravesar desde el objeto a la antena, así como a efectos de dispersión en el

objeto. Entre estas ondas reflejadas se pueden producir ahora efectos de interferencia

constructiva o destructiva generándose una estrucutura granulada en la imagen, como

se observa en la Fig.A-5. El efecto de los speckles puede atenuarse mediante

filtraciones con filtros adecuados. En particular en la Fig. A-4b se ha aplicado dicho

tratamiento

Page 120: Introduccion a La Percepcion Remota

Página 120 de 123

AI-6

Para terminar esta breve referencia a los sensores de radar, presentaremos dos

imágenes de la misma región, una de radar (Radarsat-1) y otra una imagen óptica

(composición RGB 453 del Landsat 5) (Figs.A-6 a y b en la página AI-7) La región es

la situada al SW de Sta Cruz, Río Grande do Sul, Brasil. La imagen de radar es una

combinación RGB multitemporal de fechas 21/10/05, 08/12/05, 25/01/06, mientras que

la imagen Landsat es de fecha 03/11/05. La imagen de radar posee originalmente una

resolución de 6.25 m, mientras que la de LANDSAT 5 es de 30m. La imagen Landsat

puede ser fácilmente interpretada en sus rasgos fundamentales de acuerdo a las

consideraciones efectuadas en las páginas 51 y siguientes de este trabajo

(Combinaciones de Color). Dicha interpretación permitirá establecer una correlación

temática con la imagen de radar.

AI-7

Page 121: Introduccion a La Percepcion Remota

Página 121 de 123

Page 122: Introduccion a La Percepcion Remota

Página 122 de 123

APENDICE II: BANDAS ESPECTRALES DE ALGUNOS SATELITE S ACTUALES

Bandas Espectrales de LANDSAT TM y SPOT HRVIR. En la Tabla siguiente se

presentan los rangos de longitudes de onda abarcados por las bandas espectrales de

estos satélites:

TM Rango espectral (µm) HRVIR Rango espectral (µm)

Banda 1 0.45-0.52 Banda 1 0.50-0.59

Banda 2 0.52-0.60 Banda 2 0.61-0.68

Banda 3 0.63-0.69 Banda 3 0.79-0.89

Banda 4 0.76-0.90 Banda 4 1.58-1.75

Banda 5 1.55-1.75

Banda 6 10.4-12.5

Banda 7 2.08-2.35

IFOV Nadir 30x30m (b. 1-5,7) IFOV Nadir 20x20m

120x120m (b. 6)

Barrido 180 km Barrido 60 km (c/instrumento)

Las principales aplicaciones de las bandas del LANDSAT TM (y por similitud de

rangos espectrales también las del SPOT) son las siguientes:

Banda 1 (0.45-0.52µm)(azul): buena penetración en cuerpos de agua. Diferenciación

de suelos y vegetación y de coníferas con vegetación de hojas caducas.

Banda 2 (0.52-0.60µm)(verde): reflectancia en el verde para vegetación en buenas

condiciones.

Banda 3 (0.63-0.69µm) (rojo): absorción de la clorofila.. Diferenciación de especies

vegetales.

Banda 4 (0.76-0.90µm) (infrarrojo cercano): evaluación de biomasa. Delineación de

cuerpos de agua.

Banda 5 (1.55-1.75µm) (infrarrojo medio): estado hídrico en vegetales.

Discriminación entre nubes, nieve y hielo

Banda 6 (10.4-12.5µm) (infrarrojo térmico): stress térmico en vegetales y mapeados

térmicos.

Banda 7 (2.08-2.35µm) (infrarrojo medio): Estudios geológicos, identificación de

zonas con alteraciones hidrotérmicas en rocas.

Page 123: Introduccion a La Percepcion Remota

Página 123 de 123

APENDICE III: BIBLIOGRAFIA SUGERIDA.

De la muy abundante bibliografía existente sobre Percepción Remota hemos

seleccionado algunos textos cubriendo distintos aspectos de esta disciplina.

Lillesand, Thomas M. y Ralph W. Kiefer, Remote Sensing and Image

Interpretation, New York: Wiley & Sons, 2000.

Jensen, John R., Introductory Digital Image Processing: A Remote Sensing

Perspective,

Upper Saddle River, N.J., Prentice Hall:1996.

Richards, John A. y Xiuping Jia, Remote Sensing Digital Image Analysis. An

Introduction, Springler: 1999.

Schowengerdt, Robert A., Remote Sensing. Models and Methods for Image

Processing. Elsevier: 2007.

Campbell, James B., Introduction to Remote Sensing, The Guilford Press: 1996.

Aronoff. Stan, Remote Sensing for GIS Managers, ESRI Press: 2005.

Baker, John C., Kevin M. O’Connell y Ray A. Williamson Editors, Commercial

Observation Satellites. At the Leading Edge of Global transparency. Rand and

ASPRS: 2001.

Diana Liverman, Emilio F. Moran, Ronald R. Rindfuss y Paul C. Stern Editors,

People and Pixels. National Academic Presss: 1998.