206
UNIVERSIDAD DE ALCALÁ FACULTAD DE CIENCIAS DEPARTAMENTO DE MATEMÁTICAS – Tesis Doctoral – __________________________________________________________________________________ EXTRACCIÓN AUTOMÁTICA DE ENTIDADES CARTOGRÁFICAS LINEALES EN ZONAS RURALES O SEMIURBANAS A PARTIR DE IMÁGENES SATÉLITE EN COLOR DE ALTA RESOLUCIÓN __________________________________________________________________________________ Juan Bta. Mena Berrios Alcalá de Henares, Diciembre de 2003

UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

UNIVERSIDAD DE ALCALÁ

FACULTAD DE CIENCIAS DEPARTAMENTO DE MATEMÁTICAS

– Tesis Doctoral – __________________________________________________________________________________

EXTRACCIÓN AUTOMÁTICA DE ENTIDADES CARTOGRÁFICAS LINEALES EN ZONAS RURALES

O SEMIURBANAS A PARTIR DE IMÁGENES SATÉLITE EN COLOR DE ALTA RESOLUCIÓN

__________________________________________________________________________________

Juan Bta. Mena Berrios

Alcalá de Henares, Diciembre de 2003

Page 2: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

UNIVERSIDAD DE ALCALÁ

FACULTAD DE CIENCIAS DEPARTAMENTO DE MATEMÁTICAS

– Tesis Doctoral –

Presentada por: D. Juan Bta. Mena Berrios

Para obtener el título de:

Doctor en Ciencias por la Universidad de Alcalá (Programa Matemáticas y Física)

__________________________________________________________________________________

EXTRACCIÓN AUTOMÁTICA DE ENTIDADES CARTOGRÁFICAS LINEALES EN ZONAS RURALES

O SEMIURBANAS A PARTIR DE IMÁGENES SATÉLITE EN COLOR DE ALTA RESOLUCIÓN

__________________________________________________________________________________

Director: Dr. D. José Antonio Malpica Velasco

Profesor Titular de Universidad Área de Ingeniería en Geodesia y Cartografía

Alcalá de Henares, Diciembre de 2003

Page 3: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

Después de tres días le encontraron en el templo, sentado entre los doctores, escuchándolos y haciéndoles preguntas;

y todos los que le oían se pasmaban de su inteligencia y de sus respuestas.

Lucas, 2, 46 – 47

Page 4: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

__________________________________ Agradecimientos...

... Al Dr. D. José Antonio Malpica Velasco, del Departamento de Matemáticas de la Universidad de Alcalá (Geodesia y Cartografía), por la sabia dirección de esta tesis que se ha traducido en un apoyo y ayuda inestimables en su elaboración desde el primero al último día. Mi más sincero agradecimiento y un fuerte abrazo de todo corazón.

__________________________________________ ... A la Escuela de Geodesia y Topografía del Ejército donde recibí mi primera formación en las Ciencias de Geodesia, Fotogrametría y Cartografía Digital, y siempre seguí aprendiendo. ... Al Servicio Geográfico del Ejército, que me ha permitido consolidar los conocimientos adquiridos durante años, prestándome el apoyo constante de todos sus Departamentos y Dependencias. ... Al Real Observatorio de la Armada, por sus inestimables atenciones conmigo y por lo mucho que he aprendido de su buen hacer y de su elevado nivel científico. ... Al Departamento de Matemáticas de la Universidad de Alcalá, por confiarme la tarea de profesor asociado, lo que ha impulsado muy directamente el llevar a buen término este trabajo. ... Al Coronel de Artillería, Geodesta Militar, D. Valentín Oreja Pedraza, que fue Director de la Es-cuela de Geodesia siendo yo alumno, por la inmerecida valoración que siempre tuvo hacia mí. ... Al Coronel de Artillería, Geodesta Militar, D. Héctor Sanchís Cortina, que durante su época de Mando del Servicio Geográfico apoyó de forma singular y notablemente intensa el reconocimiento civil tanto de la formación de los Geodestas como de las labores de alta calidad técnica del Servicio. En particular él fue quien me aportó la idea de abordar el reto de una tesis doctoral. ... Al Coronel de Artillería, Geodesta Militar, E.M., D. Angel Pontijas Deus, actual Jefe del Centro Geográfico del Ejército, por su apoyo y valoración de mi trabajo. … Al Dr. D. Juan Llovet Verdugo, Director del Dpto. de Matemáticas de esta Universidad, por su ánimo constante y confianza en mí. … A la Dra. Dª. Mª Concepción Alonso Rodríguez, Subdirectora del Dpto. de Matemáticas de esta Universidad, por sus siempre claros y sinceros consejos. ... Al Dr. Helmut Mayer, Chair for Photogrammetry and Remote Sensing de la Universidad Técnica de Munich (Alemania), por su aprobación a este trabajo otorgada durante su visita a la Escuela Poli-técnica de nuestra Universidad. ... Al Dr. Enmanuel Baltsavias, del Instituto de Geodesia y Fotogrametría de Zurich (Suiza), por las mismas razones expuestas en el caso anterior. … Y también a todos aquellos que han colaborado de un modo u otro en la realización de esta tarea.

__________________________________________ ... Finalmente un agradecimiento muy especial a mi maravillosa mujer y a mis hijos, por el tiempo que sin duda he dejado de dedicarles con motivo de las grandes exigencias que siempre lleva asociadas una tesis doctoral.

__________________________________________

Page 5: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

Índice de materias.

1. Introducción 1 1.1. Objetivos e hipótesis 2 1.2. Proceso de extracción automática 6 1.3. Exposición de la memoria en líneas generales 9

2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2. Actualización del SIG. Extracción de objetos cartográficos 11 2.3. Actualización del SIG. Extracción de carreteras 16 2.3.1. Clasificación de los métodos de extracción 16 2.3.2. Esquema resumen de los principales equipos 22 2.3.3. Revisión del conocimiento. Introducción 23 2.3.4. Estudios generales en extracción y reconstrucción de redes 23 2.3.5. Estudios particulares según la técnica de extracción 25 2.3.6. Estudios de investigación parcial en el flujo de extracción 33 3. El sistema de extracción (i): Descripción general 3.1. Motivo y fundamento 41 3.2. Sistema de extracción de entidades cartográficas 42 3.2.1. Información inicial. Preproceso de la imagen 42 3.2.2. Detección de la red en el bajo nivel: Segmentación 43 3.2.3. Geometría y topología en el medio nivel: Vectorización 44 3.2.4. Evaluación, formación y registro en el alto nivel 45 3.2.5. Esquema conjunto del procedimiento 46 4. El sistema de extracción (ii): Módulo de segmentación 4.1. Introducción 47 4.2. Procedimiento de segmentación automática 49 4.2.1. Generalidades: La técnica APT 49 4.2.2. Los sistemas RGB y HSV 50 4.2.3. Imagen guía ejemplo del proceso 51 4.2.4. Clasificador de Mahalanobis 52 4.2.5. Detección intermedia 53 4.2.6. Análisis de la textura conjunta 54 4.2.7. Fusión de evidencia. Plausibilidad 58 4.3. Estudio comparativo de los resultados 60 4.3.1. Otros resultados obtenidos 60 4.3.2. Estudio comparativo con otros procedimientos 63 4.4. Mejoras del sistema y líneas de estudio en el bajo nivel 64 4.4.1. Adición de capas adicionales. El KL y la SVD 64 4.4.2. Depuración en plausibilidad. Análisis entrópico de bordes 70 4.5. Conclusiones 73

Page 6: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

5. El sistema de extracción (iii): Módulo de vectorización 5.1. Introducción 74 5.2. Proceso de vectorización automática 76 5.2.1. Generalidades. El método en conjunto 76 5.2.2. Limpieza de la imagen a vectorizar 78 5.2.3. Establecimiento y suavizado del borde 79 5.2.4. Detección primaria del esqueleto. Distancia de Chamfer 81 5.2.5. Detección complementaria. Triangulación de Delaunay 88 5.2.6. Generación del grafo de objetos lineales 94 5.2.7. Ajuste geométrico 113 5.2.8. Ajuste topológico 118 5.3. Análisis de resultados 124 5.3.1. Otros resultados obtenidos 124 5.3.2. Discusión de los resultados 131 5.4. Mejoras del sistema y líneas de estudio en el medio nivel 134 5.5. Conclusiones 135 6. El sistema de extracción (iv):

Módulo de evaluación y propuestas en el alto nivel 6.1. Evaluación del sistema de extracción 137 6.1.1. Evaluación global por el método propuesto en nuestro sistema 138 6.1.2. Evaluación en detalle por el método del Dr. C. Wiedemann 146 6.1.3. Discusión de los resultados obtenidos por ambos métodos 155 6.2. Formación de las entidades cartográficas en el alto nivel 156 6.2.1. Línea de estudio para la formación de entidades en el alto nivel 156

6.2.2. Transformación espacial de las entidades cartográficas 159 6.2.3. Almacenamiento en el SIG de las entidades cartográficas 161 7. Perspectivas y conclusiones 7.1. Perspectivas 162 7.1.1. Crítica constructiva del sistema a grandes rasgos 162 7.1.2. Posibles mejoras y perfeccionamiento del sistema 164 7.2. Conclusiones 166 7.2.1. Referencias básicas en el diseño del sistema 166 7.2.2. Principales métodos y rasgos originales del sistema 171 7.2.3. Conclusiones finales 172 8. Anexos Anexo I. Referencias bibliográficas 174 Anexo II. Ejemplo de cálculo de la SVD 192 Anexo III. Estructura linestring-3D en formato DGN 193 Anexo IV. Lista de publicaciones y estudios 194 Anexo V. Relación de cuadros, tablas y figuras 197

Anexo VI. Siglas y términos utilizados 200

Page 7: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 1

1 Introducción.

El rápido avance de la tecnología ha hecho crecer de forma espectacular, tanto el número y ca-lidad de los sensores a bordo de los satélites, como el grado de sofisticación en los medios informáti-cos. Como consecuencia, el volumen de datos disponible en el ámbito geográfico, así como la preci-sión de éstos, abren un mundo de posibilidades hasta hace poco tiempo insospechadas. En el campo de la Geodesia, las nuevas técnicas cartográficas, fotogramétricas y geodésicas propiamente dichas, han permitido eliminar la mayor parte de los trabajos de campo con el consiguiente abaratamiento de los productos que les son característicos. Este importante ahorro económico ha provocado que se pongan casi al alcance de cualquiera, medios y sistemas hasta ahora reservados a determinados centros u orga-nismos. Sin embargo, el incremento de las posibilidades que se ofrecen lleva un sinnúmero de proble-mas asociados ante la perspectiva de automatizar procesos cada vez más alejados de la máquina y más próximos al razonamiento del ser humano. Se hace pues, no ya necesaria, sino imprescindible, una extensa labor de investigación que combine el diseño de software inteligente con el profundo conoci-miento de los fundamentos y técnicas de las Ciencias de la Tierra en general y de la Geodesia en parti-cular. Este parece ser el camino más idóneo para encauzar nuestros estudios. Centrándonos en el terreno de la Cartografía Digital, la permanente actualización de los datos residentes en el Sistema de Información Geográfica (SIG) es una tarea sin fin de cuya eficacia depen-de la calidad de la cartografía resultante. Esta obligación continua se ve enormemente facilitada por el auxilio que prestan la Fotogrametría y la Teledetección [GIGER 01 y SCHENK 02 (b)], si bien existen aún muchos cabos sueltos que deben ser solventados manualmente por los operadores. Entre ellos fi-gura principalmente la correcta incorporación a las bases de datos del SIG [CALVO 93] de los objetos y entidades cartográficas mediante los cuales se simbolizan los distintos elementos del terreno repre-sentados en las imágenes. Y aunque existen programas en el mercado diseñados para ayudar al opera-dor en esta tarea, al día de hoy todos ellos son interactivos en mayor o menor grado, no encontrándose ninguno que logre automatizar el proceso por completo. La actualización de las bases de datos del SIG se realiza normalmente extrayendo de forma manual los distintos objetos cartográficos a partir de pares estereoscópicos de imágenes en un restitui-dor, ya sea éste analógico, analítico o digital [MENA 92]. Ello permite obtener simultáneamente para cada objeto tanto la planimetría, en proyección cartográfica sobre el elipsoide del sistema geodésico de referencia, como la correspondiente altimetría referida comúnmente al geoide [MENA 00]. También es frecuente, sobre todo cuando se tratan de actualizar elementos lineales, el levantamiento de los mis-mos directamente sobre el terreno mediante GPS [TOTH 02] y su posterior incorporación al SIG tras un proceso de cálculo y depuración que incluye, en su caso, el cambio de sistema geodésico de refe-rencia [MENA 94]. No obstante, la necesidad creciente de extraer información cartográfica a partir de una única imagen, aérea o satélite, y de hacerlo del modo más automático posible, ha promovido tal inquietud en la comunidad científica que son muchos los relacionados actualmente con la investiga-ción de métodos orientados a conseguir este objetivo; los cuales, entre otros, podemos encontrar en [ROSENFELD 00], [SOWMYA 00], [BALTSAVIAS 01] y [CHENG 01]. En estos casos, así como en aquellos donde la información se extrae considerando las bases de datos del SIG, e incluso otros tipos de documentación [MAYER 94 y YIN 01], los datos 2D deben complementarse con la tercera dimen-sión, la cual se obtiene del Modelo Digital del Terreno (MDT) o Modelo Digital de Superficie (MDS), si se dispone de él, o bien es introducida aparte cuando se trata de elementos puntuales o lineales de cota constante.

Page 8: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 2

Suponiendo la existencia de una sola imagen, bien aérea o de satélite, la incorporación de da-tos al SIG exige realizar una serie de operaciones sucesivas que, si bien pueden desarrollarse por mé-todos distintos, básicamente pueden resumirse en la forma siguiente: Primero será necesario rectificar la imagen y referenciarla conforme al sistema geodésico implantado en el SIG; se consigue así la orto-imagen correspondiente. En segundo lugar el operador deberá efectuar una clasificación de los distin-tos elementos reales presentes en la imagen, auxiliándose de la información del contexto y de la ya in-cluida en base de datos, procediendo a la extracción de los mismos en la forma más exacta posible dentro de las distintas clases y tipos. El tercer paso, solapado con el anterior, consiste en determinar la definición geométrica de cada elemento, así como sus relaciones topológicas con los elementos del en-torno. La tarea siguiente será la asignación de los atributos y propiedades mediante el enlace de la geo-metría con los datos y tablas residentes en la Base de Datos Alfanumérica (BDA). Y finalmente, en una quinta etapa se validará la información obtenida, procediéndose al almacenamiento en la Base de Datos Cartográfica (BDC) de la geometría ya depurada y enlazada con las propiedades alfanuméricas que lleven asociados las ya denominadas entidades cartográficas.

Esquemáticamente y a grandes rasgos, el mencionado flujo de trabajo para resolver el proble-ma de actualización puede representarse así:

1. Rectificado y referenciación de la imagen. 2. Clasificación y extracción de elementos. 3. Definición geométrica y topológica. 4. Asignación de atributos y propiedades. 5. Validación y almacenamiento de entidades en el SIG.

Si se analiza grosso modo el software de apoyo que existe en este campo, veremos que no es posible dar con alguno que permita prescindir del operador. Es más, el trabajo manual de éste es deci-sivo para la obtención de buenos resultados, y con frecuencia bastante más voluminoso que el resuelto automáticamente. Además es curioso observar cómo el citado software se limita a proporcionar solu-ción en aquellos problemas parciales que la matemática clásica es capaz de solventar sin incerti-dumbre, aumentándose el grado de interactividad con el operador a medida que las tareas a resolver se aproximan al razonamiento humano alejándose de la monotonía reiterativa característica de la máqui-na. Prueba de ello la encontramos cuando se compara el grado de intervención del operador en las dis-tintas etapas de trabajo que se han expuesto. Así, mientras que éste es mínimo en el punto 1, práctica-mente es total en las tareas 4 y 5, siendo por ahora muy alto en los puntos 2 y 3 dependiendo del soft-ware en cuestión.

Lo dicho en el párrafo anterior significa que la tecnología aún se encuentra muy lejos de resol-ver el problema de la actualización de datos cartográficos por sí sola; ni siquiera es capaz, y es posible que no lo sea en mucho tiempo, de minimizar con garantías el trabajo manual de los operadores. De hecho, como se desprende del estado actual de la investigación en análisis de imágenes y visión arti-ficial [ROSENFELD 00] y se confirma por los métodos recientes donde la extracción es semiautomá-tica [BAUMGARTNER 02 y ZHAO 02], resulta que aquello que parecía iba a constituir una labor sencilla, puede que no llegue a conseguirse nunca. En consecuencia, y sin necesidad de perder la espe-ranza en los futuros avances, lo cierto es que la producción completamente automatizada de cartogra-fía a partir de imágenes aéreas o satélite sigue siendo en la actualidad una utopía. 1.1. Objetivos e hipótesis.

Tras lo ya indicado sería incongruente afirmar que el procedimiento que aquí se propone para la actualización de datos en el SIG, va a permitir eliminar por completo la intervención de los operado-res. Sin embargo, confiando en la certeza del refrán que dice siguiendo el hilo se llega al ovillo, es de lógica pensar que más vale dar un pequeño paso en la línea de trabajo marcada, que intentar abordar el problema de forma global, tratando inútilmente de solucionar en un solo estudio el sinfín de posibili-dades y casos particulares que se pueden presentar. Por tanto, si restringimos el problema para unos tipos muy determinados de imágenes y entidades cartográficas, incrementaremos las probabilidades de

Page 9: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 3

lograr buenos resultados, aportando con ello a la comunidad científica un pequeño avance en el propó-sito establecido. Para decidir el tipo de imágenes a tratar nos apoyaremos en la gran variedad de aplicaciones que hoy en día tienen los sistemas de información geográfica. Ello implica la existencia de múltiples valores en la escala máxima de almacenamiento de la información en las correspondientes bases de datos geométricas. En consecuencia, y puesto que siempre es posible la generalización de los datos al objeto de representarlos en escalas menores, resulta evidente el incremento del abanico de posibilida-des en las aplicaciones de extracción automática a medida que aumenta la resolución de las imágenes sobre las que aquellas se diseñan. Por tanto, y si consideramos el progresivo abaratamiento de imáge-nes satélite tipo HELIOS, IKONOS o QUICK BIRD, donde la resolución es del orden de unos pocos metros (en torno al metro para la banda monocromática), parece más lógico desarrollar las labores de investigación sobre este tipo de información que sobre la procedente de otros satélites más antiguos como la serie LANDSAT o SPOT. Asimismo también será conveniente el tratamiento de imágenes aé-reas (de resolución submétrica en muchos casos), si bien en éstas el coste resulta más elevado que el correspondiente a las tomas de satélite. Por otra parte, la información multiespectral que algunos satélites pasivos son capaces de pro-porcionar en sus imágenes, junto con la técnica activa radar (Synthetic Aperture Radar - SAR), hacen que el conjunto de bandas disponibles para la imagen de una misma zona del terreno sea en ocasiones superabundante. Y si bien es cierto que existen métodos de fusión [HALL 92] para tratar este volumen de información y reducirlo de la forma más apropiada a cada caso [FORD 98 y HELLWICH 01], ha de considerarse que no siempre se tiene acceso a dicha cantidad de datos. Lo que sí es frecuente, y ca-da vez más, es la posibilidad de adquirir las tres bandas color RGB de imágenes con un alto grado de resolución. En consecuencia, si se atiende sólo a dichas bandas como dato de entrada, incluyendo si acaso como banda adicional la monocromática, cualquier procedimiento mediante el cual se consiga algún progreso en la automatización del problema no tiene porqué interferir con otros métodos apoya-dos en una mayor cantidad de información de partida. Con respecto al tipo de entidades cartográficas que se pretenden extraer, la elección de entida-des lineales como son las vías de comunicación, carreteras en particular, puede justificarse de dos for-mas. En primer lugar las características topológicas y morfológicas de tales vías, por las cuales estos elementos se organizan en redes, posibilitan la descomposición de una imagen en regiones; ello faci-lita enormemente la restitución fotogramétrica en los aparatos analógicos y analíticos (donde existe in-tervención manual del operador), no sólo de las propias carreteras, sino también de muchos otros obje-tos cartográficos. Por otro lado, las vías de comunicación aparecen intuitivamente como objetos sim-ples e inmediatamente identificables en la imagen o el mapa, lo que las convierte en una valiosa herra-mienta para el análisis global de la imagen. En consecuencia el automatismo en su extracción parece ser una tarea de gran importancia de cara a futuros trabajos dentro del marco general del reconoci-miento de patrones en Cartografía Digital. Otro punto de interés en los límites a imponer a los datos de entrada reside en las característi-cas de la zona de terreno abarcada por la imagen. Así, en los medios urbanos el número de objetos po-tencialmente presentes es mucho más elevado que en zonas rurales o semiurbanas. Ello, unido a que cada objeto requiere de un procedimiento de reconocimiento particular, hace que la interpretación y extracción en cascos urbanos se torne en extremo compleja. Por esta razón restringiremos, al menos por el momento, el diseño del método que se presenta a zonas de naturaleza rural o semiurbana.

Con las mencionadas especificaciones como hipótesis inicial de nuestro trabajo, el objetivo general que se pretende lograr se concreta pues en:

Conseguir, al mayor grado posible de automatización, la extracción y definición de vías de comunicación (carreteras) en zonas rurales o semiurbanas, a partir de las tres bandas color de imá-genes aéreas o satélite de alta resolución, con la finalidad de actualizar la capa vectorial del SIG.

Page 10: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 4

Para conseguir este objetivo nos planteamos desarrollar un procedimiento novedoso cuyo títu-lo se enuncia como sigue: EXTRACCIÓN AUTOMÁTICA DE ENTIDADES CARTOGRÁFICAS LINEALES EN ZONAS RURA-LES O SEMIURBANAS A PARTIR DE IMÁGENES SATÉLITE EN COLOR DE ALTA RESOLUCIÓN. Esta pretensión merece de las aclaraciones que a continuación se indican, las cuales se exponen a mo-do de objetivos e hipótesis específicas que resumen lo dicho en los párrafos anteriores: * EXTRACCIÓN AUTOMÁTICA: Puesto que el calificativo automático indica la carencia total de intervención humana en el proceso correspondiente, el estudio que se propone permitirá la extracción de objetos de una imagen de forma íntegramente gobernada por los algoritmos a diseñar. Ello no im-plica que los resultados hayan de ser idóneos bajo cualquier circunstancia, pero sí ha de obtenerse una respuesta adecuada en un porcentaje razonable de los casos, cuando se aplique el proceso dentro de unas hipótesis concretas respecto a los datos de entrada. * ENTIDADES CARTOGRÁFICAS LINEALES: Los objetos a extraer de las imágenes serán entida-des cartográficas de naturaleza lineal, en particular vías de comunicación (carreteras). No se tratará, por tanto, el estudio de objetos superficiales como áreas de vegetación, edificaciones, etc. Y si bien el proceso pudiera extenderse a otros tipos de entidades lineales como son los ríos, canales o vías férreas, dicha extensión conllevaría la modificación de algunos puntos en el desarrollo del trabajo, por lo cual el objetivo se centra específicamente en la extracción y definición vectorial de las mencionadas vías de comunicación al objeto de actualizar la base de datos de un Sistema de Información Geográfica. Tal actualización atañe básicamente a la geometría y topología de las entidades, y se realizará indepen-dientemente de la resolución elegida para el almacenamiento de los objetos ya que la definición de és-tos se pretende hacer mediante el ajuste polinómico de grado variable de los correspondientes ejes centrales extraídos. * ZONAS RURALES O SEMIURBANAS: Dada la naturaleza del proceso que se diseñará para la extracción, las imágenes a tratar se reducen a aquellas zonas no pertenecientes a casco urbano. Se su-ponen por tanto áreas rurales o, como mucho, zonas residenciales anexas al casco urbano donde no existen edificaciones de mucha altura y donde puede evaluarse sin dificultad la textura [CROSS 83 y GAGALOWICZ 87] sobre las vías de comunicación. * IMÁGENES SATÉLITE EN COLOR: Aunque el proceso también es aplicable en imágenes aéreas sin variación alguna, se elige partir de imágenes satélite dado que en un futuro ya muy próximo resul-tarán más económicas que las capturadas con cámara aérea, estando caracterizadas por propiedades de igual o mayor interés que estas últimas. Por otra parte las imágenes han de ser en color, ya que sola-mente se requieren las bandas RGB de una única imagen para la ejecución del proceso que se propone. En consecuencia se omite el estudio hiperespectral de la imagen, así como la detección radar puesto que, si bien estos tipos de sensor pudieran mejorar los resultados del método, se pretende construir un procedimiento sencillo que rinda salidas aceptables a partir de un mínimo de requerimientos de en-trada y que esté al alcance de cualquier usuario. Por esta misma razón se prescinde de la estereosco-pía y del estudio multitemporal de la imagen. * ALTA RESOLUCIÓN: En cuanto a resolución se refiere, el método exige que las vías de comunica-ción se muestren en la imagen con un ancho apreciable, de forma que se puedan evaluar las relaciones estadísticas existentes entre los pixeles que representan el piso de las mismas, normalmente asfalto. No se tratarán por tanto imágenes tipo LANDSAT o SPOT, y sí imágenes IKONOS o QUICK BIRD cuya resolución ronda el metro. Además, y como ya se dijo, también tendrán cabida imágenes aéreas de re-solución similar.

Page 11: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 5

* Situación del método de extracción en el marco general a que pertenece. Seguidamente se expone mediante un gráfico la situación concreta del proceso a estudiar den-tro del entorno general Visión Artificial y Reconocimiento de Patrones, acompañado de otras aplica-ciones paralelas en cuyo desarrollo se encuentra actualmente ocupada una parte de la comunidad cien-tífica internacional.

Cuadro 1.1.

VISIÓN ARTIFICIAL Y RECONOCIMIENTO DE PATRONES

TELEDETECCIÓN

Medicina, Biología, Robótica, etc.

AÉREA SATÉLITE

CARTOGRAFÍA DIGITAL SIG / GIS

Atmósfera, Suelos, Temperaturas, Agricultura, Geología, Oceanografía, etc.

CARTOGRAFÍA MATEMÁTICA Cartografía temática y otros productos

EXTRACCIÓN DE OBJETOS CARTOGRÁFICOS

MDT – MDS Pendientes, Transitabilidad, Hidrografía, Vegetación, etc.

Radar

EXTRACCIÓN DE VÍAS DE COMUNICACIÓN (Carreteras)

Extracción de edificios, vegetación, ríos, obras de fábrica, etc.

UNA SOLA IMAGEN Varias imágenes

Estereoscopía Multitemporal

ALTA RESOLUCIÓN Media y Baja resolución

IKONOS, QUICK BIRD, AÉREA Landsat, Spot, Otros

ZONA RURAL O SEMIURBANA Casco urbano

Color RGB Monocromática ... HYDICE

Entorno general del proceso de extracción automática.

Page 12: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 6

1.2. Proceso de extracción automática. En palabras de Hadamard, según se indica en [RUSKONÉ 96], un problema está bien plantea-do cuando es continuamente dependiente de los datos de entrada y posee una solución única. El análi-sis de imágenes en general y la extracción automática de objetos en particular no son problemas que satisfagan tales criterios. De hecho cuando se analiza manualmente una imagen por dos fotointérpretes distintos es común obtener resultados discrepantes, aún suponiendo un mismo grado de experiencia en ambos individuos. La extracción automática a partir de imágenes es consecuentemente un problema que los investigadores denominan como “ill pose”; calificación inglesa que hace referencia a la falta de especificación, exactitud y determinación en la definición y resolución del problema. Nos encontra-mos por tanto ante la perspectiva de no tener claramente expuesto el objetivo global que a largo plazo se persigue, y no digamos ya los objetivos más puntuales a lograr en el medio y corto plazo.

El tipo de problema al que nos enfrentamos requiere para su tratamiento reducir el espacio de posibles soluciones subdividiendo la cuestión general en problemas de menor envergadura. Asimismo se hace necesario proporcionar, en la mayor medida posible, conocimiento adicional a la información contenida en la imagen. Ambos aspectos, como se verá en el capítulo siguiente, son característicos de los trabajos que la comunidad científica se encuentra realizando en este campo, existiendo estudios so-bre diferentes métodos encaminados a conseguir la mayor automatización posible en extracción de edificaciones, vegetación, vías de comunicación, hidrografía, etc... Sin embargo parece que no existe una línea de trabajo a nivel global que aglutine y dirija hacia un punto común los múltiples ensayos e investigaciones que se realizan. De hecho, salvo algunos artículos donde se trata la necesidad de una coordinación de esfuerzos [MEES 95], y los estándares (STANAG) utilizados por los ejércitos de la OTAN [OHLHOF 00], no se han encontrado en la literatura otras normas concretas referentes a los ti-pos de imágenes, bandas a tratar, escala de trabajo, o cualquier otra hipótesis cuyo propósito sea orien-tar las distintas labores en una misma dirección. Lo dicho en el párrafo anterior tal vez esté causado por los resultados siempre mejorables que los actuales estudios proporcionan, no existiendo método alguno que logre la completa automatización bajo cualquier elección de la información de entrada y requerimientos de salida. Por ello se hace nece-saria una severa matización del problema que a nuestro entender se pretende resolver, así como una exhaustiva limitación en la entrada / salida, tal y como se ha indicado, al objeto de conseguir resulta-dos interesantes. Nos proponemos pues colaborar con un nuevo algoritmo en aquello que sí parece es-tar de acuerdo la comunidad científica, y que por el momento consiste en la reducción del trabajo ma-nual de los operadores analistas de imágenes en alguna de sus labores parciales. Para conseguir nuestro objetivo, y en lo que respecta a la información de entrada y salida, el método que aquí se presenta está caracterizado por su estructuración en módulos o fases sucesivas que van desde el bajo al alto nivel de conocimiento requerido por la máquina. El estudio a bajo nivel se ha-ce necesario dado que la mayor parte de las carreteras representadas en las imágenes pueden ser extraí-das mediante criterios propios de dicho nivel como son la radiometría, la textura o la forma geométri-ca. Sin embargo, como lo que se pretende es la actualización de la base de datos del SIG, no podemos conformarnos con un resultado identificado por el computador como un mero conjunto de pixeles ca-rente de información geométrica y topológica de conjunto. En consecuencia a continuación deberemos aplicar algún proceso de nivel medio con el propósito de establecer los distintos objetos lineales que, definidos por sus ejes centrales, constituyen la red extraída. Aún así, y por muy exacta que pudiera re-sultar la definición geométrica de los distintos objetos y las relaciones entre ellos, la dependencia de la red de vías de comunicación con otras entidades cartográficas como son ríos, edificaciones, etc..., es de vital importancia para conseguir la integración en la BDC de la salida vectorial obtenida. Dicha in-tegración no es posible de lograr sin proporcionar a la máquina un conocimiento del entorno similar al que posee el operador cuando extrae manualmente los distintos objetos. Existe pues la necesidad de tratar los datos geométricos y topológicos resultantes de la fase anterior mediante un aporte de conoci-miento de alto nivel que resuelva conflictos, incertidumbres y otros casos problemáticos.

Page 13: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 7

El proceso indicado, que representamos en el esquema del cuadro 1.2, parece en un principio que debería ser capaz de rendir automáticamente los resultados deseados. Sin embargo, el gran número de casos particulares que se presentan hace que esto no sea así. Además hay que tener en cuenta que no sólo son la geometría y topología de los elementos los datos suficientes para definir completamente las entidades cartográficas. Aunque de hecho constituyen una información necesaria, ésta debe ser complementada con una serie de atributos y propiedades adicionales, como es la simbología, que resi-den en la base de datos alfanumérica del SIG y que no pueden extraerse de la imagen por no figurar en ella. Por consiguiente la completa automatización del proceso de extracción de entidades cartográficas requiere de una retroalimentación de los datos de salida complementada con información de alto ni-vel, más algún procedimiento adicional que sea capaz de añadir los atributos y propiedades correspon-dientes en cada caso. Y si bien tal retroalimentación parece factible de conseguirse mediante el gobier-no de un Sistema Basado en el Conocimiento (SBC), redes neuronales o reglas y redes semánticas [MARR 82], el añadido completamente automático a la geometría (BDC) de los atributos y propieda-des de los elementos (BDA) es hoy por hoy utópico.

Cuadro 1.2.

Flujo del proceso teórico de extracción automática.

IMAGEN DE ENTRADA

PREPROCESO

EXTRACCIÓN A BAJO NIVEL (SEGMENTACIÓN)

DEFINICIÓN GEOMÉTRICA Y TOPOLÓGICA A NIVEL

MEDIO (VECTORIZACIÓN)

EVALUACIÓN DE RESULTADOS EN EL ALTO

NIVEL

INFORMACIÓN RESIDENTE EN

EL SIG

ACTUALIZACIÓN BDC

ENLACE GEOMETRÍA Y ATRIBUTOS

ACTUALIZACIÓN BDA

SBC

Page 14: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 8

El proceso teórico que se ha presentado supera los propósitos de nuestro sistema dada la enor-me complejidad (y pudiera ser que imposibilidad) asociada a la implementación automática de alguna de las tareas parciales. Por ello nos limitaremos a proporcionar un método original para obtener resul-tados razonables en el bajo y medio nivel, que incluya ideas concretas para el tratamiento de la infor-mación en el alto nivel y que permita rebajar los tiempos de trabajo manual de los operadores. En el cuadro 1.3 se expone el algoritmo general correspondiente cuyo detalle se desarrolla a partir del capí-tulo tercero. En dicho cuadro se representan con línea gruesa aquellos procesos para cuya resolución se aportan algoritmos y propuestas en este trabajo; en línea delgada se establecen aquellas otras rela-ciones del flujo global tales que su implementación requiere de posteriores estudios e investigación por encontrarse lejos de resolverse al día de hoy.

Cuadro 1.3.

Flujo del proceso específico de extracción automática.

IMAGEN DE ENTRADA

PREPROCESO

EXTRACCIÓN A BAJO NIVEL (SEGMENTACIÓN)

DEFINICIÓN GEOMÉTRICA Y TOPOLÓGICA A NIVEL

MEDIO (VECTORIZACIÓN)

EVALUACIÓN GLOBAL DE RESULTADOS

INFORMACIÓN RESIDENTE EN

EL SIG

ACTUALIZACIÓN SIG

FORMACIÓN DE ENTIDADES

CARTOGRÁFICAS EN EL ALTO NIVEL

SBC

BDC

BDA

MDT

SBC

Page 15: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 1: Introducción. J. B. Mena

Pág. 9

1.3. Exposición de la memoria en líneas generales. La presente memoria se organiza en ocho capítulos o bloques principales, siguiendo una es-tructura y metodología inspirada en la correspondiente de [RUSKONÉ 96] donde se trata un problema análogo al aquí considerado. Tras esta introducción se realiza un estudio bibliográfico, o revisión de conocimientos, no ex-clusivo de los actuales estudios en extracción automática de carreteras, sino enmarcado en el amplio espacio de la Cartografía Digital y los Sistemas de Información Geográfica. Aquí se expondrán los di-ferentes equipos de trabajo de más relevancia en este campo, así como las publicaciones más impor-tantes realizadas hasta el momento que sirven de referencia para la implementación del algoritmo pre-sentado en nuestro sistema. En el capítulo tercero se aborda la descripción general del procedimiento a modo de resumen en bloques de sus diferentes módulos o fases, los cuales se desarrollan en detalle respectivamente en los capítulos cuatro, cinco y seis. En éstos se tratan los algoritmos correspondientes a los procesos par-ciales y sucesivos de segmentación, vectorización y evaluación, presentando sobre una imagen guía y ejemplo los resultados alcanzados en cada fase, así como las propuestas para la formación y almacena-miento en el SIG de las entidades cartográficas en el alto nivel. En definitiva se trata de mostrar, apoyándonos en trabajos ya realizados, la arquitectura, viabilidad y consistencia de un método original cuyas etapas, a bajo, medio y alto nivel, conducen sucesivamente a alcanzar los objetivos prefijados. En cada uno de los módulos principales se incluye un apartado donde se proponen líneas de investiga-ción a seguir en el respectivo nivel de conocimiento, así como también una exposición de resultados sobre un conjunto de imágenes. Dichos resultados servirán para la evaluación aislada de cada fase independientemente de las restantes. No obstante, y aparte de ello, en el capítulo seis se evalúa el siste-ma en su conjunto a través de dos procedimientos diferentes al objeto de obtener, tanto un porcentaje indicador de la bondad de los resultados globales, como los valores de un conjunto de parámetros que expresan la eficacia del método en sus distintos aspectos.

El capítulo siete refleja las perspectivas y conclusiones referentes al diseño y aplicación del sistema. Y finalmente, en un octavo capítulo se muestran distintos anexos que complementan la expo-sición de la memoria.

Page 16: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 10

2 Estudio bibliográfico.

RESUMEN. En este capítulo se realiza una revisión del conocimiento actualmente alcanzado por la comunidad cien-tífica en lo referente a la extracción automática de objetos a partir de imágenes aéreas o de satélite. El recorrido por los distintos trabajos existentes parte del entorno general de la visión artificial y el reconocimiento de patro-nes, continúa con la investigación en actualización del SIG y la extracción de objetos cartográficos, y finaliza con el análisis más detallado de los estudios que ofrece la literatura sobre extracción de entidades lineales en ge-neral y carreteras en particular. En este último punto se incluye la relación de los equipos de mayor relevancia que se dedican al tema en cuestión, así como una clasificación de los diferentes métodos que se han propuesto hasta el momento con sus correspondientes comentarios. Entre dichos métodos se referencian tanto los semi-automáticos como los dirigidos a la completa automatización, y en ambos casos los relativos al bajo, medio y al-to nivel de conocimiento; por lo tanto el lector encontrará alusiones a múltiples procesos parciales en el flujo de extracción como son la segmentación, vectorización, evaluación, optimización, modelización de objetos, etc...

La estructura utilizada para la exposición se apoya en el flujo representado esquemáticamente en el cua-dro 1.1 del presente trabajo. 2.1. Visión Artificial y Reconocimiento de Patrones. Pretender relacionar aquí la totalidad de las publicaciones que en mayor o menor grado tienen puntos comunes con el tema que nos incumbe, sería ilusorio dada la gran cantidad de estudios y expe-rimentos existentes en el marco general de Visión Artificial y Reconocimiento de Patrones. Tomando como punto de partida el conjunto de técnicas reunidas y analizadas en el texto [MARR 82], desde en-tonces hasta ahora son múltiples las aplicaciones que el análisis de imágenes ha promovido en las dis-tintas ramas de la Ciencia y la Técnica. De hecho, en [ROSENFELD 00] podemos encontrar una reco-pilación de 1700 referencias que ya en el año 2000 mostraban distintas aplicaciones, técnicas compu-tacionales, métodos de detección y segmentación de imágenes, estudios de la textura, etc... Anterior-mente al citado artículo, y centrado en el terreno de la Fotogrametría, [FÖRSTNER 96] presenta un trabajo consistente en la crítica constructiva de los algoritmos de visión artificial, mediante el estudio en pro y contra de las diez características generales más indicativas de los mismos. De la lectura de es-te artículo se desprende una cierta sensación acerca de la posibilidad de que transcurra mucho tiempo antes de que se obtengan métodos de automatización efectivos al cien por cien. Más recientemente, en [PETERSEN 02] leemos una exposición de 254 referencias dedicadas al procesamiento de imágenes con el empleo de las redes neuronales [FREEMAN 91 y RIPLEY 96] como factor común. Actualmente parece ser que los investigadores han comprendido que no es posible obtener re-sultados óptimos trabajando únicamente a bajo nivel, sino que es necesario incluir conocimiento en los algoritmos de visión artificial, modelizando de alguna forma los distintos objetos que se pretenden de-tectar en las imágenes. Ejemplo de ello lo observamos en [McKEOWN 99 (b)] donde se añaden a los algoritmos de extracción chequeos automáticos para prevenir las anomalías más comunes en lo refe-rente a la topología de objetos lineales y rasgos principales del terreno. Asimismo, en [GROWE 99] se propone la adición de conocimiento utilizando el ya contenido en el SIG, la información acerca de las proyecciones utilizadas por los sensores y los cambios que se producen en la representación de los ob-

Page 17: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 11

jetos en función del tiempo. En este caso, dicho conocimiento se implementa en los algoritmos me-diante el establecimiento de reglas y redes semánticas [HENRY 92]. Más recientemente cabe citar a [KOENDERICK 02] cuando afirma que la imagen no es un espacio euclídeo, sino un espacio geo-métrico de Cayley – Klein con una sola dimensión isotrópica [GOLDSTEIN 80], requiriendo para su análisis definir claramente los rasgos y características principales, así como los operadores a aplicar en cada caso. Por su parte [DUYGULU 02] presenta un modelo de reconocimiento de objetos basado en el aprendizaje de un léxico concreto para la identificación de aquéllos, que sea factible de ser tradu-cido y comprendido por la máquina. Algo similar se propone en [AGARWAL 02], obteniendo algunos resultados, si bien en este caso el proceso de aprendizaje se aplica únicamente sobre imágenes mono-cromáticas. Finalmente, nombraremos a [PEDERSEN 02] donde se opta por la representación en mul-tiescala de la imagen definiendo un proceso gaussiano que transforma la imagen con el propósito de modelizar objetos (ejes en particular) y conseguir la extracción de los mismos mediante el estudio de los valores de diversas variables estadísticas. Evidentemente los trabajos que se han nombrado constituyen una minúscula parte de los dedi-cados al estudio general de la visión artificial. Sin embargo todos ellos tienen algún punto de enlace con la extracción automática de entidades cartográficas; tema cuyo estado del conocimiento puede en-contrarse en [BALTSAVIAS 01], y que pasamos a revisar y completar en los puntos siguientes. 2.2. Actualización del SIG. Extracción de objetos cartográficos. La actualización de cartas y mapas utilizando datos extraídos de imágenes es una importante aplicación en el área de la Cartografía Digital. Como es sabido, los conjuntos cartográficos son alma-cenados en las bases de datos (BDC y BDA) de un Sistema de Información Geográfica que permite la actualización en pantalla, hasta ahora interactiva, de los distintos objetos cuya geometría, topología, atributos y propiedades componen la carta. Dado que los mapas son representaciones abstractas del mundo real, si se pretende lograr la automatización del proceso de actualización [MAYER 99 (b)] es necesario que exista previamente una representación de los objetos cartográficos capaz de permitir la comparación y asociación entre el objeto que el ordenador “observa” en la imagen y el correspondien-te que debe almacenar en base de datos. Esto es así en virtud de la palpable diferencia existente, en cuanto al nivel de abstracción se refiere, entre la imagen y el mapa. Por ejemplo, cuando observamos una carretera en una imagen, nuestro cerebro la detecta inmediatamente debido a las características tí-picas de este objeto como son la linealidad, la textura, la compartimentación que realiza de la imagen, etc. Sin embargo la mayoría de estos rasgos desaparecen cuando se considera su representación geo-métrica comúnmente constituida por una linestring [MENA 92] o cadena de segmentos enlazados; re-presentación igual a la correspondiente de una curva de nivel. Es necesario, por tanto, añadir una serie de atributos que distingan la citada carretera de otros objetos lineales de similar naturaleza. Dichos atributos, normalmente asociados a códigos particulares, no podrán ser adquiridos automáticamente por el ordenador si no se le proporciona al mismo información adicional al tratamiento de la imagen a nivel pixel [BÜCKNER 02]. Volvemos así al requerimiento de complementar el análisis a bajo nivel de la imagen con el proceso a los niveles medio y alto, lo que enlaza con lo dicho en 2.1. * Estudios muy orientados a la actualización del SIG. Una idea para afrontar el problema indicado se presenta en [BRENNAN 98], donde se opta por aportar razonamiento a la máquina mediante una in-terpretación de la imagen guiada de continuo por la información contenida en los mapas ya residentes en el SIG. Esta adición de conocimiento, si bien no consigue la completa automatización del proceso, parece ser que disminuye en cierto grado el trabajo manual de los operadores. En esta línea de consi-derar como importante punto de apoyo para la actualización del SIG los datos ya contenidos en el mis-mo, encontramos [HEIPKE 99 (a)] y [DOUCETTE 99]. Este último propone utilizar una red neuronal definida según el aprendizaje de Kohonen [FREEMAN 91], cuyos datos iniciales referentes a pesos y topología los tomará semiautomáticamente del SIG. El logro de este trabajo, que está aplicado a la ex-tracción de objetos lineales en la imagen hiperespectral, consiste en obtener buenas definiciones de los ejes centrales a partir de una información más o menos grosera como dato de entrada.

Page 18: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 12

También importante es el artículo [HEIPKE 00] por introducir un marco general para la inter-pretación de la imagen basado en la integración del análisis de imágenes con el modelo de datos alma-cenados en el SIG. Aplicado a la extracción simultánea de árboles y carreteras, realiza un estudio mul-titemporal de la misma zona de terreno al objeto de actualizar las bases de datos. Por su parte el traba-jo [EIDENBENZ 00] nos presenta un proceso de actualización de la capa vectorial del SIG en lo refe-rente a carreteras y edificios, que consigue precisiones de un metro en planimetría y de uno a dos me-tros en altitudes. Este método toma como información de entrada la contenida en el SIG en forma de reglas y modelos, interpreta la imagen valorando el color, la textura, las sombras y otros aspectos, y establece una clasificación jerárquica de los distintos objetos en grupos como paso previo a la obten-ción final de los resultados. Según afirma, el proceso rinde buenas salidas en un 80% de los casos. Las ideas del apoyo en modelos existentes en el SIG y en la formación de una clasificación je-rarquizada de los objetos cartográficos también figuran en [STRAUB 00 (a) y (b)]. En ambos casos aplicadas a la extracción conjunta de árboles y carreteras, se hace uso mediante reglas de las relaciones existentes entre ambos tipos de objetos y de las funciones que las vías de comunicación tienen en el mundo real. Estos trabajos tienen su complemento en [STRAUB 00 (c)] donde se discute la forma de modelizar los objetos evitando en lo posible las incertidumbres, a la vez que se propone un método pa-ra evaluar los resultados de las extracciones automáticas. Aunque sólidamente apoyado en los datos residentes en el SIG, la integración de la informa-ción geoespacial preexistente con la contenida en la imagen al objeto de actualizar el Sistema, se reali-za de forma distinta en [AGOURIS 98]. Aquí se asegura que el empleo del tratamiento borroso o téc-nica fuzzy [ZADEH 65], constituye una poderosa y óptima herramienta para particularizar a cada caso la ejecución de los variados métodos de extracción, posibilitando el flujo de información en ambos sentidos entre la imagen y las bases de datos del SIG. Y si bien no consigue la completa automatiza-ción del proceso de actualización, afirma que la técnica descrita ofrece potencial para ello. Adicional-mente, en [AGOURIS 01 (b) y (d)] se propone un esquema para la actualización del SIG basado en un modelo de extracción de objetos cartográficos que estudia la detección de cambios a través del empleo de contornos activos, más conocidos como snakes [KASS 87].

Cuadro 2.1.

Proceso de actualización de la información cartográfica en formato vectorial.

IMÁGENES SATÉLITE

VMAP ACTUALIZADO

PREPROCESO DE DATOS

EXTRACCIÓN DE OBJETOS

CARTOGRÁFICOS

CONVERSIÓN RÁSTER -VECTOR

ASIGNACIÓN DE ATRIBUTOS

VALIDACIÓN DE LA INFORMACIÓN

ACTUALIZACIÓN DATOS VECTOR

Page 19: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 13

Por ser el utilizado en muchos de los actuales sistemas militares dedicados a la elaboración y mantenimiento de Cartografía digital de extensas zonas de terreno a distintas escalas, incluido el Ser-vicio Geográfico del Ejército (SGE) en España, es de un gran interés el flujo de trabajo para la actuali-zación de la capa vectorial del SIG (VMAP) descrito en [OHLHOF 00]. Dicho flujo, que representa-mos esquemáticamente en el cuadro 2.1, no implica que se haya conseguido la automatización com-pleta en sus distintas etapas, es más, como ya se dijo en el apartado introducción, el trabajo manual ne-cesario supera con mucho al que se obtiene automáticamente. Sin embargo este organigrama implica un cierto acuerdo en las labores a realizar con vistas a la colaboración internacional en el tema de la automatización de la información geográfica. En el ámbito militar el acuerdo se establece en forma de normas editadas mediante los denominados STANAG, que son de obligado cumplimiento para los paí-ses de la OTAN. Dichas normas coordinan múltiples aspectos como son: el sistema geodésico de refe-rencia (WGS-84), las escalas básicas a tratar (VMAP nivel 0: 1/1000000, VMAP nivel 1: 1/250000 y VMAP nivel 2: 1/50000), los modelos digitales del terreno (Digital Terrain Model - DTM / Digital Terrain Elevation Data - DTED) y otras consideraciones de naturaleza operativa y de seguridad. Asi-mismo también en el campo militar encontramos normas y recomendaciones referentes a los formatos y el software más apropiados a utilizar, como es el DGN en el primer caso y la base de datos relacio-nal (BDA) ORACLE [MENA 92] o el SIG DYNAMO / GEOMEDIA en el segundo. Fuera del entorno militar, otro interesante trabajo que emplea bases de datos existentes, y de reciente aparición, lo encontramos en [BONNEFON 02]. En este caso se utilizan imágenes SPOT co-mo referencia, analizándose dos problemas distintos de cara a la actualización del SIG. El primero re-side en las distintas precisiones que normalmente caracterizan a las imágenes y a las bases de datos del Sistema de Información (estudios sobre este problema figuran también en [BUSCH 02]). El segundo problema se centra en el proceso de extracción en sí de los objetos cartográficos, si bien limitado a en-tidades lineales como carreteras, vías de ferrocarril, ríos, etc. En este tema se propone un método de seguimiento de ruta de forma que, partiendo de una dirección y un punto semilla inicial, el ordenador detecte en cada momento el camino óptimo. Los resultados que aporta indican una reducción del tra-bajo del operador, aunque su intervención sigue siendo necesaria. * Estudios más centrados en la extracción de objetos cartográficos. Importantes trabajos en clasifica-ción y extracción supervisada [GONZALEZ 92] los encontramos ya en [FORD 92], donde se describe el empleo de la imagen multiespectral como medio de apoyo para proceder posteriormente a la extrac-ción de objetos cartográficos en imágenes pancromáticas de mayor resolución. Más adelante, en [McKEOWN 96] se estudia el refinamiento de la información contenida en múltiples imágenes este-reoscópicas, considerando la altimetría del terreno (3D) unida a la valoración de la proximidad entre unos y otros objetos (2D), como ayuda en el desarrollo de métodos orientados a la evaluación de resul-tados de extracción de objetos cartográficos. Por otra parte, en [MIRMEHDI 97] aparece una de las re-ferencias encaminadas al empleo de algoritmos genéticos [GOLDBERG 89] como método robusto de optimización de los procesos de extracción de objetos a medio nivel. Y en [BULWINKLE 98] se defi-ne un procedimiento para permitir la transferencia de diversos modelos de carreteras, superficies, edi-ficios, etc., entre sistemas de características diferentes, intentando con ello la integración de la infor-mación geográfica en el medio – alto nivel. > En las décadas de los 80 y 90 el avance de la tecnología hace que la información proporciona-da por los satélites sea superabundante. Se genera así la necesidad de compactar dicha información al objeto de separar lo importante de lo superfluo en cada aplicación. Un exhaustivo estudio sobre los fundamentos de los distintos métodos matemáticos utilizados para la fusión de información lo halla-mos en el texto [HALL 92]. Y entre los trabajos puntuales más importantes en este campo cabe nom-brar a [FORD 98], [EBNER 99] y [McKEOWN 99 (a)]. En este último se afirma que la consecución del automatismo en los métodos de extracción sólo será posible mediante la fusión de resultados pro-cedentes de múltiples fuentes y métodos. Como ejemplo combina la imagen pancromática con las ban-das hiperespectrales (HYDICE) y el modelo digital del terreno para la extracción de edificios, mejo-rando sensiblemente los resultados con respecto a otros métodos existentes en la fecha. Sin embargo, es en [MAYER 99 (a)] donde encontramos un detallado análisis sobre la complejidad del problema de

Page 20: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 14

la extracción de objetos cartográficos incluyendo indicaciones concretas para el mismo. En este artícu-lo, aplicado a la extracción de edificios, se insiste sobre la modelización de las entidades (tejados); lo que necesariamente ha de comprender: (i) Herencia en las propiedades y características de los objetos padre a los hijos; (ii) utilización de geometría tridimensional; (iii) procesamiento de la imagen a dis-tintas escalas y niveles de abstracción; y finalmente (iv) empleo de la información de contexto a nivel local y global. Estas cuatro normas se resumen en una estrategia de agrupamiento (grouping) y fusión de datos [HALL 92] mediante generación previa de evidencia en el proceso multiescala de extracción. Siguiendo con la fusión de información también es de destacar [HELLWICH 00] donde se ex-pone, enfocado a la extracción de carreteras, un método basado en reglas para combinar las clasifica-ciones procedentes de segmentación en la imagen multiespectral y radar (SAR). El marco de este artí-culo se amplía en [HELLWICH 01] al tratar el concepto de la fusión de datos en el contexto general de la extracción de objetos cartográficos y la infraestructura de la información geográfica, propo-niendo la realización de un test para evaluar distintos métodos experimentales. Por otra parte, dado que el semiautomatismo característico de los algoritmos de extracción y fusión obliga a determinar manualmente los valores de muchas variables paramétricas, [PEDDLE 02] nos presenta tres métodos de optimización en la fusión de información, cuyo objetivo común es el establecimiento automático de los valores finales para dichos parámetros. Estos métodos, denominados respectivamente (i) búsqueda exhaustiva por recursión, (ii) búsqueda aislada independiente, y (iii) búsqueda secuencial dependiente, fueron comparados con métodos clásicos como las redes neuronales y el proceso de máxima verosimi-litud [FUKUNAGA 90], obteniéndose una mayor eficiencia demostrada en los resultados finales.

También de interés es el estudio sobre fusión presentado en [FABRE 01] por utilizar la Teoría de la Evidencia de Dempster – Shafer [BAUER 97] como base en el proceso de decisión; tema éste de capital importancia en nuestro sistema. Asimismo interesante en lo relativo a fusión de datos en los procesos automáticos de extracción es [KIEMA 02]; aquí se procede a la clasificación de la imagen por máxima verosimilitud, realizando la segmentación de objetos cartográficos mediante la fusión de información multiespectral con el análisis de la textura [CROSS 83 y GAGALOWICZ 87]. Dicho análisis, aunque con modificaciones sustanciales, será utilizado en nuestro sistema durante la fase de segmentación tal y como se indica en [MALPICA 02] y en [MENA 03]. También cabe destacar aquí la comparación entre imagen aérea radar y satélite multiespectral realizada en [HELLWICH 02], donde se propone la combinación de ambos tipos de datos. Análogamente, en [SCHENK 02 (a)] se discute la fusión entre la información propia de las imágenes aéreas en general y aquellas obtenidas mediante tecnología láser (Light Detection and Ranging – LIDAR), con vistas a la descripción más exacta de la superficie del terreno, en concreto al levantamiento del MDT / DTED. > Otro punto importante a considerar en los métodos de extracción automática reside en el esta-blecimiento de modelos para la representación del conocimiento, lo que es frecuente realizar median-te reglas y redes semánticas [FÖRSTNER 97]. Una revisión de las investigaciones existentes en este tema hasta el momento de su edición puede consultarse en [SOWMYA 00]. Aquí, si bien encontramos distintas técnicas de representación, control y extracción, se concluye afirmando que el estudio en mo-delización y representación del conocimiento se encuentra aún muy lejos de lograr resultados compa-rables a los obtenidos manualmente por el ser humano. Más recientemente encontramos en [DELL’AQUA 01] un estudio sobre imágenes SAR basa-do en el empleo de algoritmos de clustering [DUDA 01] gobernados por razonamiento borroso o fuzzy [ZADEH 65]. Tales algoritmos los aplica a la detección de estructuras en zonas urbanas, como son las calles, áreas de vegetación y superficies construidas. También es de interés [ANDERSEN 02] por pre-sentar un análisis acerca del empleo de imágenes LIDAR para el reconocimiento de objetos cartográfi-cos en general en zonas de bosque o densa vegetación. > De gran interés por el estudio que realiza sobre las distintas fases a seguir en los procesos ge-nerales de extracción automática de información geográfica a partir de imágenes, es [MARKOV 00]. Según se indica en esta cita, el proceso general deberá incluir:

Page 21: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 15

1. Designación del listado de objetos geométricos a extraer y fraccionamiento en n clases de la imagen ráster inicial. 2. Selección en la imagen inicial de ejemplos determinantes de acuerdo con cada clase, especificando sus rasgos característicos (áreas de entrenamiento). Cada ejemplo ha de contener la información de un cierto tipo de objetos como son la vegetación, el agua, etc. 3. Clasificación supervisada [DUDA 01] de la imagen inicial mediante reglas de decisión, basada en Estadística de Bayes. 4. Transformación de la imagen clasificada en n imágenes binarias (una por cada clase), donde se asig-na el valor 1 al pixel perteneciente a la clase y el valor 0 a los pixeles del fondo. 5. Vectorización de cada una de las imágenes binarias, obteniendo la definición geométrica de los dis-tintos elementos pertenecientes a la clase correspondiente. 6. Corrección de errores y almacenamiento en el SIG de las entidades obtenidas.

Aunque la extracción real que realiza dista mucho de ser completamente automática en sus di-

versas etapas, los seis pasos indicados han servido de orientación, como veremos a partir del capítulo tercero, para diseñar el sistema que proponemos en esta tesis. Para finalizar este apartado nombraremos sin mucha discusión otros trabajos en extracción au-tomática que están directamente aplicados a la detección y reconocimiento de objetos cartográficos concretos distintos de las carreteras. Estos últimos serán examinados más en detalle en el punto 2.3. > En lo referente a extracción de edificios, posiblemente sea [MAYER 99 (a)] uno de los princi-pales estudios de investigación en el tema. Este artículo ha sido ya discutido dadas las importantes in-dicaciones que expone para la extracción general de entidades cartográficas. Otras propuestas y expe-rimentaciones las encontramos en [SHUFELT 99 (a)] y [SHUFELT 99 (b)]. El primero dedicado a la evaluación de distintas metodologías, y el segundo presentando nuevos procesos de extracción que, si bien son aplicables a otros objetos cartográficos, los centra en edificaciones. En [GULCH 00] figura un método semiautomático de búsqueda a partir de modelos; [OGAWA 00] utiliza como guía la infor-mación contenida en los mapas para interpretar las imágenes aéreas y actualizar posteriormente dichos mapas; [GAMBA 00] emplea el modelo digital altimétrico de superficie (DSM) así como imágenes ra-dar. También cabe destacar la cita [ZIMMERMANN 00], donde se propone un método supuestamente capaz de distinguir automáticamente entre los objetos de naturaleza artificial (edificios, puentes, pla-zas, ...) y los que no lo son (terreno, vegetación, árboles, ...). En [NIEDERÖST 00] se calcula el DSM y se obtiene la ortofoto mediante estereoscopía de imágenes color. Tal información se aplica a la re-construcción de edificios con objeto de actualizar mapas vectoriales.

Posteriormente el equipo de E. Baltsavias presenta: en [ZHANG 01 (b)] un método de detec-ción de edificios en áreas urbanas desarrollado mediante la fusión de información multiespectral; y en [SOHN 01] un proceso de extracción a partir de imágenes satélite de alta resolución. En [GERKE 01 (a)] podemos estudiar un método combinado para la extracción simultánea de árboles y edificios en áreas urbanas a escalas grandes, pero que está orientado a las aplicaciones de juegos, turismo, simula-ción por computador, etc.

En un entorno parecido [GERKE 01 (b)] muestra la posibilidad de extraer edificios mediante

el empleo conjunto del DSM e imágenes aéreas en el infrarrojo. [HEUEL 01] discute la importancia de los modelos y las relaciones topológicas en el establecimiento de un proceso de razonamiento espa-cial que facilite la extracción de edificios. Y como compendio de estos dos últimos trabajos, encon-tramos en [KNUDSEN 02] una propuesta de empleo de la segmentación, gobernada por redes neuro-nales y fuzzy en imágenes infrarrojas, como técnica superior a la segmentación tradicional. Asimismo,

Page 22: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 16

en cuestión de modelización, encontramos en [RUTHER 02] un método semiautomático para estable-cer los modelos apoyado en el empleo de snakes y programación dinámica [KASS 87]. También en [FRASER 02] se propone una forma de generar modelos y extraer edificaciones; en este caso utilizan-do pares estereoscópicos de imágenes IKONOS.

Actualmente se han diseñado nuevos métodos para la extracción de edificios en áreas urbanas a través del tratamiento de imágenes láser (LIDAR) de alta resolución [ROTTENSTEINER 02]. Tales procesos se apoyan en el modelo digital del terreno (DTM / DSM) para, mediante comparación de alti-tudes, obtener los objetos buscados en 3D. En [HOFMANN 02] podemos contemplar una propuesta para obtener en 3D, a partir de la imagen láser, edificaciones cuyas únicas referencias son los corres-pondientes símbolos 2D procedentes de digitalizar mapas topográficos. Finalmente, de gran importancia estimamos el trabajo [GERKE 02] donde se describe, com-plementando a [BÜCKNER 02], el sistema Geo Automatic Image Data Analyser (GeoAIDA). Dicho sistema constituye un paso más en el automatismo de la interpretación y análisis de la imagen al con-seguir una adecuada estructuración del conocimiento, estableciendo e intentando probar una serie de hipótesis mediante un conjunto de operadores incluidos en los correspondientes algoritmos. Los resul-tados, relativos a la extracción de edificios, parecen prometedores. > Los estudios dedicados a la extracción de otras entidades cartográficas distintas de edificios y carreteras, son menos frecuentes en la literatura. Entre ellos figuran [HEIPKE 99 (b)] y [PAKZAD 02] centrados en áreas de vegetación en general; [BACHER 00] y [STRAUB 02] aplicados a la extrac-ción automática de arboleda; y [DILLABAUGH 02] que propone un método semiautomático con el objetivo de extraer ríos. 2.3. Actualización del SIG. Extracción de carreteras. La tarea de clasificar los distintos estudios y técnicas existentes en materia de extracción de entidades lineales, en concreto carreteras, es muy compleja. Esto es así debido a la gran variedad de experiencias realizadas mediante la aplicación de distintos fundamentos matemáticos, clásicos y mo-dernos. Además es común que en tales experimentos confluyan, no sólo diferentes técnicas de extrac-ción, sino también imágenes obtenidas por varios tipos de sensor. Por otra parte el objetivo genérico de la extracción automática engloba distintos aspectos específicos orientados a la consecución de tal fin, cuyo estudio es frecuente encontrar en la literatura a modo de trabajos concretos dentro del marco general que nos incumbe. No obstante, del análisis del estado actual de la investigación en extracción de vías de comuni-cación, estimamos la conveniencia de elegir los factores de mayor relevancia para clasificar, con ma-yor o menor grado de acierto, la gran mayoría de los trabajos. Estos factores, según se ha comentado en el párrafo anterior, creemos que son los siguientes:

* Clasificación por el objetivo prefijado.

* Clasificación por la técnica de extracción aplicada.

* Clasificación por el tipo de sensor utilizado.

Evidentemente, para atender a esta estructuración hemos de admitir la posibilidad de que un trabajo esté incluido en dos clases distintas dentro de un mismo factor de decisión, lo que, si bien no es muy ortodoxo, nos permitirá consultar de una forma flexible estudios y experimentos que poseen ca-racterísticas y rasgos comunes. En el cuadro 2.2 se representa la estructura en árbol de la mencionada clasificación, la cual pasamos a desarrollar seguidamente.

Page 23: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 17

Cuadro 2.2.

Estructura de clasificación para los estudios en extracción de carreteras.

EXTRACCIÓN DE OJETOS LINEALES

(CARRETERAS)

SEGÚN LA TÉCNICA APLICADA

SEGÚN EL TIPO DE SENSOR

SEGÚN EL OBJETIVO PREFIJADO

Métodos generales de extracción

Reconstrucción de redes

Métodos de evaluación

Extracción a bajo y medio

nivel

Extracción a medio y alto

nivel

Imagen monocromática

Imagen color RGB

Imagen multi e hiperespectral

(HYDICE)

Imagen RADAR

Imagen LASER

Otros tipos de sensor

Seguimiento de ruta

Morfología y filtrado

Sistemas lógicos

Razonamiento espacial

(Otros métodos)

Sistemas tablero

Modelización Gral. Fuzzy

Conjuntos de reglas

Clasificación y segmentación

Multiescala y multi-resolución

Análisis estereoscópico

Análisis multitemporal

Otras técnicas afines

Banda Infrarrojo

Otros objetivos afines

Clases y marcos

Redes semánticas

Métodos fuzzy p.d.

Programación dinámica y

Snakes

Conversión Ráster – Vector (Vectorización)

Redes Neuronales

Otros métodos

Algoritmos genéticos

Métodos de Optimización

Métodos de segmentación

Page 24: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 18

2.3.1. Clasificación de los métodos de extracción. 2.3.1.1. Clasificación según el objetivo prefijado.

A la vista del cuadro 2.2, la clasificación de los distintos métodos, trabajos y estudios afines con la extracción de elementos lineales (carreteras), según el objetivo a conseguir ya sea éste global o parcial en el flujo de la extracción, podemos establecerla en la forma: * Métodos generales de extracción. En ellos se busca la actualización de la red viaria residente en el SIG mediante la detección y posterior definición de las vías de comunicación en el conjunto de la ima-gen. Tales métodos normalmente utilizan la información ya almacenada en el sistema, y suelen aplicar conjuntamente procedimientos del bajo, medio y alto nivel. Al día de hoy se encuentran muy alejados de conseguir el completo automatismo en sus funciones. * Métodos de reconstrucción de redes. Estos procesos están orientados a la formación de la red de ca-rreteras a partir de los resultados de extracción obtenidos por métodos de menor rendimiento aplicados frecuentemente en el bajo nivel. Caracterizados por el estudio geométrico y topológico de los objetos cartográficos, y pretendiendo el agrupamiento o grouping de los distintos elementos relacionados entre sí, es común que los métodos de reconstrucción de redes hagan uso de la información del SIG así co-mo de algoritmos propios del medio y alto nivel. Al igual que los anteriores, distan mucho de conse-guir buenos resultados en todos los casos. * Métodos de segmentación. Aunque la segmentación de imágenes es un proceso de múltiples estu-dios y aplicaciones, en el presente trabajo de extracción tiene una importancia capital; razón por la cual consideramos aquí estos métodos como posibles constituyentes en el bajo nivel de algunos de los procedimientos de extracción automática de carreteras. * Métodos de vectorización. Son aquellos cuya finalidad es la definición vectorial de una imagen rás-ter, a menudo binaria, representativa de la red de objetos lineales extraída por segmentación o clasifi-cación de la imagen original. Al igual que los anteriores son procesos parciales en el organigrama de la extracción automática que, en este caso por su gran complejidad, requieren de la intervención manual del operador en un alto porcentaje de las ocasiones. * Métodos de optimización. Se trata de estudios destinados a la mejora de los algoritmos de extracción en base al empleo de técnicas como las redes neuronales [FREEMAN 91] o los algoritmos genéticos [GOLDBERG 89] entre otros. Sus resultados a menudo son más teóricos que reales, dada la necesidad de conseguir un mayor desarrollo en lo relativo a la implementación de conocimiento en la máquina. * Métodos de evaluación. Puesto que cada imagen constituye un espacio particular con propiedades características y casi siempre muy individualizadas, se han diseñado algunos métodos de evaluación al objeto de ponderar la eficacia de los algoritmos que se presentan en extracción. En este tema tampoco puede afirmase que la investigación esté muy avanzada ya que la extrema variedad en las imágenes implica forzosamente subjetividad en los procesos de examen y calificación. * Otros métodos. Finalmente, nombrar que existen propuestas e ideas diversas afines con la extracción de carreteras en los distintos niveles de conocimiento. Entre ellas figuran métodos con objetivos muy variados como por ejemplo son el control de calidad de las bases de datos vectoriales [WILLRICH 02] y la rectificación de imágenes [ELBERINCK 02]. 2.3.1.2. Clasificación según la técnica aplicada.

Tomando como factor principal de decisión la técnica utilizada, los procedimientos de extrac-ción automática de carreteras, donde se incluyen también los semiautomáticos dado que en realidad to-dos se caracterizan por revestir tal circunstancia en mayor o menor grado, se desglosan en dos grandes grupos en función del nivel de conocimiento sobre el cual se aplican. Son los siguientes:

Page 25: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 19

2.3.1.2.1. TÉCNICAS DE EXTRACCIÓN PROPIAS DEL BAJO Y MEDIO NIVEL.

En el primer bloque se engloban todos aquellos trabajos donde la extracción de los objetos li-neales se consigue mediante alguna de las siguientes técnicas: * Técnicas de seguimiento de ruta. Conocidas en inglés como road tracking, estas técnicas consisten en extraer las vías de comunicación analizando sucesivamente las características de la zona de la ima-gen en estudio a partir de puntos semilla y/o direcciones de referencia. En muchos casos el seguimien-to se realiza mediante el trazado de perfiles radiométricos perpendicularmente a la dirección de avance sobre la imagen y mediante la detección de los bordes [GONZALEZ 92]. Aunque la mayor eficacia se obtiene cuando se consideran múltiples propiedades, estos métodos nunca proporcionan resultados ab-solutos, dependiendo su eficacia de un desarrollo paralelo de la extracción en el alto nivel. * Técnicas morfológicas y de filtrado. Uno de los procedimientos utilizados en la extracción de obje-tos lineales, y por tanto de las carreteras, ha sido y continúa siendo la morfología matemática. Consiste en aplicar técnicas geométricas superficiales basadas en las propiedades de las distintas estructuras a detectar. Así por ejemplo, una superficie de la imagen incapaz de contener un objeto alargado por su extensión o forma, será eliminada del estudio en la extracción. Estos algoritmos hacen un extenso em-pleo de las máscaras o filtros [DUDA 01] para analizar cada región de la imagen, razón por la cual también se incluyen aquí los procedimientos de filtrado. En ellos básicamente se realiza una depura-ción de la imagen al objeto de disminuir la extensión de la zona de estudio en la extracción. * Algoritmos de programación dinámica y contornos activos (snakes). La programación dinámica es una técnica geométrica que no dista mucho de los métodos de seguimiento de ruta. Se trata de obtener una representación inicial aproximada de los ejes centrales de las carreteras a partir de una serie de puntos, para a continuación ir perfeccionando iterativamente dichos ejes mediante inserción de nuevos nodos. Por su parte, los contornos activos o snakes [KASS 87] constituyen un caso especial de progra-mación dinámica donde, a través del estudio de diversos parámetros energéticos, se busca la ecuación de un eje o un contorno mediante la definición de una sucesión de polinomios con acuerdo de curvatu-ra en sus extremos de enlace. Aunque estos métodos son muy utilizados, sus resultados no suponen una notable diferencia en su eficacia con respecto de otros procedimientos. * Métodos de clasificación y segmentación. Con estos métodos se pretende compartimentar la imagen en clases de equivalencia o clúster, caracterizados por alguna propiedad común, detectadas frecuente-mente mediante el estudio estadístico de la imagen radiométrica [FUKUNAGA 90]. Dicha clasifica-ción, supervisada o no [RICHARDS 99], se realiza en algunos casos en base al estudio de la textura [CROSS 83], lo que proporciona imágenes segmentadas de cierta calidad como base para un proceso posterior de vectorización [MENA 02 (b)]. * Métodos basados en el estudio a multiescala y multirresolución. La filosofía de los procesos multi-escala consiste en disminuir inicialmente la resolución de la imagen al objeto de que las vías de comu-nicación queden reducidas al ancho de uno o dos pixeles para facilitar su detección geométrica. Poste-riormente la información obtenida se une con la procedente de resoluciones más altas intentando el en-lace de los segmentos extraídos para encontrar los ejes centrales y definir así cada elemento lineal. Las diferencias que existen entre unos y otros métodos se encuentran pues, bien en el nivel de extracción en las distintas resoluciones, o bien en la forma de fusionar la información procedente de las deteccio-nes realizadas. * Análisis estereoscópico de imágenes. La técnica mayormente utilizada para obtener la tercera coor-denada en las imágenes, y por tanto el curvado y el MDT, es el empleo del par estereoscópico de imá-genes geodésicamente apoyadas. Ello facilita la extracción de vías de comunicación toda vez que, ade-más de las características planimétricas, puede hacerse uso de las propiedades de éstas en cuanto al trazado de sus pendientes se refiere. No obstante, aunque la Fotogrametría se encuentra muy desarro-llada [MIKHAIL 01 y SCHENK 02 (b)], su continuación en la Teledetección presenta aún numerosos

Page 26: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 20

problemas en lo relativo a conseguir el completo automatismo en sus productos. En consecuencia el análisis estereoscópico de cara a la extracción de carreteras, no deja de ser un proceso más que puede aplicarse conjuntamente con cualquiera de los restantes que se discuten. * Análisis multitemporal de una misma zona. Estos métodos tratan de explotar la cierta invariabilidad en el tiempo que caracteriza a las estructuras hechas por el hombre respecto a las naturales. Por tanto aquellas podrán ser detectadas cuando se comparen imágenes de una misma región tomadas en épocas distintas; los datos multitemporales pueden ser utilizados así para la puesta al día de la información al-macenada en SIG. Aunque pudiera parecer más efectivo, este tipo de análisis rinde unos resultados comparables a los proporcionados por el resto de los métodos descritos. * Otros procesos afines no considerados. En este apartado se incluyen otras propuestas y métodos que continuamente van apareciendo en la literatura. Entre ellos cabe destacar las ideas más recientes sobre la extracción en imágenes radar y láser, si bien en estos casos la experimentación no se encuentra lo suficientemente consolidada con vistas a obtener conclusiones determinantes en el completo automa-tismo de la extracción. 2.3.1.2.2. TÉCNICAS DE EXTRACCIÓN PROPIAS DEL MEDIO Y ALTO NIVEL.

El segundo bloque de nuestra clasificación comprende las diversas técnicas existentes para la extracción de objetos cartográficos lineales en el medio y alto nivel, donde se incluye la modelización y estructuración del conocimiento con objeto de proporcionar “inteligencia” a la máquina. La gran ma-yoría de tales algoritmos las recogemos dentro del tratamiento fuzzy [ZADEH 65], dado que éste constituye una generalización del estudio probabilístico cuando se considera la variable incertidumbre, al igual que la Probabilidad generaliza los métodos clásicos de la Matemática cuando se tiene en cuen-ta la relatividad en la ocurrencia de los sucesos. Aunque este conjunto de técnicas actualmente en-cuentra muchas dificultades en lo relativo a su implementación automática, admite la siguiente clasifi-cación inspirada en [SOWMYA 00]: * Modelización general fuzzy del conocimiento. La principal característica de los procesos de extrac-ción al alto nivel es que su objetivo final ya no es la detección en sí de los pixeles que constituyen las redes viarias o los ejes centrales de las carreteras componentes, sino que lo pretendido es un análisis e interpretación de la imagen que por consecuencia consiga la extracción de aquéllas en el conjunto de los elementos cartográficos. Este análisis, que también incluye etapas en el medio nivel, implica por fuerza la necesidad de una estructuración y manejo del conocimiento que posibilite la generación y ac-tualización de los modelos utilizados en el proceso; tarea que no es fácil y cuyo completo desarrollo aún necesita tiempo. No obstante, el estudio parece ser que se enmarca dentro del concepto general del tratamiento borroso o fuzzy como gobierno de las distintas técnicas más clásicas. Estas son:

- Sistemas lógicos propiamente dichos. Son los más antiguos, aquellos que utilizan el denomi-nado Primer Orden Lógico (FOL) mediante lenguajes lógicos de programación. Usualmente están basados en el establecimiento de un orden jerárquico de axiomas que se aplican sobre la imagen. Sus resultados no son demasiado buenos dado que suponen una correspondencia uno a uno entre la imagen y los objetos modelados, lo que normalmente no es cierto.

- Conjuntos de reglas. El establecimiento de reglas if ... then ha mostrado su utilidad sólo en casos muy concretos, cuando se busca un único tipo de objeto en imágenes muy específicas. Sin embargo, aún así el número de reglas se eleva enseguida con la correspondiente posibili-dad de que se generen conflictos e interferencias entre las mismas. Según [SOWMYA 00] este sistema no garantiza la progresiva aditividad necesaria en el conocimiento ni la consistencia en el razonamiento.

Page 27: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 21

- Sistemas de consulta a tablero. Por tablero o pizarra se entiende una base de datos global en el conjunto de fuentes de conocimiento donde el sistema acude a consulta. Aquí la informa-ción se estructura jerárquicamente en registros donde se describen regiones y objetos con sus propiedades, los cuales servirán de base para la interpretación de la imagen. La eficacia del sistema depende notablemente, tanto del mecanismo de control utilizado, como del contenido del tablero.

- Sistemas basados en objetos, clases y marcos. Se trata de los clásicos Sistemas Basados en el Conocimiento que, bajo el control de un Programa Simbólico, intentan demostrar hechos me-diante la técnica del razonamiento adelante o hacia atrás obteniendo las conclusiones corres-pondientes. Los hechos probados se incorporan a la Base de Conocimiento, proporcionando así aprendizaje al sistema. Al igual que las anteriores, esta técnica requiere aún de un futuro desarrollo en los procesos automáticos.

- Redes semánticas. Tal vez sea éste el procedimiento más aceptado en lo relativo a estructura-ción del conocimiento y razonamiento artificial. Como veremos en el apartado 2.3.3, existen importantes trabajos donde se utiliza la teoría de grafos y la definición semántica de objetos para proceder al análisis de la imagen; y si bien en muchas ocasiones se necesita la interven-ción del operador, parece ser que sus resultados indican razonables perspectivas.

- Métodos fuzzy propiamente dichos. Aquí se incluyen otros procesos fuzzy que, aprovechando las ventajas de los sistemas anteriores, utilizan la lógica borrosa de una u otra forma.

* Otras técnicas de razonamiento espacial. Dada la reciente y gran acogida que han tenido las técni-cas fuzzy por su generalidad, no hemos encontrado en la literatura ningún método que no podamos si-tuar como una simplificación o caso particular del tratamiento borroso al medio y alto nivel de extrac-ción. No obstante es posible que exista alguno, razón de ser de este punto.

2.3.1.3. Clasificación según el tipo de sensor.

Para finalizar consideraremos también la posibilidad de clasificar los procesos e investigacio-nes en extracción de carreteras según el tipo de imágenes utilizadas. Si bien son numerosos los traba-jos donde se aplican una o varias técnicas sobre distintos tipos de bandas e imágenes, no es menos cierto, como veremos enseguida, que los principales equipos de estudio dedicados en la actualidad suelen decantarse por una determinada clase de imágenes como información inicial. De esta forma se estima que una clasificación razonable puede ser la siguiente: * Imagen monocromática. Banda radiométrica representada por los distintos tonos de gris. * Banda Infrarrojo. Banda radiométrica dentro de esta zona del espectro. * Imagen color RGB. Imagen compuesta por las tres bandas correspondientes a los colores primarios en el espectro visible. * Imagen multi e hiperespectral (HYDICE). Imagen compuesta por múltiples bandas captadas en las distintas zonas del espectro electromagnético. * Imagen Radar. Imagen obtenida mediante la técnica activa radar, frecuentemente utilizada para la detección de altimetría. * Imagen Láser. Técnica activa de reciente y reducido empleo por su carestía, que normalmente sirve de complemento para conseguir datos de difícil acceso por otros procedimientos. * Otros tipos de sensor. Puerta abierta a la investigación y avance de la Tecnología.

Page 28: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 22

2.3.2. Esquema resumen de los principales equipos dedicados a extracción de carreteras. Antes de proceder al análisis y detallada revisión del estado del conocimiento en el tema, se incluye un breve resumen sobre los equipos más representativos cuyas investigaciones, que no las úni-cas, son de gran interés y actualidad en la literatura. Cada uno de tales equipos se describe mediante su nacionalidad, la relación de sus componentes más indicativos y sus principales líneas de investigación. Veamos. * (ALEMANIA). A. Baumgatner, A. Faber, W. Förstner, C. Heipke, O. Hellwich, S. Hinz,

H. Mayer, B.M. Straub, C. Wiedemann. - Análisis estereoscópico y métodos de evaluación [FÖRSTNER 96]. - Extracción mediante segmentación por estudio de la textura [FABER 99]. - Análisis multiescala combinado con información contextual en el espacio 3D [MAYER 99 (a)]. - Interpretación automática de imágenes y modelizado del conocimiento [STRAUB 00 (a)]. - Análisis multitemporal de imágenes [HEIPKE 00]. - Métodos geométricos y topológicos de reconstrucción de redes [WIEDEMANN 00]. - Extracción mediante contornos activos (snakes) [LAPTEV 00]. - Extracción de objetos en multisensor y radar [HELLWICH 00 y 01] - Métodos de evaluación de resultados [WIEDEMANN 02]. - Métodos semiautomáticos de seguimiento de ruta [BAUMGATNER 02].

* (AUSTRALIA). A. Sowmya, J. Trinder.

- Estudio de la modelización y representación del conocimiento [SOWMYA 00]. - Métodos de extracción por segmentación de la imagen [CHEN_A. 02].

* (BRASIL). P. Dal Poz. - Métodos geométricos con programación dinámica [DAL POZ 00 (a)]. * (EE.UU). S.J. Ford, C. McGlone, D.M. McKeown, A. Shufelt.

- Imagen hiperespectral. Fusión de datos [FORD 98] y métodos de extracción [McKEOWN 99 (a)]. * (EE.UU). P. Agouris, P. Doucette, M. Musavi, A. Stefanidis. - Empleo de técnicas fuzzy [AGOURIS 98]. - Extracción mediante programación dinámica y snakes [AGOURIS 01 (a)]. - Métodos de vectorización por clustering [DOUCETTE 01]. * (FRANCIA). S. Airault, R. Ruskoné.

- Extracción de redes por estudio del contexto, puntos semilla y redes semánticas [RUSKONÉ 97]. * (FRANCIA). R. Bonnefon. - Extracción en baja resolución por métodos geométricos y de filtrado [BONNEFON 02]. * (INGLATERRA). J. Shanahan, M. Mirmehdi. - Extracción optimizada mediante algoritmos genéticos [MIRMEHDI 97]. - Enlace entre el bajo nivel y la modelización fuzzy en el alto nivel [SHANAHAN 00]. * (PAISES ASIATICOS). T. Yoon, H. Zhao. - Correlación por mínimos cuadrados en imágenes IKONOS [YOON 02]. - Métodos semiautomáticos de seguimiento de ruta [ZHAO 02]. * (SUIZA). E. Baltsavias, C. Zhang. - Extracción mediante morfología matemática [ZHANG 99]. - Estudios en multirresolución y multiescala apoyados en el SIG [BALTSAVIAS 01].

- Reconstrucción de redes 3D por el contexto, reglas, bases de datos y estereoscopía. [ZHANG 02 (a)].

Page 29: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 23

2.3.3. Revisión del conocimiento: Introducción. En los apartados que siguen se expone una relación comentada de los trabajos considerados más importantes en extracción de carreteras, ya sean éstos estudios genéricos del proceso de extrac-ción y actualización del SIG, o bien dedicados a temas puntuales internos del flujo general. Para ello atenderemos a la clasificación realizada en el cuadro 2.2 pero aplicando un desarrollo más didáctico, de forma que, comenzando por los estudios generales en extracción y reconstrucción de redes, pasa-remos a detallar los trabajos existentes según la técnica de extracción considerando los métodos pro-pios del bajo y medio nivel así como los procesos típicos del alto nivel; y finalizaremos con el análisis de los estudios de investigación parcial en el flujo de la extracción dedicados a segmentación, vecto-rización, optimización, evaluación u otros; todo ello de forma sucesiva y continua. La clasificación por el tipo de sensor se incluye en la redacción allí donde cada patrón tiene lugar. Puesto que la extracción de objetos cartográficos en general, comentada en 2.2, está íntima-mente ligada al tema que nos ocupa, no es de descartar que alguno de los trabajos allí nombrados se repita ahora. Asimismo es importante remarcar, como ya se dijo, que algunas referencias se incluyen en varios de los apartados siguientes por combinar técnicas y procedimientos diversos. Y finalmente, dada la gran cantidad de publicaciones existentes, decir que es probable que nos dejemos en el tintero alguna comunicación interesante, lo que se intenta evitar en lo posible. 2.3.4. Estudios generales en extracción y reconstrucción de redes viarias.

Diversas investigaciones sobre extracción automática y semiautomática de carreteras en imá-genes digitales han sido realizadas desde la década de los 70 por especialistas en las áreas de Visión Artificial [MARR 82, HENRY 92, WINSTON 92 y MIKHAIL 01] y Fotogrametría Digital [SCHENK 02 (b)]. Trabajos pioneros los encontramos en [BAJCSY 76] y [QUAM 78] centrados en el bajo nivel, muy distantes de los estudios actuales dirigidos a la extracción global y actualización del SIG que apa-recen en [OHLHOF 00] y [MARKOV 00]; referencias ya comentadas que constituyen la base del sis-tema que se presenta en esta tesis. También importante para nuestro sistema es [AMINI 02], donde se obtiene una imagen binaria de carreteras por segmentación, a la cual extrae el esqueleto por aplicación previa de la transformación de Wavelet [BENEDETTO 94 y CHUI 97] para reducir su resolución. Otros estudios que hemos de reiterar aquí por el análisis que realizan en cuanto al entorno genérico de la extracción de objetos cartográficos, carreteras incluidas, son [BRENNAN 98] y [MAYER 99 (a)]; este último, aunque aplicado a edificaciones, es de una gran importancia por tratar detalladamente dis-tintas estrategias en la extracción.

Asimismo de gran interés, por las clasificaciones generales que exponen, son los estudios pre-

sentados en [EIDENBENZ 00] y [HELLWICH 00], ya mencionados anteriormente, al igual que el do-cumento [BONNEFON 02] muy orientado al problema de actualización del SIG. Análogamente en [BOICHIS 00] podemos leer un completo método de extracción de carreteras guiado por la base de da-tos del SIG al objeto de su actualización. Basado en los trabajos [AIRAULT 95] y [RUSKONÉ 96], el citado estudio puede considerarse una prolongación de éstos dentro de las investigaciones del Instituto Geográfico Nacional (IGN) francés.

De características similares a los citados es de destacar [LEYMARIE 96], donde se discute la

combinación de técnicas de seguimiento de ruta semiautomáticas en el bajo nivel, con diversas etapas de extracción geométrica en base al análisis de texturas, y el uso de información estereoscópica, cono-cimiento contextual y razonamiento en el medio y alto nivel. También en [WUFENG 98] hallamos un sistema que combina las técnicas de procesamiento de la imagen [GONZALEZ 92] (bajo – medio ni-vel), con metodología de inteligencia artificial (alto nivel).

Algo más concretos son los estudios realizados en [BAUMGARTNER 99 (c)] e [HINZ 00] so-bre extracción de carreteras en zonas rurales. Ambos muy similares en su contenido, el segundo de ellos describe tres módulos sucesivos cuyos objetivos correspondientes son: la extracción fraccionada

Page 30: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 24

de la red vial mediante métodos multiescala, el agrupamiento y conexión de los objetos extraídos me-diante global grouping, y la posterior revisión y estructuración final de la red utilizando las propieda-des de ésta en su conjunto, es decir, incrementando el nivel de conocimiento. El trabajo se completa con una evaluación de los resultados donde se demuestra que el sistema resulta más eficaz cuando se integran diferentes niveles de conocimiento en el proceso de extracción.

En [WIEDEMANN 00] encontramos una propuesta de reconstrucción de redes mediante la generación automática de hipótesis de enlace y conectividad entre segmentos en base a las característi-cas geométricas de la red. Más general es el proceso que se presenta en [CHIANG 01]. En este caso aplicado sobre imágenes aéreas, la extracción de la red de carreteras consiste en una detección previa de los ejes mediante el operador de Sobel [HEIJDEN 95] y técnicas de grouping, seguido de la detec-ción de puntos base o snaxels mediante el filtro de Kalman [VOSSELMAN 95], los cuales servirán de apoyo para la reconstrucción posterior de la red a través de snakes. Trabajo muy concreto sobre reconstrucción de redes aparece en [STEGER 97]. Partiendo de una salida de extracción inicial, donde existen múltiples discontinuidades en las líneas que definen los ejes, se establecen las conexiones atendiendo a la estructura de un grafo mediante la cual se buscan los caminos óptimos de enlace entre nodos previamente seleccionados como son, por ejemplo, los corres-pondientes a los cruces o los nodos terminales de segmentos de gran longitud. La evaluación de las co-nexiones realizadas se efectúa mediante hipótesis basadas en tratamiento fuzzy. Esta idea de emplear grafos la encontramos ya en [MARR 82], siendo aplicada en [RUSKONÉ 94] a través del uso de rec-tángulos superpuestos a la imagen como medio de investigar las conexiones ausentes entre los nodos.

La estrategia para la detección y reconstrucción de redes, consistente en una primera extrac-ción de ejes y bordes seguida del establecimiento de conexiones, ha resultado ser la de mayor empleo como se confirma desde [BAJCSY 76] y [FISCHLER 81] hasta [TRINDER 99] y [WANG 00]; así co-mo también, más recientemente [KATARTZIS 01], [DAL POZ 02] y [ZHANG 02 (a) y (b)]. En estos dos últimos casos la reconstrucción se apoya en la información 3D obtenida por estereoscopía o resi-dente en la base de datos del SIG, y en un análisis de la imagen basado en el conocimiento mediante el uso de reglas y modelos en el alto nivel [HENRY 92]. * El apoyo en la información contenida en el SIG como ayuda para la extracción, es una carac-terística muy común en los métodos genéricos de detección y definición geométrica de las vías de co-municación. Entre los muchos trabajos que hacen uso de ello figuran los ya nombrados [BOICHIS 00] y [ZHANG 02 (a)]. También cabe destacar: [GUÉRIN 94] por tratarse de uno de los primeros en con-siderar el tema; [AGOURIS 98] donde la extracción se diseña bajo el gobierno de un sistema borroso (fuzzy); [JEON 00] que analiza las estructuras curvilíneas en imágenes radar (SAR) con el auxilio de un mapa digital; [DAL POZ 00 (c)] donde se utiliza la base de datos del SIG para formular y validar hipótesis en la extracción; y más recientemente [HINZ 02 (b)] que emplea modelos de evaluación in-ternos al sistema en la extracción de carreteras en áreas urbanas. * Otro punto de interés considerado en muchos de los experimentos de extracción, reside en el empleo de la información de contexto como soporte adicional en la búsqueda de objetos lineales y de otras entidades cartográficas. La información de contexto hace referencia a las relaciones topológicas entre los objetos de un mismo tipo o bien de tipos diferentes. En este campo posiblemente sean los tra-bajos de Renaud Ruskoné [RUSKONÉ 94, 95, 96 y 97] los más indicativos. Sin embargo también existen otros dignos de mención que utilizan la información contextual de una u otra forma. Entre és-tos figuran: [VOSSELMAN 97] que la emplea como único medio de razonamiento en la actualización de mapas de carreteras; [BAUMGARTNER 97, 99 (a) y (b)], donde se combina dicha información con el análisis de bordes y técnicas multirresolución; [McKEOWN 99 (b)] y [FABRE 01] que la usan como punto de apoyo para el estudio de técnicas de fusión y simplificación en imágenes de banda múltiple (HYDICE); [MAYER 97 y 99 (a)] e [HINZ 01 (b)] donde se propone su modelización; y fi-nalmente [WALLACE 01] que la explota bajo una estrategia de control en la extracción de elementos lineales a través de una base de datos geoespacial orientada a objetos.

Page 31: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 25

2.3.5. Estudios particularizados según la técnica de extracción.

Como figura en el cuadro 2.2, los distintos procedimientos aplicados a la extracción de vías de comunicación son los siguientes. 2.3.5.1. Métodos de seguimiento de ruta.

Las técnicas de seguimiento de ruta se apoyan en la obtención manual o automática de una se-rie de puntos semilla, a partir de los cuales se realiza el recorrido y obtención de las carreteras valoran-do sucesivamente las distintas direcciones a seguir desde dichos puntos. Así, mientras que en [SAKO-DA 93] el operador humano debe marcar los puntos inicio y final en las distintas vías a extraer, en [ZLOTNICK 93] encontramos un método automático de búsqueda de los puntos semilla unido a un seguimiento basado en el estudio de bordes paralelos. Otros trabajos que utilizan el análisis de bordes son [NEVATIA 80] y [DAL POZ 00 (b)]. También son importantes los estudios de Road Tracking donde el seguimiento se realiza analizando la radiometría de los pixeles según el trazado transversal de perfiles al eje de la vía [QUAM 78 y VOSSELMAN 95]; así como aquellos que utilizan una combina-ción de las dos técnicas mencionadas, [McKEOWN 88]. Este último aplica el análisis de la correlación en los perfiles, a la vez que trata de encontrar en el entorno local bordes paralelos extraídos mediante el operador de Sobel [GONZALEZ 92].

Un estudio estadístico muy interesante es el presentado en [GEMAN 96]. Aquí se examina el modo de extraer automáticamente los puntos semilla, y se utilizan modelos geométricos y estadísticos para el seguimiento de las carreteras, aplicando filtros locales y clasificación por máxima verosimilitud [DUDA 01], junto con el empleo de test basados en la evaluación de la entropía de Shannon [FUKU-NAGA 90]. También encontramos una combinación de métodos geométricos y estocásticos para el se-guimiento automático en [BARZOHAR 96]. En este trabajo se acepta un modelo estadístico de carre-tera y se realizan las correspondientes estimaciones de determinados parámetros, aplicando una valo-ración del máximo a posteriori típica de las aproximaciones Bayesianas. Por su parte, en [RUSKONÉ 97] se muestra cómo a partir del estudio de la textura, cuya variación ha de ser mínima en la dirección de la vía, puede realizarse eficazmente el seguimiento. Asimismo, aquí también se propone un modelo para detectar automáticamente los puntos semilla y reconstruir la red a posteriori de la extracción. De naturaleza similar es el trabajo [WUFENG 98], que presenta un método para la búsqueda automática de los puntos semilla y aplica un análisis superficial para el seguimiento. En este caso las conexiones para la reconstrucción de la red se realizan mediante un sistema experto [WINSTON 92].

Probado sobre distintos tipos de imágenes como LANDSAT y SPOT, y en variados tipos de sensor como el multiespectral en escalas de gris y bandas pancromáticas, [TESSER 00] presenta un efectivo método para la generación de puntos semilla y estructura inicial de la red de carreteras com-puesto por cinco etapas: ecualización, suavizado, detección de bordes, adelgazamiento y seguimiento. Aunque sus resultados adolecen de errores, el proceso automático consigue disminuir el trabajo ma-nual de los operadores en un porcentaje aceptable. Otro trabajo de seguimiento, en este caso semiauto-mático, lo hallamos recientemente en [YOON 02]. Aplicado sobre imágenes IKONOS [DIAL 01], el operador interviene aquí mediante el señalamiento de los puntos semilla, realizándose el seguimiento a través del estudio de la correlación por mínimos cuadrados. También reciente y eminentemente semi-automático es el proceso descrito en [BAUMGARTNER 02]. En este caso la intervención del opera-dor se requiere de forma continua, pero proporcionándole un completo interface de ayuda que identifi-ca problemas y le reporta información mediante preguntas y posibles acciones a tomar. Análogamente en [ZHAO 02] el seguimiento de ruta se realiza de forma semiautomática a partir de los puntos semi-lla, los cuales se identifican ahora mediante puntos asociados con direcciones. El proceso se aplica so-bre imágenes de alta resolución tipo IKONOS correspondientes a zonas urbanas y suburbanas, y según afirma, los resultados son válidos en la extracción de las vías principales en áreas de densa edificación, y muy buenos en las zonas semiurbanas o rurales. Finalmente, en [BONNEFON 02] la extracción de objetos lineales (carreteras incluidas) se efectúa en imágenes SPOT a partir de un punto inicial y una dirección, mediante el análisis de los valores radiométricos de los pixeles en una ventana de búsqueda; ello permite la asignación de probabilidades para ir obteniendo progresivamente el camino óptimo.

Page 32: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 26

2.3.5.2. Métodos morfológicos y de filtrado.

Son múltiples las referencias que tendrían cabida en este apartado si considerásemos los méto-dos geométricos en general, dado que éstos intervienen en muchos de los procesos de una u otra for-ma. No obstante, atendiendo al empleo específico de la morfología matemática y las técnicas de filtra-do como principales factores de decisión, es posible concretar en sólo unos pocos el resumen de proce-sos actuales orientados a la extracción de carreteras. La morfología matemática, desarrollada por [MATHERON 75] y [SERRA 82], es un estudio teórico basado en el marco de la Matemática formal, que provee de técnicas en el tratamiento digital de imágenes apoyándose en el análisis geométrico de superficies. Utilizando operadores lógicos como la unión, intersección y el complemento, se construyen variadas aplicaciones como la dilatación, com-presión o erosión, que son aprovechadas para la extracción de objetos en las imágenes. Así por ejem-plo, en [ZHANG 99] observamos cómo, en lugar de los principios lineales mayormente empleados, se aplica el criterio morfológico del eje mayor de la mínima elipse que encierra un objeto para recons-truir por completo una vía de comunicación a partir de un pixel potencial de la misma. El resultado no será pues una fina línea representante del eje central, sino áreas continuas de pixeles pertenecientes a las carreteras, análogamente a las salidas de los métodos de segmentación. De hecho, el referido traba-jo comienza con un proceso de segmentación para posteriormente depurar dicho resultado mediante análisis morfológico. También se aplica morfología matemática en [CHANUSSOT 98] y [KATARTZIS 01], si bien en ambos casos dirigida a la extracción de objetos lineales sobre imágenes radar. El proceso utilizado por el segundo consiste en un análisis local que finaliza con la extracción de segmentos, seguido de un análisis global con objeto de reconstruir la red, más una etapa de validación que pondera las conexio-nes realizadas frente a los errores obtenidos. Entre los procesos apoyados fundamentalmente en la aplicación de filtros cabe mencionar el trabajo [OLIVEIRA 00]. En él se emplea un filtro isotrópico [CRESSIE 91], construido a partir de la primera derivada de la función de Gauss [CANNY 86], para detectar los pixeles pertenecientes a los contornos. Agrupados éstos mediante técnicas de proximidad y seguimiento, el sistema reconoce las vías evaluando distancias entre parejas de puntos de los contornos obtenidos. Una referencia importante por sus intersecciones con el sistema que se aporta en esta tesis lo hallamos en [AMINI 02]. Aquí se utiliza la morfología matemática mediante un algoritmo cuyo pro-pósito es simplificar la imagen reduciéndola a un conjunto de tonos de gris [AMINI 00]. A continua-ción se procede a la segmentación de ésta y a la obtención de una imagen binaria donde figuran las ca-rreteras por un lado y el resto de la imagen por otro. Sobre la imagen binaria se realizan entonces dos operaciones: En la primera se extrae un conjunto inicial de segmentos rectilíneos, y en la segunda se busca la detección del esqueleto [SANNITI 94], lo que se consigue en este caso reduciendo la resolu-ción de la imagen hasta que el ancho de las carreteras queda en los 2 – 3 pixeles. Combinando la infor-mación de estas dos etapas se alcanza el resultado de la extracción. 2.3.5.3. Métodos de programación dinámica y snakes.

La idea de obtener un polígono inicial aproximado que defina la red viaria, e ir incrementando progresivamente la precisión en el ajuste a los ejes, bien mediante la inserción de nuevos nodos, o bien a través de la definición matemática de aquéllos según polinomios enlazados que se ajustan a los ejes de forma dinámica, constituye básicamente el esquema de trabajo de los métodos que se tratan aquí. * Los denominados contornos activos o snakes, inicialmente introducidos en [KASS 87], están basados en la detección de curvas a través de un proceso de optimización relacionado con los princi-pios físicos de la energía, donde se estudia el comportamiento de modelos elásticos ante la acción de

Page 33: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 27

fuerzas externas e internas al sistema. Aplicados al tratamiento de imágenes, los contornos activos son utilizados ya en [COHEN 91], extendiéndose rápidamente su uso hasta llegar a [GRUEN 97] y [LI 97] donde se exponen métodos semiautomáticos que los emplean en la extracción de objetos lineales y vías de comunicación respectivamente. Posteriormente también en [ZAFIROPOULOS 98] se conside-ra su aplicación; en este caso sobre las bandas RGB de imágenes SPOT correspondientes a zonas se-miurbanas. [JEON 00] los utiliza en la extracción de carreteras sobre imágenes SAR, afirmando que el error resultante obtenido en el ajuste es menor de un pixel. Sin embargo probablemente sea el equipo de investigación alemán del Dr. Helmut Mayer quien haya potenciado con mayor fuerza el uso de sna-kes en los métodos de extracción. Ejemplos de ello los tenemos en [MAYER 97 y 98 (a)] y [LAPTEV 00] donde los contornos activos son una herramienta utilizada en el análisis multiescala con el ánimo de tender un puente ante las sombras y otras áreas ocultas en las carreteras, lo que no siempre propor-ciona los resultados pretendidos. También encontramos snakes en [CHIANG 01], así como otro mode-lo de energía empleado en el tratamiento de imágenes en [FERRARO 99]. Según éste, la imagen se asocia con un sistema termodinámico aislado, haciendo corresponder los valores radiométricos de los pixeles con los correspondientes de variables físicas a partir de los cuales representar los objetos. Una modificación al concepto clásico de snakes se presenta en [AGOURIS 01 (b) y (d)]. Aquí se proponen las denominadas differential snakes, cuya pretensión es actualizar la información geoes-pacial residente en el SIG en cuanto a objetos lineales se refiere, mediante la comparación en términos de definición geométrica de los objetos almacenados y los correspondientes obtenidos de la imagen. La detección de cambios así realizada se utiliza también para corregir las entidades que se encuentren definidas erróneamente en la base de datos, por haber sido extraídas y almacenadas anteriormente a través de métodos o imágenes no demasiado precisas. * Con respecto a la programación dinámica propiamente dicha, cuya aplicación al tratamiento de imágenes también puede ligarse con principios físicos [AMINI 90], en [DAL POZ 00 (a)] encontra-mos de forma muy clara el modo de aplicarla con el propósito de conseguir la definición matemática de los objetos lineales mediante la inserción progresiva de nodos. Asimismo aquí se muestra cómo es posible resolver el problema de optimización [BALLARD 82], consistente en encontrar el camino más corto entre dos puntos dados de un objeto, a través de dicha programación dinámica. El mencionado trabajo se utiliza en [DAL POZ 00 (c)] como una etapa de un proceso que, mediante la formulación y demostración de hipótesis, intenta hallar nuevos segmentos de carretera a partir de los ya obtenidos. Otro proceso que puede englobarse dentro de las técnicas de programación dinámica es el des-crito en [STOICA 00]. En este caso la red vial se entiende como una sucesión de segmentos interco-nectados que se extraen a partir de un conjunto de puntos marcado automáticamente, correspondiente a los extremos finales de la red en la imagen. El proceso, que ha sido aplicado sobre imágenes aéreas, ERS y SPOT, se fundamenta en teoría geométrico estocástica haciendo uso de las cadenas dinámicas de Markov [PUTERMAN 94] para agrupar segmentos. * Una técnica que aparece en algunas referencias propone la utilización simultánea de contor-nos activos y programación dinámica clásica [GRUEN 97 y AGOURIS 01 (a)]. En este último el método, aplicado a la extracción y actualización de carreteras, consiste en el establecimiento inicial de la red de nodos y la construcción de las correspondientes snakes. A continuación se valora la defini-ción obtenida para las vías de comunicación, insertando nodos adicionales o eliminando aquellos que resulten redundantes. Si el número o posición de los nodos ha variado, entonces se vuelven a generar las snakes. El proceso se itera de este modo hasta conseguir la estabilización completa de los nodos, momento en el cual las últimas snakes obtenidas constituyen la solución final. 2.3.5.4. Métodos de clasificación y segmentación.

Son muchos los autores que han utilizado la segmentación de la imagen como técnica princi-pal constitutiva de los procesos de extracción [GHENG 01]. Entre ellos, muy relacionado con las vías de comunicación, figura [BENJAMIN 90] donde se utiliza la decisión por máxima verosimilitud sobre

Page 34: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 28

la banda infrarroja de la imagen para compartimentar ésta en cinco regiones disjuntas, una de las cua-les es la red de carreteras. El estudio, enfocado a la influencia de la resolución sobre la eficacia de los resultados, concluye que una resolución en torno a los tres metros parece ser la más idónea para la de-tección de carreteras. También en [HAALA 92] encontramos clasificación y segmentación. Aquí la segmentación se realiza mediante crecimiento de regiones [DUDA 01], aplicada a la vez sobre las bandas del espectro visible y el infrarrojo próximo. La red de carreteras se extrae en este caso determi-nando previamente el esqueleto de las zonas correspondientes obtenidas tras la clasificación.

Más recientemente, en [FABER 99] se propone el empleo de la segmentación según análisis

de la textura para la extracción de estructuras urbanas en imágenes multibanda de alta resolución. En este trabajo, donde se pretenden evitar las incertidumbres introducidas por la segmentación cuando se consideran únicamente los niveles de gris en una banda, la textura se define mediante tres parámetros asociados: energía, dirección y anisotropía [HARALICK 79]. Dichos parámetros son utilizados para establecer las clases existentes en la imagen, obteniéndose tras el proceso de fusión de información los bordes de las distintas regiones de textura como resultado final del método. Otro estudio donde se aplica clasificación sobre la imagen multibanda, en este caso hiperes-pectral (HYDICE), es [AGOURIS 01 (c)]. Se trata de un proceso donde la segmentación de la imagen se consigue mediante el apoyo en la técnica de clasificación no supervisada o clustering conocida co-mo K-medians [GONZALEZ 92 y DUDA 01]. Estableciendo a priori el número de clases que se de-sean obtener, una de las cuales es la red de vías de comunicación, la segmentación, validada a través de lógica fuzzy, proporciona las carreteras, definiéndose los ejes centrales según el procedimiento de vectorización descrito en detalle en [DOUCETTE 01] y que utiliza asimismo el clustering en la forma que se comentará más adelante. Aunque los resultados requieren de un perfeccionamiento, el método de Peggy Agouris et al. se caracteriza por un alto potencial en el reconocimiento automático de carre-teras a través del clustering en imágenes multibanda.

También se utiliza segmentación no supervisada en [CHEN_A. 02]. Aquí el proceso de cluste-ring se gobierna mediante técnicas de aprendizaje (reglas) que permiten efectuar de forma automática tanto la modificación de los parámetros estadísticos y áreas de entrenamiento para reiterar el proceso, como la selección de las clases resultantes. Aplicado al reconocimiento de carreteras en imágenes aé-reas de alta resolución correspondientes a zonas suburbanas, parece ser que obtiene un alto porcentaje de éxito en la salida segmentada. Análogamente a éste en lo relativo a su variada gama de utilidades, [ROGGERO 02] propone un método de segmentación trasladable al marco general de la producción cartográfica, que está basado en la combinación de dos conocidas técnicas: el crecimiento de regiones y el Análisis de Componentes Principales (ACP / PCA) [DUDA 01]. Experimentado sobre imágenes láser en zonas urbanas, el resultado final es una clasificación donde la superficie no construida se agrupa en una sola clase. Ello va a facilitar, según indica, un posterior proceso de vectorización que permita extraer la red viaria. Un método original, donde el análisis de la textura es el factor determinante en el proceso de segmentación aplicado a la extracción de carreteras, se lee en [MALPICA 02], [MENA 02 (b)] y [ME-NA 03]. En éstos se aplica clasificación supervisada previa introducción del concepto de cubo de tex-tura, uno de los puntos de apoyo del sistema propuesto en esta tesis y que se describe en el capítulo cuarto. Por tal razón remitimos allí al lector prescindiendo de incluir ahora otros comentarios repetiti-vos sobre dicha idea. Finalmente indicar que un importante trabajo donde también se utiliza segmentación es el ya mencionado dentro de los métodos generales y también de los morfológicos [AMINI 02]. Aquí se em-plea el estudio de las desviaciones sobre un valor medio para obtener la imagen binaria clasificada co-rrespondiente a la red de carreteras. Asimismo señalar que otros métodos de segmentación y clasifica-ción general, aplicables a la detección de carreteras aunque no sea éste su propósito concreto, se expo-nen en el apartado 2.3.6 tras los métodos de extracción propios del alto nivel.

Page 35: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 29

2.3.5.5. Métodos multiescala y multirresolución.

La extracción de vías de comunicación mediante el análisis de la imagen a varias resoluciones ofrece un control sobre la dependencia de los algoritmos con el ancho de las vías. Así por ejemplo, una herramienta útil para detectar carreteras estrechas en altas resoluciones (grandes escalas) servirá, gra-cias a estos métodos, para reconocer autopistas en baja resolución (escalas menores). También es una característica importante de los procesos multiescala la posibilidad que proporcionan de validar las hi-pótesis realizadas y resultados obtenidos en la extracción entre unas y otras escalas. Ello permite obte-ner una salida final que habrá sido progresivamente depurada desde su obtención inicial en las escalas menores hasta tomar su aspecto definitivo tras el análisis de la imagen en las escalas más grandes. Aunque existen muchos trabajos donde se ha empleado el estudio multirresolución en el reco-nocimiento automático de carreteras, posiblemente sean los investigadores alemanes quienes más uso han hecho del mismo. Así por ejemplo, en [HEIPKE 95] encontramos un método que utiliza dos reso-luciones sobre imágenes aéreas: la primera, que denomina grosera, con 2 metros por pixel, y la segun-da, calificada como fina, en torno a los 0.25 metros por pixel. Comenzando la extracción en la resolu-ción más baja, las carreteras se detectan en la imagen a blanco y negro mediante simple comparación del tono radiométrico de cada pixel con el valor promedio obtenido del área de entrenamiento o refe-rencia [RICHARDS 99]. Dicha comparación exige de un valor umbral al objeto de seleccionar entre los candidatos aquéllos pixeles que pertenecen a las estructuras buscadas; proceso que aplica mediante la combinación de valores umbrales a nivel local y global en la imagen. Conseguido el citado conjunto de puntos, se procede a obtener el esqueleto o línea central de la red viaria inicial. Este resultado par-cial sirve de guía para la extracción en la resolución fina de las carreteras, considerando que éstas son superficies alargadas y limitadas por bordes paralelos donde la textura es homogénea. La combinación de las salidas de ambas etapas se realiza con el apoyo de un conjunto de reglas. El método, de natura-leza semiautomática, se supone que es más eficiente que la extracción basada en una sola escala. Sin embargo los resultados mostrados en el trabajo adolecen de discontinuidades y otras imperfecciones. En [BAUMGARTNER 96] leemos otro procedimiento de extracción de carreteras en multirre-solución. También aplicado sobre imágenes aéreas, la detección se realiza ahora mediante el trazado de perfiles perpendicularmente a la dirección de los ejes. El proceso es independiente de los datos resi-dentes en el SIG, pero requiere disponer de un conocimiento previo en forma de modelos de vías don-de se especifiquen las propiedades geométricas, radiométricas, topológicas y contextuales de las mis-mas en distintas resoluciones. A partir de ello la extracción se realiza en diferentes escalas, integrando los resultados parciales mediante fusión de información en la salida final. Pese a suponer que se dispo-ne de todos los requerimientos mencionados, el método rinde resultados que son mejorables. Investigación similar aparece en [BAUMGARTNER 97] aunque aplicando un método alterna-tivo al anterior donde se incluye la modelización de las carreteras como una red de intersecciones en-lazadas. Dicha modelización, que distingue entre regiones distintas en el contexto de la imagen, des-cribe múltiples propiedades de las carreteras, así como las relaciones topológicas entre ellas y otros objetos presentes en la imagen. Con estos datos, y segmentando mediante el análisis de texturas, se ge-neran hipótesis en las diferentes escalas con las cuales se construyen las intersecciones y su posterior enlazado mediante técnicas de grouping. Los resultados que se obtienen son muy parecidos al trabajo del 96, toda vez que el presente estudio está muy ligado al mismo. Una labor importante en lo referente al empleo y diseño de la modelización de carreteras para su extracción automática en análisis multiescala la encontramos en [MAYER 97 y 98 (a)]; referencias que ya hemos comentado. Estos trabajos se complementan con [MAYER 98 (b)] donde utiliza el con-cepto de abstracción para definir el grado de simplificación o énfasis aplicado al análisis de la imagen en cada etapa de la extracción dependiendo de la escala a que se trabaje. La referencia mencionada constituye un estudio teórico a la vez que empírico, que concluye con un organigrama de cajas donde se establecen las relaciones entre abstracción y escala, así como la dependencia de estos aspectos con los distintos objetos motivo de extracción y sus características. Esta tarea de investigación, que poten-

Page 36: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 30

cia como tal la entidad espacio - escala, se aplica, entre otros, en [LAPTEV 00] para presentar un mé-todo automático de extracción de carreteras mediante snakes al que ya se ha hecho referencia. Otras citas donde se utiliza el análisis multirresolución son: [BAUMGARTNER 99 (a)] que está centrado en las relaciones de las carreteras con otros objetos cartográficos, extrayendo aquéllas mediante el apoyo en la detección de bordes; [HINZ 00], método de reconstrucción de redes ya co-mentado, que lo aplica en varios de los módulos en que descompone su procedimiento; e [HINZ 01 (a)], donde se extraen líneas, segmentos y ejes a varias escalas con el auxilio de la segmentación basa-da en el estudio de la textura. Aplicado sobre imágenes satélite de alta resolución y enfocado a la detección de calles en zo-nas urbanas, [COULOIGNER 00] presenta un método semiautomático de extracción basado en el aná-lisis multirresolución y la transformación de Wavelet. El proceso consta de dos etapas realizadas am-bas en multiescala. En la primera se extraen los bordes de las calles haciendo uso de características propias de la representación de imágenes en las distintas resoluciones. En la segunda se detectan las superficies de aquéllas cuando son visibles en la imagen, para lo cual se recurre al modelizado de es-tructuras, según cada escala, conforme a la transformación de Wavelet. Este método está diseñado con el objetivo de servir de ayuda a los operadores en las tareas de extracción. Un esquema de extracción multiescala donde también se aplica la transformación de Wavelet lo encontramos en [CHEN_T. 02]. Experimentado sobre imágenes aéreas de 3 metros de resolución, el método se apoya en los valores que adquiere el módulo de los extremos locales de la transformación en cada zona de la imagen. Ello le permite eliminar el ruido de la imagen mediante un valor umbral, así como potenciar la detección de las carreteras. Según afirma, la aplicación del proceso sobre las imágenes mencionadas concluyó con la efectiva extracción de las vías principales.

Finalmente, otras referencias relativas al análisis multiescala pueden estudiarse en las edicio-nes [FÖRSTNER 97] y [BALTSAVIAS 01]. 2.3.5.6. Métodos de análisis estereoscópico.

Como ya se ha indicado en esta redacción, el análisis estereoscópico es una técnica para la vi-sión artificial del relieve, con la que se puede complementar cualquiera de los métodos de extracción que estamos considerando. No obstante, algunos de los equipos de investigación detallados en el apar-tado 2.3.2, así como otros autores puntuales, se caracterizan por utilizar la estereoscopía en la mayoría de sus experimentos y labores de estudio. Entre ellos, posiblemente sea el equipo suizo de Enmanuel Baltsavias quien más se ha destacado en la aplicación de esta técnica a la extracción automática de las vías de comunicación. Trabajos que confirman tal afirmación los encontramos en [BALTSAVIAS 01], así como en [ZHANG 01 (a)] y en los ya mencionados [ZHANG 02 (a) y (b)]. Referencias adicionales donde se utiliza la información estereoscópica de una u otra forma, sin que llegue a ser ésta la arteria principal del proceso, son: el método de extracción global que se descri-be en [LEYMARIE 96]; los trabajos sobre imágenes multisensor e hiperespectrales [McKEOWN 96] y [McKEOWN 99 (a)], éste último muy orientado a la fusión de información; así como también, aun-que aplicados a la extracción de edificios, [NIEDERÖST 00] y [FRASER 02]. Finalmente, no podemos concluir este párrafo sin mencionar los estudios de William Förstner en materia de restitución fotogramétrica digital por correlación de imágenes [SCHENK 02 (b)]. A di-cho autor se debe la creación de uno de los operadores más eficientes en la orientación automática del par estereoscópico digital, sustituyendo con ello la necesidad de efectuar la orientación interna, relati-va y absoluta característica de los restituidores analógicos [MENA 92]. Trabajos concretos en extrac-ción mediante visión estereoscópica pueden consultarse en [FÖRSTNER 97].

Page 37: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 31

2.3.5.7. Métodos multitemporales.

Los métodos de extracción de vías mediante la comparación en el tiempo de imágenes de una misma zona son los más escasos en la literatura. Así por ejemplo, en el estudio genérico realizado en [RUSKONÉ 96] sólo se cita a [CLEIJNENBREUGEL 91], donde figura un proceso que, mediante aplicación de la Teoría de la Evidencia de Dempster – Shafer [HALL 92], evalúa los cambios entre las imágenes extrayendo las carreteras en base a criterios de paralelismo y vecindad. Recientemente hallamos en [HEIPKE 00] un método de interpretación fundamentado en la in-tegración del análisis de la imagen con modelos residentes en el SIG. Este procedimiento lo aplica a la extracción combinada de carreteras y árboles, así como a la interpretación multitemporal de zonas de páramo. Otros estudios multitemporales figuran en [GROWE 99 y 00], si bien orientados a la extrac-ción de áreas de páramo en el primer caso, y a la búsqueda de zonas industriales en el segundo. Aunque los resultados de los métodos multitemporales son muy variables, su eficacia es relati-va, pudiéndose definir ésta en un porcentaje de automatismo similar al de los procesos multirresolu-ción, morfológicos o de clasificación. 2.3.5.8. Métodos propios del alto nivel.

Puesto que la experiencia ha confirmado la necesidad de introducir conocimiento a la máquina como único camino de aproximación al automatismo en los métodos de extracción de objetos carto-gráficos, son muchos los autores que ya, desde hace unos años, se han dedicado a estudiar este tema. No obstante, los avances conseguidos desde [FISCHLER 81] hasta las propuestas más recientes aún requieren de perfeccionamiento, siendo ésta una línea de investigación en la que todavía queda mucho por hacer. Esto es así debido a los innumerables problemas que se presentan a la hora de valorar qué conocimiento debe almacenarse en el ordenador y cómo hacerlo y tratarlo mediante algoritmos para que resulte eficiente. Respecto al primer problema, parece ser que la información más necesaria con-siste en disponer de modelos de los distintos objetos (en nuestro caso vías de comunicación) con los cuales poder comparar los elementos extraídos de las imágenes. Sin embargo esta modelización, cuyo exhaustivo estudio encontramos en [MAYER 99 (a)], depende de la escala de trabajo y del tipo de sensor utilizado, por lo que el problema crece sobremanera. En cuanto a la segunda cuestión, acerca de la estructura y manejo de la información, también existen muchas dificultades en su resolución, aún contando con los últimos avances de la tecnología y los sistemas de representación del conocimiento disponibles [SOWMYA 00]. Aunque las soluciones de estos problemas todavía quedan distantes, un gran paso ha supuesto la actual potenciación de la lógica borrosa o fuzzy. Inicialmente desarrollada en [ZADEH 65], su dife-rencia principal con la Teoría de la Probabilidad y la lógica Bayesiana consiste en la introducción de la variable incertidumbre en los procesos de decisión. De este modo la lógica fuzzy recoge todas las con-secuencias de la teoría de probabilidades cuando la incertidumbre es nula, constituyendo un marco ge-neral en el cual insertar las diferentes técnicas de extracción, incluyendo la modelización de objetos cartográficos y su representación como tal conocimiento según repasamos a continuación. * Una de las primeras técnicas de modelización y representación son los sistemas lógicos. En este punto cabe resaltar la referencia [REITER 89], donde los modelos se establecen mediante un con-junto de axiomas formales cuya aplicación al análisis de la imagen supone una gran complejidad en el desarrollo de los algoritmos. Esta razón debe ser la causante de que no hayamos encontrado en la lite-ratura otros trabajos que se apoyen en la citada investigación. * Los métodos y sistemas basados en conjuntos de reglas son bastante más abundantes. Entre otros ejemplos [McKEOWN 87] propone un proceso para la interpretación de imágenes aéreas donde el conocimiento se organiza en unos 100 módulos aproximadamente, compuesto cada uno de ellos por

Page 38: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 32

cinco reglas. Asimismo en [STRAT 91], donde se desarrolla el sistema de reconocimiento Condor, la información de contexto se modeliza mediante reglas clasificadas según varios niveles de conocimien-to. Posteriormente también en [VOSSELMAN 97] encontramos reglas; en este caso utilizadas para es-tructurar la información referente a carreteras y proceder a su extracción en imágenes aéreas de aproxi-madamente 1 metro de resolución. En [AGOURIS 98] las reglas se aplican a la imagen aérea como un medio de combinar las propiedades radiométricas y geométricas de los objetos en un entorno general gobernado por un algoritmo supervisor fuzzy. Dichas reglas son empleadas tanto en la etapa de pre-proceso de la imagen como en la fase de extracción enfocada a las carreteras. Los resultados son pro-metedores de cara al futuro, siempre que se perfeccione el desarrollo del método. Otros estudios que hacen uso de reglas en una u otra forma para la extracción en el alto nivel, y que ya hemos comentado con anterioridad son [STRAUB 00 (a)], [HELLWICH 00] y [ZHANG 02 (a)]. El principal inconve-niente que revisten todos los métodos basados en reglas es su dificultad para ampliar el campo de co-nocimiento, dado que el conjunto de reglas crece enseguida con la consiguiente aparición de choques e inconsistencias entre las mismas. * Pocas son las referencias que hallamos de sistemas tablero, donde la información de alto nivel se estructura a modo de una gran tabla de consulta. Entre ellos figura [NAGAO 80] en el cual los re-gistros de datos describen regiones y objetos clasificados jerárquicamente, permitiendo así la extrac-ción de distintos elementos en base a una serie de atributos y propiedades geométricas. El método se aplica sobre imágenes aéreas en la obtención de carreteras en zonas suburbanas. Otro importante tra-bajo se presenta en [FÜGER 94]. En este caso el sistema se centra en la obtención de objetos de natu-raleza artificial, los cuales están modelados y simbólicamente representados en la base de datos (table-ro) mediante un conjunto de atributos particulares controlados a través de parámetros para su manejo. Tanto en una como en la otra referencia el sistema adolece de una excesiva centralización del conoci-miento, debiendo disponer de una gran volumen de información en el tablero para alcanzar resultados aceptables. * Los Sistemas Basados en el Conocimiento (SBC), caracterizados por la existencia de un pro-grama simbólico o motor de inferencia que intenta demostrar hechos mediante reglas, a partir de la in-formación estructurada en objetos, clases y marcos o frames [WINSTON 92], se caracterizan básica-mente por el potencial aprendizaje que llevan implícito. Entre ellos destacamos [HANSON 78] por ser uno de los primeros y que está orientado a la interpretación genérica de la imagen; y [WUFENG 98] donde la inferencia se aplica a la obtención de carreteras mediante enlace de los segmentos construi-dos en base al conjunto de puntos semilla. Estos procesos requieren del diseño de reglas para aplicar la inferencia en el razonamiento adelante o hacia atrás apoyado en la Base de Conocimiento (BC); y es aquí donde los sistemas que emplean esta técnica encuentran su talón de Aquiles, dada la dificultad que implica establecer un conjunto inicial de reglas lógicas que sea consistente y proporcione un razo-namiento progresivo y eficaz ante las múltiples vicisitudes inherentes a las imágenes. * Modernamente son los métodos apoyados en la estructuración y aplicación del conocimiento mediante redes semánticas los que más éxito parecen haber tenido. De hecho son muchos los autores, desde [NICOLIN 87] que han optado por aplicar esta técnica a la detección de objetos cartográficos en general y carreteras en particular. Así por ejemplo, en [MAYER 94] se desarrolla un sistema basado en redes semánticas para la extracción de objetos a partir de mapas digitalizados. En este método, que combina los marcos y clases con la red semántica para la representación del conocimiento, la informa-ción se modeliza según tres niveles en correspondencia con la respectiva etapa de procesamiento de la imagen: el primer nivel, donde se considera el mapa digital como un todo; el segundo nivel, donde fi-gura el grafo y las capas de geometría y texto; y el tercer nivel, donde se cuenta con la descripción se-mántica de los distintos objetos. Aunque el proceso está orientado a la extracción de información co-rrectamente definida en el mapa, Mayer opina que también podría ser aplicado en imágenes. En [GROWE 98] se aplica el conocimiento, representado asimismo por una red semántica, a la detección de puntos de control de cara al registro de imágenes, y para la extracción de carreteras y edi-ficios con la finalidad de actualizar bases de datos 3D. También [TÖNJES 98 y 99] emplean redes se-

Page 39: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 33

mánticas; en estos casos estructurando el conocimiento para hacer uso de él en la fusión de informa-ción propia de la imagen multisensor, eliminando incertidumbres e imprecisiones de cara a la extrac-ción de carreteras. Los resultados que obtienen son aceptables, si bien muestran una necesidad de aten-der a un mayor desarrollo del proceso.

Otra referencia donde encontramos la técnica que nos ocupa es [HINZ 99]. Este trabajo inicial, dedicado a extracción de carreteras en zonas rurales y urbanas, se desglosa posteriormente en dos: Por un lado [HINZ 00], donde se consideran por separado las zonas rurales, y por otra [HINZ 01 (a)], don-de se atiende únicamente a las áreas urbanas. No obstante, en todos ellos los autores proponen el uso de redes semánticas para establecer y disponer de los modelos de carreteras que se pretenden extraer. Como ejemplo de tales modelos, en el caso de zona urbana éstos se diseñan de forma que incluyan no sólo características propias del objeto aislado, como pueden ser las marcas de separación de ambos sentidos de circulación, sino que también llevan asociados propiedades globales de la red vial, así co-mo información de contexto referente a las relaciones topológicas con otros objetos cartográficos. Aunque también se utiliza en la extracción el modelo digital de superficie, los resultados adolecen de deficiencias que la red lógica no consigue resolver.

Más recientemente, en [HINZ 02 (b)] también se expone la modelización de carreteras para

zonas urbanas pero dividida en dos tipos: un primer tipo que utiliza en la extracción propiamente di-cha, y un segundo tipo de modelos que emplea para la evaluación automática de la calidad de los re-sultados obtenidos. Esta subdivisión es una prueba más de la enorme dificultad asociada intrínseca-mente con la aplicación del alto nivel de conocimiento en la automatización de los métodos de extrac-ción. Tal dificultad se pone de manifiesto asimismo al observar los resultados de otras referencias, ya comentadas, donde se utilizan redes semánticas en la modelización de objetos; véanse por ejemplo los estudios [BAUMGARTNER 97], [FÖRSTNER 97] y [BÜCKNER 02]. * Para finalizar nuestro recorrido por la metodología propia del alto nivel citaremos el trabajo de investigación [SHANAHAN 00]. Típico de los métodos de modelización fuzzy propiamente dichos, aquí se propone el enlace de los resultados del bajo nivel obtenidos mediante segmentación de la ima-gen, con un proceso de clasificación posterior de alto nivel realizado en base a pura lógica borrosa. Pa-ra ello, una vez efectuada la segmentación por alguna de las técnicas comunes [CHENG 01], se proce-de a la aplicación del denominado clasificador cartesiano fuzzy, desarrollado en el escrito. Este opera-dor actúa sobre la base de modelos fuzzy probabilísticos que han sido generados previamente utilizan-do algoritmos genéticos, y que los autores califican como transparentes y sucintos. A través de este proceso, el entendimiento proporcionado a la máquina permite reconocer las carreteras en la imagen resolviendo, según se indica, un ilustrativo problema en el dominio de la visión. Como tal método de alto nivel, incluye una fase de aprendizaje del sistema que es comparada con otras técnicas de la mis-ma finalidad como son los árboles de decisión, la teoría de Bayes y las redes neuronales. Dicha labor se efectúa evaluando una serie de criterios entre los que se considera la precisión, el entendimiento y la eficiencia del procedimiento. Y si bien las consecuencias y resultados parecen esperanzadores, el mé-todo requiere, al igual que tantos otros, de posteriores estudios que depuren sus deficiencias. 2.3.6. Estudios de investigación parcial en el flujo de la extracción. En este apartado se exponen algunas labores de investigación cuya metodología, o bien atien-de principalmente a algún proceso parcial del flujo de extracción de carreteras, o bien puede relacio-narse de alguna forma con éste. Comenzando por este segundo caso, se realiza una somera revisión de los métodos genéricos de segmentación haciendo hincapié en aquellos que utilizan la textura, dado que esta técnica será aplicada en nuestro sistema. Se continúa con los estudios principalmente orientados a vectorización, optimización y evaluación, y se finaliza con citas referentes a otras aplicaciones puntua-les que pueden tener interés de cara al método que se propone y describe a partir del capítulo tercero.

Page 40: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 34

2.3.6.1. Investigación en segmentación de imágenes.

Como se ha visto en 2.3.5.4, son varios los autores que proponen métodos de extracción de ca-rreteras basados en técnicas de segmentación y clasificación. En consecuencia no es ilusorio pensar que muchos de los procesos desarrollados en segmentación de imágenes, aunque su propósito concreto no sea el reconocimiento de las vías de comunicación, pueden servir de apoyo en la investigación del automatismo en la extracción. * Desde un punto de vista genérico, múltiples son los estudios que la literatura presenta en seg-mentación de imágenes [CHENG 01]. En este campo encontramos importantes y variadas referencias sobre las principales técnicas de segmentación supervisada y no supervisada, como son: - Umbralización del histograma. - Clustering en el espacio color. - Métodos basados en el análisis de regiones. - Procesos apoyados en la detección de bordes. - Técnicas fuzzy. - Tratamiento de variables físicas en la imagen. - Otros procedimientos.

Sin embargo, la revisión de tal cantidad de procesos, cuyos fundamentos pueden repasarse en los distintos textos [MARR 82], [HENRY 92], [WINSTON 92], [GONZALEZ 92], [HEIJDEN 95], [RICHARDS 99] o [DUDA 01], no es motivo de este escrito, por lo que nos limitaremos a citar algu-nos de los más recientes.

Uno de ellos es [COMANICIU 01], donde la segmentación se realiza de forma autónoma sal-vo que el operador desee seleccionar inicialmente sobre la imagen alguna clase en concreto. El método proporciona una clasificación basada en el análisis de bordes mediante un algoritmo probabilístico de bajo nivel que los autores denominan mean shift. Éste consiste básicamente en el estudio del gradiente de la función de densidad en cada pixel, obtenida a partir de los valores radiométricos de la imagen co-lor. De fácil implementación, los resultados del proceso parecen ser prometedores. Otra idea interesan-te se encuentra en [YU 02]. Aquí la segmentación se consigue en dos etapas, aplicando criterios de energía en la primera a través de snakes, y perfeccionando los resultados en una segunda fase median-te la técnica de combinación o mezcla de regiones. También en [MUKHERJEE 02] la segmentación consta de dos fases. En este caso la etapa inicial resulta simplemente como consecuencia de aplicar crecimiento de regiones según colores similares de los pixeles de la imagen. Obtenidas las clases co-rrespondientes, éstas se refinan en un segundo proceso donde se emplean Campos Aleatorios de Mar-kov (MRF) [CHELLAPPA 93]. Los resultados son evaluados en distintos sistemas del espacio color, discutiéndose las diferencias encontradas entre unos y otros. Una variación de la técnica probabilística MRF, también aplicada a segmentación, puede estudiarse en [KIM 02]. La combinación de regiones reaparece en [CHENG 02]. En esta referencia se presenta una in-vestigación basada en dicha técnica asociada al análisis de homogeneidad de los valores radiométricos. Para ello se considera la concurrencia de los niveles de gris entre pixeles vecinos, evaluando la homo-geneidad entre los mismos mediante estudio de la entropía (fuzzy). El proceso de mezcla de regiones, apoyado en la similitud del color, se aplica seguidamente con el propósito de evitar la superposición de clases en la segmentación. Según se indica, los resultados que se obtienen umbralizando la definida homogeneidad, son de mayor eficiencia que los proporcionados por los métodos basados en la imposi-ción de valores umbrales directamente sobre el histograma. Por otra parte, en [CHEN_T.Q. 02] se describe un método de segmentación de imágenes color que aplica la técnica del clustering a través de un algoritmo fuzzy que iterativamente genera las distin-tas clases. Este algoritmo representa la singularidad de cada clase mediante una función miembro que expresa la variación del color a lo largo de la clase, así como también la mutua interferencia con las clases vecinas. Otra función fuzzy, en este caso objetiva, se encarga de la optimización del resultado

Page 41: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 35

de esta primera fase de la clasificación. En una segunda etapa, un algoritmo basado en mezcla de re-giones procede a la segmentación final de la imagen utilizando para ello tres métodos diferentes. Al parecer el proceso global puede calificarse como efectivo y eficiente tras ser aplicado en imágenes re-lativamente simples, aunque los autores también aconsejan su empleo sobre imágenes satélite.

Otros procesos recientes donde también se considera la segmentación no supervisada a través

del clustering los hallamos en [HERMES 02] y [YANG 02]. El primero utiliza una técnica de segmen-tación enmarcada en la decisión por máxima verosimilitud, seguida de un establecimiento final de las clases, entendido éste como un problema de optimización que resuelve mediante técnicas determinísti-cas [KIRKPATRICK 82]. En el segundo trabajo se aplica Análisis de Componentes Principales como paso previo al clustering, mediante el cual se segmenta la banda principal y las residuales por K-means [GONZALEZ 92]. Ambas referencias indican resultados de calidad aceptable, aunque el primero los obtiene sobre imágenes incluidas en la base de datos de Corel, y el segundo habla de simulaciones. * En lo relativo a la intervención del análisis de texturas en los métodos de segmentación, de-bemos retroceder hasta [CROSS 83] para no pasar por alto una importante cita de cara al proceso de extracción que presentamos en el capítulo siguiente. El referido trabajo aplica los Campos Aleatorios de Markov a la síntesis artificial de texturas con distintas características en cuanto a su grosor. Para ello utiliza el concepto de matriz de concurrencia, así como distintos órdenes de Estadística en la ge-neración de los valores de los elementos de aquéllas, según el aspecto fino o grueso que se quiera para la textura final. Como se verá más adelante, ambos conceptos son empleados en nuestro sistema. Una continuación del anterior es [GAGALOWICZ 87]. Aquí también se describe una técnica basada en modelos estadísticos para la construcción de texturas, si bien ahora las texturas han de tener una morfología realista al objeto de ser utilizadas en distintas aplicaciones de la vida ordinaria tales como el Diseño en Confección. Mediante procesos característicos de los distintos órdenes de Estadísti-ca, el estudio presenta la forma de obtener sintéticamente una serie de modelos que van desde las tex-turas microscópicas (las más finas) en áreas planas, hasta las macroscópicas (muy gruesas) sobre su-perficies en el espacio. Asimismo el trabajo, cuyos resultados son de gran calidad, atiende a la genera-lización del método de construcción, indicándose también cómo es posible su extensión a la genera-ción de texturas en color a partir del estudio realizado únicamente con los niveles de gris. Con la finalidad de segmentar imágenes reales, en [CAMPBELL 96] se presenta un algoritmo que aplica el análisis de texturas combinado con la similitud del color bajo el gobierno de una red neu-ronal. Dicha red es entrenada mediante una serie de imágenes en color, al objeto de capacitarla para simplificar imágenes de amplias zonas de terreno con la finalidad de conseguir una clasificación eficaz donde el número de clases no sea demasiado elevado. También [DUBUISSON 96] propone un método de segmentación basado en la combinación del color con las propiedades de la textura. En este caso el algoritmo usa la técnica de máxima verosimilitud conjugada con criterios de fusión de información. Probado con imágenes horizontales y aéreas, el método forma parte de un sistema más complejo para asesoramiento de los operadores en la actualización de cartografía a partir de fotografía aérea.

En [ZHU 96] encontramos un original método de segmentación donde se desarrolla un algorit-mo, denominado competición de regiones, que combina aspectos propios de las técnicas de crecimien-to de regiones y snakes con la teoría de Probabilidad de Bayes y el concepto de incertidumbre. El tra-bajo presenta un exhaustivo estudio del proceso que incluye el análisis de la precisión en los límites de las regiones, consideraciones sobre el establecimiento de las condiciones iniciales, así como las rela-ciones aplicadas a la detección de bordes mediante el uso de filtros. Diseñado para la segmentación de la imagen multibanda, el algoritmo, de notables resultados, es capaz de clasificar eficazmente la ima-gen atendiendo al criterio del nivel de gris, del valor del color, o de la textura. Por su parte [CLARK 99] utiliza el conocido análisis de Fourier [BRACEWELL 86] en el re-conocimiento de texturas, si bien propone la aplicación de un algoritmo previo para eliminar aquellos elementos introducidos por componentes superficiales que pueden llegar a contaminar el espectro de frecuencias y corromper así el resultado del análisis. Ello es factible de suceder en aquellas regiones

Page 42: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 36

de la imagen donde una misma textura no alcanza a rellenar por completo la superficie en estudio. La principal característica del método es, por tanto, la consideración de zonas de contorno irregular adap-tadas conforme a la textura. Otro procedimiento para segmentación de texturas en imágenes color se describe en la referen-cia [MIRMEHDI 00] donde se utiliza representación multiescala. Comenzando por la aplicación de un algoritmo de clustering que rinde una segmentación inicial grosera, se obtienen los pixeles correspon-dientes a los centros de las distintas clases, los cuales son utilizados en la formación de histogramas a partir de los cuales reagrupar los pixeles restantes mediante técnicas probabilísticas. A continuación se modifica la resolución de trabajo hacia los niveles más finos, iterándose el proceso hasta conseguir una segmentación de calidad como resultado final según demuestran los experimentos presentados. Muy reciente es la cita [CHEN_J. 02] sobre segmentación basada en el análisis del color y la textura en imágenes de alta resolución; y también [MONADJEMI 02], en la que se presentan varios métodos de extracción y clasificación de texturas en dicho tipo de imágenes. Este segundo trabajo, donde se utilizan múltiples clasificadores para combinar las propiedades cromáticas con el estudio de texturas, ofrece como ventaja principal respecto de otros métodos de segmentación, la reducción del coste computacional manteniendo la precisión en los resultados. Sobre este tema, relativo a la evalua-ción de los algoritmos de segmentación y al análisis de la relación capacidad / coste, encontramos es-tudios interesantes en [EVERINGHAM 02 (a) y (b)]. También se considera la evaluación de distintos resultados de segmentación, en este caso según los modelos utilizados, en [KANATANI 02]. Final-mente otras referencias recientes son [MATHIASSEN 02], donde se desarrolla una técnica para la me-dición exacta de la similitud entre texturas, y [SOUNDARARAJAN 02], que propone realizar el análi-sis de texturas a través de la técnica relativa al espacio fractal; ambas ideas pudieran ser muy útiles en el futuro para mejorar muchos de los métodos de segmentación existentes. 2.3.6.2. Métodos de vectorización.

Una de las labores donde el flujo automático en la extracción de carreteras encuentra una ma-yor dificultad de realización al nivel medio de conocimiento, es el proceso de conversión a vector de una imagen ráster que inicialmente supondremos binaria. La representación vectorial implica definir los objetos de la imagen, ya sean éstos puntuales, lineales, o superficiales, como unidades individuales caracterizadas por una geometría bien determinada y una relaciones topológicas con los objetos de su entorno. En el marco de las entidades lineales, como son las carreteras, uno de los procedimientos más comunes y efectivos para iniciar la vectorización consiste en la obtención del esqueleto de la red viaria residente en la imagen ráster; esto es, la búsqueda de aquél conjunto de pixeles de espesor unitario que recorre el eje central de las vías a modo de columna vertebral. Uno de los procesos desarrollados con este objetivo lo encontramos en [TANAKA 93]. El método se fundamenta en el principio de minimiza-ción de la energía y consta de tres etapas: adelgazamiento o thinning, aproximación por segmentos y transformación geométrica. El esqueleto, obtenido tras la segunda fase, resulta afectado de diversos errores y distorsiones, los cuales son depurados en la transformación geométrica mediante el estudio de los valores energéticos asignados a los pixeles conforme a un algoritmo propio. Los resultados de-muestran que el método reduce las distorsiones geométricas del esqueleto en un grado aceptable. Otro método importante enfocado a la consecución del esqueleto, en el cual se apoya una de las etapas del sistema que presentamos en el capítulo quinto, es el propuesto en [SANNITI 94]. En es-te caso el eje central de la red viaria se deduce mediante un proceso geométrico donde se determinan aquellos pixeles de la red cuya distancia de Chamfer [BORGEFORS 88] a los dos bordes limítrofes es máxima en cada región de la imagen. El resultado inicial se depura tras una fase de adelgazamiento y otra de podado (prunning), obteniéndose una salida de calidad en la gran mayoría de los casos. También la búsqueda del esqueleto es el objetivo del método propuesto en [ZHU 95]. Aplica-do aquí sobre imágenes escaneadas, el proceso se basa en un estudio previo donde se emparejan distin-tas zonas del borde, resultando el esqueleto tras una fase de horquilla apoyada en las parejas obtenidas. El método incluye también una etapa de adelgazamiento que proporciona una buena salida final.

Page 43: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 37

En [MIRAVET 98] se presenta un sistema semiautomático de vectorización de redes de obje-tos lineales procedentes de mapas digitales en color. En este sistema la intervención del operador se reduce a la selección gráfica de los atributos de color de los objetos a obtener. Con esta información, se realiza una extracción preliminar de la red lineal elegida que se completa, refina y vectoriza auto-máticamente, aplicando en esta última etapa el método de obtención del esqueleto descrito en [SAN-NITI 94]. Los resultados que rinde el proceso, sobre mapas de distinta procedencia y escala, son de gran exactitud y calidad. Otro trabajo orientado a la vectorización de mapas digitales, pero donde se pretende la extracción de todos sus elementos, lo encontramos en [YIN 01]. Por otra parte, en [McGLONE 98] aparece una detallada comparación entre los métodos de ajuste polinómico y los basados en interpolación cuando se trata de definir los diferentes objetos ex-traídos de la imagen ráster, ya sea mediante la obtención previa del esqueleto o por cualquier otro pro-cedimiento. Como podemos intuir, la definición geométrica de los objetos necesaria para la vectoriza-ción puede realizarse de múltiples formas. Una de ellas consiste en la determinación de los coeficien-tes de un polinomio de ajuste, la cual utilizaremos en nuestro sistema. Otras técnicas son el empleo de splines [DE BOOR 78] o el uso de snakes [KASS 87], muy relacionadas con los polinomios. Y tam-bién aplicables al ajuste son las cadenas de segmentos según una sucesión de puntos dados por sus coordenadas 2 ó 3D, más conocidas como linestrig [MENA 92], así como otros muchos métodos apo-yados en procesos de interpolación. Pues bien, en la referencia que comentamos en este párrafo se eva-lúa la eficacia de diferentes procedimientos, concluyendo en que el empleo del ajuste polinómico está más indicado cuando se trata de objetos lineales, debiendo aplicarse los métodos de interpolación pa-ra el ajuste y definición de aquellos elementos cuya naturaleza geométrica es más compleja. Esta con-secuencia será la base para la elección del ajuste polinómico dentro del módulo de vectorización con que cuenta nuestro sistema, y que se describe en detalle en el capítulo 5. En [DOUCETTE 01] se propone un original procedimiento válido para la extracción y defini-ción geométrica de redes lineales 2D en imágenes ráster, basado en el clustering a través de la técnica K-means. El proceso, inspirado en el aprendizaje autoorganizado de Kohonen [FREEMAN 91] para una red neuronal, consiste en la inserción inicial de un número K de nodos, bien de forma aleatoria o bien dispuestos en retícula sobre la imagen, que el clustering situará, tras su finalización, sucesivamen-te dentro de la región a vectorizar. Ello se consigue considerando candidatos a formar parte de las cla-ses únicamente aquellos pixeles pertenecientes a la citada región, despreciándose los restantes. Estabi-lizado el proceso reiterativo, bastará con unir mediante segmentos los diferentes nodos para conseguir una aproximación vectorial de los objetos lineales según el modelo linestring. Dicha definición será más o menos precisa en función del número K inicial de nodos, sin que ello implique la proporción di-recta entre ambas variables. El método, básicamente descrito, incluye una ligera variación destinada a prevenir los errores causados por la existencia de ruido en la imagen, lo que proporciona unos resulta-dos prometedores en el tema de vectorización. Intimamente ligado con la referencia anterior, [MENA 02 (a)] presenta una mejora del proceso en cuanto a su eficacia en imágenes con poco ruido, y a la incertidumbre que supone la determinación del número K inicial de nodos. Aplicado como fase complementaria en nuestro sistema, que cuenta con una etapa de limpieza de la imagen ráster binaria, en el método mejorado se considera un novedo-so concepto definido como degeneración de la triangulación de Delaunay. Este consiste en establecer tras la fase del clustering la mencionada triangulación en la región a vectorizar. Sustituyendo a conti-nuación por sus baricentros cuantos triángulos resulten, y manteniendo fijas aquellas zonas de la red donde no aparecen triángulos, se reitera el proceso de clasificación no supervisada hasta que la trian-gulación de Delaunay [DE BERG 98] carezca por completo de triángulos. En este momento se dispo-ne del esqueleto de la red, habiéndose modificado automáticamente el número de nodos, y permitiendo así una cierta independencia del valor inicial K. Además el proceso proporciona, mediante el empleo de un grafo, la posibilidad de obtener también un conjunto grosero de segmentos adaptado a la morfo-logía de la red, lo que constituye un indicador de las vías y objetos principales que componen ésta, uti-lizable en la fase de alto nivel en los procesos de extracción de carreteras.

Page 44: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 38

Otros métodos relacionados con el tema de vectorización se encuentran en: [TANG 02], donde se extrae el esqueleto mediante análisis de tensiones considerando la imagen ráster como si de un cuer-po elástico se tratase; [AMINI 02], que aplica la transformación de Wavelet [CHUI 97] sobre una ima-gen binaria para reducir la resolución y conseguir el esqueleto; [HUGGINS 02], que utiliza el Análisis de Componentes Principales en la detección y representación de bordes; y finalmente [TAM 02], don-de se presenta una técnica de podado del eje central o esqueleto que a la vez elimina las distorsiones que pudiesen existir en el mismo. 2.3.6.3. Métodos de optimización y extracción optimizada.

La optimización en los algoritmos de extracción es una característica que, en mayor o menor grado, se considera en la mayoría de los casos. No obstante, algunos trabajos de investigación hacen mucho hincapié en este aspecto mediante la utilización de técnicas que, o bien son factibles de ser em-pleadas en optimización entre otras aplicaciones, o bien están diseñadas fundamentalmente para esta tarea. Entre ambos tipos de técnicas son de destacar las redes neuronales [FREEMAN 91], los algorit-mos genéticos [GOLDBERG 89], u otras tales como el templado simulado [KIRKPATRICK 82]. * Respecto a las redes neuronales son varias las referencias donde a lo largo de este escrito se ha comentado su aplicación. Así por ejemplo, hemos considerado [CAMPBELL 96] enfocado en la segmentación de imágenes; [DOUCETTE 99] como un método muy orientado a la actualización del SIG en lo referente a extracción de objetos lineales; y [PETERSEN 02] por presentar un recorrido acerca de las muchas referencias existentes en Visión Artificial y Reconocimiento de Patrones que uti-lizan redes neuronales. También en [BARSI 02] se encuentra esta técnica que compara con los proce-dimientos tradicionales, si bien aplicada a la extracción de cruces de objetos lineales. * En el tema de los algoritmos genéticos, [MIRMEHDI 97] presenta un método robusto de opti-mización dirigido a la extracción a bajo nivel de objetos de naturaleza lineal. En [SHANAHAN 00] hemos visto cómo los citados algoritmos son utilizados para la creación de modelos probabilísticos en el alto nivel de la extracción. Y finalmente también aparecen en [JEON 02], donde se propone su apli-cación a la detección de carreteras en imágenes radar. En esta referencia los algoritmos genéticos se emplean en el diseño de un procedimiento reiterativo cuya finalidad es optimizar la fase de grouping de los segmentos curvilíneos extraídos previamente. 2.3.6.4. Métodos de evaluación.

Conseguir una objetiva evaluación de los distintos procedimientos dedicados a la extracción de carreteras, es el propósito básico de los métodos propuestos en las citas que se comentan aquí. Di-cha evaluación frecuentemente se efectúa comparando los resultados del proceso automático con una extracción manual de las vías, y expresando las diferencias halladas mediante una serie de variables, a menudo numéricas, cuyos valores suelen estar comprendidos en el intervalo [0,1]. Este criterio es el presentado en [HEIPKE 98] y [WIEDEMANN 98], donde el equipo del Dr. Helmut Mayer propone dar respuesta a dos cuestiones: el grado de integridad de la red extraída y el porcentaje de acierto en dicha extracción. Para ello los autores exponen un exhaustivo estudio subdividido en dos etapas: La primera consiste en el casado entre el resultado automático y el manual; y en la segunda se calculan los valores de las variables que califican el proceso de extracción evaluado y que en este caso son las siguientes: integridad, exactitud, calidad, redundancia, error medio en ajuste y fragmentación. Por otra parte, en [HARVEY 99] encontramos un método de evaluación aplicado a las técnicas de seguimiento de ruta, donde se considera por separado la selección automática y manual del conjunto de puntos se-milla. Los resultados se ofrecen a través de una tabla de datos en la cual se ponderan como variables los factores de ramificación y calidad, el rango de distancias, los porcentajes de integridad y exactitud, y el porcentaje de pixeles redundantes; una salida por tanto de naturaleza muy similar a la anterior. Como consecuencia del citado estudio, el trabajo presenta a la vez un método para la detección auto-mática de puntos semilla.

Page 45: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 39

También en [WIEDEMANN 00] se incluye evaluación cuando califica el procedimiento de re-construcción de redes que asimismo propone y que ya comentamos. Básicamente el método que utiliza para ello es el presentado bajo el mismo nombre en el año 1998, si bien ahora se consideran dos nue-vas variables dirigidas a examinar la topología y conectividad de los resultados.

Otro estudio de interés con algún punto común respecto del anterior es [HINZ 02 (a)]. Aquí se

presenta una herramienta para la autoevaluación de los distintos procesos de extracción basada en el marco de representación del conocimiento constituido por la teoría fuzzy. Dicha herramienta, que des-de luego es incapaz de alcanzar el automatismo en la evaluación, está diseñada para asesorar al opera-dor humano en las tareas de edición gráfica propias de la necesaria corrección de resultados asociada con todos los procedimientos de extracción automática. La ayuda prestada, aún con deficiencias, redu-ce el tiempo de revisión manual, proporcionando al operador apoyo en tres aspectos importantes de la evaluación: la representación de los resultados del análisis, los criterios a utilizar y la metodología en la aplicación de tales criterios. En [WIEDEMANN 02] se propone un método de evaluación basado en la extracción de los cruces de carreteras, mediante la comparación de aquellos detectados automáticamente y los obtenidos de forma manual que utiliza como referencia. Los resultados se ofrecen haciendo uso de las variables características de los trabajos del mismo nombre. Otro estudio donde también encontramos detección de cruces es [BARSI 02]. En esta referencia se evalúa el método de extracción presentado bajo el go-bierno de una red neuronal frente a otros procesos más clásicos. Finalmente, en [SHUFELT 99 (a)] podemos estudiar un proceso muy dedicado a evaluación que, si bien está aplicado a los métodos de extracción de edificios, propone aspectos generales de interés en la detección y delineación de objetos, así como en el análisis comparativo de distintos procedimientos de evaluación. 2.3.6.5. Otros métodos y estudios. En este apartado se consideran algunas labores de investigación que están orientadas al estudio de otros aspectos importantes en el tema de la extracción. * Puesto que según hemos visto son muchas las referencias que se apoyan de alguna manera en las bases de datos del SIG, de gran importancia resultan todos aquellos trabajos donde se analice la precisión de los datos almacenados en el sistema. De hecho en nuestro método, así como en algunos otros, las entidades de referencia que se eligen para la actualización automática de la capa vectorial del SIG, y que actúan como área de entrenamiento en el proceso de segmentación, son aquellas que ya es-tán almacenadas en base de datos. Además, la ejecución de esta fase se realiza mediante superposición de tales entidades sobre la imagen rectificada y referenciada, previo acuerdo de la escala. En conse-cuencia, una errónea disposición parcial de la información residente en el SIG puede dar al traste con muchos de los métodos de extracción. Entre los estudios dedicados a la citada finalidad figura [RELLIER 02]. Aquí se propone un método para análisis local del registro de redes de carreteras extraídas de imágenes SPOT. Fundamen-tado en los Campos Aleatorios de Markov y la teoría de grafos, el proceso pretende la corrección de las distorsiones introducidas por diversas causas en las etapas de extracción manual o automática, in-crementando con ello la precisión de los datos vectoriales. Tomando decisiones en el marco probabi-lístico de la teoría de Bayes, según el máximo a posteriori, el cálculo de probabilidades se realiza con-siderando medidas geométricas, distancias euclídeas y ángulos. Todo ello gobernado por un algoritmo basado en Simulated Annealing [KIRKPATRICK 82], que se encarga de optimizar el proceso. Otra propuesta de objetivo similar es [WILLRICH 02]. En él se realiza un control de calidad de los datos mediante comparación de las carreteras extraídas a partir de ortofotos con las correspon-dientes que residen en el SIG, evaluándose las diferencias encontradas. El método comprende dos eta-pas: la verificación de los datos almacenados y la adquisición de cambios, a través de las cuales se de-

Page 46: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 2: Estudio bibliográfico. J. B. Mena

Pág. 40

sarrolla la extracción guiada por la base de datos según un proceso de medio y alto nivel basado en el conocimiento. En lo relativo a la evaluación, cuyos resultados constituyen el control de calidad propia-mente dicho, ésta se efectúa clasificando los objetos lineales en tres tipos: aceptados, rechazados e in-ciertos, lo que se conoce en inglés como clasificación traffic light y sirve de base para la actualización de la capa vectorial del SIG. * Por otra parte, y como final de este capítulo, en [ELBERINK 02] se presenta un método para la rectificación de líneas en imágenes distorsionadas por los efectos de la proyección asociada a la to-ma. Este asunto no sería de interés, ya que la rectificación de imágenes está resuelta al día de hoy, si no fuera porque la reconstrucción de la imagen se realiza en 3D a partir de un nuevo tipo de sensor que no hemos nombrado hasta ahora y que se denomina en inglés three line scanner data. Dicho sensor, que va montado sobre avión, captura y define la imagen mediante el relleno con valores radiométricos de arrays orientados perpendicularmente a la dirección de vuelo. Con estos valores, y atendiendo a criterios puramente geométricos, el proceso de rectificación determina una serie de parámetros por al-goritmos de mínimos cuadrados [MENA 97 (a)] que permiten la eliminación de los errores de proyec-ción y la reconstrucción tridimensional de los objetos.

Page 47: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 3: El sistema de extracción (i): Descripción general. J. B. Mena

Pág. 41

3 El sistema de extracción (i):

Descripción general. RESUMEN.

En este capítulo se expone la descripción general de un método que incluye nuevas aportaciones dirigi-das a la extracción y vectorización automáticas de entidades cartográficas lineales en el marco general de los Sistemas de Información Geográfica (SIG) y la Cartografía Digital. El procedimiento, centrado en la obtención de vías de comunicación, pretende conseguir la actualización de la capa vectorial del SIG mediante apoyo inicial en el mismo y la posterior incorporación a la Base de Datos Cartográfica (BDC) de aquellas nuevas entidades detectadas y definidas automáticamente. Siendo las tres bandas color de la imagen el único dato externo de entrada, el proceso consigue obtener resultados razonables en una gran parte de los casos cuando se aplica sobre imágenes satélite o aéreas de alta resolución, en concreto del tipo IKONOS o similares, correspondientes a zonas de terreno en el ámbito rural o semiurbano.

El método se estructura en cuatro módulos diferenciados y sucesivos que son: Preproceso de la imagen, segmentación a bajo nivel apoyada en la información residente en el SIG, fase de topología y vectorización en el medio nivel con posibilidad de apoyo en el SIG, y finalmente evaluación de los resultados y propuesta de estudio en el alto nivel sobre la formación y almacenamiento de las entidades cartográficas extraídas. El primero de los módulos se describe en este capítulo junto al resumen de la totalidad del proceso, y los tres restantes se analizan con todo detalle en los respectivos capítulos posteriores bajo el esquema siguiente: - Módulo (i). DESCRIPCIÓN GENERAL DEL PROCEDIMIENTO.

- Módulo (ii). EXTRACCIÓN AUTOMÁTICA DE OBJETOS EN UNA IMAGEN COLOR MEDIANTE ANÁLISIS PROGRESIVO DE LA TEXTURA EN EL MARCO DE LA TEORÍA DE LA EVIDENCIA.

- Módulo (iii). TOPOLOGÍA Y VECTORIZACIÓN AUTOMÁTICA DE ENTIDADES LINEALES ME-DIANTE LA EXTRACCIÓN DEL ESQUELETO Y LA TEORÍA DE GRAFOS.

- Módulo (iv). EVALUACIÓN CONJUNTA DE RESULTADOS Y PROPUESTAS SOBRE LA FORMA-CIÓN DE LAS ENTIDADES CARTOGRÁFICAS EN EL ALTO NIVEL.

3.1. Motivo y fundamentos. El flujo de trabajo que conduce a resolver el problema de actualización de las bases de datos del SIG, detallado al principio del capítulo 1, dio lugar a la definición de los objetivos generales y es-pecíficos que nos impusimos, junto a las hipótesis previas en el apartado 1.1, para el diseño de un mé-todo eficaz de extracción de carreteras. Asimismo, en el apartado 1.2 se matizaron los distintos blo-ques que constituyen el proceso general (cuadro 1.2), para seguidamente concretar aquellas tareas en cuya automatización con la tecnología actual existen posibilidades de conseguir resultados razonables que al menos disminuyan el trabajo manual de los operadores (cuadro 1.3).

Posteriormente, en el estudio bibliográfico (apartado 2.2), expusimos el esquema presentado en [OHLHOF 00] para la actualización general de los datos vectoriales del SIG (cuadro 2.1), el cual es utilizado al día de hoy por muchos Organismos, principalmente militares, con la misión de levantar,

Page 48: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 3: El sistema de extracción (i): Descripción general. J. B. Mena

Pág. 42

actualizar y mantener cartografía de precisión y productos derivados, de grandes zonas de terreno a es-calas relativamente grandes. También en el mencionado apartado comentamos las seis fases propues-tas en [MARKOV 00] para actualización del SIG, muy orientadas a la extracción de objetos cartográ-ficos por el grado de detalle implícito en ellas, y que no mantienen contradicciones, sino más bien si-militudes, con el proceso descrito en la referencia anterior. Lo dicho en estos dos párrafos, junto a la propuesta de extracción de carreteras presentada en [AMINI 02] con una fase de segmentación binaria y otra relacionada con la vectorización, constituye el motivo y fundamento por los que se conviene en considerar los siguientes módulos sucesivos, y no otros, para dar una respuesta parcial al problema de la extracción de vías de comunicación:

* Adquisición de la información inicial y tratamiento previo de la imagen. * Detección de la red de vías de comunicación como elemento seleccionado. * Definición geométrica y topológica de los distintos elementos gráficos existentes en la red. * Evaluación, formación y almacenamiento en el SIG de las entidades cartográficas.

A continuación se comenta brevemente la forma de trabajo propuesta en cada uno de los mó-dulos mencionados. Asimismo la situación relativa de cada paso en cada módulo y de éstos en el con-junto del procedimiento se representa esquemáticamente en el apartado 3.2.5. 3.2. Sistema de extracción de entidades cartográficas. 3.2.1. Información inicial. Preproceso de la imagen. Como se acordó en el capítulo primero, la única fuente de trabajo de la que se parte está constituida por las tres bandas RGB de una única imagen satélite de alta resolución. Aunque supone-mos que se trata de una imagen IKONOS [DIAL 01], no necesariamente ha de serlo siempre y cuando revista características similares en cuanto a resolución y rasgos principales se refiere. * Ortoimagen. Como hipótesis inicial se considera que la imagen se encuentra rectificada y georrefe-renciada [SCHENK 02 (b)] de acuerdo con el sistema geodésico existente en el SIG. Si no fuese así, antes de proceder a tratamiento alguno deberá aplicarse la corrección necesaria al objeto de conseguir una ortoimagen congruente con las coordenadas de las entidades cartográficas ya almacenadas en la base de datos. No obstante, de las dos exigencias citadas es la rectificación la más importante, ya que sin ella el proceso que sigue introducirá errores acumulativos a medida que se amplíe la región de apli-cación. Por su parte, la referenciación de coordenadas no engendra problema alguno. De hecho, todo el procedimiento se desarrolla en coordenadas imagen, puesto que, a partir de un cierto número de puntos de apoyo, bastará realizar la transformación de las mismas mediante el método de Helmert [MENA 97 (b)] u otro similar, para conseguir integrar los elementos gráficos en el SIG. * Entidades cartográficas de referencia. Dado el carácter de actualización de datos que reviste el pre-sente método de extracción, otro aspecto inicial que se da por supuesto es la existencia en la capa vec-torial del SIG de algunas entidades cartográficas correspondientes a la zona representada en la imagen. Entre dichas entidades ha de contarse al menos con una vía de comunicación al objeto de servir como área de entrenamiento [GONZALEZ 92] para el proceso supervisado de segmentación. Además esta información ha de estar almacenada con una precisión análoga a la determinada por la resolución de la imagen, con la finalidad de conseguir una superposición correcta entre las distintas entidades cartográ-ficas disponibles y los correspondientes elementos del terreno que aparecen en la imagen rectificada. Aunque es posible prescindir de la información inicial referente a vías de comunicación que reside en el SIG, seleccionando automáticamente el área de entrenamiento mediante clasificación no supervisada y validación de resultados [RUSKONÉ 97], aquí se prefiere considerar la citada informa-ción puesto que su solape sobre la imagen es un proceso teóricamente automático si las entidades al-

Page 49: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 3: El sistema de extracción (i): Descripción general. J. B. Mena

Pág. 43

macenadas en el SIG lo están con un mínimo de precisión [RELLIER 02 y WILLRICH 02]. Además, la conversión de una escala a otra, si éstas no coincidiesen, es una operación que no reviste dificultad dado que la imagen está georreferenciada y la precisión de almacenaje en el SIG es conocida. Con ta-les supuestos, siempre posibles de lograr, los datos vectoriales de referencia se consiguen sin necesi-dad de su extracción automática en la propia imagen. Ello implica prescindir del necesario proceso de validación posterior, obteniendo a la vez una mayor exactitud en la definición del área de entrena-miento, lo que es fundamental para el automatismo de nuestro sistema. * Filtro de mediana. Satisfechos los requerimientos iniciales, el módulo de pretratamiento finaliza so-metiendo a la imagen rectificada al paso de un filtro de mediana con objeto de eliminar ruido. Dicho filtro se aplica de radio unidad según la ventana 3x3 de cada pixel, bien operando en la forma clásica [HEIJDEN 95], o lo que es mejor, utilizando el filtro de textura descrito en [BHATTACHARYA 01]. 3.2.2. Detección de la red de vías de comunicación en el bajo nivel: Segmentación. Tras el módulo de preproceso, el primer bloque relevante del trabajo consiste en la segmenta-ción de la imagen para obtener, claramente diferenciado del resto, el elemento cartográfico objeto de actualización. Se trata pues de conseguir una clasificación binaria donde figure por un lado la red de vías de comunicación, y por otro los restantes elementos presentes en la imagen. Esta clasificación, que se realiza a nivel pixel, se ha diseñado mediante el gobierno de la Teoría de la Evidencia [KOH-LAS 95 (a) y BAUER 97] en todas sus fases y puede resumirse brevemente en la forma siguiente: * Obtención de las capas de clasificación. Considerando las bandas RGB en un primer estudio y la descomposición HSV [HEIJDEN 95] en las dos fases siguientes, el procedimiento rinde tres resultados parciales e independientes de clasificación que se corresponden respectivamente con el tratamiento de la imagen bajo los órdenes de estadística 1, 1.5 y 2 [CROSS 83]. En cada uno de estos procesos se uti-liza la textura [GAGALOWICZ 87] como factor de comparación con el área de entrenamiento; área que ha sido definida por superposición de las entidades cartográficas de referencia y que, por tanto, es la misma para las tres fases. La primera capa clasificatoria es de carácter unidimensional o lineal. En ella asociamos cada pixel con el vector cuyas componentes son los valores radiométricos en las bandas color de la imagen, utilizándose únicamente esta información para comparar con la correspondiente a la distribución de entrenamiento mediante la distancia de Mahalanobis [FUKUNAGA 90]. La segunda capa tiene un ca-rácter bidimensional o superficial, ya que cada pixel de la imagen queda definido por la distribución de vectores formada al abrir una ventana en su entorno. Dicha distribución se compara con la análoga construida para el conjunto de entrenamiento mediante la distancia de Bhattacharyya [FUKUNAGA 90] al objeto de medir la mayor o menor proximidad entre las distintas distribuciones de valores espa-ciales. Para obtener la tercera capa, que reviste un carácter tridimensional o de volumen, se considera el denominado cubo de textura. Este concepto, que introducimos en el presente trabajo, permite estu-diar las relaciones entre pares de pixeles en las distintas secciones de un cubo, al objeto de comparar-las con las correspondientes al área de entrenamiento conforme a la distancia de Bhattacharyya, La operatoria definida se resume en un Análisis Progresivo de la Textura (APT) que propor-ciona resultados no redundantes, puesto que el nivel de estudio va incrementándose de forma sucesiva. Además, la expresión de dichos resultados mediante tríadas de evidencia [KOHLAS 95 (a)], permite conservar hasta el último momento de la segmentación toda la información obtenida, postergando así la necesidad de fijar un valor umbral que establezca la clasificación buscada. * Fusión de los resultados. Imagen de plausibilidad. La información resultante de las tres capas de clasificación se pondera mediante el producto ortogonal de masas de evidencia [KOHLAS 95 (c)]. Cada pixel queda entonces definido por una única terna de valores cuya suma es la unidad, que expre-san respectivamente las masas de evidencia [KOHLAS 95 (a)] de pertenencia, no pertenencia e incer-

Page 50: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 3: El sistema de extracción (i): Descripción general. J. B. Mena

Pág. 44

tidumbre que caracterizan al pixel con respecto al elemento cartográfico que se pretende detectar; las carreteras en nuestro caso. Aplicando ahora un valor umbral, que se obtiene de forma automática con-siderando la desviación típica de la distribución de valores de masas de evidencia, resulta la imagen binaria de plausibilidad [KOHLAS 95 (a)] donde figuran los pixeles reconocidos por el procedimiento como integrantes de las vías de comunicación. * Líneas de estudio en el bajo nivel. El número de capas independientes que intervienen en la clasifi-cación puede incrementarse con cuantas se estime oportuno, siempre que no se produzca redundancia en el tratamiento de la información. Para ello se ha pensado en utilizar la banda monocromática de la imagen, si se dispone de ella, o bien construir una banda blanco y negro a partir del RGB mediante la descomposición de Karhunen – Loève (KL) [KIRBY 01]. Sobre la imagen así obtenida se estima que un adecuado estudio basado en la Descomposición en Valores Singulares (SVD) [GOLUB 96] puede llegar a producir resultados interesantes.

Cada una de las hipotéticas capas adicionales que se generen de un modo u otro intervendría como un factor más en la fusión de resultados [HALL 92], mejorando así la imagen de plausibilidad. No obstante, y dado el carácter binario de nuestra clasificación para las vías de comunicación, como se propone en [MARKOV 00] y [AMINI 02], también se estima conveniente incluir en el proceso algún método orientado a la detección de bordes que, aplicado sobre la imagen inicial, proporcione una nue-va fuente de información para combinar con la imagen de plausibilidad. Como tal método se ha pensa-do en el análisis entrópico de bordes conforme al estudio de la divergencia de Jensen – Shannon [RO-MAN 97], debiendo investigarse la mejor forma de relacionar automáticamente estos resultados con los de plausibilidad dentro del marco de la Teoría de la Evidencia. 3.2.3. Geometría y topología de los elementos gráficos en el medio nivel: Vectorización. Partiendo de la imagen binaria segmentada, el segundo gran bloque del procedimiento preten-de la definición de los distintos elementos gráficos que integran la red de vías de comunicación detec-tada. Se trata por tanto de una conversión de ráster a vector, para la que no encontramos en el merca-do programa alguno que no se caracterice por un alto porcentaje de interactividad con el operador. De hecho, como se desprende del estudio bibliográfico realizado en el capítulo 2, los métodos propuestos en este tema incluyen la revisión manual del proceso en mayor o menor grado, llegando en muchos ca-sos a diseñarse procedimientos semiautomáticos [ZHAO 02] con el fin de obtener un mayor rendi-miento. El motivo de ello no es otro que el incierto estado actual de la investigación en las técnicas de alto nivel capaces de proporcionar conocimiento a la máquina [SOWMYA 00]. La vectorización implica definir geométricamente los elementos gráficos, así como obtener las relaciones topológicas que los ligan entre sí. En el caso de los objetos lineales, la definición geométri-ca puede realizarse principalmente mediante linestrings [MENA 92], splines [DE BOOR 78], snakes [KASS 87], o bien mediante polinomios de ajuste en x o y que proporcionen las ecuaciones de los dis-tintos objetos. En nuestro sistema, dado el carácter lineal y simple que normalmente poseen las carre-teras, seguiremos la recomendación que aparece en [McGLONE 98] y elegiremos el ajuste polinómi-co. Respecto a la topología de los objetos, ésta la extraemos posteriormente buscando los puntos de in-tersección entre unas y otras ecuaciones. Dado el actual estado de la investigación y con las ideas mencionadas en el párrafo anterior, aquí se propone un método de vectorización que, desarrollado en el capítulo 5, se resume en la aplica-ción sucesiva de las siguientes fases: * Limpieza de la imagen binaria. Depuración previa de la imagen de plausibilidad con la finalidad de eliminar el ruido sin pérdida relevante de información. * Tratamiento de los bordes. Detección de los bordes del elemento extraído, y su posterior generaliza-ción a fin de disminuir las rugosidades en el trazado del mismo.

Page 51: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 3: El sistema de extracción (i): Descripción general. J. B. Mena

Pág. 45

* Extracción del esqueleto. Definición de aquellos pixeles que componen el esqueleto de la región li-mitada entre los bordes, así como de aquellos puntos de éste donde se producen ramificaciones o pér-didas de continuidad (nodos). Esta fase se realiza de dos formas independientes aunque complementa-rias. En la primera se utiliza básicamente la denominada distancia de Chamfer [SANNITI 94] aplicada tras un curvado previo por distancia euclídea. La segunda consiste en el empleo reiterado del cluste-ring según la técnica K-means [DUDA 01], construyendo el diagrama de Voronoi y la triangulación de Delaunay [DE BERG 98]. En este proceso el esqueleto se obtiene por degeneración progresiva de la triangulación hasta lograr reducirla a segmentos adyacentes consecutivos [MENA 02 (a)]. Ambos resultados para el esqueleto son útiles en la vectorización. El primero porque constituye la información fundamental para la construcción del grafo [AHO 83]. Y el segundo porque, aparte de servir como in-formación de apoyo para el anterior, proporciona las llamadas vías principales, fuente inicial de datos para establecer en el alto nivel, a partir de los elementos gráficos que se obtengan, las distintas entida-des cartográficas que se incorporan a la base de datos del SIG. * Construcción del grafo de objetos lineales. Sobre la base del esqueleto obtenido mediante la distan-cia de Chamfer, se genera el grafo de conexiones entre los nodos a través de las distintas bolsas de pixeles. Se abandona pues el estudio a bajo nivel para situar el procedimiento en un nivel medio en lo referente al conocimiento que el sistema tiene del problema.

Tras el establecimiento de las bolsas se procede a la organización de las mismas en clases de equivalencia, y a la definición de objeto como una sucesión de nodos y bolsas con ciertas característi-cas propias. Aplicando entonces una serie de reglas semánticas [FÖRSTNER 97] se forman automáti-camente los objetos, constituyendo en su conjunto la vectorización de la red de vías de comunicación. Esta fase, donde los objetos se almacenan en estructuras flexibles que los definen con el máximo gra-do de detalle, admite su reiteración cíclica cuando se dispone de información adicional que oriente más concretamente sobre la manera de construir y clasificar las bolsas, y sobre cómo formar los obje-tos a partir de ellas. * Ajuste geométrico y topológico. Con el ente objeto como pieza básica de trabajo, el procedimiento continúa con el ajuste geométrico de los mismos. Para ello, en el caso de los objetos abiertos se aplica un ajuste polinómico robusto [PEÑA 93] de grado variable, mientras que si el objeto es cerrado se uti-liza un método derivado del concepto snake y que hemos convenido en denominar ajuste poligonal reiterativo. Ambos métodos, con rasgos originales introducidos en el proceso, proporcionan el ajuste de los objetos con la máxima precisión posible respecto a la resolución de la imagen.

Después del ajuste geométrico se procede al ajuste morfológico de los nodos [SERRA 82] pa-ra redefinir correctamente la topología entre objetos. Resultan así los distintos elementos gráficos que, expresados mediante unas nuevas estructuras más sencillas y compactas, y correspondiéndose uno a uno con los objetos, son el resultado definitivo del proceso de estudio en el medio nivel. * Líneas de estudio en el medio nivel. La futura investigación para la mejora del método en el medio nivel de conocimiento se propone en el capítulo 5 tras la exposición del presente módulo. 3.2.4. Evaluación, formación y registro de las entidades cartográficas en el alto nivel.

Tras la evaluación y validación de los resultados obtenidos en la vectorización, y por agrupa-miento de los elementos gráficos, se construyen en el alto nivel las entidades cartográficas tomando como referencia inicial las vías principales obtenidas en el módulo anterior, y proponiendo como línea de estudio el uso de la mayor cantidad posible de información adicional bajo el control de un Sistema Basado en el Conocimiento (SBC) [WINSTON 92]. A dichas entidades se les añade la tercera dimen-sión interpolando con el Modelo Digital del Terreno (MDT), una vez se hayan transformado las coor-denadas imagen en las correspondientes a la proyección cartográfica y sistema geodésico utilizados en el SIG, lo que se realiza mediante cualquier algoritmo al respecto [MENA 97 (b)]. Las entidades que-dan así dispuestas, conforme se indica en el capítulo 6, para su integración final en base de datos.

Page 52: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 3: El sistema de extracción (i): Descripción general. J. B. Mena

Pág. 46

3.2.5. Esquema conjunto del procedimiento.

IMAGEN RECTIFICADA Y REFERENCIADA

CAPA VECTORIAL Entidades

de referencia SIG

CAPA ORDEN 1 Bandas RGB

(D. Mahalanobis)

FUSIÓN DE LOS RESULTADOS

(Producto ortogonal)

PLAUSIBILIDAD

ESQUELETO (Distancia de Chamfer)

SEGMENTACIÓN (Teoría de la evidencia)

FILTRO DE MEDIANA

(Radio unidad)

CAPA ORDEN 1.5Bandas HSV

(D. Bhattacharyya)

CAPA ORDEN 2 Bandas HSV

(D. Bhattacharyya)

CAPA 256-GRIS (KL-SVD)

(D. Euclídea)

UMBRAL

LIMPIEZA

GRAFO

ESQUELETO (T. de Delaunay)

CLASES Y OBJETOS

AJUSTE GEOMÉTRICO Y TOPOLÓGICO. ELEMENTOS GRÁFICOS

UMBRAL

SIGMODELO DIGITAL

DEL TERRENO SISTEMA

BASADO EN EL CONOCIMIENTO

BDC BDA

DETECCIÓN ENTRÓPICA DE

BORDES

BORDE Y SUAVIZADO

INFORMACIÓN ADICIONAL

CAPA VECTORIAL

FORMACIÓN DE ENTIDADES CARTOGRÁFICAS

VÍAS PRINCIPALES

VECTORIZACIÓN (Estudio morfológico)

[ Bajo nivel ]

[ Nivel medio ]

[ Alto nivel ]

Page 53: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 47

4 El sistema de extracción (ii):

Módulo de segmentación.

EXTRACCIÓN AUTOMÁTICA DE OBJETOS EN UNA IMAGEN

COLOR MEDIANTE ANÁLISIS PROGRESIVO DE LA TEXTURA EN EL MARCO DE LA TEORÍA DE LA EVIDENCIA

RESUMEN. En este capítulo se describe un método automático para la segmentación binaria de una imagen color, cuya finalidad es la extracción de un objeto cualquiera definido automática o manualmente mediante un área de entrenamiento. El proceso, que apenas requiere el empleo de parámetros, utiliza como herramienta el estudio de la textura bajo tres órdenes de Estadística sucesivos aplicando la Teoría de la Evidencia de Dempster – Shafer, tanto para establecer en cada una de sus etapas la probabilidad de pertenencia de cada pixel a una u otra clase (masa de evidencia), como para fusionar la información procedente de los distintos análisis realizados y binari-zar la imagen final sobre la base del concepto de plausibilidad.

En una primera fase se aplica Estadística de primer orden a la imagen RGB utilizando el clasificador de Mahalanobis para obtener las masas de evidencia e incertidumbre asociadas a cada pixel. La segunda fase, que se entiende como proceso propio de la Estadística de orden 1.5, tiene lugar sobre las bandas HSV haciendo inter-venir la textura y la relación entre bandas en cada región de la imagen. Ello permite utilizar la distancia de Bhattacharyya como factor de comparación para obtener las masas de evidencia e incertidumbre correspon-dientes a cada pixel. En la tercera fase se aplica Estadística de segundo orden al estudio de la textura conjunta en las bandas HSV mediante el denominado cubo de textura. Aquí se introduce el concepto de pseudoprobabilidad como paso previo a la formación de las distribuciones de concurrencia según los 256 tonos en cada banda, cal-culándose los distintos valores de evidencia asimismo mediante la distancia de Bhattacharyya. Como etapa final del proceso se realiza el producto ortogonal de las masas de evidencia obtenidas en cada fase, se calculan los co-rrespondientes valores de plausibilidad y se binariza la imagen automáticamente. PALABRAS CLAVE: Segmentación, textura, concurrencia, evidencia, plausibilidad.

4.1. Introducción. Como hemos visto en el estudio bibliográfico, actualmente el tratamiento digital de imágenes constituye una poderosa herramienta con numerosas aplicaciones en muchos campos de la Ciencia y la Técnica. Sabemos también por numerosas referencias [CHENG 01] que dicho tratamiento digital tiene en la segmentación uno de sus principales soportes, y resulta evidente que cuanto mayor sea el grado de automatización con el cual se obtengan resultados satisfactorios, mayor será el número de procesos donde estas técnicas encuentren implementación. En particular, dentro del terreno de la Cartografía Digital y los Sistemas de Información Geográfica (SIG), la extracción automática de entidades lineales o superficiales es de vital importancia para alcanzar el objetivo, por el momento utópico, de construir mapas de forma completamente automatizada a partir de imágenes satélite. En el tema de la segmentación y clasificación de imágenes con vistas a la extracción automáti-ca de objetos, tal vez sea el análisis de texturas una de las técnicas que presenta un mayor campo de posibilidades. De hecho son varios los autores que lo consideran en sus estudios sobre actualización del SIG, tales como [DUBUISSON 96], [FABER 99], [MARKOV 00] y [KIEMA 02]; así como tam-

Page 54: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 48

bién son muchas las referencias donde se proponen métodos y mejoras para refinar la segmentación genérica por esta técnica, como son [MIRMEHDI 00], [MATHIASSEN 02] y [MONADJEMI 02] en-tre otros. No obstante, aunque hayan sido estudiados los fundamentos y posibles aplicaciones de este modelo [CROSS 83], [GAGALOWICZ 87] y [HARALICK 79], no parece que el análisis de texturas se haya consolidado como herramienta imprescindible en los métodos de extracción automática, pese a que es una técnica muy potente que rinde excelentes resultados cuando se aplica convenientemente.

Sobre la base de lo dicho, en este capítulo se expone un estudio progresivo de la textura de la imagen color compuesto por tres etapas disjuntas. Dicho estudio comienza con el análisis de las carac-terísticas individuales de cada pixel considerado como un vector tridimensional en el espacio euclídeo; continúa con el tratamiento de las relaciones de los vectores con su entorno, y finaliza investigando la denominada textura conjunta entre bandas. Este último concepto, afín con la Estadística de segundo orden, atiende a la estructura espacial que mantienen entre sí las tres coordenadas de cada pixel en re-lación con los pixeles de su alrededor, consideradas éstas dos a dos según las distintas direcciones del espacio. Para su estudio se construye el llamado cubo de textura, el cual se analiza utilizando matrices de concurrencia [CROSS 83], donde se hacen intervenir los 256 tonos posibles en cada banda de la imagen. De esta forma se evita la doble pérdida de información que conlleva el análisis tradicional de la textura cuando se ecualiza el histograma y se estudia cada banda por separado. Otro aspecto interesante lo encontramos al considerar que en la gran mayoría de los algoritmos diseñados para visión artificial es frecuente introducir variables paramétricas, a veces en número exce-sivo, al objeto de obtener buenos resultados [FÖRSTNER 96]. Sin embargo, sabemos que la existencia de parámetros es un factor que engendra dos efectos no deseados: En primer lugar se opone, al menos en un principio, a la completa automatización del proceso; y en segundo lugar implica, allí donde se definen, una pérdida de información inherente con los propios valores umbrales. Para disminuir en lo posible el empleo de tales variables, aparte del correspondiente estudio y refinado de los algoritmos [PEDDLE 02], en nuestro sistema nos decantamos por la aplicación de la Teoría de la Evidencia, cuyo fundamento matemático lo encontramos en [KOHLAS 95 (a), (b) y (c)] y [KOHLAS 97], y cuya apli-cación en los algoritmos de decisión aparece en [BAUER 97].

La Teoría de la Evidencia va a posibilitar que tras cada una de las etapas de segmentación, ca-da pixel de la imagen resulte caracterizado por el conjunto de sus masas de evidencia e incertidumbre, lo que constituye una forma de paliar los dos efectos mencionados en el párrafo anterior. Además el producto ortogonal [KOHLAS 95 (c)] relativo a esta teoría, es una técnica sencilla de fusión ponde-rada [HALL 92] que permite componer, en un solo resultado y sin pérdida de información, los valores de evidencia obtenidos en las tres etapas de la segmentación. A partir de aquí la aplicación del concep-to de plausibilidad, también propio de la citada teoría, será el camino que sigamos para conseguir la imagen binaria que constituye el resultado final del presente módulo de nuestro sistema. Como consecuencia de los párrafos anteriores, a continuación se describe un procedimiento de segmentación cuya propiedad fundamental consiste en mantener la máxima cantidad de la informa-ción disponible durante todas las fases del proceso. Este método tiene por objetivo detectar de forma automática un elemento E de la imagen color a partir de un conjunto P formado por n pixeles de entre-namiento, para cada uno de los cuales se obtienen inicialmente sus tres componentes ri, gi, bi en las co-rrespondientes bandas RGB, así como sus componentes hi, si, vi en el sistema de referencia del color HSV [HEIJDEN 95]. Este conjunto P puede ser definido por el usuario, encontrándonos así ante una segmentación supervisada, o bien puede conseguirse mediante superposición de la imagen con la capa vectorial de un Sistema de Información Geográfica con miras a la actualización del sistema, con lo que estaríamos en el terreno de la segmentación automáticamente supervisada. En este segundo caso se su-pone que la imagen está georreferenciada, así como también una coherencia en cuanto a precisión y escala se refiere [RELLIER 02 y WILLRICH 02], entre la información almacenada en el SIG y la re-solución de la toma. La descripción de las distintas etapas del proceso se complementa con sus respec-tivos resultados sobre una misma imagen elegida como guía. No obstante posteriormente se exponen ejemplos adicionales sobre imágenes reales, así como un apartado de conclusiones donde figura la comparación del método con alguno de los utilizados actualmente en la segmentación de imágenes.

Page 55: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 49

4.2. Procedimiento de segmentación automática. 4.2.1. Generalidades: La técnica APT. Como se ha indicado, el proceso que sigue se apoya fundamentalmente en la Teoría de la Evi-dencia y en el diseño de lo que denominamos Análisis Progresivo de la Textura (APT). Finalizado el módulo de tratamiento previo de la imagen según se expone en el apartado 3.2.1 del capítulo anterior, y obtenidas por tanto las entidades cartográficas residentes en el SIG a partir de las cuales se pretende actualizar la Base de Datos Cartográfica (BDC), la segmentación propiamente dicha consiste en anali-zar la textura en la imagen de partida de tres formas diferentes aunque complementarias. Estas se apli-can independientemente, a partir de las entidades de referencia, una vez establecido por superposición en la imagen el conjunto P de entrenamiento que define el elemento E a detectar, y dispuestas tanto las bandas RGB de la imagen como sus transformadas al sistema HSV.

Como se trata de encontrar un único elemento E, en cualquiera de las fases que siguen sólo po-drá clasificarse cada pixel como perteneciente a alguna de estas tres clases: la clase buscada (ω ), la complementaria (ϖ ), o bien ni una ni la otra, es decir la incertidumbre ( θ ). Por tanto, el conjunto Θ, o marco de decisión, está compuesto en nuestro caso por las tres únicas opciones:

(4.1) { }θϖω ,,=Θ

No obstante, en cada fase parcial la segmentación no pretende clasificar cada pixel pi de forma

absoluta, sino encontrar para éste las probabilidades, o masas de evidencia, de que pertenezca a cada una de las clases definidas, es decir, hallar la terna de valores:

(4.2) ( ) ( ) ( )[ ]θµϖµωµ iiiip ,,←

Tales valores se calculan en la forma que veremos enseguida, tomándolos siempre de modo

que su suma sea la unidad: (4.3)

( ) ( ) ( ) 1=++ θµϖµωµ iii

El resultado de cada fase será entonces una sucesión de tríadas en número igual al de pixeles de la imagen. Ello hace posible realizar el producto ortogonal de las tres fases de la segmentación y proceder, mediante el concepto de plausibilidad, a determinar aquellos pixeles que serán finalmente clasificados como pertenecientes al elemento buscado E. De este modo sólo al final del proceso será necesario establecer un parámetro que actúe como umbral. Sin embargo veremos que también aquí puede eliminarse dicho valor arbitrario. En lo que respecta al desarrollo de las tres fases de segmentación, la idea de progresividad en el análisis de la textura es congruente con el uso de los siguientes métodos, asimismo progresivos en el orden de Estadística que respectivamente los caracteriza: * Clasificador de Mahalanobis. Este conocido procedimiento, adaptado para tres bandas, conlleva considerar para cada pixel el vector formado por los tonos que lo definen en las bandas de la imagen, y utilizar la distancia de Mahalanobis [FUKUNAGA 90] para evaluar el grado de separación de dicho vector con respecto a la distribución de entrenamiento. Por lo tanto esta primera fase de la segmenta-ción es un proceso donde se emplea Estadística de primer orden. * Detección intermedia. Con la idea de conjugar la textura básica de cada región de la imagen con la relación que mantienen las tres bandas entre sí, se opta por construir para cada pixel una distribución tridimensional formada por los vectores asociados a los pixeles de su entorno. De este modo será po-

Page 56: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 50

sible comparar cada distribución local con la correspondiente al área de entrenamiento, lo que se reali-za mediante la distancia de Bhattacharyya [FUKUNAGA 90], o bien mediante la equivalente distan-cia de Jeffries - Matusita [RICHARDS 99]. Como se tiene en cuenta el entorno da cada pixel pero no se considera la relación entre éstos tomados dos a dos, la segunda fase de la segmentación puede con-siderarse como un proceso propio de la Estadística de orden 1.5. * Análisis de la textura conjunta. Para esta fase se utilizará la técnica de las matrices de concurren-cia [CROSS 83] por tratarse de una de las más eficaces en el estudio de la textura como se demuestra en [SINGH 02]. Ello nos permitirá evaluar la variación de los distintos tonos al movernos en un entor-no espacial del pixel en estudio según distintas direcciones. Dicho entorno es el denominado cubo de textura, realizándose la evaluación al considerar la concurrencia de los tonos dos a dos según seis sec-ciones distintas del mismo. Introduciendo entonces el concepto de pseudoprobabilidad, por las razo-nes que se verán, y calculando los valores de una serie de variables estadísticas, asociamos una distri-bución de datos a cada pixel, la cual, al igual que en la segunda fase, puede compararse con la corres-pondiente distribución de entrenamiento mediante la distancia de Bhattacharyya o la de Jeffries Matu-sita. La formación de las matrices de concurrencia y el cálculo de las variables estadísticas se realiza aquí de una forma inédita debido al empleo de los 256 tonos posibles con objeto de no perder informa-ción durante el proceso. Tal y como se describe, esta fase de la segmentación pertenece a los métodos estadísticos de segundo orden. * El proceso completo según nuestra técnica APT, conforme se desprende de los párrafos anteriores, consiste pues en la realización sucesiva de las siguientes etapas o tareas bien diferenciadas:

1. Descomposición RGB de la imagen y transformación de las componentes al sistema HSV. 2. Primera fase de segmentación: Clasificador de Mahalanobis. 3. Segunda fase de segmentación: Detección intermedia. 4. Tercera fase de segmentación: Análisis de la textura conjunta. 5. Fusión de la evidencia. Plausibilidad. 4.2.2. Comentarios previos sobre el empleo de los sistemas RGB y HSV. La elección del sistema de ejes donde definir las tres componentes de la imagen color al obje-to de obtener los mejores resultados en la segmentación, merece realizar un minucioso estudio que se-ría por sí mismo tema de tratamiento aparte. De hecho nada impide pensar que, al margen de los siste-mas conocidos (RGB, HSV, Lab, YIQ, ...) [TAKAHASHI 00] no exista alguna base aún no determina-da donde un método concreto de segmentación alcance resultados óptimos. En el presente estudio se ha decidido ensayar la detección utilizando la descomposición HSV, lo que no ha sido una decisión caprichosa. Como es conocido, las bandas HSV de la imagen sustituyen la expresión matemática del color en sí (RGB) por distintas propiedades referentes al mismo: matiz o tonalidad (H), saturación (S) e intensidad o brillo (V). En este modelo el número h toma un valor del círculo cromático en el cual se representan a 0º, 120º y 240º respectivamente los colores primarios ro-jo, verde y azul, y a 60º, 180º y 300º los correspondientes colores secundarios amarillo, cyan y magen-ta. El segundo número, s, define el porcentaje del color que se encuentra presente en el pixel en cues-tión. Se trata por tanto de un valor entre 0 y 1, donde el 0 simboliza la ausencia de color y el 1 la pre-sencia del color completo. Finalmente, el brillo v expresa la tendencia hacia el blanco (brillante) o el negro (oscuro) que caracteriza al color del pixel. Dicha tendencia se expresa también en porcentaje, siendo el 0 el valor que define el máximo brillo. Esquemáticamente, y suponiendo que los tres valores r, g, b pertenecen al intervalo [0,1], la conversión HSV a partir de la RGB se obtiene, para cada pixel, como se expone en [HEIJDEN 95] y figura en el cuadro 4.1.

El modelo HSV fue creado por A. R. Smith en 1978 con la idea de poner de manifiesto las ca-racterísticas intuitivas del color. Si a ello añadimos que a la hora de identificar objetos, la textura de una imagen influye en nuestra percepción visual en un grado muy alto, mayor que el color en sí, pare-

Page 57: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 51

ce lógico pensar que una descomposición de la imagen basada en propiedades ópticas del color ha de rendir mejores resultados en la segmentación por análisis de texturas que la pura descomposición aditi-va en los colores primarios. No obstante, la calidad de los resultados depende de numerosos y variados factores como es la configuración de la imagen a segmentar, el elemento seleccionado en la detec-ción, la muestra de entrenamiento, etc... Por ello ocurre que en unas mismas condiciones la descom-posición RGB puede ser más idónea que la HSV y viceversa. Ante esta circunstancia, y en tanto no se encuentre un fundamento riguroso que aconseje el empleo de uno u otro sistema de representación en cada caso, no tenemos más remedio que guiarnos por el ensayo para afrontar cada problema determi-nado. En nuestro estudio, y tras varios ejemplos tratados, se ha optado por aplicar el clasificador de Mahalanobis sobre la descomposición RGB, y la detección intermedia y el análisis de la textura con-junta sobre la HSV.

Cuadro 4.1.

( ) ( )

( )( )

( )

( )

( )

=

+

=

+

=−

=

=

=

−=

bbgrsigr

gbgrsirb

rbgrsibg

h

bgrvbgr

s

bgrbgr

,,max4º60

,,max2º60

,,maxº60

,,max,,max

,,min,,max

δ

δ

δ

δδ

Conversión RGB => HSV

4.2.3. Imagen guía - ejemplo del proceso. Al objeto de ilustrar los desarrollos que siguen se ha elegido como objeto E a detectar las ca-rreteras de la imagen IKONOS de figura 4.1.a) en el marco de la actualización de un SIG. Esta ima-gen, que se supone rectificada y referenciada, ha sufrido como preproceso el paso de un filtro de me-diana de radio unidad. Por su parte, el área de entrenamiento es el conjunto P que está compuesto por los n = 259 pixeles que figuran en rojo en 4.1.b) y que se corresponden con las entidades cartográficas residentes en la base de datos vectorial del Sistema de Información Geográfica.

Figura 4.1.

a) Imagen IKONOS georreferenciada. b) Entidades cartográficas almacenados en el SIG.

Page 58: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 52

4.2.4. Clasificador de Mahalanobis. Dispuestas las tres bandas RGB de la imagen representamos cada pixel pi mediante el vector definido por sus componentes en dicho sistema:

(4.4) ( )iiii bgr ,,=v

Ello permite, una vez elegido el elemento E a detectar y establecida el área P de entrenamiento

(formada por n píxeles), construir la distribución de muestra de n elementos tridimensionales determi-nada por el par (m, Σ), donde m es la media y Σ la matriz de covarianzas. En consecuencia, al recorrer la imagen será posible encontrar la separación de tal distribución que afecta a cada pixel pi. Para ello se utiliza la distancia de Mahalanobis definida por la raíz de la forma cuadrática [FUKUNAGA 90]:

(4.5)

( ) ( )it

iid vmvm −Σ−= −1

Previamente al empleo de la distribución de entrenamiento, conviene someterla a un proceso de depuración para soslayar la posibilidad de que algunos de los pixeles del conjunto P puedan resultar incoherentes con las características del objeto a detectar, bien por pertenecer a una zona en sombra o bien por cualquier otra causa; circunstancia ésta que adquiere mayor importancia cuando la segmenta-ción es automáticamente supervisada. Para disminuir en lo posible este efecto no deseado, antes de su empleo se procede a depurar la distribución de entrenamiento eliminando todo vector de P en el cual alguna componente se considere no tolerable en la distribución de valores (mj, σj) considerada ésta co-mo normal, es decir, siendo vi un vector cualquiera de la distribución muestra y m la media, prescindi-remos de vi en el caso que no se verifique para algún j la desigualdad:

(4.6) 3,2,1;...,,1;3 ==<− jnimv jjij σ

Evidentemente, cada vez que se eliminen vectores de P deberá recalcularse el par (m, Σ).

* Masas de evidencia e incertidumbre. Depurada la distribución de entrenamiento y efectuado el re-corrido de la imagen, se dispone para todo pixel pi de su distancia de Mahalanobis di a la mencionada distribución. Obteniendo entonces los valores máximo y mínimo de estas distancias, se procede a nor-malizarlos y a definir el concepto de afinidad ai de cada pixel al objeto E según la expresión:

(4.7)

minmax

minii dd

dda−

−−=1

A continuación se calcula la desviación típica σ del conjunto de los valores de afinidad, esta-

bleciendo la terna correspondiente de masas de evidencia para el pixel pi en la forma siguiente: (4.8)

( ) ( ) ( ) ( ) ( ) ( ) σθµσϖµσωµ =−−=−= iiiii aa ,11,1 valores éstos cuya suma satisface la condición (4.3). * Resultados parciales. Aplicado el clasificador de Mahalanobis sobre la imagen y entidades de refe-rencia de la figura 4.1, la depuración de la distribución de entrenamiento eliminó solamente uno de los pixeles, estableciéndose posteriormente la incertidumbre para toda la imagen en el valor 0.1696. Cons-truidas entonces las tríadas de evidencia conforme a (4.8), la naturaleza de los resultados puede visua-lizarse representando un mapa de bits donde a cada pixel le asignamos como tono de gris el producto de la constante 255 por su masa de evidencia µ ( ω ). De este modo se obtuvo para esta fase la imagen expuesta en la figura 4.2.

Page 59: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 53

Figura 4.2.

Masas de evidencia tras la primera segmentación.

4.2.5. Detección intermedia. En la segunda fase de segmentación se considera la descomposición HSV de la imagen, por lo que asociamos a cada pixel el vector cuyas componentes son los tonos en cada una de estas bandas:

(4.9) ( )iiii ush ,,=v

Abriendo entonces una ventana 5x5 alrededor del pixel genérico pi, será posible construir una

distribución tridimensional (mi, Σi) definida por los 25 vectores pertenecientes a dicha ventana. Con tal criterio el conjunto P de los n pixeles de entrenamiento permite formar la respectiva distribución de muestra (m, Σ) compuesta de n * 25 elementos. Esta distribución es la referencia para calcular, confor-me se recorre la imagen, la separación a la misma que mantiene cada una de las distribuciones locales (mi, Σi). Para ello utilizaremos la distancia de Bhattacharyya, que resulta definida por la siguiente ex-presión [FUKUNAGA 90]:

(4.10)

( ) ( )i

i

iit

iibΣΣ

Σ+Σ

+−

Σ+Σ

−=− 2L

21

281 1

mmmm

Análogamente a la primera fase y por las mismas razones allí expuestas, antes de proceder al

cálculo de las distancias conviene depurar la distribución de muestra, lo que realizamos eliminando to-do vector de dicha distribución que no verifique para algún j :

(4.11) 3,2,1;*25...,,1;3 ==<− jnimv jjij σ

* Masas de evidencia e incertidumbre. Una vez recorrida la imagen se calcula para cada pixel pi su correspondiente afinidad ai al objeto E, lo que en esta ocasión se realiza normalizando el respectivo valor exponencial δi en la forma:

(4.12)

( )minmax

miniiii ab

δδδδδ−

−==>−= exp

Considerando entonces como normal la distribución compuesta por el total de valores de afini-

dad, se obtiene la desviación típica σ de la misma y se calculan las tríadas de masas de evidencia me-diante la expresión (4.8).

Page 60: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 54

Como podemos apreciar, en esta etapa de la segmentación se tienen en cuenta las relaciones de cada pixel con su entorno, sin llegar a tratar los vectores de dos en dos según todas las combinaciones posibles. Por ello diremos que se trata de un proceso estadístico de orden 1.5 donde se estudia la des-composición en bandas de la imagen junto a los rasgos más característicos de la textura en cada zona. * Resultados parciales. La detección del objeto carretera de la imagen 4.1.a), tomando como área de entrenamiento el conjunto de entidades 4.1.b), rindió los resultados de la figura 4.3 tras el proceso de segmentación intermedia sobre las bandas HSV.

Figura 4.3.

Masas de evidencia tras la segunda segmentación. En este caso la depuración de la distribución de entrenamiento redujo los 259 * 25 = 6475 po-

sibles vectores a un total de 6318. Asimismo, el valor obtenido para la incertidumbre en toda la ima-gen fue igual a 0.1834. 4.2.6. Análisis de la textura conjunta. Como ya se indicó, para efectuar la segmentación mediante el análisis de texturas se ha dise-ñado un procedimiento que, basado en la Estadística de segundo orden [FUKUNAGA 90], mantiene la máxima cantidad de información disponible durante todo el proceso. Este método introduce el concep-to de textura conjunta, entendiéndose por tal la textura que, en las proximidades de cada pixel, definen simultáneamente en el espacio las tres bandas HSV en que está descompuesta la imagen. * Cubo de textura y secciones de concurrencia. Consideremos un pixel genérico pi definido por el vector vi cuyas coordenadas son las componentes (4.9) en el sistema HSV, y sea el cubo de arista tres unidades representado en la figura 4.4, donde vi ocupa el lugar central que se mantiene perpendicular a las secciones SH, SS y SV correspondientes en la descomposición de la imagen. La elección del tamaño 3x3x3 en la dimensión del cubo está motivada porque al tratar única-mente tres bandas para la imagen, cada sección del cubo se puede definir mediante una matriz cuadra-da, lo que constituye una ventaja a la hora de desarrollar el proceso. Dicho tamaño puede incremen-tarse cuando se dispone de un mayor número de bandas, aunque no conviene aumentarlo en demasía al objeto de que el proceso sea aplicable en la detección del mayor número posible de elementos, inclu-yendo aquellos longitudinales de poco ancho tales como carreteras, caminos, arroyos, etc.

Teniendo en cuenta los 256 tonos posibles que puede asumir cada una de las componentes de vi, el denominado cubo de textura, estará compuesto por 27 valores enteros pertenecientes al intervalo [0, 255]. Pues bien, al objeto de estudiar la relación de la textura con las bandas de la imagen sin incu-rrir en redundancia, tomaremos seis secciones del cubo. Dichas secciones de concurrencia serán las tres ya mencionadas SH, SS y SV, más las tres que resultan al seleccionar sucesivamente las primeras

Page 61: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 55

columnas de aquéllas, las columnas centrales, y las terceras columnas. Designemos como S1, S2 y S3 respectivamente estas tres secciones.

Figura 4.4

Cubo de textura. Secciones a estudiar por cada pixel. * Matrices y distribuciones de concurrencia. Dispuestas las seis secciones correspondientes al pixel genérico pi, a continuación se procede a construir cuatro matrices de concurrencia [CROSS 83] por cada una de las indicadas secciones. Dichas matrices son las relativas a los 0º, 45º, 90º y 135º en la orientación de las distintas coincidencias de los tonos en la respectiva sección. No obstante, evitamos la formación explícita de las matrices dado que, al haber tomado para los tonos sus 256 posibles valo-res, cada una de las matrices albergará un total de 65536 elementos (256 x 256), lo que requiere una gran cantidad de memoria. Además, como la matriz de concurrencia no es otra cosa que una distribu-ción de frecuencias, y cualquier sección Sk sólo es de orden 3, resulta que la gran mayoría de sus ele-mentos serán nulos, y los restantes enteros positivos próximos a la unidad. En consecuencia, parece mas razonable expresar la información contenida en las matrices de concurrencia mediante las corres-pondientes distribuciones de concurrencia asociadas a las mismas, lo que se ha hecho del modo si-guiente. Supongamos una sección cualquiera Sk relativa al pixel pi:

(4.13)

[ ] 3,2,1,255,0;

333231

232221

131211

=∀∈

= bat

ttttttttt

S abk

Las diferentes concurrencias a 0º, 45º, 90º y 135º en los tonos tab, se consideran respectiva-

mente definidas así: (4.14)

[ ] ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ){ }33323231312323222221211313121211º0 ,,,,,,,,,,,,,,, ttttttttttttttttDCk =

[ ] ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ){ }13232312123333222211113232212131º45 ,,,,,,,,,,,,,,, ttttttttttttttttDCk =

[ ] ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ){ }33232313133232222212123131212111º90 ,,,,,,,,,,,,,,, ttttttttttttttttDCk =

[ ] ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ){ }33323223233131222213132121121211º135 ,,,,,,,,,,,,,,, ttttttttttttttttDCk =

Page 62: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 56

Como se aprecia, todas las distribuciones están formadas por los ocho elementos bidimensio-nales de frecuencia unidad que resultan al sustituir los 65536 valores de cada matriz de concurrencia por las concurrencias no nulas de tonos que realmente tienen lugar. * Concepto de pseudoprobabilidad y cálculo de las variables estadísticas. Seguidamente se procede a la construcción de un vector 6-dimensional por cada una de las distribuciones de concurrencia (4.14). Este vector tiene por componentes los resultados de las siguientes variables estadísticas aplicadas a la correspondiente distribución, las cuales elegimos basados en la investigación [HARALICK 79]: 1. Correlación. 2. Energía. 3. Entropía. 4. Valor máximo de probabilidad. 5. Contraste. 6. Momento de diferencia inversa.

No obstante, antes de calcular estos valores se hace necesario sustituir el concepto de probabi-lidad que interviene en todos ellos salvo en el primero, por otro más versátil. La razón de esto reside en que la no ecualización del histograma al tratar los 256 posibles valores de los tonos, unida al peque-ño tamaño de las secciones Sk, provoca encontrar muchas distribuciones de concurrencia donde la probabilidad de todos sus elementos es una constante igual a un octavo. Ello implica obtener unos mismos valores en las componentes 2, 3 y 4 en muchos de los vectores 6-dimensionales asociados al pixel pi, lo que puede llegar a impedir, como veremos enseguida, la futura obtención de la distancia de Bhattachariyya. Para soslayar este problema se opta por introducir el concepto de pseudoprobabilidad como paso previo a la obtención de las seis componentes de estos vectores. Dada entonces la distribu-ción bidimensional:

[ ] ( ) ( ) ( ){ }882211º ,,,,,, yxyxyxDCk K=α definimos pseudoprobabilidad del elemento (xh, yh) como el valor:

(4.15)

∑=

hhh

hhh yx

yxs

Con lo cual el vector 6-dimensional vik[αº], correspondiente a la distribución de concurrencia αº de la sección k del pixel i tendrá por componentes las siguientes [HARALICK 79]:

(4.16)

[ ] ( )

( )( )

( )

−=

−=

=

=

=

−−=

→=

h hh

h

hhhh

h

hhh

hh

h yx

hh

ik

inversadiferenciantoPseudomomeyx

sv

rastePseudocontsyxvabilidadpseudoprobMáximosv

opíaPseudoentrssv

gíaPseudoenersv

nCorrelacióyyxxv

vvv

)(

)()(Max

)(L

)(

)(81

,,,

6

5

4

3

22

1

621º

σσ

α Kv

Page 63: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 57

* Distribución 6-dimensional relativa al pixel pi. Dado que el índice k oscila entre 1 y 6, y que por ca-da una de estas secciones se establecen 4 distribuciones de concurrencia, resulta que para cada pixel obtendremos una distribución 6-dimensional compuesta por 24 vectores del tipo (4.16). Dicha distri-bución queda determinada por el correspondiente par (mi, Σi). * Distribución de entrenamiento. Depuración. Si como se ha supuesto al principio de este apartado el conjunto P de entrenamiento está constituido por un total de n pixeles, operando de la forma descrita se conseguirá un total de n*24 vectores 6-dimensionales para la distribución de entrenamiento. Sin embargo, al igual que en las fases anteriores, cabe pensar que algunos de los pixeles del conjunto P pueden resultar incoherentes con la textura del objeto E a detectar. Por esta razón, antes de su empleo se depura la distribución de entrenamiento eliminando todo vector que no verifique para algún j:

(4.17) 6...,,1;*24...,,1;3 ==<− jnimv jjij σ

Este proceso de depuración se reitera tantas veces como sea necesario hasta conseguir que to-

dos los vectores mantengan sus seis componentes en el intervalo de precisión deseado. Con el total de vectores definitivo se calcula entonces el par (m, Σ) característico de la distribución de entrenamiento. * Distancia de Bhattacharyya. Factores de corrección. Una vez depurada la distribución de entrena-miento, se procede a recorrer la imagen comparando con ésta la distribución local (mi, Σi) de cada pi-xel pi mediante la distancia de Bhattacharyya según la expresión (4.10). Y es aquí donde reside el mo-tivo por el cual se ha definido el concepto de pseudoprobabilidad, ya que, de considerarse la probabili-dad en la forma clásica, puede darse el caso de que, para algún i, se produzca la igualdad en alguna componente de todos los vectores de la distribución local (mi, Σi). Siendo así, la correspondiente matriz de covarianzas será singular dada la igualdad a cero de su determinante, con lo cual no podre-mos invertirla tal y como exige el cálculo de la distancia de Bhattacharyya. Otro problema que puede encontrarse a la hora del cálculo de la distancia bi, es que este valor no sea de la suficiente magnitud como para determinar posteriormente si el pixel en cuestión forma parte o no del objeto E, lo que tiene lugar cuando las texturas de dos elementos distintos son muy simi-lares. En razón a ello se opta por añadir a la distancia bi dos términos correctores que, sin restar impor-tancia al análisis de texturas, aumenten el carácter calificativo de esta distancia. El primero de ellos, que llamaremos factor distancia, se deduce calculando la distancia euclídea que en el sistema HSV mantiene el vector vi = (hi, si, ui) del pixel en cuestión con el vector promedio correspondiente v relati-vo al conjunto de entrenamiento, es decir:

(4.18)

( ) ( )vvvv −−= it

iid )1(

El segundo término corrector, o factor color, será el módulo de la diferencia existente entre el valor numérico ci que identifica el color del pixel en la imagen original y el respectivo promedio c del área de entrenamiento. Tales valores numéricos, escalados previamente en el margen [0, 255], dan lu-gar al siguiente factor:

(4.19) ccd ii −=)2(

Ponderando ahora la distancia bi con los términos (4.18) y (4.19), se acepta como valor corre-

gido de la distancia de Bhattacharyya el que sigue: (4.20)

10098 )2()1(

iiici

ddbb ++=

Page 64: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 58

* Masas de evidencia e incertidumbre. Con el conjunto de magnitudes (4.20) se obtienen las corres-pondientes afinidades y tríadas de masas de evidencia en la misma forma expuesta para la segunda fase de segmentación, es decir aplicando las expresiones (4.12) y (4.8).

* Resultados parciales. Aplicando el modelo descrito de segmentación a la imagen de la figura 4.1.a) con las entidades 4.1.b), se obtuvo el resultado de masas de evidencia representado en la figura 4.5.

Figura 4.5.

Masas de evidencia tras la tercera segmentación. En este caso, la depuración de la distribución de entrenamiento redujo los 259 * 24 = 6216 po-

sibles vectores a un total de 6127. Asimismo, el valor obtenido para la incertidumbre en toda la ima-gen fue igual a 0.1595. 4.2.7. Fusión de evidencia. Plausibilidad. En esta etapa del proceso se combinan los ficheros de masas de evidencia e incertidumbres re-sultantes de las tres fases de segmentación. Dicha composición se realiza mediante la operación bina-ria conocida como producto ortogonal [KOHLAS 95 (c)], la cual goza de las propiedades asociativa y conmutativa. Para describir esta operación consideremos las dos ternas siguientes, correspondientes a los valores de evidencia obtenidos para un mismo pixel en dos etapas cualesquiera de la segmentación:

( ) ( ) ( )[ ] ( ) ( ) ( )[ ]θµϖµωµθµϖµωµ 222111 ,,,,, y sea SAB cualquier producto binario de la forma:

(4.21) ( ) ( ) Θ∈= BABASAB ,;* 21 µµ

donde recordemos que Θ es el llamado marco de decisión (4.1). Entonces, denominando ST al valor:

(4.22) ( )ϖωωϖ SSSS

BAABT +−= ∑

,

resulta que la terna producto de ambas tríadas de evidencia tiene las siguientes componentes:

(4.23)

( )( ) ( )( ) ( )( )TTT S

SS

SSSS

SSS θθθϖϖθϖϖθωωθωω θµµϖµµωµµ =⊗++

=⊗++

=⊗ 212121 ;;

Como se deduce de (4.23), el producto ortogonal va a permitir que, si bien el valor de incerti-

dumbre ha sido único para toda la imagen en cada una de las fases de la segmentación, una vez se

Page 65: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 59

combinen los resultados parciales de las tres etapas, cada pixel estará caracterizado por su propia terna de masas de evidencia incluida la incertidumbre. * Resultados obtenidos tras la fusión de masas de evidencia. En la figura 4.6 puede visualizarse la imagen de masas de evidencia correspondiente al producto ortogonal de los resultados expuestos en las figuras 4.2, 4.3 y 4.5.

Figura 4.6.

Producto ortogonal de masas de evidencia. * Umbral de plausibilidad. Ya no resta sino expresar los resultados de la segmentación en forma bina-ria al objeto de seleccionar aquellos pixeles que se clasificarán como integrantes del objeto o elemento detectado E. Ello lo haremos sobre la base del concepto de plausibilidad [KOHLAS 95 (a)]. En nues-tro caso, dado que se ha prescindido de la ambigüedad en las masas de evidencia, la plausibilidad Π correspondiente al pixel pi será la suma de su masa de evidencia µi (ω) más su incertidumbre, es decir:

(4.24) ( ) ( ) ( )ϖµθµωµ iiii −=+=Π 1

En consecuencia, definiendo un valor umbral Π0 para esta magnitud, fijaremos las condiciones más o menos restrictivas a partir de las cuales se obtiene el resultado definitivo de la segmentación. Sin embargo, con la idea de automatizar el proceso es posible suprimir este parámetro sustitu-yéndolo por algún valor característico extraído de la distribución unidimensional formada por el con-junto de valores Πi. Un valor congruente puede ser la media aritmética de la distribución; o si se quie-re más selectividad puede ensayarse con el valor más probable incrementado en la desviación típica. También cabe pensar en el empleo de la media aritmética pero calculada sólo con aquellos valores de plausibilidad que superan un valor mínimo. En tal caso resulta evidente que estaríamos introduciendo un umbral en el proceso. Eligiendo el valor más probable como parámetro de decisión, se obtuvo la imagen binaria de la figura 4.7.a), la cual, una vez limpiada automáticamente de las pequeñas áreas consideradas como ruido, dio lugar a la imagen final expuesta en 4.7.b).

Figura 4.7.

a) Imagen binaria resultante del proceso. b) Imagen obtenida tras eliminar el ruido.

Page 66: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 60

4.3. Estudio comparativo de los resultados. 4.3.1. Otros resultados obtenidos.

Aparte de la imagen utilizada como guía, han sido muchas otras las imágenes a las que se ha aplicado el método descrito de segmentación automática, y no precisamente con el mismo propósito de extraer carreteras, sino también cualquier otro elemento presente en la imagen al objeto de mostrar la potencia del procedimiento que se presenta.

A continuación se exponen en las figuras 4.8, 4.9 y 4.10 algunas muestras incluyendo en cada caso la imagen original, el elemento a detectar, el conjunto de pixeles utilizados para entrenamiento y el resultado real del proceso. Asimismo, en las figuras 4.11 y 4.12 se presentan los resultados que se obtuvieron sobre dos de las imágenes propuestas por Doris Comaniciu y Peter Meer en su estudio so-bre segmentación de imágenes color [COMANICIU 01]. Y finalmente se incluye en la figura 4.13 la detección resultante de un objeto sobre una de las figuras que suelen encontrarse frecuentemente en las referencias más recientes sobre segmentación.

Figura 4.8.

a) Imagen original b) Objeto a detectar c) Pixeles entrenamiento d) Resultado

Figura 4.9.

a) Imagen original b) Objeto a detectar c) Pixeles entrenamiento d) Resultado

Page 67: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 61

Figura 4.10.

a) Imagen original b) Objeto a detectar c) Pixeles entrenamiento d) Resultado

Figura 4.11.

a) Imagen original b) Objeto a detectar c) Entrenamiento d) Resultado

Page 68: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 62

Figura 4.12.

a) Imagen original b) Objeto a detectar

c) Pixeles de entrenamiento d) Resultado

Figura 4.13.

a) Imagen original b) Objeto a detectar

c) Pixeles de entrenamiento d) Resultado

Page 69: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 63

4.3.2. Estudio comparativo con otros procedimientos.

Con la finalidad de dar una idea sobre la mejora que aporta el método propuesto a la detección completamente automática de objetos, carreteras incluidas, se realiza un estudio comparativo de resul-tados con el proceso de segmentación basado únicamente en el clasificador de Mahalanobis, el cual es muy utilizado en la actualidad y constituye la primera etapa de segmentación en nuestro sistema. Para ello se calcularon, sobre los resultados óptimos dibujados a mano según se indica en [WIEDEMANN 98], los porcentajes de aciertos y de errores obtenidos por uno y otro método en las figuras de este ca-pítulo. Como aciertos se consideran todos los pixeles que, debiendo o no ser detectados, en el resulta-do figuran como tales. Los errores sin embargo se desglosan en dos categorías: los tipo 1, definidos como los pixeles que no pertenecen al objeto elegido y que han sido clasificados como pertenecientes; y los tipo 2, es decir, aquellos pixeles que debiendo haberse detectado, no lo han sido.

Para mayor objetividad la comparación se efectuó tomando como pixeles de entrenamiento pa-ra cada imagen en cada método el mismo conjunto de puntos, y eligiendo como umbral de plausibili-dad para la obtención de la imagen binaria, el valor más probable en la distribución de valores resul-tante en cada prueba. Asimismo, se prescindió de la limpieza final de pequeñas áreas en las imágenes finales a evaluar. De este modo se eliminó toda intervención humana que pudiera decantar los resul-tados de uno u otro lado. En la tabla que sigue se exponen los porcentajes obtenidos para el total de las imágenes que se han considerado en este capítulo.

CLASIFICADOR DE

MAHALANOBIS

ANÁLISIS PROGRESIVO DE TEXTURA

Aciertos 71.33 93.88 Errores tipo 1 28.28 4.02 Errores tipo 2 0.39 2.09

Figura 4.1

Aciertos 90.68 95.15 Errores tipo 1 8.69 1.47 Errores tipo 2 0.63 3.38

Figura 4.8

Aciertos 63.27 99.63 Errores tipo 1 36.64 0.09 Errores tipo 2 0.09 0.28

Figura 4.9

Aciertos 59.15 93.70 Errores tipo 1 40.82 4.56 Errores tipo 2 0.03 1.74

Figura 4.10

Aciertos 83.82 92.54 Errores tipo 1 15.95 0.16 Errores tipo 2 0.23 7.31

Figura 4.11

Aciertos 64.30 98.56 Errores tipo 1 35.70 0.46 Errores tipo 2 0.01 0.98

Figura 4.12

Aciertos 46.80 95.95 Errores tipo 1 53.20 0.00 Errores tipo 2 0.00 4.05

Figura 4.13

Cuadro 4.2. Análisis comparativo en porcentajes del método de segmentación.

Como se observa en la tabla, el análisis progresivo de la textura mejora con mucho la segmen-tación automatizada en su totalidad basada exclusivamente en el clasificador de Mahalanobis. Y si bien es cierto que se incrementa el porcentaje de errores tipo 2, el total de pixeles erróneos siempre es menor en el método de segmentación APT propio de nuestro sistema.

Page 70: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 64

4.4. Mejoras del sistema y líneas de estudio en el bajo nivel. A continuación se comentan dos posibles mejoras del algoritmo APT de segmentación que al día de la fecha son objeto de estudio con la finalidad de encontrar, tanto sus grados de aplicación real en nuestro sistema, como la mejor forma de diseñar su implementación. Dichos estudios están orienta-dos en dos direcciones distintas que son las siguientes: * La adición de capas adicionales de segmentación. * La depuración de la salida de plausibilidad. La primera, relacionada con el estudio de la textura, nos permitirá disponer de más informa-ción en el proceso de fusión de las masas de evidencia, lo que ha de contribuir al perfeccionamiento de la imagen binaria resultante. Con la segunda, de carácter geométrico, se propone corregir la salida de plausibilidad a partir de alguna información independiente de la textura como es el análisis de bordes. Ambos procesos son potencialmente factibles, requiriendo de una labor futura de investigación que posibilite su aplicación al proceso automático de la forma más conveniente. Veamos. 4.4.1. Adición de capas adicionales de segmentación. El KL y la SVD.

Aparte de las tres fases utilizadas en el proceso de segmentación (órdenes de estadística 1, 1.5 y 2), la teoría de la evidencia nos permite añadir cuántas etapas adicionales se consideren convenientes al objeto de mejorar la salida de plausibilidad, ya que, como se ha indicado, el producto ortogonal de masas de evidencia es una operación asociativa y conmutativa. No obstante, ha de considerarse ante la adición de otras técnicas parciales, que en el cálculo de masas de evidencia hay que evitar la redundan-cia en el estudio de la información disponible, información que en nuestro caso se ha limitado a la contenida en las tres bandas color de la imagen. Esta es la razón por la cual las tres fases que se apli-can en el proceso se diferencian en el orden de Estadística del método utilizado, lo que en definitiva implica estudiar características y relaciones entre los pixeles distintas en cada caso. Téngase en cuenta que si se duplica una de las fases de detección mediante algún procedimiento que a priori nos parece distinto, lo que en realidad se está haciendo no es extraer una mayor cantidad de información, sino dar un mayor peso a esta etapa parcial del proceso durante la fase de fusión. En consecuencia la amplia-ción del procedimiento descrito, en el sentido de introducir un mayor número de fases parciales de obtención de masas de evidencia, debería hacerse, o bien utilizando procedimientos propios de la Esta-dística de tercer orden, donde se estudian las relaciones existentes en el color entre ternas de pixeles, o bien descendiendo al estudio de la imagen prescindiendo del factor prioritario que se ha utilizado, es decir, del color. El primer caso tiene sentido en todas aquellas aplicaciones donde se necesite el análi-sis de texturas gruesas [CROSS 83 y GAGALOWICZ 87], siendo incongruente cuando se conoce a priori que el elemento a detectar se caracteriza por una microtextura muy definida en las imágenes de uso corriente; caso común en la detección de muchos objetos cartográficos. Por su parte, prescindir del factor color significa estudiar la imagen monocromática, o sea tratar la imagen como una sola banda donde cada pixel se caracteriza por su valor en el tono de gris; número entero comprendido en el inter-valo [0, 255] que es posible obtener a partir de la información disponible, es decir, sobre la base de las bandas RGB. Esta será la tarea que pasamos a discutir a continuación. * Obtención de la imagen monocromática. Transformación KL. Como se parte del supuesto en que sólo se dispone de las tres bandas RGB, y no de una banda monocromática adquirida independiente-mente de éstas, para conseguir la imagen blanco y negro a partir de aquellas buscaremos un cambio de base tal que la imagen transformada conserve la mayor parte de la información sobre uno de los ejes del nuevo sistema, siendo despreciable la información referenciada sobre los dos ejes restantes. Dicho sistema se denominada base óptima [KIRBY 01] y no es otra cosa que el sistema resultante del Análi-sis de la imagen en Componentes Principales (PCA) cuando cada pixel se define mediante el vector vi (ri, gi, bi) según sus tres coordenadas en las bandas RGB. Repasemos el fundamento de este proceso.

Page 71: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 65

> Consideremos el caso general en que la imagen está compuesta de N bandas (N = 3 cuando só-lo se dispone de la composición RGB), y sea la distribución N-dimensional de vectores formada por los P pixeles de la imagen según los valores [0, 255] que definen cada uno en cada una de las bandas:

(4.25) ( ) Pivvv iNiii ,,1,,, 21 KK ==v

Sustituyamos cada vector por su residuo respecto a la media. Tendremos entonces que cada

pixel quedará expresado por el vector xi tal que: (4.26)

mvxvm −=⇒= ∑=

ii

P

iiP 1

1

Pues bien, para obtener la base óptima busquemos primeramente aquél subespacio unidimen-

sional E1 en el cual se hace máxima la suma de los cuadrados de las proyecciones ortogonales de los vectores xi sobre el mismo, es decir, denominando e1 al unitario director de dicho subespacio, se quie-re encontrar aquel vector e1 que hace máximo el valor de la función F1 con la condición C1, funciones respectivamente definidas así:

(4.27)

( ) 11111

211 =•≡•= ∑

=

eeex CFP

ii

Aplicando el método de los multiplicadores de Lagrange [MENA 97 (b)] escribamos la rela-

ción entre gradientes: (4.28)

1

11

1

1111 ee ∂

∂=

∂∂

⇒∇=∇CFCF λλ

Antes de proceder a la derivación consideremos la matriz simétrica S (N x N) definida en la

forma: (4.29)

∑=

=P

i

tiiS

1xx

La función F1 puede ser escrita entonces así:

(4.30)

( ) 1111

11

111

211 eeexxeexxeex SF

P

i

tii

P

i

tii

P

ii •=•=•=•= ∑∑∑

===

Derivando ahora se obtiene:

(4.31) 111111 22 eeee λλ =⇒= SS

Relación que señala al eje E1 de la base óptima como uno de los ejes propios de la matriz S. Para encontrar el eje E2 mantendremos el mismo criterio utilizado, es decir, buscaremos aque-lla dirección perpendicular a la primera sobre la cual la suma de los cuadrados de las proyecciones de los vectores xi es máxima. El problema será pues determinar el vector e2 que hace máxima la función F2 con las condiciones C2 y C12:

(4.32) 01 2112222222 =•≡=•≡•= eeeeee CCSF

Page 72: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 66

Resolviendo nuevamente el problema de extremos condicionados, resulta: (4.33)

2

12222

2

12

2

22

2

212222 22

eee

eee ∂∂

+=⇒∂∂

+∂∂

=∂∂

⇒∇+∇=∇CSCCFCCF µλµλµλ

Y puesto que de toda matriz simétrica siempre es posible extraer vectores propios ortogonales,

podemos suponer nulo el parámetro µ y escribir por tanto la relación que define a la dirección E2 como eje propio de la matriz S:

(4.34) 222 ee λ=S

Extendiendo este proceso hasta el número N genérico de dimensiones, resulta que la base ópti-ma es aquella formada por los ejes propios de la matriz S de covarianzas construida a partir de la dis-tribución formada por el total de los vectores de la imagen original, supuesta ésta definida mediante un total de N bandas:

(4.35) NiS iii ...,,1== ee λ

donde los autovalores, todos ellos reales dada la simetría de S, resultan ordenados según:

(4.36) 021 ≥≥≥≥ nλλλ K

Denominando E a la matriz ortogonal cuyas columnas son los vectores propios encontrados, y

Λ a la matriz diagonal de los autovalores correspondientes, por el cambio de base se tiene: (4.37)

tt EESESE Λ=⇔Λ= O lo que es igual:

(4.38) tNNN

ttS eeeeee λλλ +++= K222111 relación que proporciona la descomposición de la matriz de covarianzas en la suma de N matrices cua-dradas conforme a los vectores de la base óptima. En este sumatorio el sumando i-ésimo representa el aporte a la matriz de covarianzas correspondiente a la banda i de la imagen. En consecuencia, y dado el orden decreciente en la magnitud de los valores propios, la mayor cantidad de información se en-contrará en la primera banda, disminuyendo dicha información progresivamente hasta la banda N-ésima donde será despreciable. El paso de la imagen a la nueva base exige transformar todos y cada uno de los vectores resi-duales xi para sumarlos posteriormente a la media m al objeto de deshacer la traslación de ejes. Ello significa aplicar el producto matricial:

(4.39) PiE ii

t ,,1 K== yx En consecuencia la matriz de covarianzas construida con los residuos yi habrá de ser ahora la matriz diagonal de autovalores según se ha visto en (4.37):

(4.40)

Λ==

== ∑∑∑

===

ESEEEEE tP

i

tii

tP

i

tii

tP

i

tii

111

xxxxyy

Esta matriz asegura una mínima correlación entre las bandas de la imagen en el nuevo sistema.

Page 73: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 67

> El modelo expuesto se conoce como transformación de Karhunen – Loève (KL) [KIRBY 01] y entre sus aplicaciones cabe destacar la posibilidad de sustituir las tres bandas RGB de una imagen por una sola capa de información de forma que las pérdidas sean mínimas. En la figura 4.14 se presentan los resultados del proceso tras su ejecución sobre la imagen original de la figura 4.1.a).

Figura 4.14.

a) Extracción de la media b) Banda primera: λ = 266266214.25

c) Banda segunda: λ = 2856248.89 d) Banda tercera: λ = 331417.85 * Descomposición de la imagen monocromática en componentes singulares. La SVD. Una vez ob-tenida la imagen blanco y negro en la forma expuesta, se propone su descomposición en componentes singulares [GOLUB 96] según el proceso que repasamos a continuación y que constituye una generali-zación de la obtención de valores y vectores propios para matrices no cuadradas o no simétricas. > Consideremos la imagen monocromática como una matriz A (m x n) de valores reales; en nuestro caso números enteros pertenecientes al intervalo [0, 255]. Siendo r el rango de A, (número me-nor o igual que el mínimo de m y n), se demuestra que siempre existen dos matrices ortogonales U y V tales que:

(4.41) tVUA Σ=

donde U ∈ R m x m , V ∈ R n x n y Σ = diag ( σ 1, ..., σ r ) ∈ R m x n. La igualdad (4.41) recibe el nombre de Descomposición en Valores Singulares (SVD) de la matriz A, siendo los elementos de Σ los denominados valores singulares, y las columnas de U y V los vectores singulares por la izquierda y derecha de A respectivamente. La matriz Σ es un operador de or-den m x n cuyos únicos términos no nulos son los r valores singulares dispuestos en diagonal a partir de la posición (1, 1). Estos valores siempre son números reales que satisfacen la condición:

(4.42) 021 >≥≥≥ rσσσ K

Page 74: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 68

> Aunque existen varios algoritmos para el cálculo de la descomposición SVD [PRESS 97], ten-gamos en cuenta lo siguiente. Escribiendo la igualdad (4.41) en la forma:

(4.43) Σ= UVA

es evidente que la columna i-ésima de cada uno de estos productos será:

(4.44) iiiA uv σ=

Por otra parte, de (4.41) también podemos escribir:

(4.45) tt VUA Σ=

Con lo cual, la columna i-ésima será: (4.46)

iiitA vu σ=

Las soluciones de las ecuaciones (4.44) y (4.46) son los valores y vectores singulares busca-

dos. No obstante, a partir de ellas podemos operar en la forma siguiente y escribir: (4.47)

uuvuvu 2σσσ =⇒=⇒= ttt AAAAAA Y análogamente:

(4.48) vvuvuv 2σσσ =⇒=⇒= AAAAAA ttt

Estas relaciones demuestran que los vectores singulares por la izquierda son los vectores propios de la matriz simétrica AAt, y los vectores singulares por la derecha son los vectores propios de la matriz si-métrica AtA. Los valores singulares resultan ser, por tanto, las raíces cuadradas de los r autovalores no nulos de cualquiera de estas matrices, ya que rango (AAt) = rango (AtA) = r. La aplicación de la descomposición SVD sobre una imagen monocromática A, considerada és-ta como una matriz m x n de rango r, permite expresar la imagen como suma de r imágenes parciales merced a la igualdad (4.41) que podemos escribir en la forma:

(4.49) trrr

ttr

i

tiii

r

iiAA vuvuvuvu σσσσ +++=== ∑∑

==

K22211111

sumatorio donde cada término Ai será tanto más significativo cuanto menor sea el valor del subíndice, es decir, cuanto mayor sea la magnitud del correspondiente valor singular σi. En el Anexo II, capítulo 8, se incluye un ejemplo numérico de cálculo sencillo que ilustra el proceso teórico. > Entre las distintas aplicaciones del sumatorio (4.49) se encuentra la posibilidad de expresar una imagen A mediante r precisiones distintas según el número k ∈ [1, r] de términos que se tomen pa-ra su definición:

(4.50) tkkk

ttk

i

tiiiA vuvuvuvu σσσσ +++=≅ ∑

=

K2221111

En general, dado el orden decreciente en la magnitud de los valores singulares, bastarán sólo unos po-cos términos para que la imagen resultante incluya un porcentaje elevado de la información contenida

Page 75: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 69

en la imagen original, ahorrando con ello un importante espacio de almacenamiento de la imagen en el ordenador. En la figura 4.15 se exponen algunos de los sumatorios parciales obtenidos tras aplicar la descomposición SVD a la imagen monocromática de la figura 4.14 (banda primera). Dicha imagen, de rango 149, proporcionó unos valores singulares que oscilaron desde σ 1 = 20626.62 hasta σ 149 = 39.43. El 99 % de la información total se alcanzó con la suma de las k =130 primeras componentes.

Figura 4.15.

a) k = 10, (51.68 %) b) k = 20, (67.70 %)

c) k = 50, (86.73 %) d) k = 100, (96.32 %) * Obtención de la capa de evidencia adicional en el proceso de segmentación. Aparte de su empleo en la compresión de imágenes, puede pensarse en utilizar el algoritmo de la SVD del modo siguiente. Una vez dispuesto el sumatorio completo (4.49) relativo a la imagen monocromática A, resulta eviden-te que cada pixel de la misma estará definido por el vector:

(4.51) ( )rvvv ,,, 21 K=v

donde la componente i-ésima es la correspondiente a la imagen parcial Ai. Esta definición posibilita construir una distribución r–dimensional para el conjunto de los pixeles del área de entrenamiento, la cual estará caracterizada por su media m y la correspondiente matriz de covarianzas Σ. Aplicando en-tonces algún factor de comparación para efectuar el recorrido de la imagen, podremos obtener un pará-metro para cada pixel que exprese su separación con respecto a la distribución de entrenamiento. Me-diante dicho factor será posible obtener la afinidad y la terna de masas de evidencia de forma similar a la indicada en las fases ya incluidas en el proceso. Ello permite disponer de una capa adicional para sumarla a las anteriores conforme al producto ortogonal.

Uno de los factores más simples, y no utilizado de forma fundamental en el proceso descrito de segmentación, es la distancia euclídea:

(4.52)

( ) ( )mvmv −−= it

iid

Page 76: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 70

Aunque también podría pensarse en la distancia de Mahalanobis (4.5), o en otro operador apropiado cualquiera. Asimismo, nada impide sustituir la definición r-dimensional de los píxeles por el conjunto de sus k primeras componentes, lo que significa realizar una compresión de la imagen.

Utilizando la distancia euclídea sobre las 149 componentes de la descomposición de la imagen de la figura 4.14 (banda primera), y atendiendo al área de entrenamiento expuesta en 4.1.b) para la de-tección de las carreteras, se obtuvo la imagen de masas de evidencia representada en la figura 4.16.

Figura 4.16. (*)

Masas de evidencia tras la segmentación KL - SVD.

4.4.2. Depuración de la salida de plausibilidad. Análisis entrópico de bordes.

Otro estudio interesante consiste en mejorar la imagen binaria final de plausibilidad mediante su composición con la información obtenida directamente de la imagen original a raíz de un análisis geométrico de bordes. Aunque la automatización del proceso de fusión de este resultado con la imagen de plausibilidad no es tarea fácil, la detección de bordes es un tema que está bastante conseguido en la actualidad. No obstante, en lugar del empleo del gradiente conforme utilizan los operadores de Roberts y Sobel [DUDA 01], en este apartado se propone la extracción de bordes basada en el análisis de va-riación de la entropía [HARALICK 79] en cada zona de la imagen.

A continuación se describe brevemente el procedimiento mencionado, el cual puede estudiarse

con todo detalle en [ROMAN 97]. > Supóngase un conjunto W compuesto por n elementos, y formemos la partición P(W) con arre-glo a cierto criterio caracterizado por K < n posibilidades excluyentes. Denominando Pi al número de elementos del subconjunto i-ésimo de P, es evidente que se verifica:

(4.53)

nPpsipppnPPP i

iKK ==+++⇒=+++ 12121 KK

Podemos entonces definir la entropía H del conjunto W como el valor:

(4.54)

( ) ( )[ ] ∑=

==K

iii ppWPHWH

1L

donde pi es la probabilidad resultante en W para la opción i-ésima del total K.

(*) Esta imagen no se incluye en el método de segmentación de nuestro sistema, toda vez que actualmente no se ha finalizado el estudio sobre la forma más conveniente de aplicar el KL y la SVD al proceso de extracción de elementos.

Page 77: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 71

Realizando ahora una división de W en dos subconjuntos W1 y W2 tales que: (4.55)

∅== 2121 WWyWWW IU se define la divergencia de Jensen – Shannon de W mediante la expresión:

(4.56)

( ) ( ) ( ) ( )[ ]2121 WHWHWHWJS +−=

Pues bien, si se ecualiza una imagen color en K tonos de gris, y se abre una ventana rectangu-

lar W de dimensiones m x 2m para cada pixel, resulta que, siendo W1 y W2 las semiventanas que se ob-tienen al dividir W en dos partes iguales de m x m elementos, podremos construir la correspondiente divergencia JS(W) sin más que definir pi como el número de pixeles que tienen el tono Ki, normalizado con n = 2m2 para el caso de W o con n = m2 para las semiventanas W1 y W2. El valor JS(W) correspondiente a un pixel hace referencia a la variación de entropía existente entre las semiventanas W1 y W2 con respecto a la ventana completa W. Entonces, si la ventana W se abre de forma que el pixel en cuestión quede lo más centrado posible en ella, un valor muy alto de la divergencia indicará una alta probabilidad de que cada semiventana pertenezca a un elemento distinto de la imagen, o lo que es igual, que el pixel en estudio pertenezca a un borde de separación de elemen-tos. Por el contrario, si el valor de la divergencia es bajo, será poco probable que el pixel pertenezca a un borde, ya que la entropía en las semiventanas tiene valores similares a la entropía de W. Desde luego la orientación que se elija para la ventana W es un factor determinante en la cali-ficación del pixel como perteneciente o no a un borde, ya que una ventana horizontal puede propor-cionar un valor muy distinto de la divergencia al obtenido con una ventana vertical, lo que es función de la propia orientación que el borde tenga en la imagen. Para evitar tal incertidumbre, el método pro-puesto exige calcular para cada pixel cuatro valores distintos de la divergencia, según que la ventana W se abra a 0º, 45º, 90º y 135º, asignándose al pixel el valor máximo de todos ellos:

(4.57) ( ) ( ) ( ) ( ) ( )[ ]º135º90º45º0 ,,,max WJSWJSWJSWJSWJS =

Otro problema que surge es la posibilidad de encontrar numerosos picos en el conjunto de los valores de divergencia para el total de la imagen, lo que complica la tarea de discernimiento de los pixeles que realmente forman parte de los bordes. Una ayuda en este aspecto consiste en sustituir las divergencias absolutas por divergencias atenuadas, suavizando de esta forma el conjunto de valores. Para ello se aplica la función:

(4.58)

( ) ( ) ( )[ ] ( )G

ggWWWJSWJSa

21;1−

=+−= ββαα

donde α ∈ [0, 1] es el coeficiente de atenuación, y β (W) un factor propio de cada ventana que se ob-tiene dividiendo el valor absoluto de la diferencia entre los niveles medios de gris de las semiventanas por el nivel máximo de gris de la ventana completa. Se trata por tanto de valores pertenecientes al in-tervalo [1, K]. Una vez obtenida la matriz de divergencias atenuadas para todos los pixeles de la imagen, se procede a un nuevo suavizado de sus valores mediante la aplicación de un filtro de media. Este filtro se aplica abriendo una ventana 3 x 3 en la matriz, de forma que la divergencia que ocupa el lugar cen-tral se sustituye por la media ponderada de los nueve valores de la ventana, siendo todos los pesos iguales a la unidad salvo el que ocupa el centro que tendrá por valor dos. Pasado el filtro de media, se suponen eliminados determinados máximos locales no debidos a la existencia de bordes.

Page 78: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 72

> Llegados a este punto podemos escoger dos caminos para obtener el resultado. El primero, adoptado en [ROMAN 97], consiste en abrir nuevamente una ventana 3 x 3 en la matriz de divergen-cias atenuadas y estudiar la magnitud del valor que ocupa la posición central con respecto a los valores del entorno. Para ello se establece un parámetro de tolerancia T y se califica como pixel perteneciente al borde todo aquel que, al menos en una dirección dentro de su ventana, verifique la condición:

(4.59) ( ) TWJSWJS entornoacentrala >−)(

La segunda opción, que presentamos aquí y mantiene la línea de nuestro sistema, exige escalar

en el intervalo [0, 1] todos los valores de la matriz de divergencias, representando en una imagen el correspondiente complemento a la unidad multiplicado por 255. De este modo aparecerán más oscuros los pixeles que mayor probabilidad tienen de pertenecer a los bordes, siendo más claros aquellos cuya probabilidad es menor. Se consigue de esta forma evitar el parámetro T y conservar toda la informa-ción de la imagen, en cuanto a divergencias se refiere, al objeto de un posible uso posterior. Con respecto a los valores arbitrarios K, m y α que se introducen en el proceso se estima lo si-guiente. El número K de niveles de gris deberá ser lo más pequeño posible sin perder el detalle de la imagen; el valor de m que define las dimensiones de las ventanas debe elegirse no demasiado ancho al objeto de evitar que dos bordes distintos entren en una misma ventana; y finalmente, el coeficiente de atenuación α no ha de ser muy elevado con el fin de no restar relevancia a las magnitudes de las diver-gencias. > Tal y como se ha descrito, parece lógico pensar que la detección entrópica de bordes rendirá mejores resultados en aquellas imágenes donde la entropía sea un factor importante. En consecuencia, dado que la transformación KL se caracteriza por hacer mínima la entropía de Shannon [KIRBY 01], hemos optado por aplicar este proceso sobre la imagen original de la figura 4.1.a) en lugar de elegir la primera banda de la figura 4.14. El resultado obtenido, con los valores K = 5, m = 5, α = 0.2, y eligien-do nuestra opción para la muestra de resultados, se presenta en la figura 4.17.

Figura 4.17.

a) Imagen ecualizada. b) Detección entrópica de bordes. Una ventaja importante que reviste el proceso estudiado es que los bordes siempre aparecen mediante una línea doble de pixeles, eliminando de esta forma la incertidumbre característica de otros métodos a la hora de saber a cuál de los objetos que separa pertenece el borde. > Para finalizar volveremos a insistir sobre la dificultad que representa combinar de forma auto-mática la salida de la detección de bordes con la imagen binaria 4.7.b) de plausibilidad al objeto de mejorar el módulo de segmentación presentado en este capítulo. De hecho han fracasado cuántos in-tentos se han realizado hasta el momento. No obstante, se estima que pueden obtenerse aceptables re-sultados si se restringen las características de los objetos a detectar dentro del tipo buscado. Por ejem-plo limitando las carreteras a aquellas de un ancho determinado.

Page 79: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 4: El sistema de extracción (ii): Módulo de segmentación. J. B. Mena

Pág. 73

En el ámbito de la Cartografía hemos visto que la detección de las vías de comunicación (ca-rreteras) constituye un amplio campo de estudio donde poco a poco se van obteniendo progresos inte-resantes. En este tema es posible que la búsqueda de bordes más o menos rectilíneos pueda aportar al-guna mejora tangible en la salida de la segmentación, aunque sólo sea promoviendo la eliminación de algunas regiones residuales de la imagen binaria que, o bien constituyen zonas erróneas, o bien no son de la suficiente envergadura como para generar la formación de un nuevo objeto en la base de datos.

4.5. Conclusiones. La Teoría de la Evidencia, superior a la clasificación Bayessiana [CRESSIE 91] por considerar el concepto de incertidumbre, resulta ser una excelente técnica de guía y gobierno del proceso descrito de segmentación, ya que deja éste completamente abierto para su mejora mediante la inclusión de otras capas de información, ajenas o no al análisis de la textura, expresadas en tríadas de masas de evi-dencia y procedentes del análisis de otras bandas de la imagen hiperespectral [McKEOWN 99 (a)]. Restringiéndonos a las tres bandas color y considerando las actuales técnicas de segmentación, se ha querido mostrar la potencia y relevancia del estudio de la textura, en particular del concepto que hemos definido como textura conjunta bajo la técnica APT. Dicho estudio, según se ha visto, rinde re-sultados muy aceptables cuando se realiza alternando las bandas RGB y HSV de la imagen. En este as-pecto podemos intuir una especial importancia en aplicaciones de detección y generación de texturas sintéticas [GAGALOWICZ 87]. No obstante, ha de tenerse en cuenta que para detectar texturas donde la frecuencia de repetición es más baja, se hace necesario incrementar el tamaño 3x3 de la ventana, lo que implica a su vez utilizar un mayor número de bandas al objeto de construir el cubo de textura. Asimismo, en la segmentación de imágenes donde las sombras son un serio problema cuando sólo se tratan las bandas color, creemos que el análisis de la textura ha de considerarse imprescindible, pues si bien sus resultados no son absolutos, es la única herramienta con ciertas posibilidades en el ba-jo nivel de eliminar algunas de tales zonas oscuras. Esta tarea ha de complementarse con otras técnicas de segmentación apoyadas en el medio nivel capaces de soslayar, o al menos disminuir, este problema. Por su parte el clasificador de Mahalanobis para tres bandas, aunque suele proporcionar resul-tados satisfactorios, éstos dependen en gran medida del conjunto de entrenamiento elegido, lo que constituye un escollo cuando la clasificación es automáticamente supervisada. Sin embargo, esta cir-cunstancia se pormenoriza desde el momento que añadimos la detección intermedia y el análisis de la textura conjunta como capas adicionales de información. Otro punto de interés que extraemos como conclusión es la importancia y conveniencia que tiene en el proceso el continuo mantenimiento de la máxima cantidad de la información disponible, conservando los 256 tonos de gris en cada banda y presentando los resultados mediante masas de evi-dencia. De este modo siempre será posible introducir los cambios apropiados en el procedimiento con la finalidad de optimizarlo para la detección de un objeto E concreto, lo que abre las puertas a un sin-fín de aplicaciones específicas donde se pretende la segmentación completamente automatizada. En el campo de los Sistemas de Información Geográfica y la Cartografía Digital el algoritmo propuesto sólo puede considerarse como una minúscula herramienta dentro del citado entorno, el cual tiende a ser un espacio - objeto fundamentado en el control del conocimiento donde los elementos grá-ficos, revestidos de información alfanumérica y procedentes de múltiples fuentes, interactúan según una serie de normas que el propio sistema actualiza de continuo. En este caso, la textura conjunta po-dría tratarse como una de las características propias más importantes de los distintos objetos con vistas a su representación ráster. Y podemos preguntarnos entonces, si en toda base de datos de cualquier ín-dole son fundamentales las relaciones entre sus elementos, ¿ Por qué no utilizar la textura, a través de la Teoría de la Evidencia, como un medio topológico en la relación de las distintas áreas u objetos que constituyen una imagen ? He aquí una nueva línea de investigación para futuros estudios.

Page 80: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 74

5 El sistema de extracción (iii):

Módulo de vectorización.

TOPOLOGÍA Y VECTORIZACIÓN AUTOMÁTICA DE ENTIDADES LINEALES MEDIANTE LA EXTRACCIÓN DEL ESQUELETO Y LA

TEORÍA DE GRAFOS

RESUMEN. El presente módulo del sistema de extracción consiste en un procedimiento cuya finalidad es la vectori-zación automática de la imagen binaria de plausibilidad resultante del módulo de segmentación, cuando el ele-mento detectado puede ser descompuesto en un conjunto de objetos lineales conectados entre sí. Tal es el caso de la extracción de vías de comunicación para la actualización de Cartografía Digital en el marco de los Sistemas de Información Geográfica (SIG). Este proceso, que trata el problema en el bajo y medio nivel de conocimiento, se inicia con una limpieza previa de pequeñas áreas consideradas como ruido, para continuar con la determinación y suavizado de los bordes. Seguidamente se extrae el esqueleto por dos procedimientos complementarios: el pri-mero mediante la técnica K-means y degeneración de la triangulación de Delaunay; y el segundo asociando a cada píxel su correspondiente distancia de Chamfer al borde. A partir de aquí se buscan los nodos, se determinan los tramos entre los mismos, y se construye el grafo de relaciones topológicas. Sobre la base de tales relaciones se establecen clases de equivalencia para agrupar los diferentes tramos entre nodos, eligiendo como relación el factor de pendiente existente entre los extremos correspondientes. Dicha clasificación permitirá construir los dis-tintos objetos lineales a modo de conjuntos ordenados de tramos interconectados, obteniéndose para cada objeto el nodo inicio y final, los nodos intermedios, el conjunto de píxeles que lo componen, y sus relaciones con los objetos restantes, es decir, la topología de los elementos a vectorizar que residen en la imagen. Esta última fase constituye un proceso reiterativo que admite información adicional residente en el SIG, mediante la cual se pre-tende la depuración de aquellos objetos incongruentes con el resto de elementos vectoriales almacenados en base de datos. Como paso final se efectúa el ajuste geométrico y topológico de los distintos objetos que no hayan sido eliminados, utilizándose polinomios (o splines) y polígonos (o snakes de primer orden) para el ajuste de la geo-metría, y rectificándose morfológicamente la posición de los nodos con el fin de conseguir una red de elementos gráficos definidos y conectados sin incertidumbre. PALABRAS CLAVE: Vectorización, esqueleto, K- means, Delaunay, Chamfer, topología, splines, snakes. 5.1. Introducción. Como es sabido, el problema de vectorizar automáticamente elementos lineales a partir de una imagen ráster no es tarea fácil. De hecho no existe todavía un algoritmo que rinda buenos resultados en todo tipo de imágenes sin incluir alguna interactividad por parte del operador, lo que provoca que sean muchas las referencias donde se proponen o valoran métodos semiautomáticos de extracción; véanse por ejemplo: [GRUEN 97], [LI 97], [MIRAVET 98], [COULOIGNER 00], [DAL POZ 00 (b)], [DILLABAUGH 02], [YOON 02] y [ZHAO 02], entre otras.

Sin embargo, cuando limitamos la resolución y características generales de la imagen, así co-mo la clase de elemento a vectorizar, e incluimos información complementaria que proporcione cierta “inteligencia” al sistema [SOWMYA 00], es posible obtener resultados interesantes en una gran parte de los casos. Tal es el problema que nos ocupa ahora y cuya resolución se propone seguidamente.

Page 81: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 75

Dado que el marco general del presente trabajo consiste en la actualización de la capa vectorial del SIG en lo referente a vías de comunicación, acotaremos el estudio a la vectorización de dichas en-tidades lineales, si bien el proceso que se describe puede aplicarse a cualquier otro elemento de natura-leza geométrica similar. Asimismo, supondremos que el elemento a vectorizar procede de la segmen-tación de una imagen con resolución de pocos metros, lo que implica una magnitud apreciable en el ancho de las vías de comunicación extraídas. En particular centraremos el problema en la determina-ción de los vectores que definen una red de carreteras expresada por la imagen binaria ráster de plausi-bilidad resultante del proceso automático de segmentación tratado en el capítulo 4; ello supone realizar un estudio global en extracción de carreteras paralelo pero distinto al presentado en [AMINI 02]. Aunque teóricamente el concepto de Sistema de Información Geográfica no pone límites a las características de la información factible de almacenar en base de datos, en la realidad cuando se dise-ña un SIG lo primero que ha de tenerse en cuenta es la finalidad para la cual se crea el sistema, defi-niendo claramente los objetivos y las prioridades en las prestaciones que se desean obtener. Quiere es-to decir que no puede construirse de igual forma un sistema orientado a la edición y mantenimiento de cartografía base a escala 1/50000 ó 1/25000 de una amplia zona de terreno, que un sistema cuyo objeto sea por ejemplo proporcionar agilidad al Parque de Bomberos de una gran ciudad. Evidentemente am-bos sistemas tienen necesidad de datos geográficos, pero tanto el detalle como el orden y característi-cas de la información almacenada en cada caso han de ser forzosamente distintos al objeto de conse-guir la efectividad deseada. Esta palpable diferencia se pone de manifiesto, entre otros muchos aspec-tos, en la resolución utilizada a la hora de definir la geometría de los objetos que integran la capa vec-torial del sistema, aunque se aplique un mismo criterio en la subdivisión de los distintos elementos en entidades lineales, superficiales, símbolos, etc. Así por ejemplo, una curva de nivel o una carretera al-macenada mediante una sucesión ordenada de puntos de coordenadas conocidas [MENA 92], tendrá distinto intervalo entre sus componentes dependiendo de la estructura y aplicación de cada sistema. En lo relativo a las entidades lineales, y según se desprende del párrafo anterior, podemos pre-guntarnos: ¿Cómo es posible encontrar un procedimiento de vectorización que sea independiente de la resolución propia de cada SIG? La respuesta reside en marcar como uno de los objetivos la obtención de la ecuación del eje central de cada objeto como paso previo al almacenamiento propiamente dicho en el sistema. De hecho la estructura de almacenaje de los elementos gráficos en la Base de Datos Car-tográfica (BDC) es particular de cada uno de los diseñadores de software existentes en el mercado. Por lo tanto, una vez obtenido el eje central, el almacenamiento del objeto en el SIG con su geometría, atributos y topología, será un trabajo sencillo que no requiere otra cosa que el estudio de la estructura elegida para el diseño del sistema en cuestión. Con esta premisa se hace necesario detectar la nube de puntos que constituye cada objeto en la imagen binaria ráster, para a continuación aplicar algún méto-do de ajuste a la misma que proporcione la ecuación del eje central.

Dado que el problema de encontrar y separar automáticamente las diferentes nubes de puntos a vectorizar engendra un alto grado de complejidad, optaremos por comenzar con la extracción del es-queleto de la imagen ráster inicial, es decir, se obtendrá el conjunto de pixeles equidistantes de los bor-des del elemento detectado considerado éste en su conjunto. Para tal menester [AMINI 02] propone aplicar la transformación de Wavelet [BENEDETTO 94 y CHUI 97], al objeto de reducir la resolución de la imagen binaria y conseguir posteriormente el esqueleto. Sin embargo la bibliografía ofrece otros trabajos que consideramos de mayor interés por sus posibilidades como son [BORGEFORS 88], [SANNITI 94] y [DOUCETTE 01], los cuales utilizaremos aquí si bien con notables modificaciones sobre los algoritmos publicados.

Conseguido el esqueleto, y una vez sean identificadas las bifurcaciones o terminales del mis-mo, construimos los objetos a modo de subconjuntos del esqueleto interconectados, procediendo al ajuste de los distintos grupos de pixeles. Dicho ajuste se realiza mediante mínimos cuadrados [MENA 97], utilizando el acuerdo polinómico robusto [PEÑA 93] cuando el objeto es abierto, y a través de po-lígonos, entendidos como caso particular de snakes [KASS 87], en el caso de objetos cerrados. En los objetos abiertos también puede optarse por el empleo alternativo de splines [DE BOOR 78].

Page 82: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 76

Otro punto importante es la extracción de la topología de las distintas entidades lineales que componen la imagen, es decir, la determinación de las relaciones de conexión en el conjunto de la red de carreteras en nuestro caso, así como el agrupamiento de varios objetos en una sola entidad y la eli-minación de aquellos objetos que han sido erróneamente detectados. Esta labor, en cuya resolución se aplica la teoría de grafos [AHO 83], rendirá resultados distintos dependiendo de la información adi-cional que se suponga disponible en el SIG. En consecuencia es aquí donde el proceso de vectoriza-ción ha de calificarse como de nivel medio en el conocimiento que el sistema necesariamente ha de te-ner del problema si se quieren obtener buenas salidas [EIDENBENZ 00 y ZHANG 02 (b)]. Para ilus-trar el tema, y a modo de ejemplo, se ha incorporado al método la forma de utilizar al mencionado ni-vel información vectorial de edificaciones supuestamente residente en la BDC. A continuación se describen las distintas fases del proceso utilizando una misma imagen como guía, se exponen los resultados obtenidos con otras imágenes ejemplo, incluyendo un análisis empírico de los mismos [WIEDEMANN 98], y se finaliza con un apartado de posibilidades y conclusiones. 5.2. Proceso de vectorización automática. 5.2.1. Generalidades. El método en su conjunto. Como ya se ha indicado el proceso que sigue, cuyo objetivo es la determinación automática de la topología y vectorización de entidades lineales en una imagen binaria ráster, se aplicará a modo de ejemplo sobre la imagen de plausibilidad resultante del método de segmentación presentado en el capí-tulo 4, siendo por lo tanto una continuación de aquél cuando lo que se pretende es la extracción de en-tidades cartográficas de naturaleza lineal; en nuestro caso la detección de vías de comunicación en zo-nas rurales o semiurbanas. En consecuencia trataremos la imagen representada en la figura 5.1.b), la cual se obtuvo de forma completamente automática a partir de la imagen preprocesada 5.1.a).

Figura 5.1.

a) Imagen original. b) Resultado de la segmentación a vectorizar. Para conseguir el objetivo que se persigue se ha dividido el procedimiento en las siguientes fa-ses sucesivas: * Limpieza de la imagen. Proceso donde se eliminarán pequeñas zonas consideradas como ruido re-manente del módulo de segmentación. * Establecimiento y suavizado del borde. Determinación de aquellos pixeles que constituyen la región a vectorizar (dominio D), así como de aquellos no pertenecientes a dicho conjunto pero que lo delimi-tan. Esta fase de clasificación se complementa con un sencillo proceso de generalización del borde a fin de disminuir el grado de rugosidad, obteniéndose con ello un borde más suave y por tanto más idó-neo para la ejecución de las fases siguientes.

Page 83: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 77

* Detección del esqueleto. Cálculo de los pixeles pertenecientes a D que forman parte del esqueleto, es decir, aquellos que constituyen la columna vertebral de la región a vectorizar por encontrarse a una misma distancia del borde establecido en la fase anterior. Este proceso se subdivide en las siguientes etapas:

- Curvado inicial. Clasificación por cota de los pixeles del conjunto D, entendiéndose por cota la distancia euclídea, medida en pixeles, de cada pixel al borde. De esta forma las unidades del borde tendrán por cota cero, incrementándose dicho valor a medida que los pixeles se aproxi-man al esqueleto del conjunto D. - Distancia de Chamfer. Sustitución de la distancia euclídea correspondiente a cada pixel de D por su (3,4) distancia de Chamfer al borde [BORGEFORS 88 y SANNITI 94]. Esta distancia, mediante la cual se considera la dirección de medida, determina de forma más exacta la sepa-ración existente entre cada pixel y el borde o frontera del conjunto D. - Establecimiento de la divisoria. Obtención de los pixeles cuya distancia de Chamfer al borde es máxima en cada región del dominio D. Este conjunto continuo de pixeles adyacentes consti-tuye la estructura inicial del esqueleto que se busca. - Adelgazamiento o thinning. Proceso cuya finalidad es proporcionar al conjunto divisoria el ancho de un pixel en todo su recorrido. - Singularidades. Determinación de aquellos pixeles de la divisoria donde dicho conjunto se ramifica (bifurcaciones), o donde el conjunto pierde la continuidad (terminales). Estos puntos, también llamados nodos, servirán de guía para establecer posteriormente las denominadas bol-sas, es decir, aquellos subconjuntos de pixeles no singulares pertenecientes a la divisoria que están comprendidos entre dos nodos. Finalizada esta etapa, el esqueleto queda constituido. - Podado o prunning. Eliminación de aquellas bolsas acabadas en al menos un terminal que son de poca longitud en comparación con las restantes. Este podado se efectúa midiendo el nú-mero de pixeles del esqueleto existente entre cada dos nodos consecutivos. Por lo tanto, no existe aún conocimiento explícito del sistema en cuanto al concepto bolsa se refiere.

* Detección complementaria del esqueleto. En esta fase se procede a determinar el esqueleto de forma independiente al método anterior, al objeto de servir de comprobación o complemento del resultado allí obtenido. El método, basado en la técnica K-means y la degeneración de la triangulación de De-launay [MENA 02 (a)], consiste en establecer el diagrama de Voronoi y la correspondiente triangula-ción de Delaunay [DE BERG 98] en el dominio D a partir de un número K inicial de nodos, el cual se va modificando automática y reiterativamente a medida que se sustituyen triángulos adyacentes por el segmento de unión entre sus baricentros. El proceso finaliza cuando la triangulación de Delaunay que-da reducida a segmentos por no ser capaz ya de establecer triángulo alguno. * Generación del grafo de objetos. A continuación se realiza la construcción del grafo de las distintas entidades vectoriales que componen el dominio D. Dicho grafo comprende la subdivisión del esquele-to en bolsas y la composición de éstas para formar objetos, así como el establecimiento de las relacio-nes topológicas de cada objeto con los restantes. A posteriori de esta fase el sistema conoce los pixeles que componen cada bolsa, las bolsas y nodos que constituyen cada objeto, y el orden de los elementos en cada estructura lineal. Asimismo quedan determinados los nodos inicio y final, y también los nodos intermedios mediante los cuales cada objeto resulta conectado con los objetos de su entorno. Para con-seguir este propósito, que significa un incremento en el nivel de conocimiento del sistema, se ejecutan ordenada y sucesivamente las siguientes etapas:

- Partición. Proceso donde quedan establecidas y numeradas las distintas bolsas que constitu-yen el esqueleto, incluyendo los respectivos nodos de inicio y final de cada una de ellas, así como el carácter de bifurcación o terminal de los mismos.

Page 84: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 78

- Podado a nivel medio. Eliminación de aquellas bolsas que, delimitadas al menos por un ter-minal, son de poca longitud con respecto al conjunto de bolsas existente. Esta etapa, donde el sistema trata el concepto de bolsa como tal, es útil para depurar errores residuales de la seg-mentación que aún pudiesen permanecer en la imagen. - Podado topológico. En el caso de disponer de información adicional, como por ejemplo la procedente de otras capas vectoriales del SIG, se realiza un segundo podado para eliminar aquellas bolsas que, no habiendo sido rechazadas en el podado anterior, son incongruentes con la citada información adicional. - Análisis de la curvatura de las bolsas. Estudio de la curvatura en los pixeles interiores de ca-da bolsa, subdividiendo en dos o más partes aquellas bolsas donde la curvatura es elevada en alguno de sus puntos. Esta subdivisión se efectúa mediante la introducción de nodos adiciona-les en el esqueleto que sustituyen a los pixeles encontrados. - Establecimiento de clases y objetos. Calculando la pendiente existente entre los nodos inicio y final de cada una de las bolsas consideradas válidas, y estableciendo un umbral en los már-genes del mencionado parámetro, se establecen clases de equivalencia en el conjunto de las bolsas. Entonces, atendiendo a la adyacencia de las bolsas dentro de una misma clase, se cons-truyen los distintos objetos lineales que constituyen el esqueleto a modo de sucesión ordenada de nodos y bolsas. Tras esta etapa los objetos quedan completamente definidos en lo referente a su composición y relaciones topológicas con los objetos restantes.

* Ajuste geométrico. Dispuestos los distintos objetos se aplica una fase de ajuste para encontrar en ca-da caso el eje central. Dicho ajuste se realiza mediante polígonos en los objetos que comienzan y ter-minan en un mismo nodo, y mediante polinomios en aquellos cuyos nodos inicio y final son distintos. En este último caso el ajuste se implementa de forma robusta según la función de ponderación de resi-duos de Huber [PEÑA 93], el grado se elige coincidente con el número total de nodos del objeto, y se toma como función la variable x ó y según la posición del objeto en la imagen. * Ajuste topológico. Tras el ajuste geométrico las coordenadas de los distintos nodos no responderán ya al papel de terminal o bifurcación de éstos por estar desplazados de los respectivos objetos. Podría pensarse en realizar entonces un ajuste condicionado mediante mínimos cuadrados [MENA 97 (a)] que modificase las ecuaciones de los objetos a fin de hacerlos pasar por los nodos. Sin embargo dicho método no es factible aquí porque las posiciones relativas de los nodos pueden llegar a desvirtuar el ajuste polinómico resultante. En su lugar se aplica un procedimiento morfológico [SERRA 82] que re-construye los terminales haciéndolos coincidir con los puntos extremos de los objetos, y las bifurca-ciones buscando aquellas coordenadas que satisfacen simultáneamente las ecuaciones de los distintos objetos que deben conectar entre sí. Después de realizar las siete fases expuestas, el sistema tiene completamente identificada la geometría de cada objeto, así como su topología en cuanto al conjunto de elementos gráficos obtenidos se refiere. El paso de dichos resultados a un SIG concreto no dependerá ya más que del diseño del mis-mo. Seguidamente se estudia en detalle cada una de las fases del proceso. 5.2.2. Limpieza de la imagen binaria a vectorizar. Como será normal que exista ruido en la imagen binaria de plausibilidad resultante del proceso de segmentación, antes de proceder a realizar ningún análisis de la misma se aplica un algoritmo de limpieza con el propósito de eliminar pequeñas áreas residuales. Dicho algoritmo se apoya en la natu-raleza binaria de la imagen. De este modo, designando con 1 los pixeles componentes del dominio D a vectorizar, que representamos en blanco en la figura 5.1.b), y con 0 los no pertenecientes al citado do-minio (representados en negro), se ha diseñado el siguiente método de limpieza compuesto por dos etapas sucesivas:

Page 85: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 79

* Limpieza por pixeles. Consiste en recorrer la imagen cambiando a 0/1 todo pixel 1/0 en cuya venta-na 3x3 existe un mayor número de pixeles 0/1 que 1/0. Este proceso, que obvia el marco de la imagen, se reitera hasta encontrar un recorrido de la imagen donde no se haya realizado cambio alguno. Tras ser aplicado a la imagen de la figura 5.1.b) se obtuvo el resultado representado en la figura 5.2.

Figura 5.2.

Primera etapa del proceso de limpieza.

* Limpieza por áreas. A continuación se tratan todas las áreas disjuntas de la imagen, ya estén com-puestas por pixeles clasificados como 1 o bien como 0, considerando los pixeles del marco de la ima-gen como pertenecientes al área con la cual lindan. El algoritmo de trabajo de esta etapa consiste en convertir a 0/1 todos los pixeles de cualquier subconjunto 1/0 que esté compuesto por un número de pixeles menor que un umbral determinado. Dicho umbral se establece teniendo en cuenta las caracte-rísticas generales de la imagen, principalmente en lo referente a su resolución; por lo tanto puede considerarse como un valor fijo para la gran mayoría de imágenes cuya naturaleza sea similar a la que se muestra. Físicamente, el proceso de contar el número de pixeles de cada región se realiza sencilla-mente mediante el relleno previo de las distintas áreas con diferentes colores. Una vez determinada la permanencia o eliminación de cada área bastará con la asignación correspondiente 1/0 a los pixeles de la misma y el posterior trazado del marco. De esta forma se alcanzó el resultado de la figura 5.3 co-rrespondiente a la imagen anterior.

Figura 5.3.

Segunda etapa del proceso de limpieza.

5.2.3. Establecimiento y suavizado del borde. Esta segunda fase del proceso está compuesta por las dos etapas siguientes: * Establecimiento del borde. Se trata de obtener la frontera del dominio D considerando éste como un conjunto abierto, es decir, el borde B del citado conjunto estará compuesto por todos aquellos pixeles no pertenecientes a D en cuya ventana 3x3 existen pixeles de D.

Page 86: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 80

Al objeto de colaborar con los esfuerzos que en la actualidad se están realizando para propor-cionar un formalismo matemático al tratamiento de imágenes [RITTER 99], si denominamos v (p, 3) a la ventana 3x3 en cuyo centro se encuentra el pixel p, el borde B de la imagen lo definiremos así:

(5.1) p ∈ B ⇔ p ∉ D y ∃ q ∈ D ; q ∈ v (p, 3)

A la vez que se detecta el conjunto B sustituiremos la clasificación binaria inicial de los pixe-

les de la imagen por los siguientes conjuntos algebraicos cuyas representaciones gráficas se muestran en la figura 5.4:

(5.2) - U. Conjunto universal de los pixeles que constituyen la imagen. - D. Conjunto de pixeles pertenecientes a la zona a vectorizar. Representados en color amarillo en la figura, se les asignó el valor inicial de referencia 1000. - Dc. Conjunto complemento de D => U = D ⊕ Dc. Este conjunto se descompone a su vez en la suma directa Dc = B ⊕ M ⊕ N de los siguientes subconjuntos:

- B. Frontera del dominio D. Sus pixeles se dibujan en negro y se referencian con +1.

- M. Marco de la imagen tal que p ∉ B y p ∉ D. Pixeles con el valor de referencia –1.

- N. Pixeles p tales que p ∈ Dc, p ∉ B y p ∉ M. Dibujados en blanco, su referencia es 0.

Figura 5.4.

Establecimiento del borde.

Como consecuencia de tal clasificación se verificará la siguiente relación lógica por la cual la

intersección entre cualquier pareja de estos conjuntos es el conjunto vacío: (5.3)

D ⊕ B ⊕ M ⊕ N = U

Además conviene resaltar, como se observa en la figura, que existen pixeles pertenecientes a D cuyas coordenadas se corresponden con las características del marco M de la imagen. Esta circuns-tancia, expresamente llevada a cabo, tiene por objeto facilitar una posterior conexión de los distintos elementos lineales con los correspondientes de las imágenes colindantes. * Suavizado del borde. Una vez determinados los pixeles del conjunto B, se procede al adelgazamien-to del borde al espesor unidad aplicando a la vez un algoritmo de generalización al objeto de suavizar la curvatura del mismo. Dicho algoritmo tiene en cuenta los rasgos generales del conjunto B a fin de mantener la estructura general del mismo. El resultado obtenido tras esta etapa se muestra a continua-ción en la figura 5.5.

Page 87: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 81

Figura 5.5.

Suavizado del borde.

5.2.4. Detección primaria del esqueleto. Distancia de Chamfer. Nos encontramos ahora en disposición de determinar aquellos pixeles del conjunto D que for-man parte del esqueleto E de la zona a vectorizar. Y decimos: Definición 1. Por esqueleto E se entiende el conjunto de pixeles adyacentes entre sí pertenecientes a D, tales que la diferencia de sus distancias a los elementos del borde B, medidas en ambos sentidos de la dirección discreta ortogonal a B, es la mínima posible.

Sin embargo, antes de clasificar los pixeles como pertenecientes o no al conjunto E, es necesa-rio definir la distancia a utilizar. Dado que nos encontramos ante un conjunto discreto de puntos, con sus correspondientes dimensiones en función de la resolución de la imagen, en un principio aplicare-mos la distancia euclídea (d) medida en pixeles, para seguidamente establecer la (3,4) distancia de Chamfer (δ) característica de cada pixel [BORGEFORS 88 y SANNITI 94]. La diferencia entre ambas definiciones de la distancia reside simplemente en el peso que asignamos a la unidad de separación en-tre dos pixeles según la dirección discreta que se considera. Así, mientras que en la observación de la distancia euclídea entre dos pixeles p y q sólo se tiene en cuenta el menor número posible de pasos intermedios, independientemente de la dirección, cuando se observa la (3,4) distancia de Chamfer se considera el menor número de pasos que es necesario realizar para llegar desde un pixel hasta el otro, pero asignando un peso 3 al paso dado en dirección vertical u horizontal y un peso 4 al realizado en cualquiera de las dos direcciones diagonales.

Figura 5.6. d = 4; δ = 14

En la figura 5.6 se muestra un detalle que aclara este concepto. La distancia euclídea entre los pixeles marcados es 4, dado que hay que realizar un mínimo de cuatro pasos para llegar de un pixel al otro. Sin embargo la distancia de Chamfer es 14, puesto que de los cuatro pasos mínimos a efectuar, dos son en diagonal (2* 4 = 8) y dos en horizontal (2 * 3 = 6). En este orden de cosas el proceso de determinación del esqueleto se consigue mediante la rea-lización sucesiva de las etapas que se exponen a continuación.

Page 88: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 82

* Curvado inicial. Consiste en asignar a cada pixel del conjunto D su correspondiente distancia euclí-dea al borde B incrementada en una unidad. Este es un proceso sencillo cuyo objetivo se obtiene me-diante sucesivos recorridos de la imagen, comenzando el curvado por los pixeles más próximos al bor-de y continuando hacia el interior del conjunto D. Según la distancia asignada, los pixeles pertenecien-tes a D convierten su valor inicial de referencia igual a 1000 en el respectivo valor de distancia aumen-tado en 1, ya que la unidad se reserva para los pixeles del borde según la clasificación aplicada en la fase anterior. El proceso se detiene cuando no queda ningún pixel del conjunto D con el valor 1000 asignado. Conforme a este criterio, en la figura 5.7 se presenta un detalle ejemplo del resultado preten-dido.

Figura 5.7.

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 2 2 2 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 3 2 2 2 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 2 2 2 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 3 3 2 1 1 1 1 1 1 2 2 2 2 2 2 3 3 3 3 3 3 2 2 1 0 0 0 0 1 1 1 1 1 1 1 2 2 2 2 2 2 2 1 1 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0

Ejemplo numérico del curvado inicial por distancia euclídea.

Tras aplicar el proceso a la imagen de referencia, en la figura 5.8 se muestran en distintos co-lores de una misma gama al objeto de conseguir hipsometría, las curvas de nivel obtenidas.

Figura 5.8.

Imagen curvada según la distancia euclídea.

* (3,4) Distancia de Chamfer. El paso siguiente se apoya en los niveles de cota resultantes del curva-do para establecer la correspondiente distancia de Chamfer de cada uno de los pixeles del conjunto D. De esta forma cada pixel resultará caracterizado por un número que viene a expresar el camino más corto para alcanzar el borde, conforme al criterio que establece el valor 3 para los desplazamientos en horizontal o vertical y un valor 4 para desplazamientos en diagonal. Dicho valor, que sustituye a la co-rrespondiente distancia euclídea obtenida en el curvado inicial, se consigue mediante sucesivos reco-rridos de la imagen, comenzando por los pixeles de cota euclídea menor y eligiendo como valor final para cada pixel p el menor de los ocho candidatos que figuran en su ventana v (p, 3), construida según el criterio de desplazamiento definido. Los valores resultantes serán las correspondientes distancias de Chamfer al borde incrementadas en la unidad. A modo de ejemplo, en la figura 5.9 observamos dichos valores después de aplicar este proceso a la tabla numérica de la figura 5.7.

Page 89: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 83

Figura 5.9.

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 4 4 4 1 1 1 1 1 1 1 1 1 1 1 4 4 4 4 4 4 5 7 5 4 4 4 4 4 4 4 4 4 4 4 5 7 7 7 7 7 7 8 8 7 7 7 7 7 7 7 7 7 7 7 5 4 4 4 4 4 4 5 7 7 7 7 7

10

10

10

10

10 9 7 4 1 1 1 1 1 1 4 4 4 4 4 4 7 7 7 7 7 7 5 4 1 0 0 0 0 1 1 1 1 1 1 1 4 4 4 4 4 4 4 1 1 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0

Ejemplo numérico de aplicación de la distancia de Chamfer.

Asimismo, en la figura 5.10 se representan en colores aleatorios los distintos conjuntos de ni-vel de la función distancia de Chamfer, resultantes de aplicar a la imagen de la figura 5.8 el algoritmo descrito.

Figura 5.10.

Conjuntos de nivel según la distancia de Chamfer * Determinación de la divisoria. Seguidamente se construye el conjunto divisoria E’ al objeto de ob-tener aquellos pixeles de cota máxima en cada región del dominio D. Este conjunto, que constituirá la versión inicial del esqueleto E que buscamos, formalmente se define así: Definición 2. Se llama divisoria al conjunto formado por aquellos puntos pertenecientes a D donde alguna derivada direccional de la función distancia de Chamfer es nula, por constituir el punto un máximo local estricto de la función en la correspondiente sección trazada perpendicularmente al pla-no de la variable.

Sin embargo, como nos encontramos ante un problema con variable discreta, dicho conjunto lo buscaremos atendiendo al siguiente criterio que resulta como consecuencia de la definición: Consecuencia 1. Un pixel p perteneciente a D formará parte de E’ sólo cuando la pendiente en el mismo calculada mediante la distancia de Chamfer, sea negativa en los dos sentidos opuestos de al menos una de las cuatro posibles direcciones discretas en p.

De este modo seleccionamos un conjunto de pixeles que equidistan de los bordes de la zona a vectorizar y que van a expresar, al menos inicialmente, la columna vertebral de la red lineal de la ima-gen. No obstante, la resolución de este problema engendra algunos inconvenientes que conviene resal-tar. Según se indica en la premisa anterior, la relación de pertenencia a E’ es estricta en cuanto al signo de la pendiente se refiere, ya que se eliminan aquellos pixeles donde la pendiente es negativa en un

Page 90: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 84

sentido y nula en el opuesto. Ello ocasiona que no sean detectados pixeles pertenecientes al eje central que lindan con otros de igual cota. Sin embargo, el resultado que se obtiene cuando se elimina el ca-rácter estricto de la premisa, sustituyendo el adjetivo negativa por no positiva, no es bueno, ya que en-tonces se detectan muchos pixeles de curvas de nivel no pertenecientes al eje central. ¿Cómo aplicar pues el algoritmo de búsqueda? La respuesta es sencilla: utilizando la comparación en sentido estricto en todos los casos y añadiendo al resultado aquellos pixeles del conjunto D en cuya ventana v (p, 3) to-dos los valores de distancia son menores o iguales que la correspondiente a p. A partir de aquí no se hace necesaria la clasificación numérica de los pixeles del conjunto D según las distancias de Chamfer, siendo ésta sustituida por una clasificación binaria 11/00 en la cual se asigna el valor 11 a los pixeles de la divisoria y 00 a los restantes. De este modo se consiguió el resul-tado representado en rojo en la figura 5.11.

Figura 5.11.

Conjunto divisoria E’. * Thinning. El paso siguiente consiste en el adelgazamiento del conjunto E’ al ancho unidad y la de-puración del mismo. El adelgazamiento se realiza conforme describe Gabriella Sanniti di Baja en su trabajo [SANNITI 94], es decir, eliminando todos aquellos pixeles de E’ en cuya ventana v (p, 3) exis-te algún valor igual a 00 en cualquiera de las posiciones exteriores no situadas en diagonal, y que satis-facen simultáneamente alguna de las condiciones mostradas en la figura 5.12.

Figura 5.12.

11 11 00 00 11 p p 11 p 11 11 p

00

00

11

11

Condiciones adicionales para el thinning del conjunto E’.

Figura 5.13.

Resultado E’ tras el thinning.

Page 91: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 85

En cuanto al depurado, éste se resume en eliminar también los pixeles de E’ que se encuentren aislados en número de uno o dos tras el proceso de adelgazamiento. Para ello, al igual que en la etapa anterior, deberá recorrerse la imagen tantas veces como sea necesario hasta alcanzar un recorrido en el que no se produzca variación alguna. Aplicado el algoritmo a la imagen de la figura 5.11 se obtuvo el resultado de la figura 5.13. * Singularidades o nodos. Denominamos pixeles singulares o nodos a los elementos del conjunto E’ donde, o bien se produce una ramificación del conjunto (bifurcaciones), o bien se pierde la continui-dad del mismo (terminales). Aunque pudiera parecer lo contrario, el proceso de detección de estos pixeles no es tarea fácil, ya que existe un sinnúmero de casos particulares que deben tenerse en cuenta por la importante influencia del resultado en las fases posteriores del procedimiento de vectorización. Para determinar los nodos, en este trabajo se ha procedido de la forma siguiente:

Se recorre reiterativamente la imagen considerando únicamente los pixeles del conjunto E’ a los cuales se les abre su correspondiente ventana v (p, 3). Sumando entonces el número de pixeles pe-riféricos que existen en v (p, 3) pertenecientes a E’, clasificaremos a p como bifurcación siempre y cuando se satisfaga alguna de las condiciones que se indican:

1. La suma es igual a 3 y no existen dos pixeles de E’ con una arista común.

2. La suma es mayor que 3 y no existen tres pixeles de E’ con arista común dos a dos. Estos dos casos permiten detectar correctamente bifurcaciones de los tipos representados por el símbo-lo b en las figuras 5.14.a) y b).

Figura 5.14.

11 11 11 11 11 11 11 b 11 11 b b 11 11

11 11 11 b 11 11 11 11 11

11 11

11 11

a) Bifurcación caso 1. b) Bifurcaciones caso 2.

En cuanto a la segunda clase de nodos, clasificamos como terminales a todos aquellos pixeles de E’ que no son bifurcaciones y en cuya ventana v (p, 3) la suma de pixeles periféricos pertenecientes a E’ cumpla alguna de las condiciones que siguen: 1. Es igual a la unidad. 2. Es igual a 2 pero ambos pixeles mantienen una arista común. 3. Es igual a 3 pero éstos tienen una arista común considerados dos a dos. En la figura 5.15 se representan con el símbolo t los terminales correspondientes a tales casos.

Figura 5.15.

11 11 t t t 11 11 11 11 t b 11 b 11 11 11 11 11 11 11 11 11 b 11 b 11 11 b t 11 t

t

11 t

t a) Terminal tipo 1. b) Terminales tipo 2. c) Tipos 1 y 3. d) Tipos 1, 2 y 3.

Page 92: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 86

> Revisión de los nodos. Una vez determinado el conjunto inicial de nodos, la presente etapa tiene por objeto impedir la existencia de grupos cerrados de pixeles sin contacto con nodo alguno, así como sol-ventar discontinuidades que pudiesen subsistir en algunas zonas interiores del conjunto E’ motivadas por errores producidos en la detección y adelgazamiento del citado conjunto. Para ello se diseña un al-goritmo orientado a:

1. Introducir dos nodos situados a la mayor distancia posible, en los grupos cerrados y aisla-dos de pixeles donde no se ha detectado ningún nodo. Estos nodos se catalogan como casos especiales de bifurcación. 2. Enlazar terminales pertenecientes a ramales distintos de la divisoria que se encuentren a la distancia dos y no aparezcan en la ventana v (p, 3) de un mismo pixel p de D. 3. Enlazar terminales con pixeles no singulares de E’ que se encuentren a distancia dos.

Este proceso implica reasignar valores a los pixeles cuya caracterización sea modificada, ya

sea por pasar de terminal a pixel ordinario del conjunto E’ (valor 11) en el segundo caso, o bien por transformarse un pixel ordinario en bifurcación en los casos primero y tercero. En la figura 5.16 se muestra un ejemplo que aclara el objetivo que se persigue con la tarea particular de enlace.

Figura 5.16.

11 t 11 t 11 11 11 11 11 11 11 11 11 t t 11 11 11 11 11 11 11 11 11 11 b 11 11 t 11 11 b 11 11 11 11 11 11 b 11

11 11 11 11 11 b 11 b 11 t t

11 t t

a) Disposición inicial de ramales y nodos. b) Disposición final tras el enlace. Básicamente, la implementación del algoritmo de enlace consiste en considerar los pixeles del conjunto D no pertenecientes a la divisoria E’, estudiando la respectiva ventana v (p, 3). Entonces será incluido en E’ aquel pixel p que verifique alguna de las siguientes condiciones:

1. Entre los pixeles periféricos de su ventana existen dos terminales separadas al menos por dos espacios, siendo los restantes pixeles elementos de D que no pertenecen a E’. 2. Entre los pixeles periféricos de su ventana se encuentra un elemento no singular de E’ y una terminal.

En el primer caso ambas terminales habrán de convertirse en pixeles ordinarios de E’, mientras

que en el segundo el elemento no singular de E’ pasará a ser bifurcación y la terminal asumirá el valor 11 en el buffer. Después de la etapa descrita se obtuvo el resultado de la figura 5.17, donde se representan en color verde los terminales y en azul las bifurcaciones del conjunto E’ correspondiente a la imagen de la figura 5.13. Tales singularidades constituyen el subconjunto P ⊂ E’.

Page 93: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 87

Figura 5.17.

Establecimiento de los nodos.

* Prunning. Obtención del esqueleto. La última etapa en el proceso de determinación del esqueleto pretende la eliminación de pequeños ramales que se consideran errores en la extracción de la divisoria y que aún permanecen en la imagen. Tras esta etapa, el conjunto E’ que resulte pasará a ser el esquele-to final E buscado. El trabajo de prunning o podado se diseña en este punto conforme a los siguientes criterios de aplicación reiterada y sucesiva:

1. Eliminación de aquellos ramales de E’ formados por: 1.1. Sólo un terminal y una bifurcación. 1.2. Dos terminales unidos. 1.3. Dos terminales con un pixel intermedio.

2. Enlace entre terminales de ramales distintos que se encuentren muy próximos.

En conjunto el algoritmo de implementación de estos criterios, basado en el análisis de los pixeles periféricos de las correspondientes ventanas v (p, 3), se estructura mediante bucles anidados, de forma que la ejecución de un criterio conlleva la reiteración de los restantes, incluida la búsqueda de nodos conforme se ha explicado en el apartado anterior. Este ciclo ha de mantenerse hasta no obser-var modificación alguna en la composición de los distintos conjuntos de pixeles que constituyen la imagen ya que, como es comprensible, existe una interacción latente entre los resultados de un criterio con el propósito de los restantes. Una vez finalizado el prunning se consiguió el conjunto E ⊂ D representado en la figura 5.18.

Figura 5.18.

Esqueleto final E.

Page 94: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 88

Observando el resultado de la figura podría pensarse en añadir otros criterios que contribuyan a mejorar la salida en cuanto al podado de otros pequeños ramales se refiere. No obstante hay que pen-sar en la aplicación del método al nivel más general posible dentro de las características generales de la imagen que hemos supuesto, lo que desaconseja el establecimiento de criterios orientados única-mente a la obtención de buenos resultados en la presente imagen de prueba. Además, dada la dificultad que engendra el trabajo a bajo nivel en que nos encontramos, donde el pixel es el elemento básico de juego, parece más conveniente reducir los criterios de podado en esta fase para incrementarlos poste-riormente en el estudio de la imagen a un nivel medio de conocimiento, es decir, durante la construc-ción y tratamiento del grafo, momento en el cual el sistema tendrá entendimiento acerca de los distin-tos objetos que conforman la imagen, así como de su topología y de sus posibles relaciones con otras capas de información íntimamente ligadas con la red lineal que estudiamos. 5.2.5. Detección complementaria del esqueleto. Triangulación de Delaunay. De forma complementaria al método descrito para la extracción del esqueleto, se propone un segundo procedimiento que, si bien rinde un resultado más grosero que el primero, servirá para resol-ver incertidumbres residuales del método anterior, tanto las referentes a la composición del conjunto E obtenido, como las derivadas del carácter y posición de los pixeles singulares. Asimismo, este otro re-sultado será útil a la hora de establecer las vías principales que constituyen la red, lo que será necesa-rio para construir, en el alto nivel y a partir de los elementos gráficos que se obtengan tras las fases de ajuste, las entidades cartográficas que se incorporan al SIG. Apoyado en la idea inicial que figura en [DOUCETTE 01], aunque con sustanciales variacio-nes y mejoras, este método de extracción del esqueleto se subdivide en las siguientes etapas: - Construcción del diagrama de Voronoi en el conjunto D mediante K-means. - Construcción de la triangulación de Delaunay. - Proceso reiterativo de degeneración de la triangulación de Delaunay. - Obtención de los nodos singulares y vías principales. Partiendo pues de la imagen limpia representada en 5.3, donde el dominio D de la variable es el conjunto de n pixeles pi que resultan dibujados en blanco, pasemos a describir detalladamente cada una de las cuatro tareas expuestas. * Construcción del diagrama de Voronoi mediante clasificación K-means. Evidentemente, la posi-ción de cada pixel pi de los n que constituyen el conjunto D está determinada por sus coordenadas imagen (xi, yi). Pues bien, para encontrar la mejor aproximación posible del esqueleto o línea media del conjunto D, comenzaremos por situar en el interior de D, y sólo aquí, un cierto número K de nodos ηi, bien de forma aleatoria, bien distribuidos según el intervalo n/K en la ordenación de D por abscisa y ordenada, o bien mediante cualquier otro criterio. A continuación procedemos a clasificar los n pixeles del conjunto D en K subconjuntos aten-diendo a la mínima distancia euclídea respecto al total de los nodos (Clustering [DUDA 01]). De este modo habremos conseguido un número K de clusters cuyas líneas de contacto constituyen el diagrama de Voronoi [DE BERG 98] del dominio D relativo a las posiciones iniciales de los K nodos. Esto es así debido a que en este momento cada pixel pi ∈ D está incluido en el cluster correspondiente al nodo ηi ∈ K más cercano, no considerándose pixel alguno que no pertenezca a D. Aplicando la técnica del clustering, seguidamente calculamos el centro de gravedad de todos y cada uno de los clusters y movemos los K nodos a dichas posiciones. Este hecho implica una nueva clasificación para el total de los pixeles de D, con la consiguiente variación de los clusters y del dia-grama de Voronoi resultante. Reiterando sucesivamente el proceso, conseguimos la estabilización del mismo una vez se alcancen las posiciones definitivas de los K nodos. Llegados a este punto se observa

Page 95: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 89

una regular distribución en distancia de los nodos, así como un diagrama de Voronoi que designamos por la notación V (D, K), característico de tal distribución. En la figura 5.19 se presentan los resultados que se obtienen tras 102 reiteraciones cuando se elige K = 134 en la imagen de la figura 5.3.

Figura 5.19.

a) K-means finalizado para K=134. b) Diagrama de Voronoi correspondiente. * Triangulación de Delaunay. El paso siguiente consiste en construir la triangulación de Delaunay [DE BERG 98] relativa al diagrama V (D, K). Como es sabido, esta figura se consigue uniendo los centros de las regiones de Voronoi colindantes. Nosotros consideramos como tales sólo aquellas re-giones que poseen frontera común en el interior del dominio D, prescindiendo por lo tanto de las rela-ciones de conectividad que tienen lugar en el exterior del conjunto y, consecuentemente, también del cierre convexo. De esta forma es claro que existirán nodos que no constituyan vértice de ningún trián-gulo, en tanto que otros podrán serlo de dos o más triángulos, dependiendo de su posición en el inte-rior de D. Como ejemplo observemos en la figura 5.20 la triangulación inicial compuesta de 71 trián-gulos que se obtiene a partir del diagrama representado en 5.19.b).

Figura 5.20.

Triangulación inicial de Delaunay para K=134. * Proceso degenerativo de rectificación. La triangulación obtenida en la etapa anterior puede especi-ficarse mediante la notación T (K, t), donde K es el número inicial de nodos y t el número de triángulos que se han formado. En ella, puesto que lo pretendido es la determinación del esqueleto, resulta evi-dente que éste se pone de manifiesto en aquellas zonas donde no existen triángulos, siendo tales figu-ras un inconveniente para nuestros propósitos. En consecuencia, aplicamos seguidamente un proceso degenerativo cuya finalidad es la conversión del par (K, t) en el correspondiente (Km , 0), donde siem-pre Km < K. En otras palabras, procederemos a la eliminación sucesiva de los triángulos mediante rei-teraciones, hasta alcanzar una triangulación de Delaunay carente de triángulos, y por tanto única-mente compuesta por una sucesión de segmentos que nos defina, al menos aproximadamente, la línea media del dominio D. Para ello es del todo imprescindible modificar el número K o bien redistribuir la posición de los nodos. En cuanto a la segunda opción, la mantenemos como tema de estudio dada la

Page 96: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 90

dificultad que conlleva su implementación automática. Nos centraremos pues en el modo de variar, en concreto disminuir, el número inicial de nodos al objeto de conseguir aquel valor Km que rinda el nú-mero de triángulos tm = 0. Dado que existen zonas donde se ha conseguido el esqueleto, en lo que sigue mantendremos invariables todas aquellas regiones del voronoi V (K, D) que no intervienen en la formación de trián-gulo alguno. Ello no es difícil, pues basta localizar los nodos que constituyen vértice de triángulo; ta-rea ya realizada a la hora de obtener el número t. Separemos entonces en un subconjunto S todos los nodos que son vértices de algún triángulo, y con ellos sus correspondientes regiones del voronoi. Re-sulta pues que podemos establecer en S tantas ternas de nodos como indica el número t, de forma que cada una de las ternas esté formada por los tres nodos que definen cada triángulo. Evidentemente, un mismo nodo estará incluido en más de una terna cuando sea vértice de dos o más triángulos. Formadas las t ternas en S, se procede a la sustitución de los tres nodos componentes de cada una de ellas por un único nodo: aquél pixel cuyas coordenadas son las más próximas a las del bari-centro del triángulo correspondiente. Y puesto que el voronoi V (K, D) es interior a D, forzosamente los nuevos nodos calculados también serán interiores a D. Conseguimos así modificar el número K ini-cial de nodos, habiéndolo sustituido por otro número K1, en general menor, que será igual a la suma del número de nodos que se han mantenido fijos por no constituir triángulos, más los t baricentros de los triángulos actualmente existentes.

Figura 5.21.

a) T (100, 33) b) T (83, 19)

c) T (75, 12) d) T (68, 4) Como las regiones del voronoi correspondientes a los nodos del conjunto S son conocidas, po-demos considerar el total de los pixeles pertenecientes a estas regiones como un subdominio de exis-tencia d ⊂ D de la variable, sobre el cual aplicar el clustering buscando en el mismo las posiciones fi-nales de los t nuevos nodos. Estabilizado el proceso, se consigue el diagrama de voronoi V (t, d), el cual, unido al que se ha mantenido fijo, permite obtener un nuevo diagrama V (K1, D) así como su co-rrespondiente nueva triangulación. Esta triangulación, que denotamos T (K1, t1), en general cumplirá: t1 < t (disminución del número de triángulos). No obstante, en el caso de obtener un valor t1 ≥ t, el pro-

Page 97: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 91

cedimiento puede continuar, si bien se hace necesario tener en cuenta la convergencia del método, te-ma que se tratará enseguida. Vista entonces la línea general de la operatoria, el proceso degenerativo de rectificación, para una imagen binaria fijado un número K inicial de nodos, se representa esquemáticamente así:

(5.4) ( ) ( ) ( ) ( ) ( ) ( )

{ }

<<

→−∈∀

=<

→→→→→→

+

+

ii

ii

m

m

mmm

ttKK

m,...,it

KKtKTDKVtKTDKVtKTDKV

1

1

111

11 generalen y ,0

donde

,,,,,, K

Aplicando el citado proceso sobre la triangulación T (134, 71) de la figura 5.20, representamos en 5.21 algunas de las triangulaciones que resultan como pasos intermedios.

Una vez finalizadas las reiteraciones, la imagen rectificada resultante, carente de triángulos, es la que se muestra en la figura 5.22 junto al pseudo-voronoi obtenido.

Figura 5.22.

a) V (64, D) b) T (64, 0)

> Convergencia y automatización del proceso. Como todo proceso heurístico, el método descrito para la obtención de la línea media exige de numerosas pruebas al objeto de obtener los mejores valores pa-ra los parámetros intrínsecos al problema. Considerando la distribución inicial de los nodos según el intervalo n/K en el dominio D, los parámetros que nos afectan son la estructura R del dominio D y el número K inicial de nodos con el que arranca K-means. Este último valor mantiene una fuerte depen-dencia del primero, lo que no es una ventaja dada la difícil, por no decir imposible, evaluación a priori del factor R. Sin embargo, en la práctica totalidad de los ensayos realizados se observa que, a medida que incrementamos el número K sin que éste llegue a tomar valores grandes, el resultado tiende hacia el esqueleto del dominio, disminuyéndose progresivamente el número de triángulos durante la rectifi-cación como es de desear. Este hecho se pone claramente de manifiesto cuando aplicamos el proceso a una imagen binaria creada artificialmente. Prueba de ello son los resultados que se presentan en la figura 5.23, donde se eligieron los valores iniciales 10, 30, 60 y 90 respectivamente para el número K.

Por otra parte, también se ha observado que cuando iniciamos el proceso con valores de K muy altos, el número de triángulos que se forman crece sobremanera, obteniéndose oscilaciones cre-cientes y decrecientes en el valor de dicho número durante la fase de rectificación. Y aunque siempre se logró eliminar la totalidad de los triángulos, el hecho cierto es que los resultados no fueron de la ca-lidad que cabría desear. De los párrafos anteriores se deduce pues que para cada imagen debe existir una cota H para el valor inicial de K, en torno a la cual se alcanza el máximo en la bondad del resultado. Dicha cota, des-conocida a priori, depende de la estructura R del dominio D, y en su búsqueda ha de basarse todo al-

Page 98: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 92

goritmo que pretenda la implementación automática del proceso de obtención del esqueleto. Esta con-secuencia la formalizamos mediante el siguiente enunciado: Enunciado 1. Dado un dominio D con una cierta estructura R, existe un número natural H, función de R, tal que, si K < H la triangulación resultante T (Km, 0) tiende al esqueleto de D conforme crece K. En el caso de K ≥ H el proceso sufre oscilaciones, pudiendo entrar en convergencia o divergencia dependiendo de la estructura R.

Figura 5.23.

a) K=10, T (10, 0). b) K=30, T (30, 0).

c) K=60, T (56, 0). d) K=90, T (78, 0). Sobre la base de este enunciado se ha diseñado un algoritmo que, comenzando con un valor de K lo suficientemente pequeño, ejecuta el proceso completo de forma reiterada, incrementando sucesi-vamente el número K según un intervalo δ, hasta obtener oscilaciones en el número de triángulos du-rante la fase de rectificación. En este momento, el último valor obtenido para K se decrementa también sucesivamente en un intervalo δ’ < δ, hasta que cesan tales oscilaciones. De este modo se pretende horquillar la cota H en intervalos cada vez mas pequeños hasta su localización, aceptándose como re-sultado final la triangulación T (Km, 0) obtenida a partir del valor inicial K = H. No obstante, el algorit-mo no es infalible dado el desconocimiento de la relación que pueda existir en cada caso entre la es-

Page 99: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 93

tructura R y el número K. De hecho es frecuente obtener resultados mejores cuando se tantea manual-mente el valor inicial de K, lo que implica un semiautomatismo del proceso. Sin embargo, en tales ca-sos se observa que el valor encontrado manualmente no suele diferir en mucho del que se obtiene me-diante el proceso automático. * Nodos singulares y vías principales. Conseguida una buena aproximación del esqueleto, no existe dificultad en contar a la vez con una tabla T donde se especifiquen las relaciones de conectividad entre los Km nodos que componen dicha línea media, ya que ésta ha debido de ser utilizada en el control del proceso, tanto para mantener en las distintas fases un registro de los nodos activos, como para estable-cer las conexiones entre las regiones de voronoi colindantes. Con tal apoyo, y considerando que el mé-todo proporciona el esqueleto como una sucesión de nodos unidos por segmentos de espesor unidad, se define nodo singular como todo aquel nodo del esqueleto que puede ser calificado dentro de alguno de los siguientes grupos: a) Terminales. Nodos que están unidos a un solo nodo (orden 1). b) Bifurcaciones. Nodos unidos a tres o más nodos (orden 3 o mayor respectivamente). c) Puntos de quiebro. Nodos donde la “curvatura” de la vía supera un umbral determinado (orden 2). La detección de las terminales y bifurcaciones es sumamente simple, pues basta contar el nú-mero de enlaces de cada nodo ordinario en la tabla T. Sin embargo la detección de los puntos de quie-bro es algo más laboriosa. Una forma de hacerlo es la siguiente: Considerando únicamente los nodos no singulares (aquellos que están unidos con sólo dos nodos), se estudian las pendientes de ambos seg-mentos de unión del nodo en cuestión con los contiguos. Cuando dichas pendientes se diferencien en un valor mayor que el umbral establecido, el nodo será calificado como punto de quiebro y, por tanto, como nodo singular. Dicho umbral se fija bajo la consideración siguiente: Premisa 1. Normalmente las vías de comunicación se construyen atendiendo a mantener en lo posible la mínima curvatura en todos sus puntos. Por tanto, si a ello unimos la resolución y el carácter de zonas rurales o semiurbanas de las imágenes para las cuales se diseña el presente método, no será un desatino fijar el umbral en los 45º, es decir, considerar puntos de quiebro aquellos nodos donde la pendiente de los dos tramos sucesivos que une varía en valor igual o mayor que tal magnitud. Detectado así el conjunto de nodos singulares, e identificados todos ellos según su tipo, deberá establecerse una nueva tabla TP donde se pongan de manifiesto sus relaciones de conexión prescin-diendo del resto de los nodos. Dicha tabla la denominamos tabla principal y puede servir de base a la hora de formar las distintas entidades geométricas y topológicas que se almacenan en el SIG. La extracción de TP a partir de T será más o menos compleja dependiendo de la estructura de datos que se elija para el diseño de las tablas. Sin embargo se trata de una tarea muy sencilla cuando se utiliza una matriz de relación para implementar T, ya que basta con eliminar de la misma todo nodo no singular actualizando simultáneamente la conexión que dicho nodo interrumpía. Por ejemplo, supon-gamos que en la matriz de enlaces representamos con 1 las conexiones existentes en T, y que dicho va-lor figura en las posiciones (6, 12) y (6, 25), lo que implica que el nodo 6 está unido con el 12 y el 25. Si el nodo 6 no es singular, ello significa que será de orden 2, con lo cual para eliminarlo basta con si-tuar un 0 en las posiciones (6, 12), (6, 25), (12, 6) y (25, 6), a la vez que asignaremos un 1 a las posi-ciones (12, 25) y (25, 12), manteniéndose así la continuidad del esqueleto. Operando en la forma descrita, una vez hayan sido eliminados todos los nodos no singulares, T se habrá transformado en TP, posibilitando ahora la representación de las llamadas vías principales, es decir, los segmentos de unión entre nodos singulares. Este conjunto de segmentos viene a definir de forma grosera el esqueleto obtenido, pero constituye un primer indicador bastante explícito de las enti-dades lineales que se encuentran presentes en la imagen a vectorizar. Para iluminar esta etapa del pro-

Page 100: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 94

ceso consideremos el esqueleto de la figura 5.22.b), el cual puede interpretarse como una representa-ción gráfica, compuesta de 64 nodos, de la tabla T relativa a la triangulación T (64, 0). Análogamente, en la figura 5.24 podemos observar la representación equivalente de la tabla principal TP, extraída automáticamente de aquella y compuesta por 22 nodos singulares, a saber: 10 terminales, 6 bifurcacio-nes y 6 puntos de quiebro.

Figura 5.24.

Representación gráfica de la tabla principal. El paso siguiente debería consistir en asignar cada uno de los nodos singulares al objeto u ob-jetos lineales de los que forma parte en base a la información contenida en TP. No obstante, la determi-nación de objetos lineales y la topología de los mismos se realizará a partir del esqueleto E de la figura 5.18 obtenido mediante la distancia de Chamfer, ya que se trata de un resultado más exacto que el pro-porcionado por degeneración de la triangulación de Delaunay. El obtenido aquí, como ya se indicó, se presenta con el objetivo de servir, tanto de información complementaria para el anterior, como a poste-riori del ajuste en la formación de las entidades cartográficas definitivas. Asimismo también puede ser útil en muchos casos como método único de extracción del esqueleto. 5.2.6. Generación del grafo de objetos lineales. Llegados a este punto, y considerando el esqueleto E de la imagen obtenido mediante depura-ción de la divisoria E’ según la distancia de Chamfer, resultan clasificados todos los pixeles de la ima-gen U. Dicha clasificación, siguiendo con nuestro propósito de colaborar en el formalismo algebraico del pequeño sector del tratamiento de imágenes que nos concierne [RITTER 99], la realizamos confor-me al siguiente esquema donde se indican los distintos conjuntos, así como los valores de referencia finalmente asignados en buffer a cada uno de sus elementos:

(5.5) - Conjunto dominio de existencia D: - Subconjunto E ⊂ D esqueleto del dominio D. - Subconjunto P ⊂ E de los pixeles singulares o nodos del esqueleto. - Subconjunto T ⊂ P de los nodos terminales. Valor 3. - Subconjunto R ⊂ P de los nodos bifurcación. Valor 4. - Subconjunto Pc ⊂ E de los pixeles ordinarios del esqueleto. Valor 1000. - Subconjunto Ec ⊂ D complemento del esqueleto con respecto a D. Valor 2. - Complemento Dc del dominio D: - Subconjunto B ⊂ Dc frontera del dominio de existencia. Valor 1. - Subconjunto marco M ⊂ Dc de la imagen. Valor 1. - Subconjunto N ⊂ Dc de pixeles no significativos. Valor 0.

Page 101: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 95

Sobre la base de este esquema, donde la suma directa de todos los subconjuntos constituyen el conjunto del nivel inmediato superior, se procede seguidamente a la obtención del grafo de los distin-tos objetos lineales; estructura ésta situada en el nivel más alto de cara a la futura aplicación de alguna técnica de tratamiento del conocimiento como son los métodos fuzzy propiamente dichos, las redes semánticas, o las clases y marcos entre otros [SOWMYA 00]. Para ello proponemos la realización de las siguientes etapas sucesivas encaminadas a conseguir la composición en pixeles de cada uno de los objetos lineales, así como las relaciones de conexión entre ellos. * Partición del conjunto E. Denominando bolsa o saco a cada subconjunto Si ⊂ Pc formado por los pixeles ordinarios situados entre dos nodos, coincidentes o no, la primera tarea consiste en obtener una partición del complemento Pc en los m subconjuntos que se indican:

(5.6) Pc = S1 ⊕ S2 ⊕ ... ⊕ Sm

Con ello se tendrá que:

(5.7) E =P ⊕ Pc = T ⊕ R ⊕ S1 ⊕ S2 ⊕ ... ⊕ Sm

El algoritmo mediante el cual se alcanza el objetivo marcado no reviste dificultad, ya que bas-ta con posicionarse en un nodo e ir desplazándonos por los elementos adyacentes del conjunto Pc hasta encontrar un nuevo nodo (que puede coincidir con el primero). Este proceso, donde hay que tener en cuenta la posible existencia de bolsas vacías cuando dos bifurcaciones tienen un vértice o arista co-mún, habrá de reiterarse tantas veces como sea necesario hasta que no exista un recorrido en Pc sin clasificar. En cuanto al valor concreto de clasificación, será suficiente con sustituir en el buffer el nú-mero 1000 por alguno de la sucesión {5, 6, ..., m+4} para cada una de las m bolsas Si que se detecten. El método descrito tiene la ventaja de permitir la corrección de errores residuales del thinning, ya que éstos se pondrán de manifiesto si una vez finalizada la clasificación subsisten píxeles del conjunto Pc no incluidos en bolsa alguna. > Grafo inicial. Tras el análisis de las bolsas resulta evidente que el sistema conoce la composición en pixeles de cada subconjunto del esqueleto E, así como los nodos inicio y final adyacentes a cada bolsa. Para almacenar esta información, detallando las relaciones de conexión entre los nodos mediante las bolsas, se diseñaron las siguientes tablas [MALPICA 94]: - Tabla I: Nodos.

Nº del nodo Orden del nodo Tipo del nodo X Y 1 2 ... i oi Tipo 3 ó 4 xi imagen yi imagen ... n

- Tabla II: Bolsas.

Nº de la bolsa Nº de píxeles Nº nodo inicio Nº nodo final 5 6 ... i pi 1≤ ni

inicio ≤ n 1≤ nifinal ≤ n

... m + 4

Page 102: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 96

- Tabla III: Topología de nodos y bolsas.

1 2 ... i ... j Sj,i ...

n – 1 n 1 2 ... i .... j ... n – 1 n

En la tabla I la columna orden del nodo indica el número de bolsas distintas que parten o ter-minan en cada nodo, incluyendo la posibilidad de que alguna de ellas sea la bolsa vacía. En conse-cuencia todos los nodos terminales serán forzosamente de orden 1, mientras que las bifurcaciones se caracterizan por un valor siempre mayor o igual que 2, normalmente 3, para dicha magnitud. En la fi-gura 5.25 se presentan algunos ejemplos que aclararán este concepto.

Figura 5.25. t t 5 5 5 5 8 8 8 9 5 b 5 b b 5 6 7 5 6 6 6 5 6 7 5 6 6 5 b 6 6 5 6 7 5 6 6 5 7 t 6 7 5 6 6 t 7 b 5 6 6 7 7 b t t 6 6 t

t 9 9 8 8

6 a) Bifurcaciones de orden 3. b) Orden 3 con y sin bolsa vacía. c) Bifurcación de orden 2.

Las restantes columnas de la tabla I informan sobre el tipo del nodo, terminal o bifurcación, y sobre las coordenadas x e y de dicho punto en la imagen U. En su primera columna, la tabla II designa cada bolsa mediante el número con el cual sus pixe-les componentes están identificados en el buffer. A continuación se incluye el número total de pixeles que componen la bolsa, excluidos los nodos inicio y fin cuyos identificadores figuran en las dos co-lumnas siguientes. Estos últimos valores se corresponden con la fila que ocupa cada nodo en la tabla I. La tabla III expresa la información topológica de nodos y bolsas. Mediante el almacenamiento del número de la bolsa en la casilla correspondiente a la intersección de la fila y columna respectivas a los nodos que une (el resto de elementos son 0), posibilita el acceso directo a las bolsas a partir de los nodos sin necesidad de efectuar búsquedas en la tabla II. Y si bien se debe huir de la redundancia en las estructuras de datos cuando se implementa la representación de un grafo, en este caso la flexibili-dad y potencia que proporciona la tabla III en el diseño del algoritmo hace casi imprescindible su exis-tencia. Téngase en cuenta que, en general, el grafo a representar en nuestro problema es un grafo múl-tiple, es decir, un grafo donde pueden existir varios caminos de unión entre una misma pareja de no-dos, así como también caminos que unen un nodo consigo mismo. Por ello se sustituye la matriz de adyacencia característica de los grafos simples por la tabla III, donde el dato que se almacena en cada casilla será el número de la bolsa de unión sólo cuando ésta sea única; si no es así, éste será un código numérico asociado con un puntero a la dirección de memoria donde residen los identificadores de las

Page 103: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 97

bolsas que unen los nodos correspondientes. Este diseño disminuye la complejidad del algoritmo a la hora de realizar futuras actualizaciones de la topología.

En conjunto las tres tablas expuestas guardan la información del grafo inicial de relaciones en-tre nodos y bolsas, siendo éste último el elemento de mayor nivel de conocimiento utilizado hasta el momento por el sistema. Con tal situación, se representa en la figura 5.26 el resultado gráfico obtenido tras la aplicación de la etapa de partición al esqueleto de la imagen de la figura 5.18.

En esta figura se reserva el color verde (0, 255, 0) para las terminales y el azul (0, 0, 255) para las bifurcaciones. Las bolsas se muestran en colores aleatorios distintos al objeto de realzar los conjun-tos Si que se han encontrado. Como se observa en la expresión textual del grafo inicial correspondien-te proporcionado por el programa y que se detalla a continuación, se detectó un número m de bolsas igual a 37, mediante las cuales se conectaron n = 40 nodos, de los cuales 23 son terminales y 17 bifur-caciones de orden 3.

Figura 5.26.

Partición del esqueleto E en nodos y bolsas. * Podado a medio nivel. En esta etapa se eliminarán aquellos subconjuntos de Pc (bolsas) considera-dos errores residuales de la construcción del esqueleto E y que están motivados por imperfecciones del proceso de segmentación en la detección del borde B. El podado se realiza a nivel medio, o sea, utili-zando como elemento mínimo de trabajo la entidad bolsa. En consecuencia no se trata el pixel indivi-dualmente, lo que facilitará el diseño del algoritmo correspondiente. En cuanto a las bolsas cuya per-

* GRAFO INICIAL DE NODOS Y BOLSAS. * Bolsas y nodos: Bolsa 5 => Nodos 4- 3 => Pixeles 5 Bolsa 6 => Nodos 31- 30 => Pixeles 7 Bolsa 7 => Nodos 25- 27 => Pixeles 9 Bolsa 8 => Nodos 3- 1 => Pixeles 12 Bolsa 9 => Nodos 30- 38 => Pixeles 55 Bolsa 10 => Nodos 27- 26 => Pixeles 19 Bolsa 11 => Nodos 12- 11 => Pixeles 14 Bolsa 12 => Nodos 11- 13 => Pixeles 16 Bolsa 13 => Nodos 26- 24 => Pixeles 38 Bolsa 14 => Nodos 26- 28 => Pixeles 5 Bolsa 15 => Nodos 13- 14 => Pixeles 3 Bolsa 16 => Nodos 38- 36 => Pixeles 6 Bolsa 17 => Nodos 38- 39 => Pixeles 15 Bolsa 18 => Nodos 16- 15 => Pixeles 7 Bolsa 19 => Nodos 23- 24 => Pixeles 1 Bolsa 20 => Nodos 24- 22 => Pixeles 15 Bolsa 21 => Nodos 2- 5 => Pixeles 13 Bolsa 22 => Nodos 5- 8 => Pixeles 19 Bolsa 23 => Nodos 22- 21 => Pixeles 16 Bolsa 24 => Nodos 21- 20 => Pixeles 12

Bolsa 25 => Nodos 19- 20 => Pixeles 5 Bolsa 26 => Nodos 32- 33 => Pixeles 1 Bolsa 27 => Nodos 35- 34 => Pixeles 4 Bolsa 28 => Nodos 20- 17 => Pixeles 28 Bolsa 29 => Nodos 33- 29 => Pixeles 8 Bolsa 30 => Nodos 34- 29 => Pixeles 42 Bolsa 31 => Nodos 21- 29 => Pixeles 42 Bolsa 32 => Nodos 40- 37 => Pixeles 31 Bolsa 33 => Nodos 9- 10 => Pixeles 26 Bolsa 34 => Nodos 6- 7 => Pixeles 9 Bolsa 35 => Nodos 17- 18 => Pixeles 7 Bolsa 36 => Nodos 3- 11 => Pixeles 63 Bolsa 37 => Nodos 30- 27 => Pixeles 5 Bolsa 38 => Nodos 13- 16 => Pixeles 29 Bolsa 39 => Nodos 16- 22 => Pixeles 38 Bolsa 40 => Nodos 5- 17 => Pixeles 121 Bolsa 41 => Nodos 33- 34 => Pixeles 19 * Orden de los nodos: Nodos de orden 1: 23 Nodos de orden 2: 0 Nodos de orden 3: 17 Nodos de orden >3: 0

Page 104: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 98

manencia en el esqueleto ha de ser determinada, en un principio únicamente serán aquellas que, deli-mitadas por dos nodos η1 y η2, se definen como ramas de E por verificar alguna de las restricciones:

(5.8) a) η1 ∈ T y η2 ∈ T b) η1 ∈ T y η2 ∈ R o bien η1 ∈ R y η2 ∈ T es decir, o bien ambos nodos son terminales o bien uno es terminal y el otro bifurcación. No se consi-deran, por tanto, las bolsas que unen dos bifurcaciones entre sí o una bifurcación consigo misma. Ade-más, en los dos casos, designando η al nodo terminal, añadiremos como condición que la distancia eu-clídea del nodo al marco M de la imagen, d (η, M), no sea muy pequeña. Esto es imperativo debido a la posibilidad de que la bolsa pueda formar parte, en la fase de obtención de los objetos lineales, de al-guna vía principal en el conjunto de la red.

Figura 5.27.

Podado a nivel medio.

El parámetro de valoración de las distintas bolsas será el número de elementos que componen el respectivo conjunto Si. En consecuencia se presenta una incertidumbre a la hora de definir el valor umbral para dicho número, ya que de él dependerá el grado de detalle en el resultado final de la vecto-rización en cuanto al número de objetos lineales se refiere. Téngase en cuenta que algunas ramas del esqueleto, por pequeñas que sean, pueden constituir accesos de la vía principal a otras entidades carto-gráficas, normalmente de naturaleza superficial, como edificaciones, diversas áreas de vegetación o cultivo, etc. Entonces, puesto que aún no se cuenta con ninguna información adicional que ayude a fi-jar el umbral, lo más conveniente será establecer el citado valor en magnitudes muy pequeñas con re-lación a las características dimensionales de la imagen; en nuestro caso del orden de los 5 ó 7 pixeles. Esto es así cuando se sabe que posteriormente se dispondrá de información complementaria para efec-

* GRAFO. * Bolsas y nodos: Bolsa 5 => Nodos 4- 3 => Pixeles 5 Bolsa 6 => Nodos 27- 26 => Pixeles 7 Bolsa 7 => Nodos 21- 23 => Pixeles 9 Bolsa 8 => Nodos 3- 1 => Pixeles 12 Bolsa 9 => Nodos 26- 30 => Pixeles 55 Bolsa 10 => Nodos 23- 22 => Pixeles 19 Bolsa 11 => Nodos 12- 11 => Pixeles 14 Bolsa 12 => Nodos 11- 14 => Pixeles 46 Bolsa 13 => Nodos 22- 20 => Pixeles 53 Bolsa 14 => Nodos 22- 24 => Pixeles 5 Bolsa 15 => Nodos 30- 28 => Pixeles 6 Bolsa 16 => Nodos 30- 31 => Pixeles 15 Bolsa 17 => Nodos 14- 13 => Pixeles 7 Bolsa 18 => Nodos 2- 5 => Pixeles 13 Bolsa 19 => Nodos 5- 8 => Pixeles 19 Bolsa 20 => Nodos 20- 19 => Pixeles 16

Bolsa 21 => Nodos 19- 18 => Pixeles 12 Bolsa 22 => Nodos 17- 18 => Pixeles 5 Bolsa 23 => Nodos 18- 15 => Pixeles 28 Bolsa 24 => Nodos 25- 25 => Pixeles 71 Bolsa 25 => Nodos 32- 29 => Pixeles 31 Bolsa 26 => Nodos 9- 10 => Pixeles 26 Bolsa 27 => Nodos 6- 7 => Pixeles 9 Bolsa 28 => Nodos 15- 16 => Pixeles 7 Bolsa 29 => Nodos 3- 11 => Pixeles 63 Bolsa 30 => Nodos 26- 23 => Pixeles 5 Bolsa 31 => Nodos 14- 20 => Pixeles 38 Bolsa 32 => Nodos 5- 15 => Pixeles 121 Bolsa 33 => Nodos 19- 25 => Pixeles 42 * Orden de los nodos: Nodos de orden 1: 19 Nodos de orden 2: 1 Nodos de orden 3: 12 Nodos de orden >3: 0

Page 105: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 99

tuar en la etapa siguiente un podado topológico. Sin embargo, en la vectorización de imágenes donde no existe información adicional alguna, resulta más idóneo incrementar el valor del umbral, incluso al doble o triple de la cantidad anterior, aunque ello conlleve la eliminación de alguna bolsa válida. Establecido pues el valor umbral, y concretado el número de pixeles que explica cuando la dis-tancia d (η, M) es muy pequeña (del orden de 1, 2 ó 3), bastará con extraer del esqueleto las bolsas que satisfacen las condiciones exigidas y proceder a su eliminación del conjunto E mediante la incorpora-ción de sus elementos a Ec. Para ello se aconseja recorrer la imagen sucesivamente incrementando la cota del valor umbral hasta alcanzar el máximo prefijado. En cada uno de estos recorridos se podan las bolsas correspondientes, actualizando los elementos de cada subconjunto de E y reconstruyendo el grafo. No obstante, cuando uno de los nodos adyacentes a la bolsa podada es bifurcación, dicho nodo permanecerá como nodo de segundo orden del esqueleto en el caso de que el ángulo formado por los segmentos que lo unen a los nodos extremos de las bolsas adyacentes sea inferior a 135º. Se pretende evitar así la posible formación posterior de bolsas con mucha curvatura en alguno de sus puntos.

Una vez finalizado el podado se deberán renumerar todos los nodos y bolsas, modificando a la vez las tablas de representación del grafo. Conforme a este criterio se obtuvo el resultado de la figura 5.27, cuya representación explícita de las relaciones entre nodos se incluye a continuación de la mis-ma. Puede observarse cómo las 37 bolsas iniciales se han reducido a 29, correspondiéndose esta opera-ción con un total de 32 nodos de los cuales 19 son terminales, 12 bifurcaciones de orden 3, más una bi-furcación de segundo orden. * Podado topológico. Seguidamente se procede a efectuar un podado del esqueleto atendiendo a la posible información exterior al método que otras capas vectoriales del SIG puedan proporcionar. Se pretende con ello la eliminación de bolsas que, aún compuestas por un significativo número de ele-mentos, se han construido sobre la base de errores producidos en el procedimiento de segmentación descrito en el capítulo 4. Dado el requerimiento de poseer información adicional y operar con ella, esta etapa puede calificarse como perteneciente al escalón siguiente al medio nivel de conocimiento que el sistema tiene del problema.

Figura 5.28.

Información vectorial de edificaciones. A modo de aclaración se tratará en el presente trabajo una posible forma de incorporar al pro-ceso información relativa a edificaciones; la cual supondremos georreferenciada y residente en la Base de Datos Cartográfica (BDC) del SIG mediante una serie de entidades poligonales cerradas cuyos vér-tices son puntos de coordenadas conocidas (2D ó 3D) [FRASER 02]. Como ejemplo, en la figura 5.28 se representan, con el interior relleno, aquellas entidades íntegramente incluidas en la región U corres-pondiente a la zona de terreno abarcada por nuestra imagen de trabajo (fig. 5.1.a). > Sea pues el conjunto no conexo F de la figura, constituido por h subconjuntos Ci, discretos y disjuntos, cada uno de los cuales contiene los pixeles que simbolizan una edificación. Suponiendo que

Page 106: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 100

todo Ci tiene sus elementos correctamente situados, al comparar F con los conjuntos D y Dc en que se descompuso U se deberá cumplir:

(5.9) Dc ∩ F = F ⇔ D ∩ F = ∅

La verificación de estas relaciones es un indicador de que los resultados del método de seg-

mentación de nuestro sistema, al menos son congruentes con la información adicional que se incluye en el proceso, ya que no existe superposición alguna entre el conjunto de edificaciones y la correspon-diente red de vías de comunicación que ha sido extraída. En el caso de que las citadas relaciones no se cumplan, pueden ocurrir dos cosas: Si tomamos como premisa que la información adicional es exacta en cuanto a georreferenciación y actualización se refiere, utilizaremos estos datos para eliminar del esqueleto aquellas bolsas cuya intersección con F no sea el conjunto vacío, procediendo seguidamente a la renovación del grafo. Si por el contrario no existe plena confianza en la exactitud del conjunto F, entonces no efectuaremos podado alguno de E, continuando el proceso de vectorización hasta su tér-mino, momento en el cual deberemos considerar en el alto nivel el problema general de las relaciones topológicas entre los elementos de las distintas capas vectoriales del SIG. Este problema de contexto, estudiado exhaustivamente en [MAYER 99 (a)], es otro de los escollos que será necesario resolver en el alto nivel si se quiere alcanzar la completa automatización en los procesos de extracción de objetos cartográficos; tarea aún espectante dada su enorme dificultad [SOWMYA 00]. > Pues bien, partiendo de que no existe ningún pixel intersección entre los conjuntos D y F, defi-niremos formalmente la función separación ∆ entre un nodo terminal del esqueleto y una edificación en la forma siguiente: Definición 3. Dado el nodo η ∈ T ⊂ P ⊂ E y el subconjunto C ⊂ F, compuesto por k elementos, se de-nomina separación ∆ (η, C) al valor:

(5.10) ∆ (η, C) = min {d (η, pi); pi ∈ C, i = 1, 2, ..., k}

Es decir, la separación es el valor mínimo de la distancia euclídea entre η y cada uno de los

elementos de C. Esta definición sólo hace referencia a los nodos terminales y, por tanto, no es aplica-ble a las bifurcaciones.

> Generalizando ahora el concepto para aquellas bolsas del esqueleto que se ha convenido en de-nominar ramas, decimos: Definición 4. Para los subconjuntos C ⊂ F, y S ⊂ E limitado por dos nodos η1,η2 ∈ P, se llama sepa-ración ∆ (S, C) al valor:

(5.11) ∆ (S, C) = min {∆ (η1, C), ∆ (η2, C)} si η1, η2 ∈ T ⊂ P

∆ (S, C) = ∆ (η1, C) si η1 ∈ T y η2 ∈ R ⊂ P

Por lo tanto, la separación entre una rama y una edificación coincide con la mínima separa-

ción entre las dos correspondientes a los terminales que delimitan la bolsa, cuando ambos existen, o bien es igual a la separación del nodo terminal si el segundo nodo de S es una bifurcación. > A continuación definiremos, para un subconjunto C de F y un número entero z ≥ 1, el siguien-te concepto: Definición 5. Se denomina área de influencia de factor z correspondiente al conjunto C, y se repre-senta como A (C, z), al conjunto formado por todos aquellos pixeles q no pertenecientes a C en cuya ventana v (q, 2z+1) existe al menos un pixel de C.

Page 107: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 101

Representando con c los pixeles del conjunto C y con q los correspondientes al área de in-fluencia, en la figura 5.29 se dibujan dos ejemplos relativos al concepto definido.

Figura 5.29. q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q c c c c c q q q q q q c q q q q q q c c c c c q q q q q c c c q q q q q c c c c c q q q q q q c q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q

a) Conjunto A (C, 3). b) Conjunto A (C, 2). > Considerando ahora para cada edificación Ci su área de influencia y la separación que existe entre Ci y las distintas ramas Sj del esqueleto, se dispone de una regla de decisión para saber qué bol-sas deberán eliminarse y cuales no, descartando de dicho estudio aquellas ramas delimitadas por algún terminal que se encuentre junto al marco M de la imagen por las razones expuestas en el podado a me-dio nivel. Dicha regla es la siguiente: Regla 1. Suponiendo que existen h edificaciones y k ramas, se eliminarán del esqueleto todas aquellas ramas para las cuales se verifique: ∆ (Sj, Ci) > A (Ci, z) ∀ i = 1, ..., h ; j = 1, ..., k. Además, con objeto de evitar la posible formación de bolsas con alto valor de curvatura en al-guno de sus puntos, en esta etapa se conservará el criterio aplicado en el podado a medio nivel según el cual, cuando uno de los nodos adyacentes a la bolsa podada es bifurcación, dicho nodo permanece-rá como nodo de segundo orden del esqueleto en el caso de que el ángulo formado por los segmentos que lo unen a los nodos extremos de las bolsas adyacentes sea inferior a 135º.

Aunque la implementación del proceso no engendra dificultad alguna, ya que el algoritmo de eliminación y posterior reconstrucción del grafo es muy similar al utilizado en la etapa anterior, el ver-dadero problema reside en encontrar el valor más apropiado para el factor z. No obstante, volviendo a tomar como punto de apoyo las características generales de las imágenes objeto de este trabajo, se esti-ma conveniente aceptar para z el valor 5 ó 6, aunque ello depende del tipo de edificaciones contenidas en el conjunto F, así como de los criterios que se hayan utilizado en el almacenamiento en el SIG de los símbolos correspondientes. En consecuencia, este parámetro podemos considerarlo ajeno al proce-so de podado topológico, ya que se estima más apropiado que forme parte de la información adicional que se aporta al método.

Mediante el podado topológico, independiente del número de pixeles de las ramas, se obtuvie-ron los resultados de la figura 5.30 tras aplicar el algoritmo al esqueleto de la figura 5.27. Como puede apreciarse se ha eliminado una rama, lo que implica la reducción a 27 del número de bolsas con un to-tal de 30 nodos al desaparecer el terminal y, en este caso, también la bifurcación correspondiente.

Sobre la base de los conceptos de separación y área de influencia es posible sustituir la única regla de decisión utilizada en esta etapa por un conjunto de reglas semánticas donde se considere ade-más la dirección de las ramas y la orientación de las edificaciones. Ello podría resolver otros casos particulares propios de imágenes más complejas. Sin embargo la escritura del conjunto de reglas raras veces es tarea fácil ya que el número de éstas se incrementa rápidamente a medida que se valoran dis-tintas situaciones específicas que pudieran producirse. Entonces el riesgo de interferencias de unas reglas con otras crece, y con él los casos en que el algoritmo proporciona resultados erróneos.

Page 108: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 102

Figura 5.30.

Podado topológico. * Estudio de la curvatura de las bolsas. Finalizadas las fases de podado se procede a revisar el con-junto resultante de bolsas y nodos por si fuera necesario subdividir algunas de las bolsas a causa de la existencia de puntos con altos valores de curvatura. Tal subdivisión, que pretende el suavizado de las bolsas al objeto de facilitar las posteriores fases de ajuste, se realiza mediante la adición al esqueleto de nuevos nodos de segundo orden, los cuales se sitúan en los puntos de fractura que se determinen. El proceso de revisión sólo se aplica a las bolsas que son adyacentes a dos nodos distintos, ya que las bol-sas cuyo recorrido de pixeles cierra en un mismo nodo (bolsas cíclicas) se tratan de forma especial co-mo se verá más adelante.

Como es sabido, el cálculo de la curvatura en un punto (xi, yi) de una curva plana y = y (x) res-ponde a la expresión:

(5.12) ( )( )[ ] 2

321 i

ii

xy

xyK′+

′′=

En nuestro caso, donde se trabaja con variable discreta, sabemos que una aproximación del citado va-lor se obtiene ponderando las derivadas mediante las relaciones siguientes [DANILINA 90]:

(5.13)

( ) ( ) ( ) ( ) ( ) ( ) ( )( )2

111 2;x

xyxyxyxyx

xyxyxy iiii

iii ∆

+−≅′′

∆−

≅′ −++

Debiendo utilizarse distintos valores del incremento de la variable al objeto de compensar el trazado irregular del conjunto de pixeles en cada bolsa.

Bolsa 20 => Nodos 17- 16 => Pixeles 12 Bolsa 21 => Nodos 15- 16 => Pixeles 5 Bolsa 22 => Nodos 16- 13 => Pixeles 28 Bolsa 23 => Nodos 23- 23 => Pixeles 71 Bolsa 24 => Nodos 30- 27 => Pixeles 31 Bolsa 25 => Nodos 7- 8 => Pixeles 26 Bolsa 26 => Nodos 5- 6 => Pixeles 9 Bolsa 27 => Nodos 13- 14 => Pixeles 7 Bolsa 28 => Nodos 3- 9 => Pixeles 63 Bolsa 29 => Nodos 24- 21 => Pixeles 5 Bolsa 30 => Nodos 12- 18 => Pixeles 38 Bolsa 31 => Nodos 17- 23 => Pixeles 42 * Orden de los nodos: Nodos de orden 1: 18 Nodos de orden 2: 1 Nodos de orden 3: 11 Nodos de orden >3: 0

* GRAFO. * Bolsas y nodos: Bolsa 5 => Nodos 4- 3 => Pixeles 5 Bolsa 6 => Nodos 25- 24 => Pixeles 7 Bolsa 7 => Nodos 19- 21 => Pixeles 9 Bolsa 8 => Nodos 3- 1 => Pixeles 12 Bolsa 9 => Nodos 24- 28 => Pixeles 55 Bolsa 10 => Nodos 21- 20 => Pixeles 19 Bolsa 11 => Nodos 10- 9 => Pixeles 14 Bolsa 12 => Nodos 9- 12 => Pixeles 46 Bolsa 13 => Nodos 20- 18 => Pixeles 53 Bolsa 14 => Nodos 20- 22 => Pixeles 5 Bolsa 15 => Nodos 28- 26 => Pixeles 6 Bolsa 16 => Nodos 28- 29 => Pixeles 15 Bolsa 17 => Nodos 12- 11 => Pixeles 7 Bolsa 18 => Nodos 2- 13 => Pixeles 135 Bolsa 19 => Nodos 18- 17 => Pixeles 16

Page 109: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 103

Sin embargo, para decidir cuando un pixel será sustituido por un nuevo nodo, el estudio de la curvatura ha de complementarse con el análisis de la posición relativa del pixel en la bolsa y la pen-diente de la bolsa en el mismo; es decir, se hace necesario considerar paralelamente los valores de la función y sus dos primeras derivadas. Este problema, que requiere un detallado estudio al objeto de al-canzar una solución de carácter general, podemos soslayarlo mediante la aplicación de un procedi-miento heurístico que proponemos aquí por haber proporcionado buenos resultados en los distintos ex-perimentos realizados. Dicho proceso, que denominamos método del ángulo en el vértice, considera tan solo aquellas bolsas cuyo número de pixeles supera un mínimo determinado, siendo su algoritmo de muy fácil implementación. Es el siguiente. >> Puesto que se dispone en cada bolsa de las coordenadas de sus dos nodos adyacentes, será po-sible trazar la recta r que definen ambos puntos escribiéndola en su forma normal:

(5.14) 0sencos0 =++≡⇒=++≡ δαα yxrCByAxr

Esta ecuación permite determinar fácilmente aquellos pixeles de la bolsa que se encuentran a mayor distancia de la recta, considerando los dos semiplanos definidos por ésta. Entonces, para cada uno de tales pixeles, en el caso de existir dos, se calculan los ángulos formados en los nodos por la recta r con los respectivos segmentos de unión al pixel en cuestión. Conocidos dichos ángulos, es evidente que también se sabrá el correspondiente ángulo en el vértice del triángulo ocupado por el pixel. De este modo se puede establecer una regla que aconseje la sustitución del pixel por un nodo de segundo or-den, rompiendo la bolsa con ello, considerando únicamente el valor del ángulo en el pixel, o bien te-niendo en cuenta las magnitudes de los dos ángulos en los nodos. Aunque se pondere menos cantidad de información, la regla que hace referencia al primer caso y es análoga a la incluida en las fases de podado, puede ser ésta: Regla 2. Cuando en un pixel de una bolsa el ángulo formado por los segmentos que lo unen a los no-dos de la bolsa es menor de 135º, entonces el pixel pasará a convertirse en un nodo bifurcación de se-gundo orden del esqueleto.

La aplicación de este proceso deberá reiterarse hasta lograr la estabilización en el número total de bolsas, siendo necesario en cada iteración actualizar las tablas donde reside el grafo. << * Clases y objetos. En esta etapa se pretenden identificar y construir los diferentes objetos lineales de orden superior al elemento bolsa que constituirán posteriormente, tras las fases de ajuste, los elemen-tos gráficos representantes de las vías de comunicación existentes en nuestra imagen U. > Definición de objeto. La primera tarea a realizar será, por tanto, definir qué se entiende por objeto. Para ello, considerando un nodo cualquiera η del esqueleto E, sea la siguiente relación de orden:

(5.15) “ Estar más próximo a η “

mediante la cual se compara la longitud de arco o abscisa curvilínea medida sobre el esqueleto, que algún subconjunto de nodos y bolsas de E mantienen con el nodo η de referencia en cualquier recorri-do continuo que, sin pasar dos veces por un mismo elemento, se efectúe sobre E a partir de η. Decimos entonces: Definición 6. Conforme a la relación de orden indicada, se denomina objeto Σ a toda sucesión alter-nada y finita de bolsas y nodos adyacentes perteneciente al esqueleto E, cuyo primer y último elemen-to son nodos, y donde cada nodo delimita un máximo de dos bolsas del conjunto.

Page 110: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 104

Observaciones. Esta definición requiere contemplar los siguientes puntos. A saber: a) Se exige que toda bolsa Si perteneciente a un objeto incluya también en el mismo al nodo o nodos adyacentes a dicha bolsa. b) En el caso de existir más de una bolsa, el carácter alterno de bolsas y nodos, junto a la observación anterior, obliga a que las bolsas del objeto sean adyacentes entre sí dos a dos mediante el nodo común a ambas. c) En ningún caso los nodos del conjunto serán adyacentes con tres o más bolsas. Ello impide la exis-tencia de ramificaciones en un objeto. d) La sucesión de nodos y bolsas que forman un objeto constituye un conjunto ordenado según el sen-tido de recorrido, donde no existe repetición entre los elementos salvo quizá el primero y último. e) Como la abscisa curvilínea se incrementa constantemente conforme se recorre E, es posible generar objetos cerrados en un mismo nodo que hace las veces de primer y ultimo elemento del conjunto. f) En los casos especiales de bolsas cíclicas, aquellas delimitadas por un nodo único, el objeto sólo puede estar compuesto por dicha bolsa y su nodo adyacente, ya que los nodos extremos del conjunto, si bien pueden coincidir cuando el recorrido finaliza en el nodo de referencia, no pueden repetirse con nodos intermedios de la sucesión. g) El número de nodos de un objeto siempre es igual o superior en una unidad al de bolsas. Definido de esta forma el concepto de objeto, y considerando la clasificación de los nodos en los subconjuntos T y R conforme al orden de cada uno de ellos, resulta evidente que se cumplirá: Consecuencia 2. Los nodos terminales sólo intervienen como primer o último elemento de un objeto. Consecuencia 3. Los nodos bifurcación pueden ser nodos intermedios y también elementos primero y/o último de un objeto. > Definición de vectorización. Las observaciones y consecuencias indicadas permiten el estableci-miento de objetos en el esqueleto E de múltiples formas, incluso es admisible que existan bolsas y no-dos pertenecientes simultáneamente a varios objetos. Para eliminar esta y otras posibilidades inconve-nientes que pudieran darse en el proceso de vectorización, definiremos formalmente el concepto moti-vo del presente capítulo. Definición 7. Se llama vectorización del esqueleto E a toda subdivisión de éste en objetos tal que: a) Todo nodo y bolsa de E pertenecen al menos a un objeto. b) Las intersecciones entre objetos, caso de existir, se producen únicamente en los nodos. Por lo tanto, teniendo en cuenta las consideraciones previas a la definición, resulta: Consecuencia 4. Los nodos bifurcación se corresponden con las intersecciones de los distintos obje-tos en la vectorización del esqueleto allí donde éstas existen, y por ello:

(5.16) ∀ Σ1, Σ2 ⊂ E, Σ1 ∩ Σ2 = ∅ ó Σ1 ∩ Σ2 ∈ R

> Criterios de extracción. Por otra parte, la necesidad de adaptar de la mejor forma posible el conjunto de objetos resultante a la estructura de la red de vías de comunicación, exige utilizar algún criterio de apoyo que enlace la mera geometría del esqueleto con la realidad representada en la imagen. Como tal

Page 111: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 105

atenderemos a la premisa 1, utilizada en la fase de detección complementaria del esqueleto, y que hace referencia al hecho de que es frecuente que el trazado de las vías de comunicación se realice atendien-do a mantener en lo posible la mínima curvatura en todos los puntos.

Esta afirmación, que subordina en un grado muy alto la construcción de objetos, servirá para enunciar la regla que gobierne, tanto la elección de la dirección en la cual prolongar los objetos, como la decisión de finalizar un objeto en un nodo bifurcación determinado. Téngase en cuenta que son pre-cisamente los nodos pertenecientes al conjunto R aquellos que pueden introducir incertidumbres en la manera de constituir los objetos. Los terminales, dado su carácter exclusivo de primer o último ele-mento de cada conjunto, nunca serán motivo de discernimiento. Para implantar el criterio de mínima curvatura, con la finalidad de elegir la dirección a seguir cuando se alcanza una bifurcación, se puede pensar en calcular el valor concreto de esta magnitud en los distintos nodos de R según cada pareja de bolsas adyacentes en el mismo. Entonces se elige como camino óptimo del objeto en dicho nodo aquella dirección donde la curvatura sea menor, o bien se des-precian todas las posibilidades, dando por finalizado el objeto, en el caso de que la curvatura sea exce-siva en cualquiera de las direcciones estudiadas. Suponiendo que en las etapas anteriores se ha evitado la posible existencia de bolsas con exce-siva curvatura en algún punto, un método alternativo, que también hace referencia al estudio de la mí-nima curvatura en los nodos bifurcación pero que prescinde del cálculo de ésta, es el que llamamos aquí método de la pendiente similar. Este proceso consiste en clasificar previamente las bolsas del es-queleto conforme a la relación de equivalencia definida por el siguiente predicado:

(5.17) “ Tener pendiente similar entre sus nodos adyacentes ”

Evidentemente dicha clasificación exige el cálculo de la pendiente característica de cada bolsa.

Obteniendo estos valores dentro del margen [0, π] se consigue independencia del sentido de medición, si bien cada bolsa lleva asociado un segundo valor de pendiente que se diferencia del primero en un semicírculo. Este segundo valor será considerado en el proceso de generación de objetos, el cual se realiza según nuestro método agrupando bolsas adyacentes pertenecientes a una misma clase confor-me a un sentido de recorrido propio de cada objeto. De este modo el total de bolsas componentes de cada objeto será siempre un subconjunto incluido en alguna clase de equivalencia. > Obtención de las clases. Calculados los valores de pendiente, la determinación de las clases de equi-valencia en el conjunto de las bolsas exige definir antes qué se entiende por pendiente similar. Este pa-rámetro, que será un valor angular coincidente con la amplitud de los intervalos de clases, tiene una gran influencia en el resultado que se obtenga tras la formación de objetos, ya que si es muy restrictivo el número de clases de equivalencia será elevado, y por tanto también el número de objetos; mientras que si lo fijamos de manera permisiva ocurrirá lo contrario, es decir, resultarán pocos objetos, pero el valor de curvatura en algunos nodos puede llegar a desvirtuar el criterio de partida. Para concretar nu-méricamente el umbral a elegir, tendremos en cuenta el punto de apoyo que representa esta segunda premisa: Premisa 2. Es muy frecuente que las intersecciones entre vías de comunicación distintas en las zonas rurales y semiurbanas, se produzcan de forma ortogonal.

Aunque esta afirmación no es cierta en todos los casos, hay que considerar la necesidad de ajustar posteriormente los objetos a su ecuación polinómica, así como el hecho de que es más conve-niente representar la misma vía de comunicación mediante dos o más objetos sucesivos, que la partici-pación en un solo objeto de zonas correspondientes a varias vías de comunicación. Estas circunstan-cias inclinan hacia un valor umbral de pendiente no excesivamente permisivo.

Page 112: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 106

Por otra parte, tampoco interesa que el número de bolsas sea demasiado alto, ya que lo preten-dido es representar cada una de las vías de comunicación por un único objeto. Para que el número de bolsas resulte lo menor posible facilitando a la vez el posterior ajuste de los objetos, la construcción de las clases de equivalencia puede realizarse por nuestro método de la referencia móvil. Este procedi-miento consiste en tomar como valor central para cada clase en cada momento, el valor medio de pen-diente de todas las bolsas incluidas en la clase hasta dicho momento. Con ello evitamos que una bolsa quede fuera de una clase, generando una clase distinta, por diferencias insignificantes en los márgenes de pendiente.

Utilizando el método descrito y eligiendo como umbral el octavo de círculo, se consiguió el conjunto de clases de equivalencia que se muestra en la figura 5.31, donde cada clase, en total de tres, aparece representada en color diferente.

Figura 5.31.

Distribución de las bolsas en clases de equivalencia.

Como se aprecia en el ejemplo, las bolsas cíclicas forman parte de una clase más, indepen-diente de las restantes y considerada especial dado que sólo se cuenta con un nodo. Estas bolsas, según la observación f) que se desprende de la definición de objeto, constituirán cada una de ellas, junto con el nodo, un único objeto lineal dentro del conjunto E. > Obtención de los objetos. Una vez establecidas las clases se procede a la agrupación de éstas en ob-jetos, los cuales resultarán interconectados mediante los nodos bifurcación. Para ello será necesario determinar qué bolsas constituyen cada objeto, así como el orden de las mismas dentro del objeto. Para conseguir la sucesión de nodos y bolsas componentes de cada objeto atenderemos a la re-gla siguiente que se desprende de las premisas 1 y 2, así como de la clasificación de las bolsas dentro del intervalo de pendiente [0, π]: Regla 3. Todas las bolsas de un objeto son bolsas adyacentes que pertenecen a una misma clase y en cuyos nodos comunes no se produce en ningún caso un cambio de pendiente superior a π / 2.

De esta forma los objetos resultan caracterizados por la mínima curvatura posible en sus nodos intermedios, ya que, considerando los dos valores de pendiente asociados a cada bolsa, se evita la po-sibilidad de incluir en un mismo objeto dos bolsas adyacentes cuya posición relativa suponga un cam-bio brusco de dirección en el nodo común. Téngase en cuenta que en el recorrido de construcción de un objeto dos bolsas adyacentes de una misma clase, o bien constituyen un camino de muy poca cur-vatura en el nodo común (camino óptimo), o bien el camino alcanza un extremo de curvatura en dicho punto. En el primer caso diremos que las bolsas se encuentran situadas en posición directa, denomi-nando posición inversa a la situación contraria.

Para aclarar este concepto, en la figura 5.32 se representan las dos posibles posiciones que

puede mantener una pareja de bolsas adyacentes pertenecientes a la misma clase, en el recorrido de de-

Page 113: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 107

terminación de un objeto. En esta figura se simbolizan con p y q los respectivos pixeles de las bolsas y con n los correspondientes nodos.

Figura 5.32.

n q q q n n q q q n p p p p p p p p p p n n

a) Bolsas situadas en posición directa. b) Bolsas situadas en posición inversa. Además, puesto que el cambio de pendiente que distingue ambas posiciones mencionadas, for-zosamente es muy superior al cuarto de círculo dada la clasificación realizada de las bolsas, esta cota servirá de bandera para finalizar la formación del objeto en el nodo en estudio cuando no existan otras posibilidades de continuar el recorrido de extracción.

Por consiguiente, de lo dicho en los párrafos anteriores resulta: Consecuencia 5. Los nodos primero y último de todo objeto, o bien son terminales, o bien bifurcacio-nes adyacentes con bolsas todas ellas de clase distinta a la correspondiente al objeto, o de la misma clase situadas en posición inversa.

Las premisas 1 y 2, junto con la regla 3 y consecuencia 5, son la clave para el diseño del algo-ritmo de obtención de objetos, ya que basta con encontrar dentro de cada clase de equivalencia todos los subconjuntos existentes de bolsas adyacentes en posición directa, añadiendo al objeto los nodos que delimitan dichas bolsas.

Por lo tanto, si llamamos tramo al número de orden que indica la posición de una bolsa en un

objeto con respecto al nodo considerado primer elemento del conjunto (nodo inicial), el problema es-tará básicamente resuelto una vez sea rellenada completamente la tabla siguiente: - Tabla IV: Bolsas y objetos. Número de bolsa Pendiente Clase Número de objeto Tramo que ocupa

5 6 ...

m + 4 Las tres primeras columnas son conocidas a posteriori de realizar la clasificación de las bolsas. Para encontrar los valores de las casillas restantes nos apoyaremos en la información contenida en las tablas I, II y III, actualizadas tras la fases de estudio de la curvatura de las bolsas y donde reside la es-tructura del grafo. Entonces bastará con recorrer la imagen tantas veces como sea necesario hasta que todas las bolsas estén incluidas, con sus nodos adyacentes, en algún objeto.

A continuación se presentan los algoritmos de búsqueda de los distintos objetos mediante dia-gramas de flujo.

Page 114: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 108

1º. Búsqueda de objetos Σ cuyo primer y/o último elemento son nodos terminales. Nota 1: Como terminal o bolsa libre se entiende el respectivo elemento del esqueleto no perteneciente a ningún objeto en un momento dado de la búsqueda. Nota 2: Este algoritmo se reitera hasta que no encontrar en el esqueleto ningún nodo terminal libre.

Añadir a Σ la bolsa adyacente al nodo

Situarse en el segundo nodo adyacente a la bolsa y

añadirlo a Σ

¿Es un nodoterminal?

¿Existe alguna bolsa adyacente y libre de la misma clase en posición directa?

Objeto completo Fin de la búsqueda

Situarse en cualquier nodo terminal libre (1)

y añadirlo a Σ

no

no

si

si

Si hay varias, elegir aquella cuyo ángulo con el gradiente sea

mayor

Page 115: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 109

2º. Búsqueda de objetos Σ cuyo primer y último elemento son nodos bifurcación. no Nota 3: Un nodo bifurcación se dice libre si es adyacente al menos con una bolsa libre. Nota 4: Comenzando por las bifurcaciones que tengan adyacentes una menor cantidad de bolsas libres pertenecientes a la misma clase, el algoritmo se reitera hasta no encontrar en E ningún nodo bifurca-ción libre.

Situarse en cualquier nodo bifurcación libre (3)

y añadirlo a Σ

Elegir una bolsa libre cualquiera entre las adyacentes al nodo

Añadir la bolsa al objeto Σ

Situarse en el segundo nodo adyacente a la bolsa y

añadirlo a Σ

¿Existe alguna bolsa adyacente y libre de la misma clase en posición directa?

Objeto completo Fin de la búsqueda

¿Es una bolsa cíclica?

Añadir la bolsa al objeto Σ

si

si

no

no

Si hay varias, elegir aquella cuyo ángulo con el gradiente sea

mayor

Page 116: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 110

Tras aplicar el algoritmo de búsqueda de objetos se habrán completado todas las columnas de la tabla IV, con lo cual se dispone de todos los datos geométricos que definen a los distintos elementos extraídos. De este modo conocemos para cada objeto los nodos inicio y final, las bolsas que lo consti-tuyen y el orden de las mismas (tramos), así como aquellos nodos intermedios que delimitan dichas bolsas. Además, como el conjunto de pixeles correspondientes a cada tramo está almacenado en buffer desde un principio, se sabe la composición pixel a pixel de todos y cada uno de los objetos. Llegados a este punto, a partir del cual el concepto de bolsa comienza a perder importancia en beneficio del ente objeto, conviene reordenar la tabla IV conforme a la numeración de los objetos y sus distintos tramos con la finalidad de simplificar los trabajos aún por realizar. Dicha reordenación no encierra dificultad alguna, pudiendo utilizarse cualquier algoritmo al efecto de los muchos existentes. Además no hay necesidad de redimensionar la tabla, dado que el número de objetos n_obj siempre se-rá igual o inferior al número m de bolsas y tramos cuya información se pretende conservar. - Tabla IV reordenada: Objetos y tramos. Número de objeto Número de tramo Número de bolsa Clase Pendiente

1 ... i 1 i 2 ... ... i n ...

n_obj ≤ m > Topología de los objetos. El paso siguiente será establecer explícitamente la topología entre los dis-tintos objetos que han configurado la estructura del esqueleto E. Esta tarea, que consiste en conocer aquellos nodos bifurcación donde dos o más objetos tienen intersección, se realiza sobre la base de la información contenida en las tablas I, II y IV utilizando algoritmos de búsqueda. Puesto que los obje-tos han sido numerados en el proceso de extracción, el resultado puede expresarse en una nueva tabla donde en cada casilla se almacena el número del nodo común a los objetos correspondientes a su fila y columna. Esta tabla se crea en sustitución de la tabla III, ya que en este momento la información con-tenida en aquélla carece de interés. Denominando nij al número de nodo común a los objetos i, j, y si-tuando un cero allí donde no existe intersección, la tabla en cuestión, tan sencilla como la siguiente, está expresada por una matriz simétrica con todos los elementos de la diagonal principal nulos. - Tabla V: Topología de objetos y nodos. Nº objeto 1 2 ... i ... j ... n_obj

1 0 2 0 ... ... i 0 nij ... ... j nji 0 ... ...

n_obj 0 Esta forma de representación de las intersecciones es congruente con la existencia de nodos de cualquier orden, ya que este número nunca puede ser superior al de objetos. Por contra, se presupone que no puede existir una pareja de objetos con más de un nodo bifurcación en común, lo que no es siempre cierto. En caso de darse tal circunstancia, y por tanto tener que asociar varios valores con una misma casilla, se opera de forma completamente análoga a como se describió para la tabla III.

Page 117: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 111

Después del proceso de búsqueda de la geometría y topología de los objetos a partir de las cla-ses de equivalencia de la figura 5.31, se encontró el resultado que se presenta en la figura 5.33. Los 16 objetos obtenidos se resaltan gráficamente mediante diferentes colores, reservándose la magnitud 1000 en el registro de pendiente para indicar el carácter de bolsa cíclica (adyacente con un único nodo).

Figura 5.33.

Estructuración del esqueleto en objetos. > Estructura de los objetos. Ya no resta en esta fase más que construir, sobre la base de la información contenida en las tablas I, II, IV y V y en el buffer, una estructura elemental de almacenamiento común a todos los objetos donde resida el conjunto de datos referente a cada uno de ellos. Tal estructura debe contemplar las distintas posibilidades en el tamaño y forma de los objetos, identificar completamente

* GEOMETRIA Y TOPOLOGIA DE OBJETOS. * Bolsas y objetos: Bolsa 8 => Objeto 1 Tramo 1 Bolsa 5 => Objeto 1 Tramo 2 Bolsa 18 => Objeto 2 Tramo 1 Bolsa 27 => Objeto 2 Tramo 2 Bolsa 26 => Objeto 3 Tramo 1 Bolsa 25 => Objeto 4 Tramo 1 Bolsa 11 => Objeto 5 Tramo 1 Bolsa 17 => Objeto 6 Tramo 1 Bolsa 21 => Objeto 7 Tramo 1 Bolsa 7 => Objeto 8 Tramo 1 Bolsa 29 => Objeto 8 Tramo 2 Bolsa 9 => Objeto 8 Tramo 3 Bolsa 16 => Objeto 8 Tramo 4 Bolsa 14 => Objeto 9 Tramo 1 Bolsa 6 => Objeto 10 Tramo 1 Bolsa 15 => Objeto 11 Tramo 1 Bolsa 24 => Objeto 12 Tramo 1 Bolsa 10 => Objeto 13 Tramo 1 Bolsa 13 => Objeto 13 Tramo 2 Bolsa 19 => Objeto 13 Tramo 3 Bolsa 20 => Objeto 13 Tramo 4 Bolsa 22 => Objeto 13 Tramo 5 Bolsa 28 => Objeto 14 Tramo 1 Bolsa 12 => Objeto 14 Tramo 2 Bolsa 30 => Objeto 14 Tramo 3 Bolsa 31 => Objeto 15 Tramo 1 Bolsa 23 => Objeto 16 Tramo 1 * Ordenación de objetos: Objeto 1 Tramo 1 => Bolsa 8 Pte. 45º Objeto 1 Tramo 2 => Bolsa 5 Pte. 9º Objeto 2 Tramo 1 => Bolsa 18 Pte. 117º Objeto 2 Tramo 2 => Bolsa 27 Pte. 143º Objeto 3 Tramo 1 => Bolsa 26 Pte. 163º Objeto 4 Tramo 1 => Bolsa 25 Pte. 128º Objeto 5 Tramo 1 => Bolsa 11 Pte. 32º Objeto 6 Tramo 1 => Bolsa 17 Pte. 32º Objeto 7 Tramo 1 => Bolsa 21 Pte. 130º Objeto 8 Tramo 1 => Bolsa 7 Pte. 132º

Objeto 8 Tramo 2 => Bolsa 29 Pte. 81º Objeto 8 Tramo 3 => Bolsa 9 Pte. 122º Objeto 8 Tramo 4 => Bolsa 16 Pte. 107º Objeto 9 Tramo 1 => Bolsa 14 Pte. 130º Objeto 10 Tramo 1 => Bolsa 6 Pte. 21º Objeto 11 Tramo 1 => Bolsa 15 Pte. 23º Objeto 12 Tramo 1 => Bolsa 24 Pte. 30º Objeto 13 Tramo 1 => Bolsa 10 Pte. 14º Objeto 13 Tramo 2 => Bolsa 13 Pte. 34º Objeto 13 Tramo 3 => Bolsa 19 Pte. 3º Objeto 13 Tramo 4 => Bolsa 20 Pte. 45º Objeto 13 Tramo 5 => Bolsa 22 Pte. 24º Objeto 14 Tramo 1 => Bolsa 28 Pte. 108º Objeto 14 Tramo 2 => Bolsa 12 Pte. 121º Objeto 14 Tramo 3 => Bolsa 30 Pte. 122º Objeto 15 Tramo 1 => Bolsa 31 Pte. 113º Objeto 16 Tramo 1 => Bolsa 23 Pte. 1000º * Intersecciones de objetos: Obj 1 - Obj 14 => Nodo 3 Obj 2 - Obj 13 => Nodo 13 Obj 5 - Obj 14 => Nodo 9 Obj 6 - Obj 14 => Nodo 12 Obj 7 - Obj 13 => Nodo 16 Obj 8 - Obj 10 => Nodo 24 Obj 8 - Obj 11 => Nodo 28 Obj 8 - Obj 13 => Nodo 21 Obj 9 - Obj 13 => Nodo 20 Obj 10 - Obj 8 => Nodo 24 Obj 11 - Obj 8 => Nodo 28 Obj 13 - Obj 2 => Nodo 13 Obj 13 - Obj 7 => Nodo 16 Obj 13 - Obj 8 => Nodo 21 Obj 13 - Obj 9 => Nodo 20 Obj 13 - Obj 14 => Nodo 18 Obj 13 - Obj 15 => Nodo 17 Obj 14 - Obj 1 => Nodo 3 Obj 14 - Obj 5 => Nodo 9 Obj 14 - Obj 6 => Nodo 12 Obj 14 - Obj 13 => Nodo 18 Obj 15 - Obj 13 => Nodo 17 Obj 15 - Obj 16 => Nodo 23 Obj 16 - Obj 15 => Nodo 23

Page 118: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 112

las características geométricas y topológicas, y permitir un fácil acceso a la información. En sustitu-ción de las tablas, y como producto final de la presente fase del método de vectorización, se diseñó la siguiente disposición para almacenar los elementos de entrada a la fase de ajuste: - Estructura de los objetos. ÁREA DE CABECERA (Primera fila)

Número del objeto

Número n (nodos)

Número p (pixeles)

Número c (conexiones)

Nodo inicial Número Tipo (T / R) x y Nodo final Número Tipo (T / R) x y

Número R x y ..... ..... ..... ..... ..... ..... ..... .....

ÁREA DE NODOS (n filas)

Nodos intermedios

..... ..... ..... ..... x y Nº de bolsa Pendiente

..... ..... ..... .....

..... ..... ..... .....

ÁREA DE GEOMETRÍA (p filas)

..... ..... ..... ..... Nº del objeto de contacto Número del nodo común

..... .....

..... .....

ÁREA DE TOPOLOGÍA (c filas)

..... .....

Cuadro 5.1. Relación numérica de objetos.

* OBJETO 1 - Cabecera: 1 3 17 1 - Nodos: 1 3 1 18 4 3 13 1 3 4 12 7 - Pixeles: 2 17 8 45 .................. 13 2 5 9 - Conexiones: 14 3 * OBJETO 2 - Cabecera: 2 3 142 1 - Nodos: 2 3 1 69 14 3 142 146 13 4 136 138 - Pixeles: 2 69 18 117 .................. 142 145 27 143 - Conexiones: 13 13 * OBJETO 3 - Cabecera: 3 2 9 0 - Nodos: 5 3 19 128 6 3 22 138 - Pixeles: 20 129 26 163 .................. 22 137 26 163 * OBJETO 4 - Cabecera: 4 2 26 0 - Nodos: 7 3 28 124 8 3 52 143

- Pixeles: 29 125 25 128 .................. 52 142 25 128 * OBJETO 5 - Cabecera: 5 2 14 1 - Nodos: 10 3 84 15 9 4 76 28 - Pixeles: 83 15 11 32 .................. 77 27 11 32 - Conexiones: 14 9 * OBJETO 6 - Cabecera: 6 2 7 1 - Nodos: 12 4 123 56 11 3 118 64 - Pixeles: 123 57 17 32 .................. 119 63 17 32 - Conexiones: 14 12 * OBJETO 7 - Cabecera: 7 2 5 1 - Nodos: 15 3 143 104 16 4 149 109 - Pixeles: 144 105 21 130 .................. 148 108 21 130 - Conexiones: 13 16

* OBJETO 11- Cabecera: 11 2 6 1 - Nodos: 28 4 263 44 26 3 260 51 - Pixeles: 263 45 15 23 .................. 260 50 15 23 - Conexiones: 8 28 * OBJETO 12 - Cabecera: 12 2 31 0 - Nodos: 30 3 279 115 27 3 261 146 - Pixeles: 278 115 24 30 .................. 261 145 24 30 * OBJETO 13 - Cabecera: 13 6 128 6 - Nodos: 21 4 201 10 13 4 136 138 20 4 196 30 18 4 162 80 17 4 161 97 16 4 149 109 - Pixeles: 201 11 10 14 .................. 137 137 22 24 - Conexiones: 2 13 7 16 8 21 9 20 14 18 15 17

* OBJETO 14 - Cabecera: 14 4 147 4 - Nodos: 3 4 12 7 18 4 162 80 9 4 76 28 12 4 123 56 - Pixeles: 13 8 28 108 .................. 161 79 30 122 - Conexiones: 1 3 5 9 6 12 13 18 * OBJETO 15 - Cabecera: 15 2 42 2 - Nodos: 17 4 161 97 23 4 204 115 - Pixeles: 162 98 31 113 .................. 203 115 31 113 - Conexiones: 13 17 16 23 * OBJETO 16 - Cabecera: 16 1 71 1 - Nodos: 23 4 204 115 - Pixeles: 204 116 23 1000 .................. 205 114 23 1000 - Conexiones: 15 23

* OBJETO 8- Cabecera: 8 5 84 3 - Nodos: 19 3 192 2 29 3 279 49 21 4 201 10 24 4 207 9 28 4 263 44 - Pixeles: 193 3 7 132 .................. 278 49 16 107 - Conexiones: 10 24 11 28 13 21 * OBJETO 9 - Cabecera: 9 2 5 1 - Nodos: 20 4 196 30 22 3 202 35 - Pixeles: 197 31 14 130 .................. 201 34 14 130 - Conexiones: 13 20 * OBJETO 10 - Cabecera: 10 2 7 1 - Nodos: 25 3 210 1 24 4 207 9 - Pixeles: 210 2 6 21 .................. 208 8 6 21 - Conexiones: 8 24

Page 119: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 113

En el cuadro 5.1 se relaciona el conjunto de objetos obtenido correspondiente a la imagen guía y ejemplo del proceso. Dado el elevado número de pixeles que componen en muchos casos las áreas de geometría, sólo se han presentado en la figura los pixeles primero y último de las distintas relacio-nes, reemplazándose los restantes por puntos suspensivos. * Posible evaluación automática del resultado. Finalizada la fase de generación del grafo con la ob-tención de los objetos y de sus relaciones topológicas, en el caso de contar en el SIG con modelos ac-tualizados referentes a otros tipos de entidades gráficas de la zona de estudio, o bien acerca de las pro-piedades que revisten las distintas categorías de vías de comunicación, puede optarse por aplicar el método de evaluación descrito en [WIEDEMANN 98], junto con las reglas y normas que se proponen en [MAYER 99 (a)], para tratar de ponderar la vectorización obtenida en el conjunto de la base de da-tos vectorial del SIG. Tal evaluación daría el visto bueno para el pase a la fase siguiente de ajuste, o bien aconsejaría la modificación de los distintos objetos a fin de establecerlos en consonancia con la información adicional disponible.

Sobre la cuestión de automatizar este proceso, creemos que el diseño de un bucle controlado por ejemplo mediante una red neuronal, es una opción de estudio con potencial suficiente para, a partir de un conjunto de reglas semánticas, determinar mediante reiteraciones los valores más adecuados pa-ra los parámetros de coordinación entre el proceso de vectorización y el conjunto de reglas. 5.2.7. Ajuste geométrico. A continuación se procede al ajuste de los pixeles que constituyen las áreas de nodos y geome-tría de cada uno de los objetos obtenidos, a fin de definir el correspondiente eje central. Dicho eje cen-tral, conforme a las recomendaciones expuestas en [McGLONE 98], se expresa mediante los coefi-cientes de su ecuación polinómica en el caso de objetos cuyos nodos inicio y final son de coordenadas distintas (objetos abiertos), y mediante los vértices de un polígono en aquellos objetos donde dichos nodos coinciden en un mismo pixel (objetos cerrados). En el primer caso se utilizará un ajuste polinó-mico robusto, mientras que en el segundo emplearemos el método de ajuste poligonal que se propone a continuación de aquél. * Ajuste polinómico robusto de los objetos abiertos. Como es sabido, la tarea de ajustar una nube de m puntos de coordenadas conocidas (xi, yi) a un polinomio de grado n < m – 1, consiste en obtener los n + 1 coeficientes, {ak} ó {bk}, de alguna de las ecuaciones:

(5.18) n

nn

n ybybbxxaxaay +++=+++= KK 1010 ; según se opte por el ajuste Y / X ó X / Y respectivamente. Considerando en lo que sigue el primer caso, sea Y la matriz columna de las m ordenadas conocidas, X la matriz (m, n+1) donde en cada fila residen las potencias sucesivas correspondientes a los valores de abscisa, y A la matriz columna de los coefi-cientes incógnita {ak}. De este modo se construye el sistema inicial:

(5.19) YAX =

cuya resolución mínimo cuadrática [MENA 97 (a)] es la siguiente:

(5.20)

( ) YXXXA tt 1−=

No obstante, al objeto de evitar que una pequeña cantidad de puntos puedan desplazar la fun-ción de ajuste de su posición ideal, en lugar de aplicar el ajuste polinómico en la forma descrita es más conveniente dar a éste un carácter robusto mediante la asignación de pesos. Para ello basta con multi-plicar ambos miembros del sistema inicial por la matriz diagonal P de orden m, cuyos elementos son

Page 120: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 114

las raíces cuadradas de los respectivos pesos pi que se aplican a las m ecuaciones. El sistema inicial se-rá entonces:

(5.21) YPAXP =

Y su correspondiente solución mínimo cuadrática:

(5.22)

( ) YPXXPXA tt 212 −=

Aunque los valores de los pesos pi pueden elegirse de múltiples formas, aquí se ha optado por la función de ponderación de residuos de Huber [PEÑA 93]. Esta función se define a partir de los m valores residuales vi que el vector solución produce en cada una de las ecuaciones iniciales. Conside-rando entonces el error medio cuadrático de una observación aislada:

(5.23)

11

2

−=

∑=

m

ve

m

ii

mc

se establece la cota c de tolerancia:

mcmc ece 223

≤≤

y se construye el conjunto de pesos según el criterio:

cvsivc

vcp

cvsip

iii

i

ii

≥−=

≤=

2

21

21

Evidentemente el ajuste robusto implica reiterar el proceso de cálculo de soluciones hasta al-canzar la estabilización de los pesos en el sistema con arreglo a una determinada cota de error. En este momento el último conjunto de valores {ak} obtenido será la solución buscada. Un modelo práctico para resolver cada iteración del sistema ponderado (5.21) conforme al principio de mínimos cuadrados, consiste en aplicar la factorización LU al sistema ampliado [GOLUB 96]. Dicho proceso implica construir el sistema ampliado M Z = K en la forma:

(5.24)

( )

=

≡=

00PY

AV

PXPXI

KMZ t

donde I es la matriz unidad de orden m, V un vector de dimensión m cuyas componentes son incógni-tas adicionales, y el 0 representa la matriz nula de orden n + 1 en el primer miembro y el vector nulo de dimensión n + 1 en el segundo. Este sistema equivale a las dos ecuaciones matriciales siguientes:

(5.25)

( ) ( )( ) ( ) ( )( )

( ) ( )( )

( )( )

=

=⇒

=

−=⇒

=

−=⇒

=

−=⇒

=

=+

00

0

000

VPX

YPXAXPX

VPX

PXAPXPYPX

VPX

PXAPXPYPXVPXVPX

PXAPYV

VPX

PYPXAIV

t

2t2t

t

tt

t

ttt

tt

Page 121: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 115

Las dos relaciones obtenidas son precisamente el sistema de ecuaciones normales (5.22) y su correspondiente sistema residual. Por tanto, el vector resultado (V, A) de (5.24) está formado por el conjunto de soluciones A = {ak} que proporciona mínimos cuadrados para el sistema (5.21), más el conjunto de residuos V = {vi} que tales soluciones producen en dicho sistema.

El vector Z = (V, A) puede obtenerse de múltiples formas. Una de ellas consiste en descompo-ner previamente la matriz cuadrada M de los coeficientes de (5.24) en el producto LU, donde L es triangular inferior y U triangular superior [BJÖRCK 96 y LAY 00]. Entonces bastará con resolver sucesivamente dos sencillos sistemas triangulares conforme al siguiente esquema, para alcanzar la solución:

(5.26)

′==′

⇒=⇒

==

ZUZKZL

KLUZLUMKMZ

> Aplicación a los objetos abiertos de la imagen. Para aplicar el ajuste polinómico robusto a los obje-tos abiertos resultantes de la fase anterior, deberá acordarse primeramente el grado n del polinomio a calcular en cada caso. Puesto que dicho grado depende de la sinuosidad que caracterice al objeto, po-dría pensarse en el estudio de la curvatura media del conjunto de pixeles incluidos en las correspon-dientes áreas de nodos y geometría. Este estudio exige la determinación previa de la relación existente entre la curvatura media y el grado del polinomio, lo que presupone introducir nuevos parámetros en el proceso de vectorización. Además puede rendir conclusiones erróneas, dado que se apoya en un úni-co valor promedio. Para solventar este problema podría sustituirse el citado valor medio de curvatura por el valor máximo de ésta. Ello evitaría la incertidumbre asociada al promedio pero no los paráme-tros a determinar, tarea esta última que no es sencilla. ¿Qué hacer entonces? Una opción puede consis-tir en elegir un valor constante de n para todos los objetos del esqueleto que proporcione un resultado satisfactorio en la mayor parte de los casos. Este valor debería ser alto con el fin de cubrir las posibles exigencias que se puedan presentar. No obstante, aquí se ha preferido individualizar el grado del poli-nomio de ajuste a cada objeto conforme a la curvatura de éste. Y para ello se optó por elegir el núme-ro n en cada caso atendiendo a la siguiente regla: Regla 4. El grado n del polinomio de ajuste de un objeto abierto coincidirá con el número de nodos. Por tanto, dado el método seguido para la formación de objetos, se tendrá: Consecuencia 6. Para todo objeto abierto se verifica: n ≥ 2.

De este modo se potencia que el grado siempre sea igual o superior al mínimo requerido por la complejidad del objeto estimada por el número de nodos componentes. Ténganse en cuenta las premi-sas que sirvieron de apoyo para la construcción de los objetos, junto a la consecuencia enunciada. Además ha de considerarse el estudio de la curvatura de las bolsas realizado en la fase de generación del grafo, lo que generalmente motiva que las bolsas tengan poca curvatura media debido a la inser-ción de nodos intermedios allí efectuada. Asimismo, el hecho de que se esté trabajando con la red de vías de comunicación implica la existencia de nodos de conexión entre los distintos objetos en un nú-mero que no suele ser demasiado escaso; circunstancia ésta que, unida a las demás mencionadas, con-tribuye al rápido incremento en el grado n de los polinomios. Otro aspecto a tratar en el ajuste polinómico es la posibilidad de considerar el ajuste a través del par de polinomios de igual grado x = x(u) e y = y(u) expresados en forma paramétrica, o bien optar por el ajuste explícito cartesiano, donde será necesario elegir entre los tipos Y / X ó X / Y para el cálculo de los coeficientes. Puesto que el grado n es variable en cada caso, y la determinación del tipo de ajuste no reviste dificultad alguna, nos decidiremos por el ajuste explícito, obteniendo para cada objeto ambas ecuaciones: y = y(x), x = x(y) y seleccionando aquel polinomio cuyo error medio final de ajuste es menor.

Page 122: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 116

Con las citadas consideraciones, a posteriori del ajuste se dispone para cada objeto del interva-lo de valores de la variable, del tipo de ajuste realizado y de los coeficientes {a0, ..., an} calculados. Los nodos correspondientes que proceden de la fase de representación del grafo mantienen pues sus coordenadas, si bien éstas deberán ser modificadas por efecto del ajuste; tarea que se estudia en una fase posterior de ajuste topológico. Tal y como es sabido, el ajuste polinómico no puede ser aplicado directamente cuando en las áreas de geometría y nodos del objeto existen abscisas y ordenadas comunes entre los distintos pares de coordenadas. Esto sucede siempre en los objetos cerrados, y puede tener lugar en objetos abiertos sólo cuando existen bolsas que, sin llegar a ser cíclicas, sus pixeles revisten tal característica. Dicha posibilidad se evita fácilmente descomponiendo estas bolsas previamente a la clasificación, y por tanto antes de la obtención de los objetos, en tantas partes como sea necesario hasta eliminar todas las dupli-cidades en abscisas u ordenadas. * Ajuste poligonal reiterativo para objetos cerrados. Cuando se quiere ajustar una nube experimental de puntos cuya representación gráfica inspira una curva cerrada, sabemos que no es posible el ajuste a una sola ecuación mediante polinomios. Entonces cabe pensar en la posibilidad de descomponer el conjunto inicial de datos de manera que resulten dos o más subconjuntos ajustables mediante polino-mios. En tal caso la solución al problema consistirá en una sucesión de ecuaciones polinómicas que constituyen por trozos la curva buscada. Otra posibilidad reside en el empleo de las denominadas snakes o serpientes [KASS 87]. Este concepto considera también sucesiones de polinomios, pero acor-dando la curvatura en los puntos adyacentes a cada pareja de ecuaciones. Se obtiene así un resultado definido por una curva suave que se adapta a la nube experimental.

El empleo de snakes está muy indicado en la detección de cambios en el tiempo de los objetos, ya que la sucesión polinómica correspondiente a la nube experimental, tan numerosa como se quiera, se hace eco de tal circunstancia y va modificándose hasta encontrar el estado de mínima energía con-forme a una serie de variables [AGOURIS 01 (b) y (d)]. Por esta misma razón las snakes también son de gran interés en los procesos de extracción basados en el estudio multiescala de la imagen, ya que permiten comparar los resultados obtenidos en las distintas resoluciones [MAYER 98 y LAPTEV 00]. Sin embargo, como se desprende del estudio bibliográfico realizado en el capítulo 2, este procedimien-to de extracción y ajuste no es la panacea que resuelve todos los problemas. Un ejemplo de ello reside en el estudio propuesto en [AGOURIS 01 (a)], donde el cálculo de las snakes se realiza mediante un proceso reiterativo en cuyas fases se insertan o eliminan nodos, procediendo a la reconstrucción de las cadenas previas de segmentos (linestrings) hasta alcanzar la solución final. Además la precisión obte-nida en el resultado depende de los valores umbrales de energía que se elijan para decidir la modifica-ción del número y posición de los nodos en cada iteración del bucle. Puesto que el uso de snakes no reviste sólo ventajas según lo dicho en el párrafo anterior, y da-do que en nuestro caso disponemos de los pixeles componentes del objeto cerrado a ajustar, resolvere-mos el problema geométrico aplicando la filosofía de diseño del ajuste por snakes, pero considerando una sucesión finita de polinomios de primer grado compuesta por un número de elementos tal que el error máximo del ajuste sea inferior a una cota determinada ε. De este modo es evidente que los seg-mentos contiguos no podrán enlazarse mediante acuerdo de la curvatura, pero en cambio el ajuste que-dará reducido simplemente a encontrar aquél polígono cuya distancia máxima respecto a cualquier punto de la nube experimental es menor que ε.

Este procedimiento tiene la ventaja de permitir expresar el resultado mediante las coordena-das de sólo unos pocos puntos sin pérdida de precisión. Dichos puntos serán los vértices del polígono puestos en orden según se recorre el perímetro del objeto en cualquier sentido a partir de uno de ellos que se identifica como el primero. Además su implementación como veremos enseguida es muy senci-lla, dado que el método utilizado para la formación de objetos mediante la clasificación por pendientes de las bolsas, no autoriza la existencia de objetos cerrados más que en un solo caso: aquellos que están compuestos por una bolsa cíclica y un nodo único. Esta bolsa se supone de carácter convexo conside-

Page 123: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 117

rando todos sus pixeles en conjunto ya que, en cuestión de vías de comunicación, las bolsas cíclicas a menudo constituyen el esqueleto de rotondas, plazas, etc... en las que no existe más que un solo acce-so; tema éste afín con la necesaria modelización en el alto nivel [STRAUB 00 (a) y SOWMYA 00]. Conforme a lo indicado en los párrafos anteriores, se comenta brevemente a continuación el procedimiento para ajustar a un polígono de n lados un objeto cerrado, compuesto por una sucesión de pixeles de espesor unidad dispuestos de forma convexa, y donde sólo existe un único nodo. Este méto-do, que denominamos ajuste poligonal reiterativo, se generaliza para la aproximación poligonal de una curva cerrada convexa, y también para un conjunto de pares (xi, yi), donde existen repeticiones de abscisas y ordenadas, pero que están dispuestos en las proximidades de una curva imaginaria, cerrada y convexa, que constituye su eje central. >> Sea pues un conjunto de puntos Σ, infinito o no, que reviste las características indicadas en el párrafo anterior; y sea también un número dado ε > 0.

Eligiendo un punto v0 del conjunto que tomamos como referencia, busquemos aquél otro pun-to de Σ cuya distancia al primero es la máxima. Sea vn/2 dicho punto (*). Seguidamente tracemos la rec-ta r que pasa por v0 y vn/2 escribiéndola en su forma normal (5.14) análogamente a como se hizo en la etapa de estudio de la curvatura de las bolsas durante la fase de construcción del grafo.

Con dicha ecuación busquemos los puntos vn/4 y v3n/4 de Σ tales que, situados cada uno de ellos en un semiplano de los definidos por r, su distancia a la recta es máxima en cada caso. Uniendo ahora mediante segmentos sucesivos los cuatro puntos indicados según el orden {v0, vn/4, vn/2, v3n/4, v0}, se dispone de un polígono de n = 4 lados como primera aproximación del eje central.

La valoración del ajuste del polígono se realiza dividiendo el conjunto Σ en n tramos conforme a las posiciones de los vértices, y comparando con ε las máximas distancias que existen entre dichos tramos y los correspondientes lados del polígono. En el caso de que alguna de tales distancias supere la cota establecida, se establece un vértice intermedio en dicho punto, incrementándose en consecuen-cia el número n. El proceso se reitera hasta que las máximas distancias entre los tramos del conjunto y los lados del polígono son todas menores que la tolerancia fijada para el ajuste.

Cuando el conjunto Σ es discreto, el método adolece de que un solo punto anómalo muy ale-jado del resto será forzosamente un vértice del polígono, obteniéndose entonces un ajuste erróneo. Pa-ra evitar este suceso, antes de aplicar el proceso se hace necesario depurar el conjunto inicial de datos mediante el estudio de la serie de distancias que mantienen los elementos de Σ con respecto de algún punto fijo. Este punto bien puede tener por coordenadas alguno de los valores centrales calculados en las respectivas distribuciones de abscisas y ordenadas. No obstante, durante el proceso también resulta conveniente que, antes de aplicar el criterio de máxima distancia por el que se añade un vértice al polí-gono, se estudie en cada uno de los casos la serie numérica formada por el total de distancias entre el lado del polígono y el respectivo tramo del conjunto Σ. Ponderando entonces los residuos de dichas distancias con respecto al valor más probable, será posible eliminar aquellos puntos del tramo cuya po-sición aún pudiera deformar el resultado. << El algoritmo descrito resulta muy simple de programar cuando se aplica a los objetos cerrados obtenidos en la vectorización, ya que en este caso no se necesita depuración alguna de los datos inicia-les al formar éstos conjuntos continuos de pixeles adyacentes entre sí. Como resultado, asignando al nodo único el papel de punto inicial de referencia, el método permite sustituir el numeroso conjunto de pixeles que normalmente componen las bolsas cíclicas, por unos pocos pares de coordenadas que, or-denados en su recorrido a partir del nodo, constituyen el polígono o cadena cerrada representativo de la geometría del objeto. (*) Si se prefiere, en lugar de tomar inicialmente un punto de referencia, puede optarse por buscar en el objeto Σ aquellos dos puntos más alejados entre sí.

Page 124: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 118

* Resultado del ajuste geométrico. Aplicando a los objetos del cuadro 5.1 los métodos de ajuste que se han expuesto, se obtuvo el resultado representado en la figura 5.34. La imagen gráfica muestra en color rojo los objetos abiertos definidos por un polinomio del tipo y = y(x); en color azul los objetos cuya ecuación se ajustó en la forma x = x(y), y en color gris los polígonos correspondientes a los obje-tos cerrados tras tomar el nodo como vértice inicial de referencia y fijar el valor ε = 1. El valor unidad para la cota de error se elige con la finalidad de mantener tras el ajuste todo el detalle de la informa-ción disponible con respecto a la resolución de la imagen. En color verde figuran, asimismo, las posi-ciones de todos los nodos del esqueleto, aún pendientes de revisión en una fase siguiente que denomi-namos de ajuste topológico.

Figura 5.34.

Polinomios y polígonos de ajuste geométrico. 5.2.8. Ajuste topológico. Esta fase tiene por finalidad reestablecer las relaciones topológicas entre nodos y objetos con el propósito de corregir la desvinculación producida tras el ajuste geométrico. Para ello, inicialmente existen dos opciones: o bien mantener las coordenadas de los nodos y modificar las ecuaciones polinó-micas y polígonos que definen los objetos, o bien mantener las representaciones numéricas obtenidas para los objetos modificando en consecuencia las posiciones de los nodos y las longitudes de aquellos. A continuación se trata cada una de estas dos posibilidades. * Estudio del ajuste condicionado de los objetos. Para forzar el paso de un polinomio de ecuación co-nocida por una serie de puntos dados, puede utilizarse algún procedimiento de compensación que varíe los coeficientes del polinomio al objeto de que la ecuación resultante satisfaga las coordenadas de es-tos puntos. Un proceso válido a priori para esta finalidad consiste en la aplicación del principio de mí-nimos cuadrados por el método correlativo [MENA 97 (a)]. Las posibilidades de su aplicación a nues-tro sistema se comentan seguidamente. >> Sea el polinomio dado de grado n:

nn xaxaay +++= K10

y el conjunto de m < n + 1 puntos de coordenadas conocidas {(xi, yi)}, para los cuales han de obtenerse los n + 1 coeficientes {bk} que verifican las m ecuaciones:

mixbxbby ninii ,,110 KK =+++=

Matricialmente el conjunto de ecuaciones de condición será:

(5.27) YBX =

Page 125: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 119

donde X es la matriz (m, n+1) de las sucesivas potencias de las abscisas, B el vector columna de las n+1 incógnitas buscadas, e Y el vector columna de los m correspondientes valores de ordenada.

Este sistema, de mayor número de incógnitas que ecuaciones, se resuelve mediante la búsque-da de extremos condicionados conforme a los multiplicadores de Lagrange, aplicado a minimizar la función suma de cuadrados de los residuos vj = bj – aj, con j = 0, ..., n. Se consigue de esta forma en-contrar aquellas n correcciones a los coeficientes {ak} tales que, siendo lo más pequeñas posible, ha-cen que se verifiquen exactamente todas y cada una de las ecuaciones (5.27). Siendo A el vector co-lumna de los n + 1 coeficientes conocidos, la solución matricial al problema es la siguiente:

(5.28)

( ) ( )YXAXXXAB tt −−=−1

<<

La aplicación de este proceso a los polinomios obtenidos tras el ajuste geométrico no conlleva dificultad alguna en cuanto a la operatoria se refiere. Téngase en cuenta la regla utilizada para fijar el grado n de cada polinomio, por la cual éste se iguala con el número m de nodos que existen en el obje-to. Por consiguiente el número m de las ecuaciones de condición siempre resulta menor que el número n + 1 de incógnitas, encontrándose solución numérica al problema. Sin embargo no puede olvidarse que la finalidad del procedimiento es forzar el paso de los polinomios por los nodos pero manteniendo el ajuste al eje central de cada objeto. Entonces, puesto que existe una íntima relación entre el grado del polinomio y la posición relativa de los nodos dentro de cada objeto, se hace necesario estudiar en cada caso cuál debe ser el valor idóneo de n.

Determinar el número n y hacerlo de forma óptima no es una labor sencilla, menos aún cuando

el grado del polinomio no puede rebajarse dado que su diferencia con el número de condiciones siem-pre es igual a la unidad. Sí que es cierto que el grado puede ser incrementado, pero incluso haciéndolo así nada asegura que el ajuste resultante represente fielmente al eje central del respectivo objeto. Y por el contrario, si se prescinde del mencionado estudio, manteniendo el valor de n procedente del ajuste geométrico, entonces será frecuente obtener resultados cuyas representaciones gráficas no se ajustan correctamente a los ejes de los objetos, llegando en ocasiones a salirse del conjunto D donde está in-cluido el esqueleto. En la figura 5.35 se muestra una hipotética solución que ilustra el problema. No obstante, las deformaciones prácticamente nulas o muy pequeñas que el ajuste condiciona-do introduce en los ejes en ciertos casos, inducen a pensar en alguna forma de aplicar el procedimiento tal que, jugando con el grado y las posiciones de los nodos, esté orientada a investigar la existencia de algún polinomio para el cual las deformaciones no superen un determinado margen. No obstante, en el presente trabajo se ha preferido abandonar esta línea de estudio en beneficio del sencillo procedimien-to de ajuste topológico que se trata seguidamente.

Figura 5.35.

Inviabilidad del ajuste condicionado.

Page 126: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 120

* Ajuste morfológico de los nodos. Este proceso, que mantiene invariables las ecuaciones polinómi-cas de los objetos abiertos y los polígonos correspondientes a los objetos cerrados resultantes del ajus-te geométrico, consiste en realizar sucesivamente las dos tareas siguientes:

- Situar los nodos en aquellas posiciones donde realmente cumplen su papel de terminal o bi-furcación en el conjunto topológico de la red extraída. - Alargar o acortar los objetos conforme a sus ecuaciones, hasta alcanzar dichos puntos.

Veamos la forma de operar en cada una de estas etapas.

> Modificación de las posiciones de los nodos. En el caso de los nodos terminales la búsqueda de sus nuevas posiciones no reviste dificultad. Téngase en cuenta que, aparte de conocerse el objeto al cual debe pertenecer cada nodo, el sistema sabe cuáles son los puntos inicial y/o final de cada objeto a pos-teriori del ajuste geométrico. En consecuencia bastará con hacer coincidir en dichos puntos las posi-ciones de los correspondientes nodos terminales, solucionando así esta parte del problema. En lo que respecta a los nodos bifurcación la tarea es algo más complicada. Por una parte el grafo contiene la información topológica de nodos y objetos, por lo cual se conocen qué objetos deben cortarse en cada uno de los nodos. Y por otro lado el ajuste geométrico ha proporcionado la ecuación polinómica de cada objeto abierto y el polígono respectivo en los objetos cerrados. Como consecuen-cia se optó por el siguiente modus operandi, donde se consideran prácticamente todas las posibilidades que se pueden presentar y cuyo algoritmo de implementación es de fácil diseño: a) Para las intersecciones entre dos objetos abiertos, el nodo ocupará la posición de aquél pixel cuyas coordenadas se obtienen redondeando a números enteros la abscisa y ordenada del punto que satis-face simultáneamente la ecuación polinómica de cada objeto. b) Si el nodo pertenece a tres o más objetos abiertos, entonces se buscará, si existe, el punto intersec-ción de todos los polinomios. En caso contrario se consideran éstos dos a dos, asignando al nodo las coordenadas del pixel más próximo a todas las intersecciones obtenidas. c) Cuando el nodo está incluido en sólo dos objetos, pero uno es abierto y el otro cerrado, la posición del nodo ha de ser modificada antes de realizar el ajuste poligonal y a posteriori del ajuste polinómi-co. Dicha posición coincidirá con el extremo correspondiente del objeto abierto una vez haya sido és-te ajustado. Esto se hace así debido a que el ajuste poligonal se realiza en todos los casos tomando co-mo primer vértice el único nodo del objeto, y no es posible la aplicación de traslaciones o rotaciones a polinomios o polígonos sin perder precisión en el ajuste. De este modo se fuerza la intersección de am-bos objetos en el nodo común después del ajuste geométrico. d) En aquellos nodos comunes a un objeto abierto y a dos o más objetos cerrados, la posición del nodo se modifica tras el ajuste del objeto abierto según se expone en c), realizando posteriormente el ajuste poligonal de todos los objetos cerrados, tomando el pixel encontrado como vértice inicial de referen-cia para cada uno de ellos. e) Si el nodo pertenece a uno o más objetos cerrados y a dos o más objetos abiertos, se buscará la in-tersección de los objetos abiertos conforme se indica en a) y b), y seguidamente se realiza el ajuste poligonal de cada objeto cerrado a partir del pixel obtenido como primer vértice. f) En el caso de encontrar un nodo común a dos o más objetos cerrados, la posición del nodo se man-tiene invariable antes y después de realizar el ajuste poligonal de todos los objetos que confluyen en el nodo. Aunque algunos de estos casos son poco probables de aparecer cuando se trata de vectorizar vías de comunicación (algunos prácticamente imposibles), el algoritmo debe contemplarlos a fin de ser aplicable bajo múltiples circunstancias.

Page 127: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 121

> Redimensionamiento de los objetos. Revisadas las posiciones de los nodos, no resta ya más que va-riar las longitudes de los objetos, según sus respectivas ecuaciones, para forzarlos a comenzar o termi-nar en estos puntos. Para ello únicamente se necesita actualizar las coordenadas residentes en el área de nodos de la estructura de cada objeto, introduciendo allí las nuevas posiciones encontradas. En la figura 5.36 se muestra la representación gráfica del resultado obtenido después de apli-car el ajuste topológico en la forma expuesta a los objetos de la imagen ejemplo. Los objetos, conside-rados ya como elementos gráficos, se trazan con los nodos en distinto color a fin de resaltar la calidad de las posiciones resultantes para las intersecciones y terminales.

Figura 5.36.

Elementos gráficos. * Reestructuración de los objetos como elementos gráficos. Como colofón del ajuste topológico y del proceso en sí de vectorización, se modifica la estructura mantenida hasta ahora para el almacenamien-to de los objetos toda vez que, al conocerse los coeficientes de los polinomios y los vértices de los po-lígonos, ya no son necesarios muchos de los datos contenidos en el viejo modelo que fue diseñado du-rante la fase de construcción del grafo.

La nueva estructura, pensada para almacenar y definir sin ambigüedad los diferentes tipos es-tudiados de elementos gráficos, se expresa bajo dos posibilidades según que los objetos constitutivos de los elementos sean abiertos o cerrados. No obstante, ambas posibilidades pueden implementarse en el algoritmo mediante un único modelo de estructura de datos si así se desea.

A continuación se expone el diseño elegido para la citada reestructuración de los objetos.

- Elementos gráficos abiertos. ÁREA DE CABECERA (Primera fila)

Número del objeto

Grado n del polinomio

Tipo de ajuste Y/X – X/Y

Número c de conexiones

Nodo inicial x y ÁREA DE NODOS (2 filas) Nodo final x y

a0 a1 ....

ÁREA DE GEOMETRÍA (Coeficientes del polinomio) (n+1 filas)

an Nº del objeto de contacto x del nodo y del nodo

..... ..... ..... ÁREA DE TOPOLOGÍA (c filas)

..... ..... .....

Page 128: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 122

- Elementos gráficos cerrados. ÁREA DE CABECERA (Primera fila)

Número del objeto

Lados n del polígono

Error del ajuste

Número c de conexiones

ÁREA DE NODOS Nodo único x y x1 y1 x2 y2 ..... .....

ÁREA DE GEOMETRÍA (Vértices del polígono) (n-1 filas)

xn-1 yn-1 Nº del objeto de contacto

..... ÁREA DE TOPOLOGÍA (c filas)

..... Como se aprecia en las tablas, el área de cabecera ha sustituido el contenido de las casillas donde figuraban los números de nodos y pixeles, pasando a ocupar estos lugares el grado del polino-mio y el tipo de ajuste en el caso de objetos abiertos, y el número de lados del polígono y el error del ajuste en los cerrados. Este último dato, que normalmente será el valor de resolución de la imagen, se hace necesario para identificar en el SIG el grado de precisión del ajuste poligonal. El área de nodos ha quedado reducida a dos registros en los objetos abiertos y a uno sólo en los cerrados, eliminándose los nodos intermedios, así como toda referencia a los números identificado-res de los nodos. De esta forma, en los objetos abiertos se almacenan las coordenadas de los puntos inicial y final del objeto, y en los cerrados las correspondientes al único nodo que existe.

Respecto del área de nodos en los objetos cerrados hay que tener en cuenta que no pueden en-contrarse tales objetos sin nodo alguno ya que, aparte de no estar definidos, en el hipotético caso de existir bolsas cerradas aisladas, el sistema introduce automáticamente dos bifurcaciones de segundo orden entre sus pixeles durante la fase de detección del esqueleto. Por otra parte tampoco pueden exis-tir objetos cerrados con más de un nodo por impedirlo el método utilizado para la construcción del es-queleto. La única posibilidad reside pues en objetos compuestos por un nodo bifurcación adyacente con una bolsa cíclica. Las áreas de geometría contienen ahora los valores de los n + 1 coeficientes del polinomio en los objetos abiertos, y las coordenadas cartesianas de los n – 1 vértices de los polígonos, excluido el nodo, en los cerrados. Considérese la norma de construcción de los polígonos según la cual el nodo se elige siempre como vértice de referencia. Finalmente, las áreas de topología se reducen a los correspondientes números de los objetos de contacto en los objetos cerrados, prescindiéndose de las coordenadas del punto de conexión con los mismos, ya que éste forzosamente ha de ser el único nodo existente. En el caso de los objetos abiertos, a dichos números acompañan las coordenadas de los respectivos nodos bifurcación, en sustitución de la cifra identificadora de cada uno de ellos que figuraba en la antigua estructura de los objetos. Seguidamente se muestran en el cuadro 5.2 los datos numéricos estructurados que se corres-ponden con los distintos elementos gráficos representados en la figura 5.36.

Page 129: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 123

Cuadro 5.2.

Relación numérica de elementos gráficos.

- OBJETO nº: 1 - Grado del polinomio...: 3 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 13- 1 - Nodo final............: 2- 18 - Coeficientes..........: 1.30122896152407E+001 2.73937205356257E-001 -9.21918700043995E-002 2.34193500349711E-003 - Conexiones............: Objeto 14 Nodo 12- 6 *********************************** - OBJETO nº: 2 - Grado del polinomio...: 3 - Tipo de ajuste........: 1 - Número de conexiones..: 1 - Nodo de inicio........: 1- 69 - Nodo final............: 142- 144 - Coeficientes..........: 6.86616370808245E+001 5.32838676585783E-001 5.69911559248673E-004 -4.29060043244976E-006 - Conexiones............: Objeto 13 Nodo 136- 141 *********************************** - OBJETO nº: 3 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 0 - Nodo de inicio........: 20- 128 - Nodo final............: 22- 138 - Coeficientes..........: 5.38475630378092E+002 -8.00898338075373E+000 3.09144946732652E-002 *********************************** - OBJETO nº: 4 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 0 - Nodo de inicio........: 28- 125 - Nodo final............: 52- 141 - Coeficientes..........: 9.01301899699577E+001 1.55312646126742E+000 -1.08947049740585E-002 *********************************** - OBJETO nº: 5 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 83- 15 - Nodo final............: 77- 30 - Coeficientes..........: 1.06827979400633E+002 -2.23443082182275E+000 4.14116815349787E-002 - Conexiones............: Objeto 14 Nodo 77- 30 *********************************** - OBJETO nº: 6 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 123- 55 - Nodo final............: 118- 64 - Coeficientes..........: 4.61280028170902E+001 3.13134168278302E+000 -3.13624460908963E-002 - Conexiones............: Objeto 14 Nodo 123- 55 ***********************************

- OBJETO nº: 7- Grado del polinomio...: 2- Tipo de ajuste........: 1- Número de conexiones..: 1- Nodo de inicio........: 143- 104- Nodo final............: 151- 110- Coeficientes..........: -5.56773921056939E+002 8.30004679118342E+000 -2.57248146997466E-002- Conexiones............: Objeto 13 Nodo 151- 110***********************************- OBJETO nº: 8 - Grado del polinomio...: 5- Tipo de ajuste........: 1- Número de conexiones..: 3- Nodo de inicio........: 192- 4- Nodo final............: 279- 49- Coeficientes..........: 6.74863202403080E+003 -1.62869065818306E+002 1.55259462841762E+000 -7.33226132036197E-003 1.71903645964111E-005 -1.59924605212772E-008- Conexiones............: Objeto 10 Nodo 206- 10 Objeto 11 Nodo 264- 43 Objeto 13 Nodo 202- 8***********************************- OBJETO nº: 9 - Grado del polinomio...: 2- Tipo de ajuste........: 1- Número de conexiones..: 1- Nodo de inicio........: 195- 28- Nodo final............: 202- 35- Coeficientes..........: -1.14293740547768E+003 1.10268771493206E+001 -2.57248146996561E-002- Conexiones............: Objeto 13 Nodo 195- 28***********************************- OBJETO nº: 10 - Grado del polinomio...: 2- Tipo de ajuste........: 0- Número de conexiones..: 1- Nodo de inicio........: 210- 1- Nodo final............: 206- 10- Coeficientes..........: 2.09517240295061E+002 4.44244928808129E-001 -7.94142241432242E-002- Conexiones............: Objeto 8 Nodo 206- 10***********************************- OBJETO nº: 11 - Grado del polinomio...: 2- Tipo de ajuste........: 0- Número de conexiones..: 1- Nodo de inicio........: 264- 43- Nodo final............: 260- 51- Coeficientes..........: 2.84075389661873E+002 -4.75271361304244E-001 3.45668940750553E-014- Conexiones............: Objeto 8 Nodo 264- 43***********************************- OBJETO nº: 12 - Grado del polinomio...: 2- Tipo de ajuste........: 0- Número de conexiones..: 0- Nodo de inicio........: 277- 115- Nodo final............: 260- 146

- Coeficientes..........: 3.46553066818728E+002 -6.38881289134687E-001 3.33444328103936E-004 *********************************** - OBJETO nº: 13 - Grado del polinomio...: 6 - Tipo de ajuste........: 0 - Número de conexiones..: 6 - Nodo de inicio........: 202- 8 - Nodo final............: 136- 141 - Coeficientes..........: 2.01599555626917E+002 8.27992026824099E-002 -8.28828830325273E-003 -1.68477491732478E-004 4.81493078944628E-006 -3.88693468621847E-008 1.04736408686212E-010 - Conexiones............: Objeto 2 Nodo 136- 141 Objeto 7 Nodo 151- 110 Objeto 8 Nodo 202- 8 Objeto 9 Nodo 195- 28 Objeto 14 Nodo 165- 82 Objeto 15 Nodo 158- 97 *********************************** - OBJETO nº: 14 - Grado del polinomio...: 4 - Tipo de ajuste........: 1 - Número de conexiones..: 4 - Nodo de inicio........: 12- 6 - Nodo final............: 165- 82 - Coeficientes..........: -3.49507513628284E+000 9.63658571515880E-001 -1.52437910641889E-002 1.37599905402965E-004 -3.73853221543839E-007 - Conexiones............: Objeto 1 Nodo 12- 6 Objeto 5 Nodo 77- 30 Objeto 6 Nodo 123- 55 Objeto 13 Nodo 165- 82 *********************************** - OBJETO nº: 15 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 158- 97 - Nodo final............: 204- 115 - Coeficientes..........: 9.97241996674620E+001 -3.18496258066717E-001 1.93811540543648E-003 - Conexiones............: Objeto 13 Nodo 158- 97 Objeto 16 Nodo 204- 115 *********************************** - OBJETO nº: 16 - Lados del polígono....: 8 - Error máximo de ajuste: 1 - Nodo único............: 204- 115 - Vértices intermedios..: 208- 122 221- 130 224- 130 233- 124 233- 113 213- 109 209- 110 - Conexiones............: Objeto 15 Nodo 204- 115 ***********************************

Page 130: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 124

5.3. Análisis de resultados. 5.3.1. Otros resultados obtenidos.

A continuación se exponen algunos ejemplos donde se utilizó el proceso descrito de vectoriza-ción automática. En cada uno de ellos aparece la imagen binaria inicial junto con el correspondiente resultado obtenido expresado gráfica y numéricamente. Las imágenes que se incluyen se adaptan todas ellas al tipo genérico que se ha tomado como base de partida y a los casos que han sido tratados duran-te el desarrollo del método. Además, como lo que se pretende en este apartado es la discusión de los resultados de la vectorización de forma independiente al método de segmentación, no trataremos aquí ninguna salida de este último procedimiento, dejando dicha tarea pendiente para el posterior estudio cualitativo del método de extracción en su conjunto que se presenta en el capítulo 6.

Figura 5.37.

Imagen inicial y representaciones gráfica y numérica de los elementos obtenidos.

- Número de conexiones..: 1 - Nodo de inicio........: 73- 1 - Nodo final............: 116- 84 - Coeficientes..........: 7.23014946955450E+001 6.77221311796022E-001 -1.81793768426181E-003 - Conexiones............: Objeto 1 Nodo 116- 84 *********************************** - OBJETO nº: 4 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 1 - Nodo de inicio........: 126- 78 - Nodo final............: 202- 145 - Coeficientes..........: -1.69331619818525E+002 2.65427347252216E+000 -5.43172567845550E-003 - Conexiones............: Objeto 1 Nodo 126- 78 *********************************** - OBJETO nº: 5 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 1 - Nodo de inicio........: 189- 38 - Nodo final............: 278- 87 - Coeficientes..........: -6.52198823656668E+002 5.76028486775220E+000 -1.11545258133438E-002 - Conexiones............: Objeto 1 Nodo 189- 38 ***********************************

- OBJETO nº: 1 - Grado del polinomio...: 6 - Tipo de ajuste........: 1 - Número de conexiones..: 4 - Nodo de inicio........: 19- 145 - Nodo final............: 234- 4 - Coeficientes..........: 1.58379330861051E+002 -8.20006880638636E-001 8.35723682108049E-003 -1.57883757383474E-004 1.39184313580651E-006 -5.60035928660926E-009 8.27973183840799E-012 - Conexiones............: Objeto 2 Nodo 74- 109 Objeto 3 Nodo 116- 84 Objeto 4 Nodo 126- 78 Objeto 5 Nodo 189- 38 *********************************** - OBJETO nº: 2 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 29- 1 - Nodo final............: 74- 109 - Coeficientes..........: 2.87322199181633E+001 2.28134478443736E-001 1.79434257994564E-003 - Conexiones............: Objeto 1 Nodo 74- 109 *********************************** - OBJETO nº: 3 - Grado del polinomio...: 2 - Tipo de ajuste........: 0

Page 131: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 125

Figura 5.38.

Imagen inicial y representaciones gráfica y numérica de los elementos obtenidos.

- OBJETO nº: 1 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 1 - Nodo de inicio........: 1- 5 - Nodo final............: 125- 36 - Coeficientes..........: 5.17677156921962E+000 2.72015948088622E-001 -2.61110864776956E-004 - Conexiones............: Objeto 4 Nodo 125- 36 *********************************** - OBJETO nº: 2 - Grado del polinomio...: 3 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 1- 65 - Nodo final............: 84- 118 - Coeficientes..........: 6.38781945730575E+001 6.38928039563347E-001 -8.64602203816656E-004 1.12006113563574E-005 - Conexiones............: Objeto 3 Nodo 34- 85 Objeto 4 Nodo 84- 118 *********************************** - OBJETO nº: 3 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 34- 85 - Nodo final............: 29- 146 - Coeficientes..........: 8.65491680744163E+001 -9.32128579630710E-001 3.67648851478573E-003 - Conexiones............: Objeto 2 Nodo 34- 85 *********************************** - OBJETO nº: 4 - Grado del polinomio...: 6 - Tipo de ajuste........: 0 - Número de conexiones..: 4 - Nodo de inicio........: 149- 1 - Nodo final............: 59- 147 - Coeficientes..........: 1.48918956056824E+002 -1.76925034364695E-001 -3.62201171776780E-002

1.01571540078246E-003 -1.22857191971825E-005 6.87930488685014E-008 -1.47935463674005E-010 - Conexiones............: Objeto 1 Nodo 125- 36 Objeto 2 Nodo 84- 118 Objeto 5 Nodo 84- 120 Objeto 7 Nodo 111- 70 *********************************** - OBJETO nº: 5 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 1 - Nodo de inicio........: 84- 120 - Nodo final............: 185- 144 - Coeficientes..........: 1.03474405937988E+002 1.74202727743484E-001 2.38884264902209E-004 - Conexiones............: Objeto 4 Nodo 84- 120 *********************************** - OBJETO nº: 6 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 253- 2 - Nodo final............: 192- 95 - Coeficientes..........: 2.52848634683851E+002 7.21295354335178E-002 -7.35186155997814E-003 - Conexiones............: Objeto 7 Nodo 192- 95 *********************************** - OBJETO nº: 7 - Grado del polinomio...: 3 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 111- 70 - Nodo final............: 275- 118 - Coeficientes..........: 4.18568847458637E+001 1.75390792942378E-001 9.32388145854946E-004 -2.03890007313590E-006 - Conexiones............: Objeto 4 Nodo 111- 70 Objeto 6 Nodo 192- 95 ***********************************

Page 132: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 126

Figura 5.39.

a) Imagen inicial. b) Representación gráfica de elementos.

c) Representación numérica de los elementos obtenidos.

Figura 5.40.

a) Imagen inicial. b) Representación gráfica de elementos.

- OBJETO nº: 1 - Grado del polinomio...: 7 - Tipo de ajuste........: 1 - Número de conexiones..: 5 - Nodo de inicio........: 1- 22 - Nodo final............: 259- 146 - Coeficientes..........: 2.10164349266967E+001 1.07625236742812E+000 -1.99322586177004E-002 3.19123436074386E-004 -2.59742248930939E-006 1.10681387017102E-008 -2.37221336457316E-011 2.03162621177302E-014 - Conexiones............: Objeto 3 Nodo 50- 52 Objeto 4 Nodo 128- 92 Objeto 5 Nodo 82- 69 Objeto 6 Nodo 147- 100 Objeto 7 Nodo 207- 122 *********************************** - OBJETO nº: 2 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 0 - Nodo de inicio........: 2- 83 - Nodo final............: 5- 140 - Coeficientes..........: -1.83996835617217E+002 3.54438505710811E+000 -1.56951505638454E-002 ***********************************

- OBJETO nº: 3- Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 50- 52 - Nodo final............: 49- 147 - Coeficientes..........: 2.75819196318622E+001 5.73191598751348E-001 -2.89097710633565E-003 - Conexiones............: Objeto 1 Nodo 50- 52 *********************************** - OBJETO nº: 4 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 128- 92 - Nodo final............: 121- 147 - Coeficientes..........: 1.66807563624062E+001 2.05654426883012E+000 -9.15577903467677E-003 - Conexiones............: Objeto 1 Nodo 128- 92 *********************************** - OBJETO nº: 5 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 134- 3 - Nodo final............: 82- 69 - Coeficientes..........:

1.31820719291148E+002 9.12400519842926E-001 -2.38506486615597E-002 - Conexiones............: Objeto 1 Nodo 82- 69 *********************************** - OBJETO nº: 6 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 221- 2 - Nodo final............: 147- 100 - Coeficientes..........: 2.21004329827121E+002 2.38246981235304E-001 -9.75802481952251E-003 - Conexiones............: Objeto 1 Nodo 147- 100 *********************************** - OBJETO nº: 7 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 276- 38 - Nodo final............: 207- 122 - Coeficientes..........: 2.84694363271889E+002 -2.59703811903941E-002 -5.02599610894307E-003 - Conexiones............: Objeto 1 Nodo 207- 122 ***********************************

Page 133: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 127

c) Representación numérica de los elementos obtenidos.

- OBJETO nº: 1 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 3- 63 - Nodo final............: 98- 69 - Coeficientes..........: 6.33205450771221E+001 -1.29558386880282E-002 6.49054186334526E-004 - Conexiones............: Objeto 10 Nodo 98- 69 Objeto 12 Nodo 98- 69 *********************************** - OBJETO nº: 2 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 20- 143 - Nodo final............: 101- 87 - Coeficientes..........: 1.57955805800599E+002 -7.49908748449402E-001 5.33174802130173E-004 - Conexiones............: Objeto 12 Nodo 101- 87 Objeto 15 Nodo 101- 87 *********************************** - OBJETO nº: 3 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 2 - Nodo de inicio........: 85- 1 - Nodo final............: 110- 42 - Coeficientes..........: 8.39972115708761E+001 6.98738246380077E-001 -1.88031668216304E-003 - Conexiones............: Objeto 9 Nodo 110- 42 Objeto 10 Nodo 110- 42 *********************************** - OBJETO nº: 4 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 2 - Nodo de inicio........: 131- 102 - Nodo final............: 125- 146 - Coeficientes..........: 1.30061538970040E+002 1.36978510950961E-001 -1.18854637309707E-003 - Conexiones............: Objeto 15 Nodo 131- 102 Objeto 16 Nodo 131- 102 *********************************** - OBJETO nº: 5 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 2 - Nodo de inicio........: 140- 1 - Nodo final............: 136- 33 - Coeficientes..........: 1.40185314696815E+002 -1.55652960123010E-001 1.43344943681837E-003 - Conexiones............: Objeto 9 Nodo 136- 33 Objeto 14 Nodo 136- 33 *********************************** - OBJETO nº: 6 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 2 - Nodo de inicio........: 160- 93 - Nodo final............: 205- 147 - Coeficientes..........: 1.09415493876765E+002 3.24641825554036E-001 2.20962910243088E-003

- Conexiones............: Objeto 13 Nodo 160- 93 Objeto 16 Nodo 160- 93 *********************************** - OBJETO nº: 7 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 166- 45 - Nodo final............: 223- 3 - Coeficientes..........: 9.68131553660769E+001 4.95340301536337E-003 -1.91734124953256E-003 - Conexiones............: Objeto 11 Nodo 166- 45 Objeto 14 Nodo 166- 45 *********************************** - OBJETO nº: 8 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 170- 69 - Nodo final............: 276- 69 - Coeficientes..........: 2.01821288781405E+001 4.85081242618193E-001 -1.11638504633320E-003 - Conexiones............: Objeto 11 Nodo 170- 69 Objeto 13 Nodo 170- 69 *********************************** - OBJETO nº: 9 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 4 - Nodo de inicio........: 110- 42 - Nodo final............: 136- 33 - Coeficientes..........: 4.13854843488119E+001 3.05283612461372E-001 -2.72687926117963E-003 - Conexiones............: Objeto 3 Nodo 110- 42 Objeto 5 Nodo 136- 33 Objeto 10 Nodo 110- 42 Objeto 14 Nodo 136- 33 *********************************** - OBJETO nº: 10 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 4 - Nodo de inicio........: 110- 42 - Nodo final............: 98- 69 - Coeficientes..........: 1.26744431706423E+002 -3.92790852829386E-001 -1.27762622311939E-004 - Conexiones............: Objeto 1 Nodo 98- 69 Objeto 3 Nodo 110- 42 Objeto 9 Nodo 110- 42 Objeto 12 Nodo 98- 69 *********************************** - OBJETO nº: 11 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 4 - Nodo de inicio........: 166- 45 - Nodo final............: 170- 69 - Coeficientes..........: 1.67841021215043E+002 -1.82586728211526E-001 3.03109579878018E-003 - Conexiones............: Objeto 7 Nodo 166- 45 Objeto 8 Nodo 170- 69 Objeto 13 Nodo 170- 69 Objeto 14 Nodo 166- 45 ***********************************

- OBJETO nº: 12 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 4 - Nodo de inicio........: 98- 69 - Nodo final............: 101- 87 - Coeficientes..........: 4.91968733016880E+001 1.07496081018412E+000 -5.46744990672693E-003 - Conexiones............: Objeto 1 Nodo 98- 69 Objeto 2 Nodo 101- 87 Objeto 10 Nodo 98- 69 Objeto 15 Nodo 101- 87 *********************************** - OBJETO nº: 13 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 4 - Nodo de inicio........: 170- 69 - Nodo final............: 160- 93 - Coeficientes..........: 2.27815566023845E+002 -1.17393967093691E+000 4.78201133892572E-003 - Conexiones............: Objeto 6 Nodo 160- 93 Objeto 8 Nodo 170- 69 Objeto 11 Nodo 170- 69 Objeto 16 Nodo 160- 93 *********************************** - OBJETO nº: 14 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 4 - Nodo de inicio........: 136- 33 - Nodo final............: 166- 45 - Coeficientes..........: 2.01734834526734E+001 -1.52537186312864E-001 1.80805700307824E-003 - Conexiones............: Objeto 5 Nodo 136- 33 Objeto 7 Nodo 166- 45 Objeto 9 Nodo 136- 33 Objeto 11 Nodo 166- 45 *********************************** - OBJETO nº: 15 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 4 - Nodo de inicio........: 101- 87 - Nodo final............: 131- 102 - Coeficientes..........: 1.17165385009786E+002 -9.46388110280813E-001 6.37266489920625E-003 - Conexiones............: Objeto 2 Nodo 101- 87 Objeto 4 Nodo 131- 102 Objeto 12 Nodo 101- 87 Objeto 16 Nodo 131- 102 *********************************** - OBJETO nº: 16 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 4 - Nodo de inicio........: 131- 102 - Nodo final............: 160- 93 - Coeficientes..........: 1.64805187933165E+002 -6.08967542173375E-001 1.01765936309890E-003 - Conexiones............: Objeto 4 Nodo 131- 102 Objeto 6 Nodo 160- 93 Objeto 13 Nodo 160- 93 Objeto 15 Nodo 131- 102 ***********************************

Page 134: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 128

Figura 5.41.

a) Imagen inicial. b) Representación gráfica de elementos. c) Representación numérica de los elementos obtenidos.

- OBJETO nº: 1 - Grado del polinomio...: 4 - Tipo de ajuste........: 1 - Número de conexiones..: 3 - Nodo de inicio........: 1- 50 - Nodo final............: 151- 124 - Coeficientes..........: 5.07233195611331E+001 -3.58677092505631E-001 2.13914628290434E-002 -1.77528271463114E-004 4.82516394439092E-007 - Conexiones............: Objeto 2 Nodo 43- 62 Objeto 4 Nodo 151- 124 Objeto 8 Nodo 81- 88 *********************************** - OBJETO nº: 2 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 63- 2 - Nodo final............: 43- 62 - Coeficientes..........: 6.29906356710765E+001 -1.31722871565594E-001 -2.74549772433485E-003 - Conexiones............: Objeto 1 Nodo 43- 62 *********************************** - OBJETO nº: 3 - Grado del polinomio...: 4 - Tipo de ajuste........: 0 - Número de conexiones..: 4 - Nodo de inicio........: 95- 1 - Nodo final............: 159- 101 - Coeficientes..........: 9.40117267388392E+001 6.41699543604984E-001 2.21847141520268E-003 1.65859866389216E-005 -3.85696420850165E-007 - Conexiones............: Objeto 4 Nodo 159- 101 Objeto 5 Nodo 115- 29 Objeto 7 Nodo 159- 101 Objeto 9 Nodo 140- 61 *********************************** - OBJETO nº: 4 - Grado del polinomio...: 3 - Tipo de ajuste........: 0 - Número de conexiones..: 3 - Nodo de inicio........: 159- 101 - Nodo final............: 147- 146 - Coeficientes..........: 3.83338291912084E+002 -4.66840313016102E+000 3.19363675501275E-002 -7.55911614954950E-005

- Conexiones............: Objeto 1 Nodo 151- 124 Objeto 3 Nodo 159- 101 Objeto 7 Nodo 159- 101 *********************************** - OBJETO nº: 5 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 1 - Nodo de inicio........: 115- 29 - Nodo final............: 180- 5 - Coeficientes..........: 5.65740332554392E+001 -1.54791379874873E-001 -7.20145353827897E-004 - Conexiones............: Objeto 3 Nodo 115- 29 *********************************** - OBJETO nº: 6 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 1 - Nodo de inicio........: 210- 99 - Nodo final............: 247- 147 - Coeficientes..........: 3.61243910582800E+002 -3.06665230865145E+000 1.55686975939740E-002 - Conexiones............: Objeto 7 Nodo 210- 99 *********************************** - OBJETO nº: 7 - Grado del polinomio...: 3 - Tipo de ajuste........: 1 - Número de conexiones..: 3 - Nodo de inicio........: 159- 101 - Nodo final............: 279- 89 - Coeficientes..........: 1.97970827303128E+002 -1.46099625414901E+000 7.40422231492316E-003 -1.28010181290059E-005 - Conexiones............: Objeto 3 Nodo 159- 101 Objeto 4 Nodo 159- 101 Objeto 6 Nodo 210- 99 *********************************** - OBJETO nº: 8 - Grado del polinomio...: 2 - Tipo de ajuste........: 0 - Número de conexiones..: 2 - Nodo de inicio........: 81- 88 - Nodo final............: 63- 107 - Coeficientes..........: 8.23429188388414E+001 7.33882319372426E-001 -8.56209820092661E-003 - Conexiones............: Objeto 1 Nodo 81- 88

Objeto 11 Nodo 63- 107 *********************************** - OBJETO nº: 9 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 140- 61 - Nodo final............: 199- 47 - Coeficientes..........: 1.90285088046809E+002 -1.40053855381714E+000 3.43777312277545E-003 - Conexiones............: Objeto 3 Nodo 140- 61 Objeto 10 Nodo 199- 47 *********************************** - OBJETO nº: 10 - Lados del polígono....: 14 - Error máximo de ajuste: 1 - Nodo único............: 199- 47 - Vértices intermedios..: 212- 61 219- 63 233- 63 239- 61 243- 56 245- 48 243- 38 239- 32 233- 26 224- 24 213- 26 207- 30 203- 36 - Conexiones............: Objeto 9 Nodo 199- 47 *********************************** - OBJETO nº: 11 - Lados del polígono....: 13 - Error máximo de ajuste: 1 - Nodo único............: 63- 107 - Vértices intermedios..: 44- 98 33- 101 25- 108 22- 113 21- 124 28- 132 34- 136 39- 138 53- 137 61- 130 65- 122 65- 113 - Conexiones............: Objeto 8 Nodo 63- 107 ***********************************

Page 135: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 129

Figura 5.42.

a) Imagen inicial. b) Representación gráfica de elementos. c) Representación numérica de los elementos obtenidos.

- OBJETO nº: 1 - Grado del polinomio...: 4 - Tipo de ajuste........: 0 - Número de conexiones..: 4 - Nodo de inicio........: 25- 2 - Nodo final............: 75- 104 - Coeficientes..........: 2.38747942104838E+001 7.88234727614109E-001 -1.99165338464434E-002 2.73202202031237E-004 -1.04129994809338E-006 - Conexiones............: Objeto 2 Nodo 75- 104 Objeto 3 Nodo 35- 27 Objeto 9 Nodo 58- 83 Objeto 11 Nodo 75- 104 *********************************** - OBJETO nº: 2 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 29- 144 - Nodo final............: 75- 104 - Coeficientes..........: 1.65913649126060E+002 -7.16088035065967E-001 -1.47176025779364E-003 - Conexiones............: Objeto 1 Nodo 75- 104 Objeto 11 Nodo 75- 104 *********************************** - OBJETO nº: 3 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 1 - Nodo de inicio........: 35- 27 - Nodo final............: 108- 14 - Coeficientes..........: 1.27985783985963E+001 5.99112615689171E-001 -5.46513578726199E-003 - Conexiones............: Objeto 1 Nodo 35- 27 *********************************** - OBJETO nº: 4 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 81- 105 - Nodo final............: 132- 147 - Coeficientes..........: 7.37196389147234E+001 1.35778328255330E-001 3.16151291740844E-003 - Conexiones............:

Objeto 5 Nodo 81- 105 Objeto 11 Nodo 81- 105 *********************************** - OBJETO nº: 5 - Grado del polinomio...: 4 - Tipo de ajuste........: 1 - Número de conexiones..: 4 - Nodo de inicio........: 81- 105 - Nodo final............: 194- 4 - Coeficientes..........: 5.22310533092988E+002 -1.16131133081252E+001 1.20048241184420E-001 -5.80052354629540E-004 1.02463279578296E-006 - Conexiones............: Objeto 4 Nodo 81- 105 Objeto 7 Nodo 129- 60 Objeto 9 Nodo 113- 73 Objeto 11 Nodo 81- 105 *********************************** - OBJETO nº: 6 - Grado del polinomio...: 4 - Tipo de ajuste........: 0 - Número de conexiones..: 3 - Nodo de inicio........: 177- 43 - Nodo final............: 244- 145 - Coeficientes..........: 1.31229447806403E+002 1.05611680014357E+000 9.20892403261978E-003 -2.45483915954926E-004 1.16313625663033E-006 - Conexiones............: Objeto 7 Nodo 177- 43 Objeto 8 Nodo 244- 145 Objeto 10 Nodo 200- 99 *********************************** - OBJETO nº: 7 - Grado del polinomio...: 3 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 129- 60 - Nodo final............: 279- 41 - Coeficientes..........: 5.26711366078907E+001 6.76842290959335E-001 -6.72730618811519E-003 1.48574887016632E-005 - Conexiones............: Objeto 5 Nodo 129- 60 Objeto 6 Nodo 177- 43 *********************************** - OBJETO nº: 8 - Grado del polinomio...: 3 - Tipo de ajuste........: 0

- Número de conexiones..: 2 - Nodo de inicio........: 279- 74 - Nodo final............: 244- 145 - Coeficientes..........: 3.06168981541734E+002 1.80755596799461E+000 -4.40814219666877E-002 1.97552917779827E-004 - Conexiones............: Objeto 6 Nodo 244- 145 Objeto 10 Nodo 236- 107 *********************************** - OBJETO nº: 9 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 58- 83 - Nodo final............: 113- 73 - Coeficientes..........: 1.32262301574019E+002 -1.14970247225062E+000 5.49821348786369E-003 - Conexiones............: Objeto 1 Nodo 58- 83 Objeto 5 Nodo 113- 73 *********************************** - OBJETO nº: 10 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 2 - Nodo de inicio........: 200- 99 - Nodo final............: 236- 107 - Coeficientes..........: 7.86808502536238E+002 -6.53293803542232E+000 1.54718868778248E-002 - Conexiones............: Objeto 6 Nodo 200- 99 Objeto 8 Nodo 236- 107 *********************************** - OBJETO nº: 11 - Grado del polinomio...: 2 - Tipo de ajuste........: 1 - Número de conexiones..: 4 - Nodo de inicio........: 75- 104 - Nodo final............: 81- 105 - Coeficientes..........: -2.64759273236132E+002 9.37098017576774E+000 -5.93512373969391E-002 - Conexiones............: Objeto 1 Nodo 75- 104 Objeto 2 Nodo 75- 104 Objeto 4 Nodo 81- 105 Objeto 5 Nodo 81- 105 ***********************************

Page 136: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 130

Seguidamente se muestran otros resultados en los cuales se prescinde de la relación numérica correspondiente a los elementos obtenidos.

Figura 5.43.

Figura 5.44.

Figura 5.45.

Figura 5.46.

a) Imagen inicial. b) Representación gráfica de elementos.

Page 137: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 131

5.3.2. Discusión de los resultados. * Clasificación general de los resultados. Cuando se observa el conjunto de las imágenes que se han presentado, la primera impresión que se obtiene a la hora de calificar el método propuesto es la de es-tar caracterizado por una gran potencia en la mayor parte de los casos. Sin embargo, aunque es cierto que los resultados son satisfactorios allí donde la configuración de las vías de comunicación se ajusta a las hipótesis asumidas como dato de partida, también es verdad que existen múltiples circunstancias bajo las cuales el algoritmo no resuelve con la calidad deseada. Entonces, ponderando las distintas sa-lidas del proceso de vectorización ante cualquier tipo de imagen binaria de entrada, mediante una valo-ración grosera de las mismas como puede ser la técnica traffic light empleada en [WILLRICH 02], clasificaremos dichas salidas conforme a su calidad en tres grandes grupos:

a) Aceptables. Aquellos resultados donde, debido al ajuste de la imagen binaria inicial con el conjunto de normas y reglas asumidas en el diseño de los algoritmos, se observa una cierta ca-lidad en mayor o menor grado.

b) Rechazables. Son las salidas muy pobres como consecuencia del fallo general del método en la vectorización de la imagen inicial. Estos casos se corresponden normalmente con imáge-nes binarias donde la fragmentación [WIEDEMANN 98] es muy alta o cuyas características no cumplen los requisitos de partida de nuestro algoritmo en cuanto a resolución y zona en es-tudio se refiere. El resultado de la vectorización será, en el mejor de los casos, un conjunto nu-meroso de elementos gráficos no conectados entre sí y, por tanto, de poca utilidad para actuali-zar la base de datos del SIG. Para evitar este tipo de salidas se hace necesario ampliar el marco de posibilidades del método, en el sentido de incluir una mayor cantidad de información adi-cional a modo de conocimiento, tanto para analizar el contexto [MAYER 99 (a)], como para modelizar y tratar los distintos objetos cartográficos [STRAUB 00 (a)]; tareas no resueltas en la actualidad que precisan de una futura e intensiva labor de investigación [SOWMYA 00].

c) Inciertos. Como salidas inciertas se califican todas aquellas donde no ocurre al ciento por ciento ni una cosa ni la otra, es decir, la imagen binaria inicial se ajusta en parte a las hipótesis del algoritmo, pero contiene aspectos no considerados en lo relativo a la zona representada, la extensión y número de las sombras, el piso de las carreteras, etc... En tales casos los resultados serán muy variables, debiendo distinguirse las salidas erróneas cuya causa es algún fallo local del algoritmo (siempre mejorable), de aquellas motivadas por la necesidad de proporcionar un mayor conocimiento al sistema en el alto nivel; tema éste que se trata en el capítulo 6.

* Análisis de las pruebas realizadas. En este orden de cosas, y atendiendo únicamente al tipo de imá-genes binarias para el cual se ha diseñado el proceso de vectorización, los resultados que se obtienen pueden calificarse de aceptables en la gran mayoría de los experimentos, dándose algún caso en que tal valoración puede sustituirse por la de incierto si bien sólo en algún sector del conjunto gráfico y nu-mérico de salida. No obstante, aún en aquellas pruebas donde el resultado es bueno, suelen encontrarse detalles no todo lo correctos que cabría esperar. Veámoslo mediante el análisis de los ejemplos que se han expuesto en el apartado 5.3.1. > Valorando la vectorización alcanzada en la imagen guía y ejemplo que acompaña al desarrollo del proceso, es evidente que su resultado final (figura 5.36) es de gran calidad, lo que no puede ser de otra manera dado que los problemas planteados por esta imagen han tenido ocasión de estudiarse y ser resueltos. Lo mismo puede afirmarse del ejemplo de la figura 5.37, donde la red a vectorizar no reviste dificultad alguna en relación con el procedimiento propuesto. > Sin embargo en la figura 5.38 observamos que, allí donde debería existir un nodo de cuarto or-den en el que se produjera la intersección de dos únicos elementos, aparecen dos nodos de tercer orden muy próximos mediante los cuales se conectan al objeto 4 los objetos 2 y 5 respectivamente. Esta dis-posición provoca que el objeto 4 sea de grado sexto en lugar de quinto, e impide la formación de un solo objeto de grado cuarto en sustitución de los objetos 2 y 5. El motivo de este suceso es achacable a la línea seguida para la determinación inicial de los nodos en la fase de construcción del esqueleto.

Page 138: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 132

> En la imagen de la figura 5.39 el procedimiento ha conseguido establecer correctamente un polinomio de grado siete que constituye el elemento gráfico representante de la vía principal. Asimis-mo todos los objetos restantes han sido conectados de forma satisfactoria con dicho elemento. No obs-tante, la intersección resultante con el objeto 5, aunque esté numéricamente bien definida, no aparece en el resultado gráfico con toda la nitidez que revisten las demás. Además, en el polinomio de ajuste de este último objeto se observa una curvatura excesiva en su zona inicial, lo que es debido a la rela-ción existente en el intervalo de ajuste entre la disposición de los pixeles de la bolsa y el segundo gra-do del polinomio obtenido. > La imagen de la figura 5.40 presenta una rotonda con acceso a ocho direcciones. El conjunto ha sido ajustado mediante 16 polinomios de segundo grado conectados en grupos de tres, aunque en este caso parece más lógico y conveniente definir la rotonda mediante un único objeto ajustado a un polígono cuyos vértices sean las respectivas conexiones. No obstante, esto no es posible de realizar con el presente algoritmo porque la clasificación de las bolsas por pendientes similares y las reglas aplicadas para la construcción de los objetos, no permiten constituir un solo elemento cerrado median-te unión de dos o más bolsas adyacentes. Téngase en cuenta que para ello, o bien deberían utilizarse bolsas pertenecientes a clases distintas, o bien habría que enlazar entre sí bolsas de una misma clase pero situadas en posición relativa inversa. Liberar al algoritmo de tales ataduras daría al traste con las bases sobre las que ha sido levantado y, por tanto, lo convertiría en una aplicación inútil. Además, el ajuste poligonal sólo puede ser utilizado directamente en los objetos cerrados que el algoritmo recono-ce, es decir, en aquellos que constan de un solo nodo. Y si bien esta circunstancia tiene fácil arreglo, el verdadero problema estriba en la detección automática de formas cuando se trabaja al medio nivel. En el capítulo siguiente se incluyen algunas ideas para la generación de entidades cartográficas a partir del conjunto de elementos gráficos que se ha conseguido, lo que nos lleva ineludiblemente a conside-rar el análisis de la imagen en el alto nivel dentro del entorno del Sistema de Información Geográfica. > El resultado de la figura 5.41 no da pie a discusión puesto que todos los elementos, incluyendo los dos cerrados, han sido ajustados geométrica y topológicamente de forma correcta. Sin embargo, la imagen de la figura 5.42 requiere de varios comentarios. En primer lugar existen dos nodos bifurca-ción muy próximos que han causado la construcción de cinco objetos en vez de los dos que hubiese si-do de desear. En segundo lugar, la amplitud del cruce que se observa en el centro de la imagen se ha resuelto de modo que los objetos 7 y 9, que realmente constituyen una misma vía de comunicación, parecen no guardar relación alguna entre sí, ni gráfica ni numéricamente.

La tercera objeción se debe a la representación errónea que el algoritmo ofrece para la rotonda. Para encontrar la causa de ello hay que acudir a las normas enunciadas en la fase de construcción del grafo, durante las etapas de podado y estudio de la curvatura de las bolsas. Por un lado, cuando se eli-mina una bolsa en el podado, se hace referencia a la permanencia en el esqueleto del nodo bifurcación correspondiente si el ángulo formado por los segmentos que lo unen a los nodos extremos de las bol-sas adyacentes es menor de 135º. De otra parte, se estableció como condición para insertar en una bol-sa un nodo bifurcación de segundo orden, que el ángulo definido por los nodos adyacentes a la bolsa y el pixel más distante a la recta que une dichos nodos fuese también inferior a los 135º. Además, en este segundo caso el estudio se restringió a las bolsas cuyo número de pixeles superase un valor umbral.

Pues bien, como se deduce de la posición de los nodos, el ajuste de la rotonda se ha resuelto

utilizando únicamente tres bolsas, en ninguna de las cuales el algoritmo ha insertado un nodo adicional de segundo orden durante la fase de construcción del grafo. Esto ha sido causado, bien por no existir alguna pequeña rama que tras la etapa de podado pudiera conservar el nodo bifurcación en el esquele-to, o bien porque en la etapa de estudio de la curvatura el número de pixeles de las tres bolsas en cues-tión fuese inferior al número fijado como umbral para este propósito. De hecho, la bolsa de la rotonda situada más a la izquierda probablemente hubiera satisfecho la correspondiente condición angular en alguno de sus pixeles. Como resultado, y pese al establecimiento de un valor muy restrictivo en el margen de pendiente para la clasificación de las bolsas, sólo una de las tres en cuestión se ajustó de forma individual. Las otras dos han sido incorporadas respectivamente a los objetos 6 y 8, como se

Page 139: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 133

puede apreciar si se analizan coordenadas en el listado de objetos. En consecuencia el ajuste resultante para la rotonda no es correcto, llegando incluso a situarse fuera de la misma uno de los puntos inter-sección que debería ser interior.

Diremos también que, observando la imagen inicial, resulta evidente la existencia de una rela-ción de continuidad entre las vías representadas por los objetos 6 y 3. Esta relación, interrumpida por las zonas en sombra, no puede adivinarse ni remotamente en el resultado obtenido a causa de haberse eliminado en el proceso de limpieza algunas zonas que deberían haberse conservado. > Las figuras 5.43 y 5.44 muestran dos zonas a vectorizar de características similares. No obs-tante, mientras que en uno de los casos el algoritmo proporciona un resultado muy bueno, en el otro el ajuste no ha sido tan correcto. Básicamente, las razones de ello son las mismas que se han expuesto en la crítica al ajuste de la rotonda de la figura 5.42.

Como se desprende de la definición y establecimiento de la divisoria, es frecuente que se ge-neren pequeñas ramas allí donde la curvatura de la vía es grande. La gran mayoría de tales ramas per-manecen en el esqueleto manteniéndose hasta la construcción del grafo; circunstancia ésta que es utili-zada en primer término por el algoritmo para detectar sinuosidades en las vías. De este modo, cuando se conservan los nodos bifurcación de pequeñas ramas eliminadas, se evita la unión en una sola bolsa de los pixeles pertenecientes a las dos bolsas que el nodo separa. Pero ¿Qué ocurre si dicho nodo inter-medio no existe? En tal caso, que puede producirse por no haberse generado la pequeña rama o por de-saparecer el nodo si el correspondiente margen angular es mayor de 135º, el algoritmo aún dispone del estudio de la curvatura de las bolsas para insertar nodos adicionales de segundo orden. Así, en el caso de la figura 5.43, el resultado de este planteamiento ha sido la conservación de dos nodos en la etapa de podado y la inserción de un nodo adicional durante el estudio de la curvatura, habiéndose obtenido un ajuste de calidad en su conjunto. Por otra parte, analizando la solución al problema de la figura 5.44, resulta que, de los cuatro nodos generados por pequeñas ramas en la zona sinuosa de la red, el al-goritmo ha mantenido tras el podado sólo dos de ellos, incluyendo otros dos nodos adicionales durante el posterior estudio de la curvatura de las bolsas. Las posiciones encontradas para estos cuatro nuevos nodos y su relación con los restantes en la estructura de la red, así como la prolongación hasta su inter-sección de los objetos, han forzado el ajuste incorrecto del elemento gráfico definido por el polinomio de tercer grado, situándose finalmente sus nodos extremos en posiciones poco satisfactorias. > La figura 5.45 presenta un resultado indicativo de la necesidad que existe en algunas ocasiones de establecer un valor muy pequeño en el margen de pendiente a partir del cual se determina la clasifi-cación de las bolsas. Con ello normalmente se facilitará la obtención de un ajuste correcto en ciertos casos particulares como pueden ser algunas rotondas, disminuyendo las posibilidades de que ocurra lo sucedido en el ejemplo de la figura 5.42. Por contra, el número de objetos que se formen crecerá en-tonces de forma notable; más aún si el número de bolsas del esqueleto es alto. No obstante, atendiendo a la regla por la cual los cortes entre distintas vías de comunicación tienden a producirse ortogonal-mente en zonas de naturaleza rural o semiurbana, se estima que un margen de pendiente entre los 30º y 45º puede servir para resolver satisfactoriamente una gran parte de las situaciones que se presentan. > En la figura 5.46 aparece un ejemplo donde se pone de manifiesto, tanto la potencia del algo-ritmo para eliminar el ruido superpuesto a la imagen, como la incapacidad del mismo para dar solu-ción a los problemas de continuidad en ésta. Tales problemas, debidos normalmente a la existencia de zonas en sombra o bien a fallos en el proceso de obtención de la imagen inicial, son irresolubles para el algoritmo, por mucho que la disposición resultante de algunos objetos indique la conveniencia de su conexión. No obstante, también es cierto que los citados problemas pueden calificarse como ajenos al proceso de trabajo a bajo y medio nivel que se ha seguido, ya que su estudio deberá realizarse a un ni-vel más alto de conocimiento donde se disponga de información adicional para construir las entidades cartográficas con ciertas garantías de éxito. > Finalmente comentar que, valorando únicamente la posición obtenida para los ejes de los ele-mentos gráficos, la efectividad del algoritmo es, en general, altamente satisfactoria.

Page 140: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 134

5.4. Mejoras del sistema y líneas de estudio en el medio nivel. * Por el análisis de las numerosas pruebas realizadas y de los resultados obtenidos, se estima que toda mejora del algoritmo debe pasar forzosamente por un riguroso estudio de la curvatura de las bol-sas en cada uno de sus pixeles antes de proceder a la formación de los objetos. De este modo se pro-porcionará una mayor generalidad al proceso, puesto que será entonces capaz de evitar las incertidum-bres y salidas erróneas que, debidos a la introducción de valores umbrales, se producen en el ajuste de las vías de comunicación sinuosas. Aunque el método impuesto en el algoritmo para el mantenimiento e inserción de nodos adi-cionales proporciona resultados aceptables en muchos casos, se estima más exacto y conveniente el es-tudio de las aproximaciones a los valores de las dos primeras derivadas en todos los pixeles interiores de las bolsas. Sin embargo, se ha visto la necesidad de asignar algún valor medio como referencia de pendiente que permita la inclusión de cada bolsa en una clase de equivalencia concreta. Tal valor de referencia puede ser el utilizado hasta ahora, o sea, la pendiente del segmento que une los nodos adya-centes a la bolsa. En este caso, el conjunto de valores de curvatura en los pixeles interiores deberá em-plearse para decidir si la bolsa ha de ser subdividida o no en dos o más bolsas contiguas mediante ge-neración de los correspondientes nodos intermedios.

Aunque parezca sencilla, la determinación mas idónea de los puntos de ruptura en las bolsas, si los hay, reviste su dificultad. Téngase en cuenta que si bien los pixeles de una bolsa mantienen su condición de continuidad, éstos resultan dispuestos con arreglo a las rugosidades del borde de la vía de comunicación, las cuales son muchas pese al proceso de suavizado a que se las somete. En consecuen-cia parece aconsejable estudiar estadísticamente las distribuciones de los valores de posición, pendien-te y curvatura asociados a cada bolsa, investigando la mejor forma de evitar que los extremos locales de alguna de las magnitudes falseen las conclusiones. * Como segunda línea de estudio se propone investigar la forma de sustituir por uno sólo aque-llos nodos bifurcación que se encuentren muy próximos. De este modo se conseguirá mejorar notable-mente las intersecciones en cruz, disminuyendo a la vez el número de elementos gráficos resultantes. Esta labor no es sencilla dada la cantidad de casos particulares que se pueden presentar, haciendo que un criterio válido para algunas situaciones sea inútil en otras. Tal circunstancia, opuesta a la generali-zación de los métodos de extracción bajo cualquier tipo de imágenes, es típica de todos los algoritmos diseñados al nivel bajo y medio de conocimiento como se demuestra en [FÖRSTNER 96] y se confir-ma en [ZHANG 02 (b)] y [AMINI 02]. Ello implica la necesidad de realizar posteriores estudios de in-vestigación en el tema citado, al objeto de perfeccionar nuestro algoritmo de vectorización. * Otro punto de interés consiste en estudiar algún procedimiento que permita al algoritmo reco-nocer la existencia de rotondas u otras entidades de naturaleza especial, al objeto de poder considerar-las aparte y representar su geometría y topología como elementos gráficos independientes. Este tema es importante, ya que libera notablemente del compromiso de fijar el umbral de pendiente, impidiendo así que se produzcan errores como el de la figura 5.42. Sin embargo el problema no tiene fácil resolu-ción automática ni tan siquiera en el alto nivel como se indica en [SOWMYA 00]; no digamos ya a ni-vel medio donde la formación de objetos se ha basado en la disposición relativa de bolsas adyacentes y la estructura interna de las mismas; dato que, por otra parte, es el único disponible en el contexto de la imagen binaria inicial [MAYER 99 (a)]. Y aunque podría pensarse en la modelización previa de los distintos tipos de objetos cartográficos potencialmente constitutivos de la red viaria [STRAUB 00 (a)], dicha metodología engendra serias dificultades para su empleo eficaz en el medio nivel de conoci-miento. Considérese que los modelos han de ser muy numerosos, al depender considerablemente de la escala de trabajo y de la naturaleza de la zona representada en la imagen entre otros factores. No obs-tante, la modelización puede que sea una de las pocas puertas abiertas a través de las cuales alcanzar en un futuro altos rendimientos en los métodos de extracción automática, por lo que la mantendremos aquí como importante línea de investigación.

Page 141: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 135

* Finalmente decir que se considera de gran importancia ponderar de algún modo el conjunto de valores umbrales que se han ido introduciendo en las distintas fases del proceso, si se pretende alcan-zar el cien por cien en el automatismo del método ante cualquier circunstancia. Basta considerar todas aquellas ocasiones en las cuales, durante la descripción del procedimiento, se han nombrado los califi-cativos pequeño, grande, próximo, similar, etc. Y aunque en tales casos se concretaron los valores nu-méricos correspondientes, cuya mayor parte no ha requerido modificación al realizar pruebas diferen-tes, sí que es cierto que existe algún parámetro, como es el margen de pendiente para la clasificación de las bolsas, que está íntimamente ligado con la estructura de la red a vectorizar, siendo decisivo en la calidad de los resultados.

Para ponderar los calificativos anteriores conforme a alguna referencia y fijar así los respecti-vos valores numéricos asociados, aquí se propone el empleo de la técnica fuzzy [ZADEH 65], la cual ha sido utilizada con éxito en distintas aplicaciones [AGOURIS 98], incluida la segmentación de imá-genes [YANG 01]. Además esta idea, unida con la Teoría de la Evidencia [KOHLAS 95 (a), (b), (c), KOHLAS 97 y BAUER 97], es trasladable al estudio del problema en el alto nivel, lo que puede servir como nexo de unión entre el algoritmo presentado y la investigación sobre la mejor forma de agrupar los elementos gráficos obtenidos a fin de constituir entidades cartográficas; asunto éste que analiza-mos en el capítulo siguiente. 5.5. Conclusiones. Se ha presentado un nuevo algoritmo dirigido a obtener la vectorización de forma práctica-mente automática de una red lineal definida en una imagen ráster. El algoritmo, que puede utilizarse como complemento de algún procedimiento de segmentación o bien sobre una salida binaria de escá-ner por ejemplo, combina la extracción y tratamiento del esqueleto con la teoría de grafos y el ajuste geométrico y topológico, siendo superior a otros métodos por la gran ventaja que supone ofrecer como resultado un conjunto numérico de los elementos gráficos que componen la red.

Comenzando el estudio en el bajo nivel, mediante el análisis del pixel y de sus relaciones con el entorno, se introduce el concepto de bolsa tras la obtención del esqueleto de la red. Dispuestas las bolsas resultantes a posteriori del análisis de la curvatura por el método del ángulo en el vértice, se al-canza, en el nivel medio de conocimiento, la noción de objeto utilizando una relación de orden para su definición y otra de equivalencia para su construcción, lo que se realiza a través del método de la refe-rencia móvil. Posteriormente se avanza un paso más reestructurando los objetos tras el ajuste como elementos gráficos. Estos serán las piezas básicas de trabajo para formar, en el alto nivel, las entidades cartográficas que se incorporan a las bases de datos del SIG para su actualización automática.

Para la extracción del esqueleto se han utilizado dos procedimientos. El primero, basado en la obtención de la (3,4) distancia de Chamfer, ha servido para la construcción de las bolsas, los objetos y los elementos gráficos. El segundo, que se obtiene mediante degeneración de la triangulación de De-launay resultante del K-means, se utilizará como información básica para establecer las entidades car-tográficas en el alto nivel.

En el aspecto del ajuste geométrico se han asociado los objetos abiertos con sus ecuaciones polinómicas más afines conforme al principio de los mínimos cuadrados y la ponderación de residuos. Dichos polinomios, de grado variable según el número de intersecciones de cada objeto, han sido expresados en coordenadas cartesianas. En cuanto a los objetos cerrados, se propone el empleo de snakes pero reduciendo el grado de todos los polinomios al primero. Resulta así un ajuste poligonal reiterativo capaz de representar al objeto mediante sólo unos cuantos puntos, pero con toda la aproximación que se quiera cuando se toma como margen de error el valor de resolución de la imagen. Por su parte, para el ajuste topológico se aplica morfología matemática a fin de situar los extremos e intersecciones de los elementos gráficos en sus posiciones más apropiadas.

Page 142: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 5: El sistema de extracción (iii): Módulo de vectorización. J. B. Mena

Pág. 136

A todo el desarrollo se le ha querido dar cierto carácter formal agrupando los pixeles en sub-conjuntos y exponiendo definiciones, premisas, reglas y consecuencias en las cuales basar las opera-ciones realizadas a los niveles bajo y medio. Se obtiene de esta forma un conjunto de normas de traba-jo que enlaza con la línea de estudio propuesta aquí para el medio nivel y la que se incluye en el capí-tulo siguiente para el alto nivel. Con ello solo se pretende abrir un camino a la investigación en un campo donde todavía queda mucho por hacer.

Page 143: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 137

6 El sistema de extracción (iv):

Módulo de evaluación y propuestas en el alto nivel.

EVALUACIÓN CONJUNTA DE LOS RESULTADOS Y PROPUESTAS

SOBRE LA FORMACIÓN DE LAS ENTIDADES CARTOGRÁFICAS EN EL ALTO NIVEL DE CONOCIMIENTO

RESUMEN.

En el último módulo de nuestro sistema se presenta la evaluación de los resultados obtenidos sobre imá-genes reales, considerando los procesos sucesivos de pretratamiento, segmentación y vectorización en su conjun-to. Dicha evaluación se realiza independientemente mediante dos procedimientos distintos. El primero está apo-yado en una idea original que se propone en este trabajo, ofreciendo como resultado un porcentaje global de la efectividad del sistema de extracción en imágenes que, dentro de las hipótesis concebidas como información de entrada, se caracterizan por un grado de dificultad variable. El segundo método de evaluación es uno de los exis-tentes en la literatura científica, en concreto el propuesto en 1998 por los profesores C. Wiedemann y H. Mayer, el cual rinde los valores de un conjunto de parámetros de ponderación.

En un segundo bloque se proponen una serie de ideas orientadas a la formación de las entidades carto-gráficas en el alto nivel a partir de los elementos gráficos resultantes del método de vectorización descrito en el capítulo 5. Salvo el análisis del proceso de transformación de coordenadas al sistema geodésico de referencia, in-cluyendo la introducción en las entidades cartográficas de la componente en altura, los comentarios relativos al estudio en el alto nivel de conocimiento figuran a modo de posibles líneas de investigación dada la dificultad que conlleva el completo automatismo del sistema al mencionado nivel.

6.1. Evaluación del sistema de extracción.

A continuación se incluye una evaluación de los resultados obtenidos tras la aplicación del procedimiento general de extracción de carreteras sobre algunas imágenes de muestra que satisfacen las hipótesis expuestas en el capítulo 1. Partiendo pues de una imagen RGB que supondremos rectifi-cada, se aplica el método de segmentación propuesto en el capítulo 4 tras la etapa de preproceso des-crita en el 3. La correspondiente salida de plausibilidad se toma directamente como entrada para el proceso de vectorización desarrollado en el capítulo 5, obteniéndose el conjunto de elementos gráficos resultante. En todos los casos que siguen el único dato adicional al contexto de la imagen está consti-tuido por las entidades de referencia, supuestamente residentes en la capa vectorial del Sistema de Información Geográfica, las cuales son utilizadas a modo de área de entrenamiento para el módulo de segmentación.

Aunque unos pocos ejemplos nunca pueden proporcionar conclusiones fiables al cien por cien, al menos permitirán disponer de algunos valores que representen de forma concreta la calidad de nues-tro sistema valorado bajo diferentes aspectos. Para ello obtendremos primeramente un porcentaje glo-bal sobre la eficacia del proceso a través de un método de evaluación propuesto aquí, para seguida-mente calcular las magnitudes de una serie de variables recomendadas en el test de imagen propuesto en [WIEDEMANN 98] por el equipo alemán de investigación del Dr. Helmut Mayer. Ambos métodos se fundamentan en el análisis comparativo de los resultados obtenidos con aquellos que teóricamente deberían haberse producido, los cuales se consiguen mediante vectorización manual.

Page 144: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 138

6.1.1. Evaluación global según el método propuesto en nuestro sistema. * Descripción del procedimiento. El proceso de evaluación que presentamos se basa en la calificación empírica de los resultados atendiendo al criterio numérico por el cual se asignan puntos positivos a los aciertos en la extracción y puntos negativos a los errores producidos. Sobre un valor máximo M de puntos, a establecer en cada resultado conforme al número n de vías de comunicación presentes en la imagen original, se calcula la puntuación total R correspondiente a la salida proporcionada por el sistema. Para ello se ponderan n calificaciones pi mayores o iguales que cero, más m calificaciones qj negativas o nulas. Las primeras se corresponden con la calidad con-seguida en la extracción de cada vía de comunicación considerada de forma individual e independien-temente del resto de la imagen; en tanto que las segundas hacen referencia a los objetos y zonas extraí-das que no constituyen parte de la red de carreteras. Ambos tipos de calificaciones se asignan de forma intuitiva, pero proporcionalmente al grado de corrección en la definición del elemento gráfico en el ca-so de los valores pi, y según la magnitud del error cuando se ponderan los valores qj. Una vez obtenidas las magnitudes pi y qj, la suma algebraica de las mismas proporciona el re-sultado R, cuya comparación con el valor máximo M relativo a la prueba rinde el porcentaje de efecti-vidad del sistema sobre la imagen en estudio. Las especificaciones numéricas para obtener los valores de cada una de las variables mencio-nadas se exponen en el siguiente cuadro, que constituye a la vez un esquema y resumen del método.

Cuadro 6.1. a) La máxima puntuación M correspondiente a cada salida se obtiene multiplicando por 5 el número n de vías de comunicación distintas presentes en la imagen original. b) La puntuación R del resultado obtenido en una imagen se calculará mediante la suma de las n cali-ficaciones parciales pi ≥ 0 asignadas por separado a la definición final de cada una de las vías de co-municación, más los m valores qj ≤ 0 relativos a posibles elementos erróneos que se detecten. Tales valores, que serán números enteros, se concretan en puntos como sigue:

* p = 5 cuando la vía está definida correctamente.

* p ∈ [1, 4], en correspondencia con la calidad de la definición, cuando el resultado del res- pectivo ajuste presenta errores.

* p = 0 si la vía de comunicación ha pasado desapercibida en el proceso.

* q ∈ [–4, 0], en correspondencia con la magnitud del error, cuando se detectan como vías de comunicación otros elementos de la imagen.

* q = –5 si se definen relaciones topológicas de importancia entre elementos detectados que no pertenecen a la red de vías de comunicación.

c) El porcentaje de éxito E se obtiene mediante los valores resultantes en a) y b), sustituyendo por ce-ro el segundo en el caso de resultar negativo.

Algoritmo propuesto para evaluación de los métodos de extracción automática de carreteras.

Page 145: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 139

* Evaluación de cada prueba por separado. Los distintos ejemplos que se exponen a continuación lo son con arreglo al incremento del grado de dificultad que a priori se les supone a cada uno de ellos. Figura 6.1.

a) Imagen inicial.

b) Entidad de referencia.

c) Resultado de plausibilidad.

d) Elementos gráficos. e) Vectorización gráfica manual.

Análisis 1ª prueba. > En esta figura se evalúa un conjunto muy sencillo, donde la única dificultad para el sistema de extracción es-triba en las franjas de color blanco dibujadas transversal-mente en la carretera principal (vía 1). La puntuación máxima en este caso es M = 15, puesto que en la imagen a) se distinguen claramente n = 3 vías de comunicación diferentes. Observando los resulta-dos parciales obtenidos para cada una de ellas podemos asignar sin duda alguna las calificaciones p1 = p2 = p3 = 5, ya que todos los ajustes encontrados, incluyendo la topolo-gía, son correctos. En cuanto al número m de errores, éste es cero; por tanto en esta imagen se tiene qj = 0 para cual-quier índice j. En consecuencia, el número R que se obtie-ne como suma de los pi y qj será igual a 15, dando lugar con ello a un porcentaje del 100 % en el éxito E del proce-dimiento sobre esta imagen, resumido en la tabla adjunta.

Tabla 6.1.

M = 15 n = 3 p1 = 5 p2 = 5 p3 = 5

m = 0 qj = 0

R = 15 E = 100 %

Como rasgo importante del resultado hay que con-siderar la no interrupción del elemento gráfico correspon-diente pese a las franjas de aparente textura distinta que se aprecian en la vía 1.

Page 146: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 140

Figura 6.2.

a) Imagen inicial.

b) Entidad de referencia.

c) Resultado de plausibilidad.

d) Elementos gráficos. e) Vectorización gráfica manual.

Análisis 2ª prueba. > En la figura 6.2 se ha utilizado como referencia una antigua carretera con el objetivo de extraer y defi-nir automáticamente los dos carriles de la autopista que aparece en la imagen. En este caso, además de la autopista que aso-ciaremos con dos vías diferentes (1 y 2), existen cuatro carreteras de pequeño ancho (4,5,6 y 7) que dan acceso a la entidad utilizada como área de entrenamiento (3). En consecuencia n = 7, lo que implica una puntuación máxima M = 35. Sin embargo en la salida automática (d) encontramos un área de reducidas dimensiones de-tectada erróneamente en la segmentación y definida como tal elemento gráfico; por tanto m = 1. Asignando entonces las calificaciones que se estiman más apropia-das para los parámetros p y q conforme a la calidad de los ajustes obtenidos y a la magnitud de los errores, hallamos el porcentaje de éxito que se muestra en la ta-bla adjunta.

Tabla 6.2.

M = 35 n = 7 p1 = 5 p2 = 5 p3 = 5 p4 = 0 p5 = 0 p6 = 2 p7 = 5

m = 1 q1 = -2

R = 20 E = 57 %

También en este ejemplo conviene destacar la potencia del algoritmo para saltar pequeñas zonas don-de la textura es discrepante con respecto a la buscada. Es el caso de algunas franjas que se distinguen en el asfalto (vías 3, 6 y 7) y también de los vehículos que circulan por la autopista.

Page 147: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 141

Figura 6.3.

a) Imagen inicial.

b) Entidades de referencia.

c) Resultado de plausibilidad.

d) Elementos gráficos. e) Vectorización gráfica manual.

Análisis 3ª prueba. > En la siguiente figura se ha querido extraer y definir una carretera sinuosa partiendo de un área de entrenamiento reducida y, por lo tanto, compuesta por muy pocos pixeles. Ahora los valores asociados con la imagen son respectivamente n = 2, M = 10 y m = 1, puesto que sólo existen dos vías de comunicación y se ha añadido al resultado un tercer elemento gráfico de forma equi-vocada. Por otra parte, el ajuste geométrico calculado para la carretera más importante (1) no es todo lo co-rrecto que cabría desear, pese a que el algoritmo ha in-troducido una serie de nodos adicionales de segundo orden al objeto de precisar el trazado de la vía. En con-secuencia, la calificación final asignada es la siguiente:

Tabla 6.3.

M = 10 n = 2 p1 = 3 p2 = 5

m = 1 q1 = -1

R = 7 E = 70 %

Page 148: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 142

Figura 6.4.

a) Imagen inicial. b) Referencias. c) Plausibilidad. d) Elementos gráficos. e) Vectorización gráfica manual.

Análisis 4ª prueba. > A continuación se expone en la figura 6.4 la detec-ción y ajuste de una rotonda accesible mediante 8 vías dife-rentes. Como entidad de referencia se ha supuesto la formada por dos de los accesos enlazados a través de la rotonda. En este caso el ajuste se ha realizado mediante 16 elementos gráficos construidos geométrica y topológicamente de forma correcta. Se obtiene así un resultado de gran cali-dad caracterizado por los valores n = 16 y m = 0. No obstan-te, tal y como ya se indicó, el algoritmo es incapaz de definir entes cerrados con más de un acceso mediante un único ele-mento gráfico. Por lo tanto el sistema sustituye la hipotética circunferencia que debería representar a la rotonda, por ocho polinomios de segundo grado conectados sucesivamente entre sí. Este hecho nos lleva a evaluar la composición resultante asignando a los parámetros pi una calificación igual a 5 en to-dos los elementos correspondientes a los accesos, y conside-rando los valores 4 ó 5 respectivamente en los elementos que definen la rotonda, según su menor o mayor aproximación a la figura de la circunferencia.

La correspondiente tabla asociada al resultado obteni-do es la siguiente:

Tabla 6.4.

M = 80 n = 16 pi = 5

i ∈ [1, 11] pi = 4

i ∈ [12, 16]

m = 0 qj = 0

R = 75 E = 94 %

(a)

(b)

(c)

(d) (e)

Page 149: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 143

Figura 6.5.

a) Imagen inicial. b) Referencias. c) Plausibilidad. d) Elementos gráficos. e) Vectorización gráfica manual.

Análisis 5ª prueba. > En esta figura se presenta la solución alcanzada al actua-lizar una serie de vías secundarias a partir de una principal cono-cida (7). Entre las secundarias (4 y 5) se cuenta además con la cir-cunvalación (1) y las calles interiores (2 y 3) de una urbanización próxima. Como se aprecia en la imagen inicial, el número n es igual a 7, ya que a las vías mencionadas hay que añadir la peque-ña zona de aparcamiento (6). Este elemento constituye asimismo una entidad cartográfica, y si bien en el algoritmo no se conside-ran entidades superficiales, las características particulares de ésta permiten que pueda ser representada como un elemento lineal. Pues bien, con la numeración indicada las calificaciones pi que asignamos son las expuestas en la tabla 6.5, junto al valor nulo de m al no haberse detectado ninguna zona errónea.

Tabla 6.5.

M = 35 n = 7 p1 = 2 p2 = 5 p3 = 2 p4 = 4 p5 = 3 p6 = 1 p7 = 4

m = 0 qj = 0

R = 21 E = 60 %

La razón de los dos valores iguales a 4 es la definición

incorrecta del corte entre los elementos 4 y 7 que debería produ-cirse al contrario. Por su parte, la calificación de 3 en el ajuste de la vía 5 está promovida por la inclusión en la misma de dos obje-tos adyacentes en lugar formarse uno sólo, lo que posiblemente sea debido a la definición incompleta de alguna regla en el algo-ritmo. No obstante cabe destacar en el resultado que, si bien se ha visto afectado por zonas en sombra en el caso de los objetos 1 y 3, no ha sido así en el objeto 7, el cual ha superado la interrupción que aparece en la esquina inferior izquierda de la imagen, ocasio-nada en el módulo de segmentación por la existencia del vehículo y la sombra producida por éste.

(a)

(b)

(c)

(d) (e)

Page 150: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 144

Figura 6.6.

a) Imagen inicial. b) Referencias. c) Plausibilidad. d) Elementos gráficos. e) Vectorización gráfica manual.

Análisis 6ª prueba. > En la prueba siguiente se han pretendido actualizar las calles interiores de una nueva urba-nización construida junto a vías que se suponen más antiguas y se toman como referencia. Considerando que el ángulo recto fuerza la existencia de dos calles distintas, en esta ima-gen se contabiliza un total de n = 7 vías que nu-meramos para su evaluación. Aunque el resultado pueda parecer correcto visto en su conjunto, el al-goritmo ha proporcionado algún ajuste bastante mejorable. Por un lado el elemento 3 se ha cons-truido mediante un polinomio de cuarto grado, ya que en el cruce central existen dos nodos unidos de tercer orden en lugar de uno sólo de orden cua-tro. Por otra parte la vía 6 se ha resuelto mediante el ajuste de dos objetos, cuando la disposición de la misma propicia la definición de un único ele-mento gráfico. Finalmente podemos observar có-mo el objeto que representa la vía 7 no la define con la precisión adecuada.

Tabla 6.6.

M = 35 n = 7 p1 = 5 p2 = 5 p3 = 4 p4 = 5 p5 = 5 p6 = 3 p7 = 3

m = 0 qj = 0

R = 30 E = 86 %

Es importante matizar, aparte de la capa-cidad de limpieza del algoritmo que ha motivado nuevamente el valor m = 0, el acierto del mismo a la hora de introducir nodos adicionales en la es-tructura inicial de las bolsas correspondiente a es-ta imagen. De hecho, la separación y el ajuste geométrico independiente de los elementos gráfi-cos 3 y 5 se ha producido por la inserción en la posición correcta de un nodo de segundo orden. Esta misma circunstancia es causa del ajuste de la vía 1 mediante dos objetos adyacentes, alcanzán-dose así una definición mucho más congruente para ésta que la proporcionada por un solo objeto.

(a)

(b)

(c)

(d)

(e)

Page 151: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 145

Figura 6.7.

a) Imagen inicial. b) Referencias. c) Plausibilidad. d) Elementos gráficos. e) Vectorización gráfica manual.

Análisis 7ª prueba. > Como último ejemplo se presenta un caso donde el algoritmo ha proporcionado peores resul-tados, aún tratándose de una imagen aparentemen-te similar a la anterior. Observando la imagen inicial considera-mos que la red de vías de comunicación está com-puesta ahora por n = 5 entidades diferentes: tres en disposición aproximadamente vertical (1,2 y 3) y dos en horizontal (4 y 5). Dichas entidades han sido extraídas de un modo más o menos tolerable, pero se han añadido al resultado, debido a la sali-da del proceso de segmentación, una serie de ele-mentos gráficos que no se corresponden con la realidad. Estos elementos erróneos, que implican el valor m = 3, son: (1) la ramificación existente en la vía 2; (2) la definición de una parte de uno de los paseos interiores de la urbanización; y (3) la hipotética extensión hacia la derecha de la vía 5. Además se observan unas pequeñas ramifica-ciones en los elementos 1 y 3, que no han sido eli-minadas en las etapas de podado. Asimismo, aun-que la intersección de las vías 2 y 5 ha quedado bastante lograda mediante un nodo único de cuar-to orden, en dicho nodo confluyen dos elementos gráficos correspondientes a la vía 5 cuando sólo debería existir uno ajustado mediante un polino-mio de tercer grado. Con estas consideraciones, la calificación del algoritmo para la imagen es la si-guiente:

Tabla 6.7.

M = 25 n = 5 p1 = 3 p2 = 4 p3 = 3 p4 = 5 p5 = 4

m = 3 q1 = -3 q2 = -1 q3 = -4

R = 11 E = 44 %

Un acierto que se debe subrayar consiste en el trazado resultante para la vía 3, que no se in-terrumpe a partir de su intersección con el ele-mento gráfico 4 pese a la diferencia apreciable que se observa en el color de la calzada. La razón puede residir en una mínima variación en la textu-ra de la imagen en ambas zonas de la vía.

(a)

(b)

(c)

(d)

(e)

Page 152: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 146

* Resultado global de la evaluación. Con los valores obtenidos para el porcentaje de éxito E en cada una de las siete muestras que se han expuesto, se realiza a continuación una evaluación ponderada del procedimiento de extracción, si bien de forma empírica. Para ello tomaremos como peso el grado de dificultad asociado a cada prueba, cuyo valor lo relacionamos con el número de orden de las respecti-vas figuras puesto que así han sido relacionadas. En consecuencia, la calificación global del método puede obtenerse bajo puntos de vista diferentes, según se valore su capacidad para conseguir buenos resultados en el tratamiento de imágenes de dificultad baja, media o alta, siempre que éstas se sitúen dentro de los márgenes de diseño del algoritmo.

Seguidamente se presentan en el cuadro adjunto los pesos y valores correspondientes a los tres casos citados.

Cuadro 6.2.

DIFICULTAD BAJA DIFICULTAD MEDIA DIFICULTAD ALTA Prueba Ei Peso Media racional Peso Media racional Peso Media racional

1 100 7 1 1 2 57 6 2 2 3 70 5 3 3 4 94 4 4 4 5 60 3 3 5 6 86 2 2 6 7 44 1

77.29 %

1

74.75 %

7

68.71 %

Resultados de la evaluación.

Como última expresión de nuestro análisis, conforme al presente método de evaluación y se-

gún las muestras consideradas, concluimos en lo siguiente (*): Resultado. El sistema de extracción de carreteras propuesto en la presente memoria probablemente rinda un porcentaje de éxito general que oscila en torno al 70 %. 6.1.2. Evaluación en detalle según el método propuesto por C. Wiedemann y H. Mayer. * Breve descripción del proceso. A continuación se procede a evaluar nuestro sistema con arreglo a las siete pruebas mostradas, mediante el procedimiento propuesto por los profesores Christian Wiede-mann y Helmut Mayer entre otros, en su trabajo “ Empirical evaluation of automatically extracted ro-ad axes “ publicado en 1998 [WIEDEMANN 98]. El método en cuestión, cuya simbología se introduce aquí al objeto de simplificar la exposi-ción, consiste básicamente en obtener los valores numéricos que el sistema de extracción evaluado proporciona en seis aspectos diferentes, los cuales se ponderan mediante comparación entre el resulta-do extraído automáticamente y la solución obtenida de forma manual que se acepta como referencia idónea. Dichos aspectos a considerar son los siguientes:

- Integridad ( I ). Esta variable expresa el porcentaje de la información manual de referencia que está razonablemente explicada por los datos extraídos.

- Exactitud ( E ). Mediante este término se pretende valorar el porcentaje de la información ex-traída que lo ha sido correctamente en cuanto a su posición en la imagen se refiere.

(*) Este resultado se discute en el apartado 6.1.3 junto a los correspondientes valores que se obtienen en el proce-dimiento de evaluación que tratamos seguidamente en 6.1.2.

Page 153: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 147

- Calidad ( C ). Se trata de la medida de evaluación más general ya que se obtiene por combi-nación de los valores obtenidos para las dos variables anteriores.

- Redundancia ( R ). El cuarto aspecto se evalúa considerando la cantidad de información ex-traída que resulta sobrante por estar solapada consigo misma.

- Error medio en el ajuste (emc). La siguiente variable es la magnitud del error medio cuadráti-co o raíz cuadrada de la varianza, que caracteriza a la separación en distancia existente entre el resultado de la extracción automática y el obtenido manualmente considerados en conjunto. Se trata por tanto de una medida del grado de ajuste resultante entre ambos tipos de información.

- Estadística de huecos. Por huecos se entienden aquellas zonas de la red lineal donde el siste-ma automático no ha sido capaz de conseguir el correspondiente eje, interrumpiéndose la con-tinuidad en la vectorización de salida a causa de la existencia de sombras en la imagen o por cualquier otro motivo. Para evaluar este aspecto, que expresa la fragmentación del resultado, se consideran las variables: número de huecos por kilómetro de referencia ( hKm ) y longitud promedio de los huecos (µ).

La obtención de los valores de las mencionadas variables exige determinar previamente una serie de parámetros y factores que intervienen en las correspondientes expresiones de cálculo. Entre tales factores, que salvo el primero resultan por superposición del resultado de la extracción con la re-ferencia, todos los relativos a tamaño o longitud se expresan en pixeles, si bien se pueden transformar fácilmente a metros mediante la resolución s de la imagen (1 pixel : s metros). Son los que siguen:

- Ancho del buffer ( b ). Parámetro relativo al tamaño de la semiventana abierta a cada lado de un eje para contabilizar pixeles incluidos en ella.

- Longitud de la referencia ( M ). Longitud total en pixeles de los ejes dibujados manualmente.

- Longitud de referencia emparejada ( m ≤ M ). Número de pixeles de la referencia situados en el interior del buffer cuando se abre éste alrededor de los ejes extraídos que se evalúan.

- Longitud de la extracción ( A ). Longitud total en pixeles del resultado automático.

- Longitud de extracción emparejada ( a ≤ A ). Número de pixeles de la red detectada que están situados dentro del buffer cuando se abre éste alrededor de los ejes de la referencia.

- Número de huecos ( n ). Valor entero que define cuántos huecos existen en la extracción.

- Longitud total de huecos ( H ). Número de pixeles de la referencia que no figuran en el resul-tado automático y que por ello definen los n huecos observados en la extracción.

Conforme a estos factores, la definición de las distintas variables de evaluación responde se-gún los autores a las expresiones incluidas en el cuadro adjunto.

Cuadro 6.3. (6.1)

[ ] [ ] [ ]

( ]n

sHsMnhsbe

amaR

EEIIEI

mMAaC

AaE

MmI

Kmmc ===∞−∈−

=

∈+−

≅−+

=∈=∈=

µ;1000;3

;1,

;1,0;1,0;1,0

Variables para la evaluación del sistema de extracción.

Page 154: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 148

Finalmente, atendiendo a las definiciones expuestas, los valores óptimos para cada una de las variables hacia los que ha de tender todo sistema de extracción, son los siguientes:

Cuadro 6.4. (6.2)

( ) ( ) 0;1 ======= optoptKmoptmcoptoptoptopt heRCEI µ

Valores óptimos de las variables de evaluación.

* Evaluación de cada prueba por separado. A continuación figura el análisis individual de las prue-bas mostradas en el apartado 6.2.1, evaluadas por el procedimiento descrito. Cada una de ellas incluye el resultado gráfico extraído por nuestro sistema (representado en rojo), la solución manual de referen-cia (representada en azul), la superposición de ambas extracciones según el buffer de ancho b = 1 pixel (representada en verde allí donde son coincidentes), así como los valores numéricos correspondientes para las variables definidas en el cuadro 6.3. > Análisis 1ª prueba.

Figura 6.8. a) Extracción automática. b) Extracción manual. c) Superposición.

Mediciones

Resolución aproximada (metros) 1 Valores resultantes para las

variables de evaluación Ancho del buffer (pixeles) 1 Integridad 78.95 % Longitud de la referencia (pixeles) 494 Exactitud 81.97 % Longitud referencia emparejada (pixeles) 390 Calidad 67.30 % Longitud de la extracción (pixeles) 477 Error medio (metros) 0.58 Longitud de extracción emparejada (pixeles) 391 Redundancia 0.0026 Número de huecos 0 Nº huecos por Km. 0.00 Longitud total huecos (pixeles) 0 Longitud media huecos (metros) 0.00

Tabla 6.8. Evaluación numérica.

(a) (b)

(c)

Page 155: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 149

> Análisis 2ª prueba.

Figura 6.9.

a) Extracción automática. b) Extracción manual.

c) Superposición.

Tabla 6.9.

Mediciones Resolución aproximada (metros) 3 Ancho del buffer (pixeles) 1 Longitud de la referencia (pixeles) 954 Longitud referencia emparejada (pixeles) 821

Longitud de la extracción (pixeles) 869 Longitud de extracción emparejada (pixeles) 831

Valores resultantes para las variables de evaluación

Número de huecos 3 Integridad 86.06 % Longitud total huecos (pixeles) 73 Exactitud 95.63 %

Calidad 82.93 % Error medio (metros) 1.73 Redundancia 0.0120 Nº huecos por Km. 1.05

Longitud media huecos (metros) 73.00

Evaluación numérica.

Page 156: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 150

> Análisis 3ª prueba.

Figura 6.10.

a) Extracción automática. b) Extracción manual.

c) Superposición.

Tabla 6.10.

Mediciones Resolución aproximada (metros) 2 Ancho del buffer (pixeles) 1 Longitud de la referencia (pixeles) 499 Longitud referencia emparejada (pixeles) 327

Longitud de la extracción (pixeles) 512 Longitud de extracción emparejada (pixeles) 331

Valores resultantes para las variables de evaluación

Número de huecos 0 Integridad 65.53 % Longitud total huecos (pixeles) 0 Exactitud 64.65 %

Calidad 48.39 % Error medio (metros) 1.15 Redundancia 0.0121 Nº huecos por Km. 0.00

Longitud media huecos (metros) 0.00

Evaluación numérica.

Page 157: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 151

> Análisis 4ª prueba.

Figura 6.11.

a) Extracción automática. b) Extracción manual.

c) Superposición.

Tabla 6.11.

Mediciones Resolución aproximada (metros) 1

Valores resultantes para las variables de evaluación

Ancho del buffer (pixeles) 1 Integridad 85.95 % Longitud de la referencia (pixeles) 954 Exactitud 93.43 % Longitud referencia emparejada (pixeles) 820 Calidad 81.30 % Longitud de la extracción (pixeles) 898 Error medio (metros) 0.58 Longitud de extracción emparejada (pixeles) 839 Redundancia 0.0226 Número de huecos 0 Nº huecos por Km. 0.00 Longitud total huecos (pixeles) 0 Longitud media huecos (metros) 0.00

Evaluación numérica.

Page 158: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 152

> Análisis 5ª prueba.

Figura 6.12.

a) Extracción automática. b) Extracción manual.

c) Superposición.

Tabla 6.12.

Mediciones Resolución aproximada (metros) 2

Valores resultantes para las variables de evaluación

Ancho del buffer (pixeles) 1 Integridad 75.05 % Longitud de la referencia (pixeles) 990 Exactitud 85.29 % Longitud referencia emparejada (pixeles) 743 Calidad 66.67 % Longitud de la extracción (pixeles) 884 Error medio (metros) 1.15 Longitud de extracción emparejada (pixeles) 754 Redundancia 0.0146 Número de huecos 2 Nº huecos por Km. 1.01 Longitud total huecos (pixeles) 63 Longitud media huecos (metros) 63.00

Evaluación numérica.

Page 159: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 153

> Análisis 6ª prueba.

Figura 6.13.

a) Extracción automática. b) Extracción manual.

c) Superposición.

Tabla 6.13.

Mediciones Resolución aproximada (metros) 2 Ancho del buffer (pixeles) 1 Longitud de la referencia (pixeles) 773 Longitud referencia emparejada (pixeles) 707 Longitud de la extracción (pixeles) 753 Longitud de extracción emparejada (pixeles) 711

Número de huecos 0 Longitud total huecos (pixeles) 0

Valores resultantes para las variables de evaluación

Integridad 91.46 % Exactitud 94.42 % Calidad 86.81 % Error medio (metros) 1.15 Redundancia 0.0056 Nº huecos por Km. 0.00

Longitud media huecos (metros) 0.00

Evaluación numérica.

Page 160: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 154

> Análisis 7ª prueba.

Figura 6.14.

a) Extracción automática. b) Extracción manual.

c) Superposición.

Tabla 6.14.

Mediciones

Resolución aproximada (metros) 2 Ancho del buffer (pixeles) 1 Longitud de la referencia (pixeles) 812 Longitud referencia emparejada (pixeles) 721 Longitud de la extracción (pixeles) 904 Longitud de extracción emparejada (pixeles) 721

Número de huecos 0 Longitud total huecos (pixeles) 0

Valores resultantes para las variables de evaluación

Integridad 88.79 % Exactitud 79.76 % Calidad 72.46 % Error medio (metros) 1.15 Redundancia 0.0000 Nº huecos por Km. 0.00

Longitud media huecos (metros) 0.00

Evaluación numérica.

Page 161: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 155

* Resultado de la evaluación. Una vez obtenidos los resultados parciales del método de evaluación sobre cada una de las pruebas, haremos un cálculo del valor promedio de cada variable al objeto de ponderar la calificación del sistema de extracción presentado en esta tesis. Dichos valores figuran en el cuadro resumen siguiente:

Cuadro 6.5. Variables Prueba 1 Prueba 2 Prueba 3 Prueba 4 Prueba 5 Prueba 6 Prueba 7 MediasResolución (m) 1 3 2 1 2 2 2 2 Integridad 78.95 % 86.06 % 65.53 % 85.95 % 75.05 % 91.46 % 88.79 % 82 % Exactitud 81.97 % 95.63 % 64.65 % 93.43 % 85.29 % 94.42 % 79.76 % 85 % Calidad 67.30 % 82.93 % 48.39 % 81.30 % 66.67 % 86.81 % 72.46 % 72 % Error medio (m) 0.58 1.73 1.15 0.58 1.15 1.15 1.15 1.1 Redundancia 0.0026 0.0120 0.0121 0.0226 0.0146 0.0056 0.0000 0.01 Nº de huecos 0 3 0 0 2 0 0 0.7 Nº huecos por Km. 0.00 1.05 0.00 0.00 1.01 0.00 0.00 0.3 Longitud hueco (m) 0.00 73.00 0.00 0.00 63.00 0.00 0.00 20

Resultado de la evaluación.

A raíz de estas cifras, y considerando la variable calidad como la más representativa del análi-sis según el procedimiento de Wiedemann y Mayer, podemos afirmar finalmente en base a las mues-tras estudiadas el resultado que sigue: Resultado. El sistema de extracción de carreteras que se propone en esta memoria probablemente al-cance un porcentaje general de calidad en sus resultados en torno al 70 %. 6.1.3. Discusión de los resultados de evaluación obtenidos por ambos métodos. Como se ha visto, nuestro sistema de extracción automática obtiene un probable rendimiento alrededor del setenta por ciento, tanto si se evalúa mediante el algoritmo original presentado en 6.1.1, como si aplicamos uno de los más conocidos y consistentes procesos de evaluación que existen en la literatura científica (Ap. 6.1.2). De hecho la solidez del método [WIEDEMANN 98] queda confirma-da, además de por la extensa labor de investigación en este campo del profesor Christian Wiedemann, por la íntima relación y fuerte apoyo que mantienen con dicho método otros trabajos de evaluación aparecidos más recientemente como son [HARVEY 99], [WIEDEMANN 00] e [HINZ 02 (a)]. Tomando pues como referencia de fiabilidad la técnica de evaluación del citado investigador alemán, y teniendo en cuenta la incertidumbre implícita que representa el conjunto de las pruebas ex-puestas, pese a que se trata de una muestra donde la población de experimentos realizados es de aná-logas características, los resultados obtenidos en los apartados anteriores nos permiten inferir dos im-portantes conclusiones que son las siguientes: Conclusión 1. El método empírico de evaluación que se propone aquí puede calificarse con la catego-ría propia de los que actualmente están aceptados por la comunidad científica como válidos. Conclusión 2. La probabilidad de que nuestro sistema de extracción automática de carreteras pro-porcione salidas de calidad es del 0.7 por término medio. Por último, en lo que respecta al análisis comparativo del sistema de extracción con otros mé-todos de igual objetivo, decir que dicho estudio queda pendiente hasta que sea determinado por los in-vestigadores un conjunto de imágenes a utilizar simultáneamente por todos los equipos dedicados al tema. Este propósito se logrará en breve al ser una de las finalidades del Working Group of EuroSDR Commission II: “Image analysis and information extraction”, en el que este autor participa.

Page 162: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 156

6.2. Formación de las entidades cartográficas en el alto nivel. Una vez evaluado nuestro sistema de extracción automática se observa que en general los re-sultados requieren de sólo el 30% del trabajo manual del operador con respecto a la tarea de éste cuan-do resuelve manualmente el problema de la detección y definición de los elementos cartográficos line-ales. Dicho porcentaje, que en muchas ocasiones es bastante menor e incluso nulo a veces, hace refe-rencia a la necesidad de obtener una distribución de los elementos gráficos acorde con características de la red lineal que van más allá del estudio geométrico y topológico realizado aquí. Asimismo tam-bién forma parte del citado porcentaje residual, la imprescindible definición posterior en coordenadas geodésicas, incluyendo la componente en altura, de las entidades candidatas a ser almacenadas en el Sistema de Información Geográfica (SIG). Pues bien, de estos dos problemas nos ocupamos a conti-nuación, siendo el primero de muy difícil solución automática incluso en el alto nivel de conocimien-to, y puramente geométrico el segundo una vez haya sido resuelto el anterior. 6.2.1. Línea de estudio para la formación de entidades cartográficas en el alto nivel. * El problema de la formación de entidades cartográficas. Cuando se habla de entidad cartográfica se hace referencia a una estructura más o menos compleja que representa alguna forma natural o artificial existente en el terreno y se identifica mediante un símbolo en la cartografía, ya sea ésta papel o digi-tal. Las entidades cartográficas son muy variadas, pero ciñéndonos a las de naturaleza lineal, y dentro de éstas a las relacionadas con las vías de comunicación, podemos restringir considerablemente el ám-bito de estudio al objeto de conseguir la formación de entidades a partir del conjunto de elementos grá-ficos disponible tras la vectorización. Para ello, y atendiendo exclusivamente a la zona que abarca la imagen en estudio, se hace necesario poder determinar cuándo un elemento constituye por sí solo una entidad cartográfica, o bien si se requiere unir dos o más elementos distintos para formar la entidad. Evidentemente este problema es prácticamente imposible de resolver en el medio nivel, debiendo dis-ponerse de información adicional que asesore al menos sobre el número de entidades y categoría de las mismas que existen en la imagen. Aún así, las dificultades que se presentan son de tal envergadura que, incluso trabajando en el alto nivel, puede que sea una utopía la obtención de buenos resultados bajo cualquier circunstancia. * Objetivos concretos a lograr. No obstante lo dicho en el párrafo anterior, en este apartado se propo-ne como línea de estudio a seguir aquella que conjuga la técnica fuzzy (o tratamiento borroso) [ZA-DEH 65] con un Sistema Basado en el Conocimiento (SBC) [WINSTON 92] mediante el cual, a tra-vés del empleo de redes semánticas [FÖSTNER 97] o redes neuronales [FREEMAN 91] que vayan modificando cíclicamente los valores de las variables paramétricas, se intente hacer pensar a la máqui-na y decidir en cada caso de la forma más parecida posible a como lo haría un operador humano. En este marco de trabajo los sucesivos objetivos a conseguir, al menos en un principio, podrían concretar-se en los siguientes:

1. Señalar de algún modo, haciendo uso de información adicional, las distintas vías de comu-nicación y estructuras unitarias que abarca la imagen. La información necesaria para ello pue-de extraerse, entre otras fuentes, de las Bases de Datos Cartográfica (BDC) y Alfanumérica (BDA) del Sistema de Información supuestamente actualizadas, y bien podría hacer referencia a los alrededores de la zona en estudio. No obstante, aquí se propone el inicio de esta labor va-lorando la información contenida en la tabla principal (figura 5.24) que se obtuvo en el capítu-lo 5 durante la fase de detección complementaria del esqueleto por el método de degeneración de la triangulación de Delaunay [MENA 02 (a)]. Esto implica la construcción del grafo corres-pondiente y su comparación tras la formación de los objetos con el grafo establecido en el mó-dulo de vectorización de nuestro sistema. 2. Agrupar en una sola entidad cartográfica todos los elementos gráficos que representan cada estructura del terreno conforme a la distribución decidida en el punto anterior, procediendo en-

Page 163: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 157

tonces a su enlazado y nuevo ajuste. Para tal menester puede considerarse el proceso polinó-mico descrito en el capítulo 5, o bien optar por el empleo de snakes [KASS 87], lo cual puede resultar efectivo en las zonas con un alto grado de sinuosidad. 3. Validar las entidades obtenidas en el punto anterior para estudiar la posible eliminación de discontinuidades, normalmente producidas por zonas de sombra en la imagen, reestableciendo los ajustes y las relaciones topológicas entre los elementos. 4. Asignar a cada una de las entidades cartográficas que han sido validadas sus respectivos atributos y propiedades alfanuméricas; lo que ha de hacerse mediante el Sistema Basado en el Conocimiento a través de un conjunto de reglas y modelos almacenados en la Base de Conoci-miento (BC) del SIG. Ello implica la necesidad de que el Sistema de Información Geográfica esté diseñado bajo una filosofía de trabajo orientada al tratamiento de objetos [WALLACE 01], debiendo disponer de una eficaz estructuración del conocimiento [SOWMYA 00], así co-mo de un poderoso programa simbólico que actúe como “inteligente” motor de inferencia en el manejo e interacción de la información de contexto de la imagen y la residente en la BC.

Como vemos, ninguna de estas tareas es fácil. Es más, puede que todas ellas resulten imposi-

bles de realizar de forma completamente automática. Sin embargo parece claro que el estudio ha de encaminarse por esta línea cuyo entorno y metodología se describe a continuación más en detalle. * Entorno de trabajo y metodología de investigación en el alto nivel. El estudio de nuestro método de extracción en el alto nivel de conocimiento ya se ha mencionado que pasa necesariamente por contar en el SIG con un Sistema Basado en el Conocimiento. Este sistema habrá de apoyarse en la correspon-diente BC, que incluiría la red semántica o neuronal, así como en una Base de Datos Orientada a Obje-tos (BDOO) donde estarían almacenadas las distintas entidades cartográficas a modo de estructuras compactas caracterizadas por su geometría, topología y propiedades alfanuméricas. Dicha BDOO ha-ría a la vez el papel que actualmente tiene asignado la Base de Datos Cartográfica, que almacena la geometría de los elementos, y la Base de Datos Alfanumérica, donde residen los atributos y propieda-des de los mismos. Y si bien es cierto que el diseño orientado a objetos no es ajeno a los Sistemas de Información existentes hoy en día, el concepto de BDOO que proponemos aquí va más allá de la mera estructuración de las entidades y del diseño de herramientas de programación con lenguajes de medio y alto nivel como el C++. Esta idea, cuya implementación ha dado ya sus primeros pasos con el siste-ma GeoAIDA presentado en [BÜCKNER 02] y [GERKE 02], consiste en poner la BDOO a disposi-ción permanente del SBC, el cual actualiza de forma “inteligente” la información allí almacenada, conforme a un amplio conjunto de reglas y modelos dispuestos convenientemente en la Base de Cono-cimiento del SIG. Para tal actualización, que ha de conseguirse mediante la extracción automática de objetos e interpretación de imágenes u otros documentos, se considera imprescindible encontrar pre-viamente cuál ha de ser la íntima relación y congruente adaptación entre la información contenida en la BC, que será la que gobierne las decisiones a tomar, y la residente en la BDOO, que constituye el conjunto de entidades cartográficas topológica y geométricamente correctas de que se dispone. De este modo la información de contexto incluida en las imágenes de entrada y la residente en el SIG interven-drían como un todo en los procesos de extracción, definiendo el conocimiento real que posee el siste-ma ante el problema del automatismo en la actualización de los datos cartográficos. Entre las propuestas encaminadas por la indicada línea de estudio se ha nombrado el sistema GeoAIDA, ya comentado en el capítulo 2. Sin embargo no es éste el único que puede servir como pun-to de apoyo para la futura investigación; [WALLACE 01] presenta el sistema ALFIE (Automatic Li-near Feature Identification and Extraction) que, más específico que el anterior y situado en el ámbito militar, se centra en la extracción de entidades lineales utilizando la información contenida en el SIG, la cual se encuentra estructurada en la correspondiente BDOO. La técnica que utiliza en el proceso, también orientada a objetos y muy apta para ser estudiada y perfeccionada, se fundamenta en la crea-ción de una jerarquía de métodos complementarios para el tratamiento y clasificación de los objetos. Las distintas categorías aplicadas son las siguientes:

Page 164: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 158

- Métodos por valor. Estos algoritmos proporcionan un valor o conjunto de valores mediante los cuales se identifican los atributos y propiedades asociadas a los objetos.

- Métodos de proceso. Se trata de métodos diseñados para tratar la imagen en conjunto, depu-rando la extracción inicial y construyendo una red lineal de forma topológicamente correcta. - Métodos reflejo. Son aquellos que realizan la validación y comprueban la integridad de los datos extraídos, mediante la creación, modificación o eliminación de objetos con el apoyo de modelos. Estos métodos actúan a modo de refuerzo de los anteriores. - Métodos agente. Se designan así los algoritmos diseñados para incluir en los objetos sus rela-ciones topológicas con los objetos del entorno. Mediante estos procesos los objetos “conocen” sus ligaduras implícitas con las entidades a las que generalmente están asociadas, tales como las edificaciones con las carreteras, o los puentes con los ríos y las vías de comunicación. Son por tanto mecanismos para proporcionar conocimiento al sistema.

Sobre esta base de diseño, el sistema ALFIE utiliza como estrategia de control en la extracción automática una serie de etapas sucesivas que no son contradictorias con las presentadas en [OHLHOF 00] y [MARKOV 00] en el capítulo 2, las cuales como sabemos constituyen una parte fundamental del motivo de nuestro sistema. El correspondiente flujo de trabajo, que sin duda anima a continuar el estu-dio por esta línea, es el siguiente: 1. Etapa de preparación. Fase donde se seleccionan las imágenes y algoritmos que van a intervenir en el proceso de extracción, y se identifican las diferentes regiones existentes en la imagen según la infor-mación de contexto. 2. Etapa de preproceso. Procesamiento previo de la imagen que incluye el suavizado de los bordes. 3. Etapa de extracción de información colateral. Identificación y clasificación de la información rela-cionada con el problema, tanto de la residente en la imagen en estudio como de aquella almacenada en el SIG (VMAP) y en otras fuentes complementarias. 4. Etapa de extracción de objetos lineales. Ejecución de los algoritmos de detección de bordes y ejes centrales de los elementos (obtención del esqueleto); conversión a formato vector de las zonas ráster detectadas (vectorización); y asociación de los vectores obtenidos con sus atributos mediante procedi-mientos orientados a objetos (enlace de atributos y propiedades). 5. Etapa de clasificación de objetos lineales. Construcción inicial de la red por agrupamiento de obje-tos en base a los modelos existentes y los atributos asociados. 6. Etapa de validación. Determinación de los niveles de confianza asignados a los distintos objetos conforme a la precisión requerida en el resultado; chequeo de la consistencia en las relaciones topoló-gicas de unos y otros elementos; y comparación con muestras de datos de los valores de distintas va-riables estadísticas evaluadas en las entidades obtenidas. Tras la etapa de validación las entidades cartográficas resultantes son almacenadas definitiva-mente en la BDOO, quedando establecida una congruente geometría y topología de la red extraída al haberse tratado ésta en su conjunto a partir de información más antigua residente en el SIG. Como es de intuir, ni el sistema GeoAIDA ni el proceso ALFIE consiguen el completo auto-matismo en la extracción de entidades cartográficas y actualización del SIG. Es más, ambos sistemas requieren de la intervención del operador en muchas de sus fases. No obstante, volvemos a repetir que es esta línea de estudio la que posiblemente proporcione en el futuro los resultados pretendidos.

Page 165: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 159

6.2.2. Transformación espacial de las entidades cartográficas. * Transformación planimétrica. Para definir los elementos gráficos, hasta ahora sólo se han conside-rado por el sistema las coordenadas bidimensionales (x, y) relativas a la imagen. Esto se ha hecho así por motivos de simplificación, y porque además la transformación planimétrica del sistema particular de la imagen al propio de la proyección cartográfica y sistema geodésico no reviste actualmente difi-cultad alguna [GRAFAREND 02]. A continuación se discuten posibles casos que se pueden presentar. > Primer caso. Si como se ha supuesto, la imagen inicial además de rectificada está referenciada con-forme al sistema geodésico utilizado en el SIG, la transformación planimétrica consistirá teóricamente en una traslación que convierta cada par (x, y) en el correspondiente (X, Y) de la proyección cartográ-fica. No obstante la forma más idónea de realizar esta conversión de coordenadas consiste en incluirla como parte de una transformación conforme de Helmert [MENA 97 (b)], sobre la base de un conjunto de puntos dobles cuyas coordenadas sean conocidas tanto en el sistema imagen como en la proyección cartográfica. Según la mencionada transformación de semejanza, por cada punto doble plantearemos entonces el par de ecuaciones lineales:

(6.3)

+

=

yx

abba

yx

YX

0

0

procediéndose a calcular los cuatro parámetros x0, y0, a y b que definen la traslación, además de los po-sibles residuos en giro y escala que, a causa del ruido en las distintas fases de la extracción, pudiesen persistir en el conjunto de la imagen georreferenciada con respecto a la proyección cartográfica. Evidentemente, para poder realizar este proceso de transformación se requiere un mínimo de dos puntos dobles que permita construir un sistema determinado de cuatro ecuaciones con cuatro incógnitas. Sin embargo no sólo es conveniente sino más bien imprescindible, considerar superabun-dancia de datos al objeto de resolver mediante mínimos cuadrados un sistema lineal con exceso de ecuaciones. Además el conjunto de puntos dobles ha de ser tal que sus elementos se encuentren dis-tribuidos lo más uniformemente posible, cubriendo la zona objeto de transformación en su totalidad aunque para ello algunos puntos deban estar próximos al borde de la zona. De este modo se evitarán extrapolaciones cuando, una vez determinados los parámetros, se convierta a coordenadas de proyec-ción la masa de puntos resultantes del proceso de extracción. Es más, en el caso de no atenderse estas normas en cuanto a posición y número de los puntos dobles se refiere, hay que tener en cuenta que nada asegura la conservación de la aplicación conforme para aquellos puntos de la masa muy alejados de la envolvente determinada por aquéllos. > Segundo caso. Cuando la imagen inicial se encuentra rectificada, pero no se tiene seguridad sobre su referenciación o se carece de ella, entonces es absolutamente necesario aplicar un proceso de transfor-mación planimétrica similar al descrito en al apartado anterior pero algo más completo. Así por ejem-plo, un modelo genérico es el descrito en [WOLF 97] donde se consideran las ecuaciones:

(6.4)

333

222

333

111γβαγβα

γβαγβα

++++

=++++

=yxyxY

yxyxX

siendo los parámetros αi, βi y γi incógnitas a determinar. Este modelo puede utilizarse en cualquiera de las formas siguientes: – A modo de transformación proyectiva entre planos no paralelos, para lo cual dividimos cada una de las fracciones por el parámetro γ3 y resulta:

(6.5)

11 33

222

33

111++++

=++

++=

ybxacybxaY

ybxacybxaX

Page 166: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 160

Y puesto que se tienen ocho incógnitas, será necesario disponer de un mínimo de cuatro puntos dobles para determinar la transformación. – También se puede aplicar (6.4) como transformación afín suponiendo a3 = b3 = 0 en (6.5). En conse-cuencia cada pareja de ecuaciones se construye del modo siguiente:

(6.6)

+

=

yx

baba

cc

YX

22

11

2

1

Y dado que ahora sólo se consideran seis incógnitas, el mínimo de puntos dobles que define la trans-formación será de tres. – Finalmente, si en (6.6) se incluyen las ligaduras a1 = b2 y a2 = –b1, entonces la transformación pasa a ser una semejanza de Helmert definida por la expresión matricial (6.3), requiriéndose por tanto un mí-nimo de sólo dos puntos dobles. Desde luego en todas estas opciones es mas que conveniente considerar la superabundancia de datos para la resolución mínimo cuadrática del sistema lineal, así como una correcta distribución de los puntos dobles que abarque toda la zona objeto de la transformación.

En cuanto al momento de realizar la transformación planimétrica descrita, y dado que ésta se realiza punto a punto, señalemos lo siguiente. Atendiendo a la definición de los distintos elementos gráficos mediante los coeficientes de sus polinomios de ajuste, parece que resulta más eficiente reali-zar la transformación planimétrica previamente a la obtención de los coeficientes. No obstante ello de-penderá de la estructura concreta de almacenamiento de los datos geométricos en cada sistema particu-lar, ya que frecuentemente se emplea el registro por puntos de las entidades lineales a modo de cade-nas de coordenadas, lo que invita a realizar la transformación inmediatamente antes del almacenaje. * Definición en altura. Considerando pues la expresión de las entidades cartográficas en coordenadas (X, Y) del terreno conforme a la proyección cartográfica (normalmente UTM), a continuación será necesario introducir la tercera dimensión a fin de conseguir la completa definición de las mismas y su integración con el conjunto de elementos residente en la base de datos del SIG. Esta labor no es difícil si se dispone, como es lo normal, del Modelo Digital del Terreno (MDT) correspondiente a la zona en estudio. Puesto que el MDT consiste en un reticulado de paso constante en cuyos nodos son conocidas las correspondientes coordenadas 3D, bastará con realizar un proceso de interpolación para definir en altura las distintas entidades. De este modo las alturas obtenidas tendrán una precisión acorde con el paso del MDT y quedarán referenciadas a la superficie elegida para el cálculo de éste, normalmente el geoide.

* Transformación espacial. Cuando la zona a transformar es muy extensa por estar representada en un amplio conjunto de imágenes adyacentes, y se carece de referenciación común en éstas, la integración de los resultados en el SIG exige realizar el cambio de coordenadas de forma global para toda la zona en estudio. Para ello se trata inicialmente cada imagen por separado según el método descrito en los párrafos anteriores para obtener una primera integración en planimetría y altimetría de todas las imáge-nes. Y a continuación se aplica un proceso espacial de transformación geométrica general, que es factible de complementar con el modelado de las distorsiones [GONZALEZ 02], y que puede ser considerado infinitesimal análogamente a cómo se efectúa el cambio de datum geodésico [COLLIER 98 y DALDA 00]. Como transformación geométrica bien puede optarse por el procedimiento matricial de siete parámetros de Molodensky – Badekas [MENA 94 y 97 (b)]; y como técnica que incluye el modelado de distorsiones se puede elegir entre las ofrecidas por la literatura como son: el método de mínima curvatura [BRIGGS 74], el proceso Rubber Sheeting [SAALFELD 85 y WHITE 85], la colo-cación mínimo cuadrática [MORITZ 80], o bien los métodos de regresión múltiple [DRAPER 81 y APPELBAUM 82].

Page 167: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 6: El sistema de extracción (iv): Módulo de evaluación y propuestas en el ato nivel. J. B. Mena

Pág. 161

6.2.3. Almacenamiento en el SIG de las entidades cartográficas. * Tras la formación correcta y validada de las entidades cartográficas, y disponiendo para cada una de ellas de su definición geométrica en coordenadas relativas a la proyección cartográfica, no que-da más que proceder al almacenamiento de las mismas junto a su topología y atributos en las bases de datos del SIG. Esta labor, como ya se comentó, depende notablemente del software utilizado para el gobierno del sistema, ya que son las estructuras de datos y los diseños geométricos y alfanuméricos aplicados quienes condicionarán el proceso. Aunque en el entorno del SIG suelen existir herramientas orientadas a facilitar este trabajo, con frecuencia encontramos un alto grado de especificación en la categoría de las diversas entidades, así como la necesidad de avisar al sistema previamente a la construcción gráfica de los elementos. Sin embargo tal problema no constituye una contrariedad para nuestro método de extracción, pues los re-sultados numéricos correspondientes a las entidades cartográficas permiten representarlas con todo de-talle, siendo posible por lo tanto obtener entidades asociadas cuya precisión sea menor. Por ejemplo, un método común de representación de entidades lineales es la ya mencionada cadena de puntos o linestring [MENA 92]. Esta estructura, propia de los Servicios Geográficos Militares de los países de la OTAN donde se utiliza el formato DGN de Intergraph, consiste en una sucesión de direcciones de memoria donde residen los registros correspondientes a las áreas de cabecera, geometría y enlace con los atributos según se muestra en el Anexo III (Capítulo 8). Dado que el área de geometría contiene las coordenadas tridimensionales del conjunto de puntos cuya unión sucesiva mediante segmentos de-fine la entidad cartográfica a modo de curva poligonal, para almacenar aquí una entidad lineal de sali-da de nuestro sistema bastará con extraer de la representación polinómica cuántos puntos sean necesa-rios; lo que ha de hacerse con arreglo a la escala más baja de almacenamiento en el SIG, bien de forma gráfica o numérica. Análogamente se resolverá el problema ante cualquier otra estructura para las entidades linea-les presentadas por otros sistemas. * Finalmente comentar que si lo pretendido es alcanzar la completa automatización del proceso de extracción y actualización del SIG, una vez finalizado el almacenamiento de los datos cartográficos digitales será importante asegurarse de que tanto la base de conocimiento del SBC como los modelos disponibles en el Sistema de Información se han actualizado convenientemente. Este objetivo exige desde luego un diseño previo de los modelos, así como tener eficazmente resuelto el problema 4 indi-cado en el apartado 6.2.1. En consecuencia, dado el estado actual de la investigación en el tema de la estructuración y tratamiento del conocimiento [SOWMYA 00], éste será el quinto punto concreto que proponemos aquí, junto a los ya expuestos, como línea de futuros estudios en el alto nivel.

Page 168: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 162

7 Perspectivas y conclusiones.

RESUMEN. En este capítulo figuran las perspectivas y conclusiones finales del sistema expuesto en la presente me-moria. El apartado perspectivas incluye una crítica constructiva sobre la viabilidad del método en general, así co-mo las posibles mejoras a introducir en cada uno de los módulos y la factible prolongación del sistema hacia el completo automatismo en la extracción de entidades cartográficas lineales. En el punto conclusiones se resumen los rasgos principales del proceso junto a los resultados y conse-cuencias obtenidas. Aquí se exponen de manera justificada aquellas referencias que han contribuido de forma fundamental al diseño conjunto del sistema y de sus algoritmos componentes, y también las que mantienen una íntima relación con los estudios propuestos para la mejora del método, principalmente en el alto nivel de conoci-miento. Asimismo se resaltan los aspectos originales ofrecidos en esta tesis; lo que constituye un índice de la modesta colaboración personal a la investigación que, en el campo de la Geodesia y la Cartografía Digital, man-tiene actualmente la comunidad científica. 7.1. Perspectivas. 7.1.1. Crítica constructiva del sistema a grandes rasgos.

* Aunque se ha calificado el procedimiento propuesto como automático, en realidad este carác-ter no es tal en el cien por cien de los casos. De hecho existen dos importantes valores umbrales de los que depende notablemente la calidad de los resultados. Así, observando el esquema general del méto-do expuesto en el apartado 3.2.5, vemos que el primero de ellos se encuentra en el módulo de segmen-tación a la hora de obtener la imagen de plausibilidad, mientras que el segundo está situado en la sec-ción de vectorización, allí donde se organizan las bolsas en clases de equivalencia conforme a la pen-diente entre sus nodos adyacentes. El establecimiento por el sistema de los valores más adecuados para estos parámetros es sumamente delicado y complejo, pues si bien se han propuesto medidas para con-cretar automáticamente sus magnitudes, ya sea mediante el cálculo o mediante el apoyo en reglas ge-néricas, la verdad es que son muchas las ocasiones donde variándolos manualmente se producen mejo-ras en las imágenes resultantes. Aparte de los umbrales mencionados, el algoritmo que se ha diseñado incluye otras variables paramétricas de menor importancia pero que también afectan a los resultados, sobre todo en el proce-so de vectorización. Véase el margen de conservación e inserción de los nodos adicionales de segundo orden, la mínima longitud en pixeles de las bolsas para proceder al estudio de su curvatura, las cotas fijadas en las etapas de podado, etc... Todos ellos influyen evidentemente en el grado de automatismo que reviste el procedimiento de extracción; y si bien existen recomendaciones para tratar este proble-ma como se verá enseguida, la realidad es que aún no es posible conseguir su resolución automática. * Además de las variables paramétricas distribuidas a lo largo del sistema, adquiere la máxima importancia para el funcionamiento del proceso que las imágenes de entrada al módulo de pretrata-miento verifiquen las condiciones restrictivas impuestas en el apartado 1.1 en cuanto a su procedencia, calidad y resolución se refiere. También es fundamental que los elementos del terreno correspondien-

Page 169: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 163

tes a las entidades cartográficas que se pretenden extraer estén claramente definidos en la toma. Asi-mismo es de remarcar que una correcta elección de las entidades de referencia puede actuar como pun-to de inflexión entre una salida de baja calidad y un resultado idóneo. No puede aceptarse por tanto co-mo referencia, cualquier entidad lineal con la sola condición de representar una carretera en la carto-grafía, sino que ha de tenerse en cuenta, en la mayor medida posible, la similitud existente entre la tex-tura de la imagen correspondiente a la referencia y la propia de los elementos motivo de la extracción. De este modo se aumentarán las probabilidades de conseguir resultados satisfactorios.

En el tema de las entidades de referencia cabe destacar la imperiosa necesidad requerida por el sistema de que los datos almacenados en la base de datos vectorial del Sistema de Información Geo-gráfica lo estén con una precisión acorde a la resolución de la imagen referenciada. De no ser así, la superposición automática de dichas entidades sobre la imagen será errónea, produciéndose entonces grandes fallos en la salida de segmentación al guiarse este módulo por un patrón falso. Referente a este asunto existen algunos estudios que nombramos en el apartado siguiente, sin embargo tampoco aquí se resuelve completamente el problema, siendo necesaria la intervención del operador en una gran parte de los casos. * Por otro lado, en el módulo de segmentación es importante considerar la enorme influencia de la salida de plausibilidad sobre la precisión del ajuste de las vías de comunicación mediante el conjun-to de elementos gráficos. De hecho, aunque por separado tanto la segmentación como la vectorización funcionan de un modo bastante aceptable, cuando se tratan conjuntamente hay que matizar mucho las características generales de la imagen a fin de acoplar correctamente ambos métodos. Esta necesaria coordinación se ve incrementada por sí sola conforme aumenta la superficie abarcada por la imagen inicial, debiendo en tales casos revisarse de forma manual la salida de plausibilidad antes de proceder a la vectorización si se quieren obtener resultados gráficos y numéricos de calidad. * En lo relativo al módulo de vectorización, ya se comentaron en el apartado 5.3.2 algunos de los aspectos mejorables de los que adolece el sistema. Muchos de ellos están causados probablemente por fallos y omisiones en las reglas o en el algoritmo que las implementa, siendo por tanto evitables con el progresivo mantenimiento y perfeccionamiento del método. No obstante, otros detalles indese-ables puede que estén atribuidos a causas desconocidas, propias del tratamiento a nivel medio de un problema donde el alto nivel de conocimiento es imprescindible. Ello implica que su resolución auto-mática no es posible por el momento dado el estado actual de la investigación en el tema. * Por otra parte las consecuencias deducidas en el módulo de evaluación, junto al conjunto de pruebas realizadas, inducen a pensar que el porcentaje de éxito obtenido para el sistema de extracción, alrededor de siete casos de cada diez, debe ser cierto siempre y cuando el planteamiento del problema, caracterizado por la imagen y las entidades de referencia, se ajuste a los requerimientos del algoritmo desarrollado en esta memoria. Sin embargo, hay que insistir en que los dos procesos de evaluación uti-lizados se han aplicado sobre una muestra de siete imágenes, lo que implica una relatividad muy gran-de en los resultados de la ponderación; si bien es cierto que aún así, los valores finales obtenidos por ambos métodos son coincidentes. * Como final de esta crítica decir que se han planteado en el apartado 6.2.1 algunas propuestas específicas para complementar y prolongar el sistema en el alto nivel de conocimiento, aunque salvo el empleo de las llamadas vías principales obtenidas en 5.2.5, y la forma de aplicar información adi-cional sobre el contexto de la imagen sugerida en 5.2.6, todas las ideas expuestas requieren de un pro-fundo estudio posterior al objeto de conseguir resultados concretos. Esta circunstancia, donde reside el principal escollo de cara al completo automatismo en la actualización del Sistema de Información, exi-ge a nuestro método la intervención del operador a posteriori del proceso de vectorización para validar o no las entidades cartográficas obtenidas. Sin embargo hemos de considerar que la solución final de nuestro sistema, tal y como resulta automáticamente, también es factible de ser almacenada en base de datos sin más que procediendo a la transformación de coordenadas según se indica en 6.2.2 y 6.2.3, puesto que son congruentes tanto la geometría como la topología de los elementos resultantes.

Page 170: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 164

7.1.2. Posibles mejoras y perfeccionamiento del sistema. Aunque a lo largo de esta memoria se han incluido diversos apartados donde figuran ideas re-lativas a las líneas de estudio a seguir en el bajo, medio y alto nivel de conocimiento (Ap. 4.4, 5.4 y 6.2 respectivamente), resumiremos aquí los rasgos más importantes que han caracterizado este aspecto de la exposición, junto con algunas otras propuestas y aquellas referencias bibliográficas que pueden ayudar en un futuro a la mejora del proceso en sus distintos niveles. * En el módulo de pretratamiento el principal punto de estudio y análisis estriba en todo lo con-cerniente a las entidades de referencia, dada la enorme importancia que su correcta elección tiene para el buen funcionamiento del sistema. En este tema, y por los motivos indicados en el apartado anterior, la mejora al método de extracción deberá incluir un estudio previo de la precisión con la cual las dis-tintas entidades cartográficas están almacenadas en la base de datos vectorial del SIG. Sobre ello en-contramos algunas propuestas en [RELLIER 02], [BUSCH 02] y [WILLRICH 02], que pueden servir como guía en la investigación al objeto de asegurar la exacta superposición de las entidades de refe-rencia sobre la imagen inicial, supuesta ésta correctamente rectificada y referenciada.

No obstante, aunque la geometría de los datos vectoriales esté definida con gran precisión y la escala sea acorde a la resolución de la imagen inicial, aún queda el problema de elegir cuáles serán las entidades más idóneas para ser utilizadas como área de entrenamiento en el módulo de segmentación. Este asunto es mucho más complejo de resolver automáticamente que el mero problema geométrico de conseguir una adecuada superposición, y puede que no exista alternativa alguna que supere en eficacia a la elección manual de las entidades de referencia. Una idea al respecto consiste en utilizar primera-mente todas las entidades existentes en el SIG correspondientes a la zona abarcada por la imagen, de-purar el conjunto de referencia mediante comparación con la salida de plausibilidad obtenida, y reite-rar posteriormente el proceso. Este bucle, que podría ser controlado de muy distintas formas, finaliza-ría con un conjunto de entidades de referencia y un resultado de plausibilidad congruentes con respec-to a la regla de comparación que se considere, la cual no parece fácil de enunciar. * Las posibles mejoras a introducir en el módulo de segmentación, supuestamente solucionado el problema de las entidades de referencia, estimamos que se centran fundamentalmente en la acertada elección de otras capas adicionales de clasificación binaria para componerlas en el marco de la Teoría de la Evidencia con las presentadas en el capítulo 4. Determinar qué métodos se deben utilizar para obtener dichas capas sin incurrir en redundancia, no es sencillo. Y aunque ya se propuso en el apartado 4.4 el empleo de la transformación KL y la SVD sobre la banda monocromática o blanco y negro, las pruebas realizadas hasta el momento no ofrecen una mejora substancial en los resultados. También se ha pensado en utilizar otras bandas del amplio espectro disponible actualmente (HYDICE); sin embar-go esta opción desvirtúa el objetivo de nuestro sistema por el cual se pretenden obtener los mejores re-sultados posibles a partir de un mínimo (y barato) conjunto de datos iniciales como de hecho lo es la terna de bandas RGB de una imagen color. Potencialmente también se puede mejorar el sistema en esta fase depurando de alguna manera, antes de pasar al módulo de vectorización, la imagen binaria de plausibilidad obtenida en la forma pro-puesta en el capítulo 4. Esta depuración puede efectuarse geométricamente mediante el estudio de los bordes en la imagen inicial según se indicó allí, o bien mediante la combinación del resultado de nues-tro sistema con otras salidas obtenidas por segmentación y clasificación binaria a través de procedi-mientos alternativos. Lamentablemente la gran mayoría de los métodos de segmentación sobre las tres bandas RGB, por no decir todos, se apoyan en el estudio estadístico de los valores radiométricos de los píxeles [AMINI 02], por lo que de utilizar esta opción incurriríamos en la no deseable redundancia de la que ya hemos hablado. En consecuencia, parece ser que la posibilidad de perfeccionar la salida de plausibilidad radica en comparar nuestro resultado con el obtenido sobre la imagen original a través del tratamiento geométrico, morfológico y la programación dinámica. Pero nos preguntamos: ¿Qué métodos utilizar para ello? En un principio, y esta es la idea para futuros estudios, creemos que pueden obtenerse razonables mejoras del sistema considerando el análisis de bordes en la forma expuesta en [ROMAN 97] y el empleo de contornos activos o snakes según se propone en [AGOURIS 01 (d)].

Page 171: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 165

Otro punto de interés para la mejora del resultado de plausibilidad reside en el análisis deta-llado de los sistemas de referencia existentes para definir la imagen color [TAKAHASHI 00]. Aunque las múltiples pruebas realizadas aconsejaron la elección del RGB y HSV para las respectivas capas de evidencia que se han considerado, puede ser que en determinadas circunstancias algún otro sistema rinda mejores resultados. Incluso pudiera ocurrir que la investigación desarrolle otras posibilidades de representación de la imagen, aún no establecidas, que sean más adecuadas para nuestros fines. No obs-tante, y mientras ello no suceda, no queda otro remedio que apoyarnos en la experimentación para ex-plicar de forma heurística el porqué de las referencias utilizadas. * Por lo que respecta al módulo de vectorización creemos que sus etapas principales, donde re-side la causa del grado de calidad en los resultados finales, son la obtención del esqueleto y la determi-nación de los distintos objetos a posteriori de la clasificación de las bolsas. Por su parte la obtención del esqueleto se ha conseguido de forma satisfactoria, por lo que este tema puede darse por zanjado. Si acaso, ante la posibilidad de producirse interrupciones del mismo en alguna ocasión, puede considerar-se, además del resultado que ofrece el método complementario según degeneración de la triangulación de Delaunay, otros procesos con igual objetivo como es el empleo de la transformación de Wavelet para reducir la resolución de la imagen binaria. Este procedimiento, utilizado en [AMINI 02], es de es-perar que sirva de ayuda para soslayar las mencionadas interrupciones en algún caso. En cuanto a la construcción de los objetos mediante enlace de bolsas pertenecientes a una mis-ma clase de equivalencia, la mejora del sistema, según se comentó en su momento, exige establecer al-gún método más consistente que el utilizado en el capítulo 5 para clasificar las bolsas. Aunque la rela-ción aplicada para ello, según el estudio de la magnitud pendiente, es tan válida como otra cualquiera, creemos que hay que analizar más las características de posición, pendiente y curvatura en cada punto de las bolsas antes de proceder a su clasificación. Para conseguirlo nos proponemos en futuras tareas de investigación, realizar un riguroso estudio numérico de los valores de la función asociada a cada bolsa, así como de los correspondientes a sus dos primeras derivadas. Esto nos permitirá obtener una clasificación de las bolsas más fidedigna y, por tanto, una construcción de los objetos más homogénea. * Acerca del módulo de evaluación de nuestro sistema, poco hay que comentar que no se haya dicho ya. En cuanto al método original propuesto aquí, su mejora pasa tal vez por disminuir de algún modo el grado de subjetividad implícito a la hora de concretar las calificaciones pi y qj que se asignan a cada vía de comunicación en el resultado extraído. Ello sólo será posible estableciendo un conjunto de reglas cuyo detenido estudio está por realizar, que permitan la determinación completamente auto-mática, y por tanto objetiva, de tales valores; tarea ésta que no es nada fácil de llevar a cabo. Por su parte el empleo del método de evaluación publicado en [WIEDEMANN 98], aparte de servir como apoyo para probar la eficacia del nuestro, no promueve la necesidad de su sustitución por algún otro existente en la literatura, ya que los procedimientos de igual objetivo aparecidos posterior-mente están muy subordinados a las ideas troncales con las que fue diseñado aquél. En conjunto la propuesta de evaluación realizada para nuestro sistema, que servirá para cual-quier otro proceso de extracción, creemos que es lo suficientemente correcta; si bien adolece en alguna medida de la necesidad de incrementar el número de pruebas expuestas, lo que se ha limitado en esta memoria por motivos de simplificación. No obstante, los resultados obtenidos son verosímiles puesto que la muestra considerada en el capítulo 6 se ha seleccionado sobre una población de experimentos donde las características de la imagen inicial y la calidad de los resultados son similares a los evalua-dos aquí. * En lo relativo al estudio del sistema en el alto nivel de conocimiento se remite al lector al apartado 6.2.1 donde se apuesta por establecer en el SIG un Sistema Basado en el Conocimiento y una Base de Datos Orientada a Objetos, teniendo en cuenta los trabajos realizados hasta el momento en esta línea, como son [WALLACE 01], [BÜCKNER 02] y [GERKE 02], los cuales al parecer consi-guen resultados inicialmente prometedores.

Page 172: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 166

* Considerando ahora nuestro sistema de extracción en su conjunto, en lo referente al organi-grama general presentado en 3.2.5 se estima que los distintos módulos componentes del flujo de traba-jo son posiblemente los más adecuados como se demuestra por los estudios [OHLHOF 00], [MAR-KOV 00] y [AMINI 02] elegidos como base para tal menester, así como por la adaptación para futuros desarrollos que dicha estructura mantiene implícitamente con la propuesta en [WALLACE 01] y otras labores de investigación de publicación posterior. También es de gran relevancia la investigación en la mejor forma de aplicar lógica fuzzy en todos y cada uno de los módulos de nuestro sistema. Creemos firmemente que la implementación de la ciencia originalmente propuesta en [ZADEH 65] puede solventar sólidamente los problemas de incer-tidumbre e indeterminación asociados con las variables paramétricas, algunos de los cuales constitu-yen un verdadero obstáculo de cara al completo automatismo del proceso. En este estudio deberemos contemplar asimismo la posibilidad de utilizar otras metodologías, como se expone en [PEDDLE 02], así como también considerar el factible establecimiento de redes neuronales [FREEMAN 91] o algo-ritmos genéticos [GOLDBERG 89] como procedimientos de optimización. Finalmente, como estrategia de control global de nuestro sistema, que proporcione un marco flexible y eficaz donde situar todos los procesos parciales constitutivos del algoritmo general en sus distintos niveles de conocimiento, optamos por la aplicación de la Teoría de la Evidencia cuyo estudio comparativo con otros métodos de fusión de información se discute en [HALL 92], y cuya implemen-tación como tal procedimiento de decisión se estudia en [BAUER 97]. La elección de la citada teoría como principal perspectiva de posteriores estudios está motivada por la capacidad de la misma para gobernar y acoplar adecuadamente los procesos del bajo, medio y alto nivel de conocimiento en el me-canismo de extracción, así como también por estar ampliamente relacionada con las técnicas propias de la lógica fuzzy, admitiendo además el empleo de las redes semánticas [FÖSTNER 97] por cuya aplicación nos inclinamos aquí al estimar que constituyen uno de los más eficientes códigos directores para encauzar el conocimiento en cada fase del sistema. 7.2. Conclusiones. Tras las perspectivas de aplicación y mejora de nuestro sistema, en este último punto del capí-tulo y la redacción se exponen las conclusiones finales que se han obtenido. Previamente, y formando parte de ello, se incluye relación justificada de aquellas referencias que han constituido el soporte prin-cipal de la línea de extracción presentada, así como también una exposición de los procesos y rasgos originales del sistema que se aportan al conocimiento científico en materia de Cartografía Digital, con-cretamente en lo que respecta a la actualización del Sistema de Información Geográfica. 7.2.1. Referencias básicas en el diseño del sistema. Aunque son muchas las referencias que se han considerado importantes para diseñar y llevar a buen término el sistema de extracción automática propuesto, existen algunas que podemos calificar co-mo fundamentales por constituir la base de apoyo que avala nuestro método. Entre ellas, unas son rela-tivas al sistema en su conjunto, otras son específicas y atienden sólo a alguno de los módulos compo-nentes, y también existen las que sirven de base para orientar posteriores estudios de investigación. No obstante conviene aclarar que, si bien estas referencias han asesorado en distintos aspectos para adop-tar una línea de trabajo en concreto, el sistema que hemos presentado es original en su conjunto, no en-contrándose hasta la fecha en la literatura científica ninguna publicación ajena al que suscribe donde se proponga o discuta su empleo.

Veamos pues cuáles son las mencionadas referencias, presentando previamente en el cuadro 7.1 un esquema resumen de las mismas donde se puede observar el ámbito de influencia asociado a ca-da una de ellas en la construcción y perspectivas de nuestro sistema.

Page 173: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 167

Cuadro 7.1

Esquema resumen de las referencias básicas en el diseño y perspectiva del sistema de extracción * Referencias básicas en la estrategia del sistema considerado en su conjunto. No son muchos los estudios donde se proponen estrategias globales para conducir los procesos de extracción hacia el completo automatismo, siendo de frecuente aparición aquellos que se centran en el análisis particular de algún problema concreto. Sin embargo, existen algunos trabajos que pese a ello se arriesgan en este campo, intentando resolver algunos de los muchos escollos que lo caracterizan y proponiendo posibles soluciones para cuestiones concretas, aunque sea de forma semiautomática. Es el caso de la tarea de investigación presentada en [RUSKONÉ 96] (Extraction automatique du réseau routier par interpré-tation locale du contexte: application à la production de données cartographiques). Este estudio, rela-cionado con los propios del Instituto Geográfico Nacional Francés y que fue objeto de la Tesis Docto-ral del profesor Renaud Ruskoné, ha servido como orientación general en el diseño de la presente me-moria en cuanto a su estructuración didáctica se refiere, si bien son numerosos los aspectos que han si-do modificados por cuestiones de contenido.

Por otra parte, ya se comentó en el capítulo primero que es en el ámbito militar, o relacionado de alguna forma con el mismo, donde existen algunas propuestas interesantes encaminadas por la línea general de conseguir la total automatización en los procesos de actualización del SIG. Uno de ellos, donde encontramos un detallado análisis sobre las posibilidades, dificultades y técnicas a utilizar en la extracción de objetos cartográficos a partir de imágenes, es [MAYER 99 (a)] (Automatic object extraction from aerial imagery: A survey focusing on buildings). En este trabajo, aparte de la idea ob-

Estrategia del sistema considerado en su conjunto

[RUSKONÉ 96] [MAYER 99 (a)] [KOHLAS 95 (a)] [KOHLAS 95 (b)] [KOHLAS 95 (c)] [KOHLAS 97]

Estructura general del sistema

[GOLDBERG 89] [RIPLEY 96] [RITTER 99] [OHLHOF 00] [MARKOV 00] [AMINI 02] [PEDDLE 02]

Módulo de pretratamiento [BHATTACHARYA 01] [RELLIER 02] [BUSCH 02] [WILLRICH 02]

Módulo de segmentación

[HARALICK 79] [CROS 83]

[GAGALOWICZ 87] [FUKUNAGA 90]

[HALL 92] [BAUER 97]

[DUDA 01]

[SANNITI 94] [MENA 97 (a)] [McGLONE 98] [DOUCETTE 01] [MENA 02 (a)] Módulo de vectorización

[WIEDEMANN 98]

Módulo de evaluación

Estudios en el alto nivel

[ZADEH 65] [WINSTON 92]

[FÖRSTNER 97] [SOWMYA 00] [WALLACE 01] [BÜCKNER 02]

[GRAFAREND 02]

Page 174: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 168

tenida a priori sobre el rendimiento que podría resultar de nuestro sistema y la necesidad de investigar en lo relativo al alto nivel, las recomendaciones realizadas por el profesor Helmut Mayer acerca del empleo de la información de contexto han servido, junto a las realizadas en la referencia anterior, para considerar como tema fundamental en la extracción la imprescindible intervención de información adi-cional residente en el SIG. Un ejemplo de ello se encuentra en el capítulo 5 cuando se propone la for-ma de complementar nuestro sistema con la información vectorial correspondiente a edificaciones. En lo relativo al gobierno general del proceso de extracción, no ha costado mucho seleccionar la Teoría de la Evidencia como un marco capaz de integrar eficazmente todos los módulos del sistema bajo un criterio común, caracterizado por su flexibilidad para admitir en el método otras técnicas com-plementarias de tratamiento y decisión en el bajo, medio y alto nivel, que permitan tras futuros estu-dios obtener automáticamente resultados de gran calidad en un alto porcentaje de los casos. Un ejem-plo que demuestra las posibilidades de la citada teoría lo tenemos en el módulo de segmentación de nuestro sistema, donde ha sido utilizada con éxito en todas y cada una de sus etapas. Por consiguiente, y puesto que se propone su empleo a nivel global en el conjunto del método, destacamos aquí las refe-rencias siguientes donde se exponen los fundamentos matemáticos de esta técnica científica, y que se consideran básicas en el desarrollo realizado: [KOHLAS 95 (a)] (Mathematical Foundations of Evi-dence Theory), [KOHLAS 95 (b)] (An Algebraic Study of Argumentation Systems and Evidence Theory), [KOHLAS 95 (c)] (Evidence Theory Based on General Consequence Relations), y finalmen-te también [KOHLAS 97] (Allocation of Arguments and Evidence Theory). * Referencias básicas en la estructura general del sistema. También en el ámbito militar, y con moti-vo de que nuestra propuesta de extracción automática sirva de mejora y complemento a los trabajos ya realizados y sistemas utilizados hasta el momento, elegimos el organigrama general del proceso apo-yados en el flujo de trabajo para actualización del SIG que está adoptado actualmente por los ejércitos de la OTAN. En consecuencia, ha tenido un papel fundamental en nuestro desarrollo el estudio presen-tado en [OHLHOF 00] (Generation and update of VMAP data using satellite and airborne imagery), el cual procede del Ejército alemán y es coincidente al cien por cien con la línea seguida por el Servi-cio Geográfico del Ejército en España. Para observar las analogías entre el organigrama publicado por T. Ohlhof y otros y el diseñado aquí, basta comparar el cuadro 2.1 con el esquema expuesto en el apar-tado 3.2.5 de esta redacción. Otra referencia importante, comentada en el apartado 2.2 y donde se muestra un flujo de traba-jo para la extracción automática muy ajustado al presentado en esta memoria, es [MARKOV 00] (Use of remote sensing data at thematic mapping in GIS). En este caso la propuesta, ligada con la investiga-ción rusa en el tema, incluye una etapa de preproceso, un módulo de segmentación de la imagen, una fase de vectorización, y una posterior validación de resultados; análogamente a como se estructura nuestro sistema, si bien con diferencias substanciales en lo relativo a las técnicas utilizadas en los dis-tintos módulos. Desde el punto de vista que estamos tratando, también se puede considerar como básica en el diseño del sistema, aunque en menor grado que las dos anteriores, la referencia [AMINI 02] (Automa-tic road side extraction from large scale imagemaps). Procedente de la Universidad de Teherán, el ci-tado estudio propone la segmentación binaria de la imagen como paso previo a la obtención del esque-leto, que consigue mediante empleo de la transformación de Wavelet. Y si bien el algoritmo concluye aquí, prescindiendo del resto de la vectorización y de consideraciones en el alto nivel, el trabajo nos presenta una opción interesante para complementar nuestro proceso. De carácter fundamental en lo que respecta a la optimización de nuestro sistema mediante la determinación automática de los valores correspondientes a las dos variables paramétricas más impor-tantes de que consta (umbral de plausibilidad y margen de pendiente en la clasificación de las bolsas), es el estudio editado en [PEDDLE 02] (Optimisation of multisource data analysis: An example using evidential reasoning for GIS data classification). Esta referencia, junto a otras más clásicas como son [RIPLEY 96] (Pattern recognition and neural networks) y [GOLDBERG 89] (Genetic algorithms in

Page 175: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 169

search, optimization and machine learning), se consideran muy importantes de cara a la investigación que dejamos abierta en el automatismo completo y fiable de nuestro método de extracción. Otra referencia que ha sido básica, en este caso para la exposición formal a lo largo de la me-moria de conceptos, variables, premisas, reglas, resultados, consecuencias y conclusiones, es [RITTER 99] (Image Algebra). Este estudio, que está dando sus primeros pasos en la actualidad, nos proporcio-nó la idea de formalizar con cierto rigor matemático las decisiones y operaciones adoptadas para el sis-tema allí donde se creyó conveniente, si bien en todos los casos la teoría y notación utilizada para ello es de responsabilidad exclusiva del que suscribe ante posibles errores e indeterminaciones. * Referencias básicas en el módulo de preproceso. Como ya se indicó, la etapa de elección y super-posición sobre la imagen de las entidades de referencia es sin duda la más delicada del módulo de pre-tratamiento de nuestro sistema. Por ello reviste especial importancia la revisión de las deformaciones e inconsistencias, si las hubiere, en la información almacenada en la base de datos vectorial del SIG. En este tema el estudio [RELLIER 02] (Local registration and deformation of a road cartographic data-base on a SPOT satellite image) constituye un sólido punto de apoyo que avala el desarrollo presenta-do en el capítulo 3, ya que las consideraciones realizadas por Guillaume Rellier y otros son portables al terreno de una mayor resolución propio de las imágenes aéreas e IKONOS. También han sido piezas básicas en el indicado asunto los trabajos [BUSCH 02] (Quality ma-nagement of ATKIS data) y [WILLRICH 02] (Quality control and updating of road data by GIS dri-ven road extraction from imagery). Ambos de naturaleza muy similar, están orientados al análisis del control de calidad de la información vectorial residente en el SIG, al objeto de conseguir su integra-ción eficaz con el sistema alemán de cartografía civil denominado ATKIS (Authoritative Topographic and Cartographic Information System), el cual está muy ligado al correspondiente militar como suce-de en la gran mayoría de los países occidentales. Estos trabajos, al igual que el anterior, han permitido obviar en esta memoria el detallado estudio sobre la superposición de las entidades de referencia, ya que lo consideramos un problema geométrico menor frente a otros de resolución bastante más comple-ja como es la selección automática más adecuada de dichas entidades. En este asunto ninguna de las referencias mencionadas ofrece aportación alguna, debiendo ser investigado mediante estructuras de alto nivel donde se incluya la textura como propiedad específica de las entidades cartográficas. Otra referencia de importancia que cabe destacar en este módulo, aunque de bastante menor influencia que las anteriores, ha sido por su originalidad [BHATTACHARYA 01]. Recordemos que en este trabajo se propone un método para la eliminación de ruido de la imagen original basado en la aplicación de un filtro de mediana, si bien éste se construye asignando a cada pixel un valor numérico relacionado con la textura. Por su afinidad con el sistema, se trata del método por el que optamos. * Referencias básicas en el módulo de segmentación. Dos son los conceptos principales que caracte-rizan al módulo de segmentación de nuestro sistema. El primero estriba en la utilización de la Teoría de la Evidencia como técnica de decisión en el control y fusión de la información, y el segundo se re-fiere al análisis de la textura como factor determinante en las etapas de detección. En lo que respecta al primer asunto, fundamentales han sido las referencias [HALL 92] (Mathematical techniques in multi-sensor data fusion), donde se puede comparar la Teoría de la Evidencia con otras técnicas de decisión, y [BAUER 97] (Approximation Algorithms and Decision Making in the Dempster-Shafer Theory of Evidence. An Empirical Study), donde se explica la forma de implementar las distintas consecuencias, operaciones y propiedades típicas de la citada teoría. En cuanto al estudio de la textura, el apoyo más importante para nuestro trabajo, que nos ha conducido a diseñar el método original propuesto que denominamos Análisis Progresivo de la Textura (APT), se obtuvo de las referencias [CROSS 83] (Markov random field texture models) y [GAGALO-WICZ 87] (Texture modelling applications). Con grandes analogías, ambas sugirieron la idea de utili-zar órdenes sucesivos de Estadística en la generación de las capas de evidencia que se han tratado.

Page 176: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 170

También muy importantes, por servirnos como complemento en las distintas fases del módulo de segmentación, han sido los textos [FUKUNAGA 90] (Statistical Pattern Recognition), donde se exponen detalladamente magnitudes tan interesantes para nosotros como las distancias de Mahalano-bis y Bhattacharyya entre otros conceptos, y [DUDA 01] (Pattern Classification and Scene Analysis), compendio actualizado de múltiples técnicas y métodos para el tratamiento de imágenes. Asimismo no podemos dejar de calificar como básica y fundamental la referencia [HARALICK 79] (Statistical and structural approaches to texture), ya que en ésta se demuestra la idoneidad de escoger como variables estadísticas en el estudio de la textura aquellas que han sido utilizadas en el apartado 4.2.6. * Referencias básicas en el módulo de vectorización. Uno de los procesos más importantes que cons-tituyen este módulo es la construcción del esqueleto. Para ello en nuestro sistema se ha optado por dos formas distintas y complementarias de obtención: La primera mediante aplicación de la distancia de Chamfer, apoyándonos en la referencia [SANNITI 94] (Well shaped, stable and reversible skeletons from the (3,4)-distance transform), y la segunda a través de una variación de la propuesta en [DOU-CETTE 01] (Self organised clustering for road extraction in classified imagery), publicada reciente-mente en [MENA 02 (a)] (Vectorización automática de una imagen binaria mediante K-means y de-generación de la triangulación de Delaunay). También es de gran relevancia la tarea de ajuste que sigue a la etapa de formación de los obje-tos. La discusión y desarrollo de ésta, incluida en el capítulo 5, se ha realizado en base a dos referen-cias fundamentales: [McGLONE 98] (Block adjustment of linear pushbroom imagery with geometric constraints), donde se aconseja el ajuste polinómico frente a otros métodos cuando se trata de entida-des lineales, y [MENA 97 (a)] (Teoría del tratamiento matemático de las mediciones experimentales), donde se detalla extensamente la teoría y aplicación de mínimos cuadrados. * Referencias básicas en el módulo de evaluación. En este módulo sólo uno de los actuales estudios al respecto ha sido básico en nuestro sistema. Se trata de la referencia [WIEDEMANN 98] (Empirical evaluation of automatically extracted road axes) que ha servido, tanto para ratificar la eficacia del mé-todo original de evaluación que proponemos en el capítulo 6, como para proporcionar una idea total-mente objetiva sobre el porcentaje de calidad en los resultados de nuestro sistema de extracción. La ausencia de otras referencias que pudiésemos calificar como fundamentales es debida a que los posteriores estudios sobre evaluación aparecidos en la literatura se apoyan en el ya mencionado, in-troduciendo sólo algunas variaciones que no desvirtúan la idea troncal del mismo. * Referencias básicas en el alto nivel de conocimiento. En lo que respecta al estudio en el alto nivel de conocimiento, de cara a la formación de las entidades cartográficas en nuestro caso así como al di-seño de una estructura inteligente para el manejo del sistema, son muchos los estudios que se han tra-tado. Sin embargo, puntualizando en las líneas propuestas de investigación, consideramos de carácter fundamental [FÖRSTNER 97] (Semantic modelling for the acquisition of topographic information from images and maps), para la necesaria incorporación de redes semánticas que proporcionen un flu-jo de trabajo inteligente al sistema; [SOWMYA 00] (Modelling and representation issues in automa-ted feature extraction from aerial and satellite images), donde encontramos un análisis comparativo de los distintos métodos de estructuración del conocimiento; [ZADEH 65] (Fuzzy sets), por presentar los fundamentos de la lógica borrosa a incluir en todos los módulos del sistema; y [GRAFAREND 02] (Geodesy: The Challenge of the 3rd Millennium), donde se puede estudiar la mejor forma para definir con toda precisión en coordenadas geodésicas las entidades cartográficas obtenidas.

También de gran importancia por las perspectivas que ofrecen para perfeccionar nuestro siste-ma al haber implementado ya la Base de Datos Orientada a Objetos, son los siguientes trabajos: [WALLACE 01] (Research into a framework for automatic linear feature identification and extrac-tion), ligado al Ministerio de Defensa del Reino Unido, donde se presenta el sistema de extracción ALFIE referente a entidades lineales; y [BÜCKNER 02] (Semantic Interpretation of Remote Sensing Data), que propone el sistema GeoAIDA en el entorno más general de los elementos gráficos, aunque

Page 177: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 171

se ocupa mayormente de la extracción y actualización del SIG en lo relativo a edificios. Ambos siste-mas son semiautomáticos, necesitando por tanto de la intervención manual del operador en mayor o menor grado según la tarea concreta que se vaya a realizar. En consecuencia ambos se encuentran aún muy alejados de conseguir la completa automatización del proceso de extracción. No obstante, al ha-ber sido construidos en la línea de considerar los objetos como entidades compactas, paralelamente a lo realizado en esta memoria, constituyen sendas referencias que servirán de ayuda en los estudios co-rrespondientes al trazado de la investigación propuesta para la mejora de nuestro sistema. Finalmente, otra referencia que podemos calificar de fundamental por exponer las posibilida-des y carencias de los distintos métodos y técnicas existentes para la implementación del conocimiento en el alto nivel es, entre las muchas que existen, el texto [WINSTON 92] (Artificial Intelligence). 7.2.2. Principales métodos y rasgos originales del sistema. A continuación se destacan los distintos aspectos del sistema que pueden considerarse origina-les al no aparecer en la literatura científica referencia alguna que, desligada del que suscribe, los califi-que como ya propuestos por la investigación. * Aspecto original del sistema de extracción valorado en su conjunto. Desde un punto de vista gene-ral, el sistema propuesto en esta memoria para la extracción de entidades lineales y actualización del SIG a partir de imágenes, puede entenderse como original en su conjunto. Esto es así porque, si bien existen métodos de características y estructura similar, no hemos encontrado ninguno que abarque el proceso completo en la forma presentada aquí, y menos aún que aplique el conjunto de ideas utilizadas en los distintos módulos en que se ha subdivido el procedimiento, o que obtenga como salida automá-tica el conjunto geométrico y topológico de elementos estructurados que proporciona nuestro sistema a partir de un mínimo requerimiento en la información de entrada. Un aporte importante a la comunidad científica en materia de extracción de entidades carto-gráficas y actualización del SIG, desde el enfoque que estamos considerando, es la detallada revisión del conocimiento expuesta en el capítulo 2, lo que ha supuesto una minuciosa tarea de investigación llevada a cabo tras una ardua labor de recopilación, análisis, coordinación y clasificación de las nume-rosas publicaciones por las que nos hemos interesado. Téngase en cuenta que, aún así, el estudio reali-zado es muy perfeccionable dada la multitud de referencias que existen en la literatura en lo relativo al tema que nos incumbe. * Rasgos originales en el módulo de preproceso. En el módulo de pretratamiento posiblemente sea original la idea de superponer sobre la imagen rectificada y referenciada las entidades cartográficas li-neales residentes en el SIG, al objeto de servir como área de entrenamiento para el proceso de segmen-tación automáticamente supervisada. Nos referimos a la forma en cuestión de definir dicho área, y no al empleo de la información del SIG en la extracción, lo cual está aconsejado por múltiples estudios. * Rasgos originales en el módulo de segmentación. En este módulo son numerosos los aspectos origi-nales que presenta nuestro sistema. En primer lugar, y como mas importante, es novedoso el método en su conjunto, que proporciona la clasificación binaria de la imagen bajo el control de la Teoría de la Evidencia como técnica de gobierno y fusión de la información. En segundo lugar cabe destacar la ori-ginalidad del proceso APT, según el cual se estudia y mide la textura mediante el análisis progresivo de la misma conforme a tres órdenes sucesivos en el tratamiento estadístico de los 256 valores de gris en cada banda. En tercer lugar, es completamente original la fase de segmentación de segundo orden, denominada análisis de la textura conjunta, aparte de por su diseño, por introducir conceptos nuevos como son el cubo de textura, las distribuciones de concurrencia y la magnitud que hemos convenido en llamar pseudoprobabilidad. Finalmente, otros puntos originales residen en la depuración automáti-ca de las distribuciones de referencia y en la propuesta para determinar también automáticamente el umbral de plausibilidad.

Page 178: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 172

* Rasgos originales en el módulo de vectorización. El método de vectorización que se ha diseñado en nuestro sistema es original en su conjunto, no sólo por el procedimiento global empleado, sino por la novedad que supone la estructura algebraica formal que se ha presentado, incluyendo las variables, re-glas, definiciones, consecuencias, etc. En detalle, es del todo original la idea de utilizar la degenera-ción de la triangulación de Delaunay para obtener el esqueleto, así como el empleo de una relación de orden y otra de equivalencia para la formación de los objetos. También son originales todas las estruc-turas de datos que se han propuesto, y los procesos parciales de podado topológico y ajuste morfológi-co de los nodos, aparte de los métodos específicos llamados: de ángulo en el vértice, para suavizar la curvatura de las bolsas; de la pendiente similar, para clasificar éstas; de la referencia móvil, para dis-minuir el número de clases de equivalencia; y de ajuste poligonal reiterativo, para construir la defini-ción geométrica de los objetos cerrados con un máximo de precisión y un mínimo de datos. * Rasgos originales en el módulo de evaluación. En este módulo de nuestro trabajo es por completo original el método de evaluación propuesto en el apartado 6.1.1, previamente al empleo del diseñado por el profesor Christian Wiedemann cuyos resultados confirman la eficacia del anterior. * Rasgos originales en las propuestas en el alto nivel. Finalmente, en la formación de las entidades cartográficas y las propuestas en el alto nivel, es original la idea de utilizar las vías principales obteni-das en la fase de detección complementaria del esqueleto, y también pudiera ser que lo sean algunos aspectos particulares sugeridos para la construcción de un sistema inteligente y autónomo de extrac-ción de elementos lineales y actualización del SIG a partir de una mínima exigencia en la cantidad de información necesaria en la entrada. Ejemplo de ello lo encontramos en la clasificación realizada para los métodos de implementación del conocimiento, donde todos los procesos clásicos se han incluido a modo de casos particulares de la lógica fuzzy, si bien considerando aparte los que categóricamente es-tán diseñados atendiendo a esta rama del Saber. 7.2.3. Conclusiones finales. * En esta memoria se ha presentado un sistema sólido y flexible para la extracción y definición de entidades cartográficas lineales, carreteras en particular, con el objetivo de servir de ayuda en los procesos que se realizan manualmente hoy en día para mantener actualizadas las bases de datos vecto-riales características de la gran mayoría de los Sistemas de Información Geográfica. * El sistema, cuyo grado de fiabilidad en la salida automática se pondera en el 70%, constituye una propuesta de alto rendimiento ya que, aún admitiendo imperfecciones en los resultados, no se re-quiere como dato de entrada más que las tres bandas RGB de una imagen de alta resolución, bien sea ésta aérea o satélite, y disponer en el SIG de alguna entidad de referencia para iniciar el proceso. * La estructura general del sistema junto al algoritmo diseñado, permiten afirmar que se trata de un método de fácil manejo y sencilla modificación para adaptarse a las exigencias peculiares de cada entorno de trabajo o a las particulares de cada operador en su función. * Asimismo la evaluación que ha sido realizada, donde se contempla la congruencia en las defi-niciones geométricas y topológicas de los elementos gráficos generados en la salida automática, sugie-re la posibilidad de almacenar los resultados con una mínimo de validación manual, pudiéndose in-cluso eliminar la fase de construcción de las entidades cartográficas en lo que respecta a las definicio-nes mencionadas. * Otra propiedad importante de nuestro método es la capacidad de proporcionar resultados de la máxima exactitud en todos los casos si se opta por retocar manualmente determinadas salidas inter-medias, convirtiéndose entonces en un sistema semiautomático. En este caso la tarea del operador será de poca dificultad y magnitud, reduciéndose notablemente el tiempo de trabajo con respecto al necesa-rio para ejecutar la actualización de datos del SIG en la forma clásica.

Page 179: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 7: Perspectivas y conclusiones. J. B. Mena

Pág. 173

* También interesante es la alta predisposición del sistema a su mejora mediante la adición de otras capas de información en el módulo de segmentación, el perfeccionamiento del módulo de vecto-rización a través del refinado de los criterios de construcción de las bolsas y los objetos, o la integra-ción de una fase de autoevaluación que realice automáticamente la validación de los resultados; opera-ciones todas ellas factibles de ser estudiadas e implementadas con un rendimiento variable. * Análogamente, el sistema se caracteriza por su facultad de ser prolongado en el alto nivel de conocimiento hacia la formación de un sistema de extracción inteligente y compacto, mediante el es-tudio y análisis de las propuestas realizadas aquí y las experiencias de otros en este tema. * Finalmente decir que el presente trabajo, donde existen algunas ideas originales y retoques a las propuestas de otros, constituye un proceso singular basado en distintos campos de la Matemática, con el cual sólo se pretende avanzar un modesto paso en la resolución del sinnúmero de problemas que lleva asociados el completo automatismo de la Cartografía Digital. En consecuencia se tiene por de-lante un amplio horizonte de investigación, como se deduce de las líneas de estudio que se han indica-do en los distintos capítulos de esta memoria.

Page 180: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 174

8 Anexos.

Anexo I. Referencias bibliográficas. [AGARWAL 02] S. AGARWAL, D. ROTH (2002). Learning a Sparse Representation for Object De-

tection. Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2353, p. 113 ff. [AGOURIS 98] P. AGOURIS, S. GYFTAKIS, A. STEFANIDIS (1998). Using a fuzzy supervi-sor for

object extraction within an integrated geospatial environement. International Archives of Photogrammetry and Remote Sensing, 32 (Part III/1), pp. 191-195.

[AGOURIS 01 (a)] P. AGOURIS, S. GYFTAKIS, A. STEFANIDIS (2001). Dynamic Node Distribution

in Adaptive Snakes for Road Extraction. Vision Interface, Ottawa, Canadá, pp. 134-140.

[AGOURIS 01 (b)] P. AGOURIS, S. GYFTAKIS, A. STEFANIDIS (2001). Quality-aware Deformable

Models for Change Detection. IEEE International Conference on Image Processing (ICIP) 2001, Thessaloniki, Greece, vol. 2, pp. 805-808.

[AGOURIS 01 (c)] P. AGOURIS, P. DOUCETTE, A. STEFANIDIS (2001). Spatiospectral Cluster

Analysis of Elongated Regions in Aerial Imagery. IEEE International Conference on Image Processing (ICIP) 2001, Thessaloniki, Greece, vol. 2, pp. 789-792.

[AGOURIS 01 (d)] P. AGOURIS, A. STEFANIDIS, S. GYFTAKIS, (2001). Differential Snakes for

Change Detection in Road Segments. Photogrammetric Engineering and Remote Sen-sing, 67 (12), pp. 1391-1399.

[AHO 83] A.V. AHO, J.E. HOPCROFT, J.D. ULLMAN (1983). Data structures and algorithms.

Addison–Wesley. New York. [AIRAULT 95] S. AIRAULT, O. JAMET (1995). Détection et restitution automatiques du réseau

routier á partir d’images aériennes. Traitement du Signal, vol. 12 (2), pp. 189-200 (Hermès).

[AMINI 90] A.. AMINI, T. WEYMOUTH, R. JAIN (1990). Using Dynamic Programming for Sol-

ving Variational Problems in Vision. IEEE Transactions on Pattern Analysis and Ma-chine Intelligence, 12, pp. 855-867.

[AMINI 00] J. AMINI, M.R. SARADJIAN (2000). Imagemap Simplification by Using Mathemati-

cal Morphology. ISPRS 33 (Part B3), 36. [AMINI 02] J. AMINI, M.R. SARADJIAN, J.A.R. BLAIS, C. LUCAS, A. AZIZI. (2002).

Automatic road side extraction from large scale imagemaps. International Journal of Applied Earth Observation and Geoinformation 4, pp. 95-107.

[ANDERSEN 02] H.E. ANDERSEN, S.E. REUTEBUCH, G.F. SCHREUDER (2002). Bayesian object

recognition for the analysis of complex forest scenes in airborne laser scanner data. ISPRS Photogrammetric Computer Vision, 9-13 September, Graz, Austria, A-73 p.

Page 181: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 175

[APPELBAUM 82] L.T. APPELBAUM (1982). Geodetic datum transformation by multiple regression equations. Proceedings of the 3rd International Symposium on Satellite Doppler. New Mexico State University. Las Cruces. pp 203-207.

[BACHER 00] U. BACHER, H. MAYER (2000). Automatic Extraction of Trees in Urban Areas from

Aerial Imagery. International Archives of Photogrammetry and Remote Sensing (33) B3/1, pp. 51-57.

[BAJCSY 76] R. BAJCSY, M. TAVALOKI (1976). Computer recognition of roads from satellite

picture. IEEE Transactions on Systems, Man and Cybernetics 6, pp. 76-84. [BALLARD 82] D.H. BALLARD, C.M. BROWN (1982). Computer Vision. Prentice – Hall, Engle-

wood Cliffs. New Jersey. [BALTSAVIAS 01] E.P. BALTSAVIAS, A. GRUEN, L.V. GOOL (Eds.) (2001). Automatic Extraction of

Man-Made Objects fron Aerial and Space Images (III). A.A. Balkema Publishers. [BARSI 02] A. BARSI, C. HEIPKE, F. WILLRICH (2002). Junction Extraction by Artificial

Neural Network System Jeans. PCV02. Photogrammetric Computer Vision. ISPRS Commission III, Symposium 2002, Graz (Austria).

[BARZOHAR 96] M. BARZOHAR, D. COOPER (1996). Automatic finding of main roads in aerial

images by using geometric-sthochastic models an estimation. IEEE Transactions on Pattern Analysis and Machine Intelligence 18, pp. 707-721.

[BAUER 97] M. BAUER (1997). Approximation Algorithms and Decision Making in the Dempster-

Shafer Theory of Evidence. An Empirical Study. International Journal of Approximate Reasoning, 17(2-3), pp. 217-237.

[BAUMGARTNER 96] A. BAUMGARTNER, C. STEGER, C. WIEDEMANN, H. MAYER, W. ECKSTEIN,

H. EBNER (1996). Update of Roads in GIS from Aerial Imagery: Verification and Multi – Resolution Extraction. International Archives of Photogrammetry and Remote Sensing. 1 (Part B3), 53-58.

[BAUMGARTNER 97] A. BAUMGARTNER, C. STEGER, H. MAYER, W. ECKSTEIN (1997). Multi –

Resolution, Semantic Objects and Context for Road Extraction. In: Förstner, W., Plümer, L. (Eds.), Semantic Modeling for the Acquisition of Topographic Information from Images and Maps. Birkhäuser Verlag (1997), pp. 150-156.

[BAUMGARTNER 99 (a)] A. BAUMGARTNER, C. STEGER, H. MAYER, W. ECKSTEIN, H. EBNER (1999).

Automatic road extraction in rural areas. Int. Arch. Photogrammetry and Remote Sensing, 107-112.

[BAUMGARTNER 99 (b)] A. BAUMGARTNER, C. STEGER, H. MAYER, W. ECKSTEIN, H. EBNER (1999).

Automatic road extraction based on Multi-Scale, Grouping and Context. Photogram-metric Engineering and Remote Sensing (65), pp. 777-786.

[BAUMGARTNER 99 (c)] A. BAUMGARTNER, W. ECKSTEIN, C. HEIPKE, S. HINZ, H. MAYER, B.

RADIG, C. STEGER, C. WIEDEMANN (1999). T-REX: TUM Research on Road Extraction. In C. Heipke, H. Mayer (Eds.), Festschrift für prof. Dr. Ing. Heinrich Ebner zum 60. Geburtstag, Lehrstuhl für Photogrammetrie und Fernerkundung, Technische Universität München, pp. 43-64.

[BAUMGARTNER 02] A. BAUMGARTNER, S. HINZ, C. WIEDEMANN (2002). Efficient Methods and

Interfaces for Road Tracking. In: Proceedings of the ISPRS-Commision III Symposium "Photogrammetric Computer Vision" (PCV'02), Graz 2002; International Archives of Photogrammetry and Remote Sensing, 34 (Part 3-B), pp. 28-31.

[BENEDETTO 94] J. J. BENEDETTO, M. W. FRAZIER Eds. (1994). Wavelets: Mathematics and Appli-

cations. Studies in Advanced Mathematics. CRC Press, Boca Raton, FL, USA.

Page 182: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 176

[BENJAMIN 90] S. BENJAMIN, L. GAYDOS (1990). Spatial resolution requirements for automated cartographic road extraction. Photogrammetric Engineering and Remote Sensing, 56 (1), pp. 93-100.

[BHATTACHARYA 01] A. K. BHATTACHARYA, P.K. SRIVASTAVA, A. BHAGAT (2001). A modified

texture filtering technique for satellite images. 22nd Asian Conference on Remote Sen-sing, 5-9 November. Singapore.

[BJÖRCK 96] AKE BJÖRCK (1996). Numerical Methods for Least Squares Problems. Society for

Industrial and Applied Mathematics (Siam). Philadelphia. [BOICHIS 00] N. BOICHIS (2000). Extraction automatique des carrefours routiers dans les images

aériennes guidée par une base de données cartographique. Thèse de doctorat de l’Université de Cergy-Pontoise, Laboratoire MATIS. Directeur: Sylvain Airault.

[BONNEFON 02] R. BONNEFON, P. DHERETE, J. DESACHY (2002). Geographic information

system updating using remote sensing images. Pattern Recognition Letters, 23 (9), pp. 1073-1083.

[BORGEFORS 88] G. BORGEFORS (1988). Hierarchical Chamfer Matching: A parametric Edge Mat-

ching Algorithm. IEEE Transactions on Pattern Analysis and Machine Intelligence n. 10.

[BRACEWELL 86] R.N. BRACEWELL (1986). The Fourier Transform and its Applications, Second Edi-

tion. Mc Graw Hill Book Company. New York. [BRENNAN 98] J. BRENNAN, A. SOWMYA (1998). Satellite Image Interpretation using Spatial

Reasoning. In Australasian Remote Sensing and Photogrammetry Conference, Sidney, Australia, 20-24 July 1998, Causal Productions Pty Ltd, Rundle Mall, South Australia 5000, CDROM.

[BRIGGS 74] I.C. BRIGGS (1974). Machine contouring using minimun curvature. Geophysics, vol.

39 (1), pp. 39-48. [BÜCKNER 02] J. BÜCKNER, S. MÜLLER, M. PAHL, O. STAHLHUT (2002). Semantic Interpreta-

tion of Remote Sensing Data. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-62 ff.

[BULWINKLE 98] G. BULWINKLE, S.D. COCHRAN, J.C. McGLONE, D. McKEOWN, J. SHUFELT

(1998). Robust Exchange of Cartographic Models for Buildings and Roads: The CMU MAPSLab Exchange Format. Technical Report CMU-CS-98-134, School of Computer Science. Carnegie Mellon University. Pittsburgh, Pennsylvania PA 15213.

[BUSCH 02] A. BUSCH, F. WILLRICH (2002). Quality Management of ATKIS Data. Proceeding

CD of the OEEPE/ISPRS Joint Workshop on Spatial Data Quality Management, 21-22 March 2002, Istanbul, Turkey, p. 12.

[CALVO 93] M. CALVO (1993). Sistemas de información geográfica digitales. Sistemas geomáti-

cos. Universidad de Vascongadas. IVAP (Organismo Autónomo del Gobierno Vasco). España.

[CAMPBELL 96] N.W. CAMPBELL, B.T. THOMAS (1996). Neural Networks for the Segmentation of

Outdoor Images. International Conference on Engineering Applications of Neural Networks. Systems Engineering Association, pp. 343-346.

[CANNY 86] J. CANNY (1986). A Computational Approach to Edge Detection. IEEE Transactions

on Pattern Analysis and Machine Intelligence, 6 (8), pp. 679 – 698.

Page 183: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 177

[CHANUSSOT 98] J. CHANUSSOT, P. LAMBERT (1998). An application of mathematical morphology to road network extraction on SAR images. Proc. International Symposium on Mathematical Morphology. Amsterdam, 1998, pp. 399-406.

[CHELLAPPA 93] R. CHELLAPPA, A. JAIN (1993). Markov Random Fields-Theory And Application,

Academic Press, Boston. [CHEN_A. 02] ANNIE CHEN, G. DONOVAN, A. SOWMYA, J. TRINDER (2002). Inductive clus-

tering: Automatic low – level segmentation in high resolution images. ISPRS, Photo-grammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-73 ff.

[CHEN_J. 02] JUNQING CHEN, T.N. PAPPAS (2002). Adaptive Image Segmentation based on

Color and Texture. Proc. ICIP, Rochester, New York. September 2002. [CHEN_T. 02] TIELING CHEN, J. WANG, K. ZHANG (2002). A Wavelet Transform Based Method

for Road Extraction from High – resolution Remotely Sensed Data. IEEE, 2002, (C), pp. 3369-3372.

[CHEN_T.Q. 02] TIE QI CHEN, YI LU (2002). Color image segmentation - an innovative approach.

Pattern Recognition, 35, pp. 395-405. [CHENG 01] H.D. CHENG, X.H. JIANG, Y. SUN, J. WANG (2001). Color image segmentation:

advances and prospects. Pattern Recognition, 34, pp. 2259 – 2281. [CHENG 02] H.D. CHENG, X.H. JIANG, JINGLI WANG (2002). Color image segmentation ba-

sed on homogram thresholding and region merging. Pattern recognition, 35, pp. 373-393.

[CHIANG 01] T.Y. CHIANG, Y.H. HSIEH, W. LAU (2001). Automatic Road Extraction from

aerial images. Stanford education. [CHUI 97] C. K. CHUI (1997). Wavelets: A Mathematical Tool for Signal Analysis. Society for

Industrial and Applied Mathematics, Philadelphia, PA, USA. [CLARK 99] A.A. CLARK, B.T. THOMAS, N.W. CAMPBELL, P. GREENWAY (1999). Texture

Deconvolution for the Fourier Based Analysis of non Rectangular Regions. In British Machine Vision Conference, Nottingham, UK, pp. 193-202.

[CLEIJNENBREUGEL 91] J. VAN CLEIJNENBREUGEL, S.A. OSINGA, F. FIERENS, P. SUETENS, A. OOS-

TERLINCK (1991). Road extraction from multitemporal satellite images by an evi-dential reasoning approach. Pattern Recognition Letters 12, pp. 371-380.

[COHEN 91] L.D. COHEN (1991). On Active Contour Models and Ballons. CVGIP Image Under-

standing, 53, pp. 211-218. [COLLIER 98] P. COLLIER, V.S. ARGESEANU, F.J. LEAHY (1998). Distorsion modelling and the

transition to GDA94. The Australian Surveyor, 43 (1), pp. 29-40. [COMANICIU 01] D. COMANICIU, P. MEER (2001). Robust Analysis of Feature Spaces: Color Image

Segmentation. Department of Electrical and Computer Engineering. Rutgers University Piscataway. NJ 08855, USA.

[COULOIGNER 00] I. COULOIGNER, T. RANCHIN (2000). Mapping of urban areas: A multiresolution

modeling approach for semi-automatic extraction of streets. Photogrammetric Engineering and Remote Sensing, 66 (7), pp.867-874.

[CRESSIE 91] N. CRESSIE (1991). Statistics for Spatial Data.. Wiley Inter-Science. New York. [CROSS 83] G.R. CROSS, A.K. JAIN (1983). Markov Random Field Texture Models. IEEE

Transactions on Pattern Analysis and Machine Intelligence, 5 (1).

Page 184: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 178

[DALDA 00] A. DALDA (2000). Parámetros de transformación entre sistemas de referencia te-rrestres. Informe interno del Instituto Geográfico Nacional.

[DAL POZ 00 (a)] A.P. DAL POZ, P. AGOURIS. Extraçao semi-automática de rodovías usando

programaçao dinâmica. Geoinfo 2000. II Workshop Brasileiro de GeoInformática. 12 e 13 de junho de 2000, Centro Anhembi, São Paulo, SP.

[DAL POZ 00 (b)] A.P. DAL POZ, S. GYFTAKIS, P. AGOURIS (2000). Semi-automatic road

extraction: Comparison of methodologies and experiments. DC 2000 ASPRS Annual Conference, Washington DC, USA.

[DAL POZ 00 (c)] A.P. DAL POZ, P. AGOURIS (2000). Georeferenced road extraction and

formulation of hypotheses for new road segments. In Roper, W.E., Hamilton, M.K. (Eds.), Automated Geospatial Image and Data Exploitation. Proc. SPIE, vol. 4054, pp. 56-65.

[DAL POZ 02] A.P. DAL POZ, M.A.O. SILVA (2002). Active Testing and Edge Analysis for Road

Centreline Extraction. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. B-44 ff.

[DANILINA 90] N.I. DANILINA, N.S. DUBROVSKAYA, O.P. KVASHA, G.L. SMIRNOV (1990).

Matemática de cálculo. Editorial Mir. Moscú. [DE BERG 98] M. DE BERG, M. VAN KREVELD, M. OVERMARS, O. SCHWARZKPF (1998).

Computational Geometry. Springer. Second revised Edition. Berlin. [DE BOOR 78] C. DE BOOR (1978). A practical guide to splines. Springer – Verlag. New York. [DELL’AQUA 01] F. DELL’AQUA, P. GAMBA (2001). Detection of urban structures in SAR images by

robust fuzzy clustering algorithms: The exampleof street tracking. IEEE Transactions on Geoscience and Remote Sensing, 39 (10), pp. 2287-2297.

[DIAL 01] G. DIAL, L. GIBSON, R. POULSEN (2001). IKONOS Satellite Imagery and its Use

in Automated Road Extraction. In: Baltsavias, E.P., Gruen, A., Van Gool, L. (Eds.). Automatic Extraction of Man-Made Objects from Aerial and Space Images (III), Zurich.

[DILLABAUGH 02] C.R. DILLABAUGH, K.O. NIEMANN, D.E. RICHARDSON (2002). Semi-

automated extraction of rivers from digital imagery. Geoinformatica Journal, 6 (3), pp.263-284.

[DOUCETTE 99] P. DOUCETTE, P. AGOURIS, M. MUSAVI, A. STEFANIDIS (1999). Automated

extraction of linear features from aerial imagery using Kohonen learning and GIS data. Lecture Notes in Computer Science, vol. 1737, Springer – Verlag, Berlin, pp. 20-33.

[DOUCETTE 01] P. DOUCETTE, P. AGOURIS, A. STEFANIDIS, M. MUSAVI (2001). Self-organi-

sed clustering for road extraction in classified imagery. ISPRS Journal of Photogram-metry and Remote Sensing, 55, pp. 347-358.

[DRAPER 81] N.R. DRAPER, H. SMIDTH (1981). Applied regression analysis. Wiley, New York. [DUBUISSON 96] M.P. DUBUISSON, J GUPTA, A. GUPTA (1996). Color and Texture Fusion:

Application to Aerial Image Segmentation and GIS Updating. Proceeding of the third IEEE Workshop on Applications of Computer Vision. WACV96, pp. 2-7.

[DUDA 01] R.O. DUDA, P.E. HART, D.G. STORK (2001). Pattern Classification and Scene

Analysis. Second edition. Wiley, New York.

Page 185: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 179

[DUYGULU 02] P. DUYGULU, K. BARNARD, J.F.G. DE FREITAS, D.A. FORSYTH (2002). Object Recognition as Machine Translation: Learning a lexicon for a Fixed Image Vocabulary. Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2353, 97 p.

[EBNER 99] H. EBNER, W. ECKSTEIN, C. HEIPKE, H. MAYER (1999). Automatic Extraction

of GIS Objects from Digital Imagery. International Archives of Photogrammetry and Remote Sensing (32) 3-2W5.

[EIDENBENZ 00] C. EIDENBENZ, C. KÄSER, E. BALTSAVIAS (2000). Atomi – Automated

reconstruction of topographic objects from aerial images using vectorized map information. International Archives of Photogrammetry and Remote Sensing, 23.

[ELBERINK 02] S.O. ELBERINK, G. VOSSELMAN (2002). 3D Line Reconstruction from Airborne

three line Scanner Data. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-108 ff.

[EVERINGHAM 02 (a)] M.R. EVERINGHAM, H. MULLER, B.T. THOMAS (2002). Evaluating Image

Segmentation Algorithms using the Pareto Front. In Heyden, A., Sparr, G., Nielsen, M, Johansen, P., (Eds.). Proceedings of the 7th European Conference on Computer Vision (ECCV 2002), Part IV, Springer, Berlin, pp. 34-48.

[EVERINGHAM 02 (b)] M.R. EVERINGHAM, H. MULLER, B.T. THOMAS (2002). Algorithm Evaluation

by Probabilistic Fitness / Cost Analysis and Application to Image Segmentation. In Suter, D., Bab-Hadiashar, A., (Eds.). Proceedings of the 5th Asian Conference on Computer Vision (ACCV 2002). Asian federation of Computer Vision Societies (AFCV), pp. 580-586.

[FABER 99] A. FABER, W. FÖRSTNER (1999). Scale Characteristics of Local Autocovariances

for Texture Segmentation. International Archives of Photogrammetry and Remote Sensing, Valladolid, Spain, 3-4 June, 1999,vol. 32 (Part 7-4-3 W6), 6/99, 7 p.

[FABRE 01] S: FABRE, X. BRIOTTET, A. APPRIOU (2001). Impact of Contextual Information

Integration on Pixel Fusion. IEEE Transactions on Geoscience and Remote Sensing, 40 (9), pp 1997-2010.

[FERRARO 99] M. FERRARO, G. BOCCIGNONE, T. CAELLI (1999). On the Representation of

Image Structures via Scale Space Entropy Conditions. IEEE Transactions on Pattern Analysis and Machine Intelligence, 21, pp. 1199-1203.

[FISCHLER 81] M.A. FISCHLER, J.M. TENENBAUM, H.C. WOLF (1981). Detection of roads and

linear structures in low – resolution aerial imagery using multisource knowledge integration technique. Computer Graphics and Image Processing, 15, pp. 201-223.

[FORD 92] S.J. FORD, D.M. McKEOWN Jr. (1992). Utilization of Multispectral Imagery for

Cartographic Feature Extraction. Proceedings of the DARPA Image Understanding Workshop. San Diego, CA. Jan. 1992. Morgan Kaufmann Publishers, pp. 805-820.

[FORD 98] S.J. FORD, J.C. McGLONE, S.D. COCHRAN, J.A. SHUFELT, W.A. HARVEY,

D.M. McKEOWN Jr. (1998). Analysis of HYDICE Data for Information Fusion in Cartographic Feature Extraction. Proceedings of International Geoscience and Remote Sensing Symposium. Seattle, Washington, vol. 5, pp. 2702-2706.

[FÖRSTNER 96] W. FÖRSTNER (1996). 10 Pros and Cons Against Performance Characterization of

Vision Algorithms. In Workshop ‘Performance Characteristics of Vision Algorithms’, Cambrige Institut für Photogrammetrie, Universität Bonn.

[FÖRSTNER 97] W. FÖRSTNER, L. PLUEMER (Eds.) (1997). Semantic Modeling for the Acquisition

of Topographic Information from Images and Maps. Birkhaeuser Verlag. Basel.

Page 186: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 180

[FRASER 02] C.S. FRASER, E. BALTSAVIAS, A. GRUEN (2002). Processing of IKONOS imagery for submetre 3D positioning and building extraction. ISPRS Journal of Photogrammetry and Remote Sensing, 56 (3), pp. 177-194.

[FREEMAN 91] J.A. FREEMAN, D.M. SKAPURA (1991). Neural Networks, Algorithms, Applica-

tions and Programming Techniques. Addison – Wesley, Reading, MA. [FÜGER 94] H. FÜGER, G. STEIN, U. STILLA (1994). Multi population evolution strategies for

structural image analysis. Proc. First IEEE Conference Evolutionary Computation, vol. 1, pp. 229-234.

[FUKUNAGA 90] K. FUKUNAGA (1990). Statistical Pattern Recognition. Academic Press. Second

Edition. [GAGALOWICZ 87] A. GAGALOWICZ (1987). Texture modelling applications. The visual computer. Ed.

Springer-Verlag, Berlin. [GAMBA 00] P. GAMBA, B. HOUSHMAND (2000). Digital surface models and building

extraction: A comparison of IFSAR and LIDAR data. IEEE Transactions on Geoscience and Remote Sensing, 38 (4 Part 2), pp. 1959-1968.

[GEMAN 96] D. GEMAN, B. JEDYNAK (1996). An Active Testing Model for Tracking Roads in

Satellite Images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 18 (1).

[GERKE 01 (a)] M. GERKE, B.M. STRAUB, A. KOCH (2001). Automatic Detection of Buildings and

Trees from Aerial Imagery Using Different Levels of Abstraction. Publikationen der Deutschen Gesellschaft für Photogrammetrie und Fernerkundung, Band 10, Eckhardt Seyfert (Hrsg.), pp. 273-280.

[GERKE 01 (b)] M. GERKE, C. HEIPKE, B.M. STRAUB (2001). Building extraction From Aerial

Imagery Using a Generic Scene Model and Invariant Geometric Moments. Proceedings of the IEEE/ISPRS Joint Workshop on Remote Sensing and Data Fusion over Urban Areas, IEEE Piscataway, pp. 85-89.

[GERKE 02] M. GERKE (2002). Scene Analysis in Urban Areas Using a Knowledge Based

Interpretation System. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. B-63 ff.

[GIGER 01] CH. GIGER (2001). From Imagery to GIS Applications. In: Baltsavias, E.P., Gruen,

A., Van Gool, L., (Eds.), Automatic Extraction of Man-Made Objects from Aerial and Space Images (III). Zurich.

[GOLDBERG 89] D.E. GOLDBERG (1989). Genetic Algorithms in Search, Optimization and Machine

Learning. Addison – Wesley, Reading, MA. [GOLDSTEIN 80] H. GOLDSTEIN (1980). The Cayley – Klein Parameters and Related Quantities.

Classical Mechanics, Second Edition. Addison – Wesley, Reading, MA, pp. 148-158. [GOLUB 96] G.H. GOLUB, C.F. VAN LOAN, J. HOPKINS (1996). Matrix Computation. Uni-

versity Press, 3rd Edition. [GONZALEZ 92] R. GONZALEZ, E. WOODS (1992). Digital Image Processing. Addison – Wesley,

Reading, MA. [GONZALEZ 02] F.J. GONZALEZ-MATESANZ, A. DALDA (2002). Development of the ED50 –

ETRS89 transition. Euref Symposium. Ponta Delgada, Azores. [GRAFAREND 02] E.W. GRAFAREND (2002). Geodesy: The Challenge of the 3rd Millennium. Springer

Verlag. First Edition.

Page 187: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 181

[GROWE 98] S. GROWE, R. TÖNJES (1998). Use of Explicit Knowledge and GIS Data for 3D Evaluation of Remote Sensing Images. International Conference on Pattern Recog-nition, 17-20 August. Brisbane. Australia.

[GROWE 99] S. GROWE, C.E. LIEDTKE, K. PAKZAD (1999). A Knowledge Based Approach to

Sensor Fusion applied to Multisensory and Multitemporal Imagery. International Airborne Remote Sensing Conference and Exhibition, Ottawa, Ontario, Canada, 21-24 June 1999, Part II, pp. 589-596.

[GROWE 00] S. GROWE, T. SCHRÖDER, C.E. LIEDTKE (2000). Use of Bayesian Networks as

Judgement Calculus in a Knowledge based Image Interpretation System. 19th Con-gress of the International Society of Photogrammetry and Remote Sensing, 16-23, July. Amsterdam. The Netherlands.

[GRUEN 97] A. GRUEN, H. LI (1997). Semi-automatic linear feature extraction by dynamic pro-

gramming and LSB-Snakes. Photogrammetric Engineering and Remote Sensing, 63, pp. 985-995.

[GUÉRIN 94] P. GUÉRIN, S. AIRAULT, H. MAÎTRE, O. JAMET (1994). Recalage de données

vecteur sur une image aérienne en vue dúne extraction automatique du réseau routier. EGIS/MARI’94, Paris, France, vol. 2, pp. 1122-1130.

[GULCH 00] E. GULCH (2000). Virtual cities from digital imagery. Photogrammetric Record, 16

(96), pp. 893-903. [HAALA 92] N. HAALA, G. VOSSELMAN (1992). Recognition of Road and River Patterns by

Relational Matching. Proceedings of ISPRS, Commission III. Whasington, D.C. [HALL 92] DAVID L. HALL (1992). Mathematical Techniques in Multisensor Data Fusion.

Artech House, Norwood, MA. [HANSON 78] A.R. HANSON, E.M. RISEMAN (1978). Visions: A computer vision system for

interpreting scenes. In Hanson and Riseman (Eds.). Computer Vision System. Academic Press. New York.

[HARALICK 79] R.M. HARALICK (1979). Statistical and Structural Approaches to Texture.

Proceedings of the IEEE, vol. 67 (5), pp. 786-804. [HARVEY 99] W.A. HARVEY (1999). Performance Evaluation for Road Extraction. Bulletin de la

Société Française de Photogrammétrie et Télédétection. 153 (1999-1), pp. 79-87. [HEIJDEN 95] F. VAN DER HEIJDEN (1995). Image Based Measurement Systems. John Wiley &

Sons. New York. [HEIPKE 95] C. HEIPKE, C. STEGER, R. MULTHAMMER (1995). A Hierarchical Approach to

Automatic Road Extraction fron Aerial Imagery. Integrating Photogrammetric Techni-ques with Scene Analysis and machine Vision II, D.M. McKeown Jr. and Ian J. Dowman (Eds). Proc SPIE 2486, pp. 222-231.

[HEIPKE 98] C. HEIPKE, H. MAYER, C. WEIDEMANN (1998). External evaluation of automa-

tically extracted road axes. Photogrammetrie – Fernerkundung – Geoinformation (2/1998), 81-94.

[HEIPKE 99 (a)] C. HEIPKE, S. BEUTNER, B.M. STRAUB, H. WEGMANN, C. WIEDEMANN

(1999). Acquisition and Updating of ATKIS using Satellite Remote Sensing Imagery. Proceedings of the IEEE 1999 International Geoscience and Remote Sensing Symposium “Remote Sensing of the System Earth – A Challenge for the 21st Century”, 28 June – 2 July 1999. Hamburg.

Page 188: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 182

[HEIPKE 99 (b)] C. HEIPKE, B.M. STRAUB (1999). Relations Between Multi Scale Imagery and GIS Aggregation Levels for the Automatic Extraction of Vegetation Areas. Proccedings ISPRS Joint Workshop, “Sensors and Mapping from Space 1999”, Institute for Photogrammetry and Engineering Surveys, Hanover, Germany.

[HEIPKE 00] C. HEIPKE, K. PAKZAD, B.M. STRAUB (2000). Image Analysis for GIS Data

Acquisition. Photogrammetric Record, 16 (96), pp. 963-985. [HELLWICH 00] O. HELLWICH, C. WIEDEMANN (2000). Object Extraction from High Resolution

Multisensor Image Data. Chair for Photogrammetry and Remote Sensing, Technical University Munich. Arcisstr. 21, D-80290 Munich. Germany. Fusion of Earth Data, Sophia Antipolis, France, 26 – 28, January.

[HELLWICH 01] O. HELLWICH, C. HEIPKE, B. WESSEL (2001). Sensor and Data Fusion Contest:

Information for Mapping from Airborne SAR and Optical Imagery. Proceedings IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Sydney, CD ROM, 3 p.; auch in: OEEPE Newsletter (1), pp. 10-11.

[HELLWICH 02] O. HELLWICH, A. REIGBER, H. LEHMANN (2002). Sensor and Data Fusion

Contest: Test Imagery to Compare and Combine Airborne SAR and Optical Sensors for Mapping. ISPRS, Photogrammetric Computer Vision, 9-13 September 9-13, Graz, Austria, pp. B-75 ff.

[HENRY 92] PATRICK HENRY WINSTON (1992). Artificial Intelligence. Third Edition. Addison

Wesley, Reading, MA. [HERMES 02] L. HERMES, T. ZÖLLER, J.M. BUHMANN (2002). Parametric Distributional Clus-

tering for Image Segmentation. In Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2352, 577 p.

[HEUEL 01] S. HEUEL, W. FÖRSTNER (2001). Topological and geometrical models for building

extraction from multiple images. Proceedings of the Third International Workshop on Automatic Extraction of Man- Made Objects from Aerial and Space Images.

[HINZ 99] S. HINZ, A. BAUMGARTNER, C. STEGER, H. MAYER, W. ECKSTEIN, H.

EBNER, B. RADIG (1999). Road Extraction in Rural and Urban Areas. Semantic Modeling for the Acquisition of Topographic Information from Images and Maps. SMATI’ 99, München, pp. 7-27.

[HINZ 00] S. HINZ, C. WIEDEMANN, A. BAUMGARTNER (2000). A Scheme for Road

Extraction in Rural Areas and its Evaluation. In IEEE Workshop on the Application of Computer Vision (WACV2000), Palm Springs (CA).

[HINZ 01 (a)] S. HINZ, A. BAUMGARTNER, H. MAYER, C. WIEDEMANN, H. EBNER (2001).

Road Extraction Focussing on Urban Areas. In: : Baltsavias, E., Gruen, A., Van Gool, L. (Eds.), Automatic Extraction of Man-Made Objects from Aerial and Space Images (III). Balkema Publishers, Rotterdam, pp. 255-265.

[HINZ 01 (b)] S. HINZ, A. BAUMGARTNER, H. EBNER (2001). Modeling Contextual Knowledge

for Controlling Road Extraction in Urban Areas. In IEEE / ISPRS Joint Workshop on Remote Sensing and Data Fusion over Urban Areas. Rome.

[HINZ 02 (a)] S. HINZ, C. WIEDEMANN, H. EBNER (2002). Self-Diagnosis Within Automatic

Road Network Extraction. In Proceedings of the ISPRS-Commision II, Xian 2002; International Archives of Photogrammetry and Remote Sensing, vol. 34 (Part 2).

[HINZ 02 (b)] S. HINZ, A. BAUMGARTNER (2002). Urban Road Net Extraction Integrating

Internal Evaluation Models. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-163 ff.

Page 189: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 183

[HOFMANN 02] A.D. HOFMANN, H.G. MAAS, A. STREILEIN (2002). Knowledge Based Buildings Detection Based on Laser Scanner Data and Topographic Map Information. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-169 ff.

[HUGGINS 02] P.S. HUGGINS, S.W. ZUCKER (2002). Representing Edge Models via Local Prin-

cipal Component Analysis. In Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2350, 384 p.

[JEON 00] B.K. JEON, J. JANG, K. HONG (2000). Map based road detection in spaceborne

synthetic aperture radar images based on curvilinear structure extraction. Optical Engineering 39 (9), pp. 2413-2421.

[JEON 02] B.K. JEON, J.H. JANG, K.S. HONG (2002). Road detection in spaceborne SAR ima-

ges using a genetic algorithm. IEEE Transactions on Geoscience and Remote Sensing 40 (1).

[KANATANI 02] K. KANATANI (2002). Evaluation and Selection of Models for Motion Segmenta-

tion. In Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2352, 335 p. [KASS 87] M. KASS, A. WITKIN, D. TERZOPOULOS (1987). Snakes: Active contour models.

International J. of Computer Vision, pp. 321- 331. [KATARTZIS 01] A. KATARTZIS, H. SAHLI, V. PIZURICA, J. CORNELIS (2001). A model based

approach to the automatic extraction of linear features from airborne images. IEEE Transactions on Geoscience and Remote Sensing, 39 (9), pp. 2073-2079.

[KIEMA 02] J.B.K. KIEMA (2002). Texture analysis and data fusion in the extraction of

topographic objects from satellite imagery. International Journal of Remote Sensing, 23 (4), pp. 767-776.

[KIM 02] J. KIM, R. ZABIH (2002). Factorial Markov Random Fields. In Computer Vision

ECCV 2002, Copenhagen. LNCS vol. 2352, 321 p. [KIRBY 01] M. KIRBY (2001). Geometric Data Analysis. John Wiley & Sons, New York. [KIRKPATRICK 82] S.C. KIRKPATRICK, D. GELATT, M.P. VECCHI (1982). Optimization by Simula-

ted Annealing. IBM Research Report RC 9355. [KNUDSEN 02] T. KNUDSEN, H.H. MUHAMMED, B.P. OLSEN (2002). A Comparison of Neuro

Fuzzy and Traditional Image Segmentation Methods for Automated Detection of Buildings in Aerial Photos. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. B-116 ff.

[KOENDERINK 02] J.J. KOENDERINK, A.J. VAN DOORN (2002). Image Processing Done Right. In

Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2350, 158 p. [KOHLAS 95 (a)] J. KOHLAS (1995). Mathematical Foundations of Evidence Theory. In: Coletti, G.,

Dubois, D., Scozzafava, R., (Eds.), Mathematical Models for Handling Partial Knowledge in Artificial Intelligence. Plenum Press, New York, pp. 31-64.

[KOHLAS 95 (b)] J. KOHLAS, P. BESNARD (1995). An Algebraic Study of Argumentation Systems

and Evidence Theory. Institute of Informatics, University of Fribourg. Technical Report 95 (13).

[KOHLAS 95 (c)] J. KOHLAS, P. BESNARD (1995). Evidence Theory Based on General Consequence

Relations. Int. J. of Foundations of Computer Science, 6 (2), 119-135. [KOHLAS 97] J. KOHLAS (1997). Allocation of Arguments and Evidence Theory. Theoretical

Computer Science 171, pp. 221-246.

Page 190: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 184

[LAPTEV 00] I. LAPTEV, H. MAYER, T. LINDEBERG, W. ECKSTEIN, C. STEGER, A. BAUM-GARTNER (2000). Automatic extraction of roads from aerial images based on scale space and snakes. Machine Vision and applications. 12 (1), pp. 23-31.

[LAY 00] D.C. LAY (2000). Linear Algebra and its Applications. Second Edition. Addison

Wesley Longman Inc. [LEYMARIE 96] F. LEYMARIE, N. BOICHIS, S. AIRAULT, O. JAMET (1996). Toward the

automation of road networks extraction processes. In: Arroyyo Bishop, D., Carla, R., Lurie, J.B., Marino, C.M., Panuzi, A., Pearson, J.J., Zilioli, E., (Eds.), Proc. SPIE, vol. 2960, Remote Sensing for Geography, Geology, Land Planning and Cultural Heritage, pp. 84-95.

[LI 97] H. LI (1997). Semi-automatic road extraction from satellite and aerial images. PhD

thesis, Report n. 61, Institute of Geodesy and Photogrammetry, ETH - Zurich, Switzerland.

[MALPICA 94] J.A. MALPICA (1994). Estructuras de datos. Universidad de Alcalá de Henares. [MALPICA 02] J.A. MALPICA, J. MENA, J. PEDRAZA (2002). Fusión de Información con la teoría

de la evidencia para la extracción de objetos cartográficos de imágenes aéreas. Seminario Anual de Automática, Electrónica Industrial e Instrumentación, 2002. Departamento de Electrónica de la Universidad de Alcalá de Henares. Madrid.

[MARKOV 00] N.G. MARKOV, A.A. NAPRYUSHKIN (2000). Use of Remote Sensing Data at

Thematic Mapping in GIS. 3nd AGILE Conference on Geographic Information Science. Helsinki / Espoo, Finland.

[MARR 82] DAVID MARR (1982). Vision. A Computational Investigation into the Human Repre-

sentation and Processing of Visual Information. W.H. Freeman, New York. [MATHERON 75] G. MATHERON (1975). Random Sets and Integral Geometry. Wiley, New York. [MATHIASSEN 02] J.R. MATHIASSEN, A. SKAVHAUG, K. BO (2002). Texture Similarity Measure

Using Kullback-Leibler Divergence between Gamma Distributions. In Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2352, 133 p.

[MAYER 94] H. MAYER (1994). Automatic knowledge based extraction of objects of the real

world from scanned maps. International Archives of Photogrammetry and Remote Sensing (30) 3/2, 547-554.

[MAYER 97] H. MAYER, I. LAPTEV, A. BAUMGARTNER, C. STEGER (1997). Automatic road

extraction based on multi.scale modeling, context and snakes. International Archives of Photogrammetry and Remote Sensing, vol. 32, Part 3-2W3, pp. 106-113.

[MAYER 98 (a)] H. MAYER, I. LAPTEV, A. BAUMGARTNER (1998). Multi scale and snakes for

automatic road extraction. 5th European Conference on Computer Vision, vol. I, pp. 720-733.

[MAYER 98 (b)] H. MAYER, C. STEGER (1998). Scale – Space Events and Their Link to Abstraction

for Road Extraction. ISPRS Journal of Photogrammetry and Remote Sensing, 53 (2), pp. 62-75.

[MAYER 99 (a)] H. MAYER (1999). Automatic Object Extraction from Aerial Imagery - A Survey

Focusing on Buildings. Computer Vision and Image Understanding (74) 2, 138-149. [MAYER 99 (b)] H. MAYER (1999). Trends and Perspectives of Automated GIS Data Collection.

Photogrammetric Week’99, Wichmann Verlag, 281-288.

Page 191: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 185

[McGLONE 98] C. McGLONE (1998). Block Adjustement of Linear Pushbroom Imagery with Geometric Constraints. International Archives of Photogrammetry, 32 (2).

[McKEOWN 87] D.M. McKEOWN, W.A. HARVEY (1987). Automatic knowledge acquisition for

aerial image interpretation. Proc. SPIE, Image Understanding and the Man-Machine Interface, pp. 144-164.

[McKEOWN 88] D.M. McKEOWN, J.L. DENLINGER (1988). Cooperative methods for road tracking

in aerial imagery. Workshop of Computer Vision and Pattern Recognition, pp. 662-672.

[McKEOWN 96] D.M. McKEOWN, E. BULWINKLE, S.D. COCHRAN, W.A. HARVEY, C.

McGLONE, J. McMAHILL, M.F. POLIS, J.A. SHUFELT (1996). Research in Image Understanding and Automated Cartography. Technical Report CMU-CS-98-158. Computer Science Department, Carnegie Mellon University, Pittsburgh, Pennsylvania PA 15213. 30 p.

[McKEOWN 99 (a)] D.M. McKEOWN, S.D. COCHRAN, S.J. FORD, J.C. McGLONE, J.A. SHUFELT,

D.A. YOCUM. (1999). Fusion of HYDICE Hyperspectral Data with Panchromatic Imagery for Cartographic Feature Extraction. IEEE Transactions on Geoscience and Remote Sensing, 37 (3), pp. 1261-1277.

[McKEOWN 99 (b)] D.M. McKEOWN, J. McMAHILL, D. CADWELL (1999). The Use of Spatial

Context Awareness in Feature Simplification. In Geocomputation, CDROM, Green-wich, UK., pp. 25-28.

[MEES 95] W. MEES (1995). A general framework for automatic aerial images interpretation. In

proceedings of Euroconference GIS. Karlsruhe. Germany. [MENA 92] J.B. MENA (1992). Cartografía Digital. Desarrollo de software interno. Ed. RAMA. [MENA 94] J.B. MENA (1994). Proyecto para la mejora de precisión en la aplicación del GPS a

la actualización de cartografía UTM sobre ED-50. INTI – Microsoft y Servicio Geográfico del Ejército. Madrid.

[MENA 97 (a)] J.B. MENA (1997). Teoría del tratamiento matemático de las mediciones experimen-

tales. Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército. Madrid. [MENA 97 (b)] J.B. MENA (1997). Curso de Geodesia. Matemáticas Superiores I y II. Escuela de

Geodesia del Ejército. Servicio Geográfico del Ejército. Madrid. [MENA 00] J.B. MENA (2000). Geodesia Matemática. Escuela de Geodesia del Ejército. Servicio

Geográfico del Ejército. Madrid. [MENA 02 (a)] J.B. MENA (2002). Vectorización automática de una imagen binaria mediante K-

means y degeneración de la triangulación de Delaunay. Revista de la Asociación Española de Teledetección, nº 17, pp. 21-29.

[MENA 02 (b)] J.B. MENA (2002). Extracción automática de entidades cartográficas lineales en

zonas rurales o semiurbanas a partir de imágenes satélite en color de alta resolución. Boletín Extraordinario del Servicio Geográfico del Ejército. Madrid.

[MENA 03] J.B. MENA, J.A. MALPICA (2003). Color Image Segmentation Using the Dempster

– Shafer Theory of Evidence for the Fusion of Texture. PIA’ 03, Munich, 17-19 Sept. ISPRS Archives, vol. 34, Part 3/W8, pp. 139-144.

[MIKHAIL 01] E.M. MIKHAIL, J.S. BETHEL, J.C. McGLONE (2001). Introduction to Modern

Photogrammetry. Addison – Wesley. New York.

Page 192: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 186

[MIRAVET 98] C. MIRAVET, E. COIRAS, J. SANTAMARIA (1998). Vectorización semiautomática de redes lineales en mapas cartográficos en color. Revista de la Asociación Española de Teledetección. nº 10, pp 49-62.

[MIRMEHDI 97] M. MIRMEHDI, P.L. PALMER, J. KITTLER (1997). Robust Line Segment

Extraction using Genetic Algorithms. International Conference on Image Processing and its Applications. IEEE Publications, New York, pp. 141-145.

[MIRMEHDI 00] M. MIRMEHDI, M. PETROU (2000). Segmentation of Color Textures. IEEE Tran-

sactions on Pattern Analysis and Machine Intelligence, 22 (2). [MONADJEMI 02] A. MONADJEMI, B.T. THOMAS, M. MIRMEHDI (2002). Speed v. Accuracy for

High Resolution Colour Texture Classification. In: Rosin, P.L., Marshall, D., (Eds.), Proceedings of the 13th British Machine Vision Conference (BMVA), Bristol, pp 143-152.

[MORITZ 80] H. MORITZ (1980). Advanced Physical Geodesy. Herbert Wichmann Verlag Eds.

Karlsruhe. Germany. [MUKHERJEE 02] J. MUKHERJEE (2002). MRF clustering for segmentation of color images. Pattern

Recognition Letters. [NAGAO 80] M. NAGAO, T. MATSUYAMA (1980). A Structural Analysis of Complex Aerial

Photographs. Plenum, New York. [NEVATIA 80] R. NEVATIA, K.R. BABU (1980). Linear feature extraction and description. Com-

puter Graphics and Image Processing 13, pp. 257-269. [NICOLIN 87] B. NICOLIN, R. GABLER (1987). A knowledge based system for the analysis of

aerial images. IEEE Transactions Geoscience and Remote Sensing, GE-25 (3), pp. 317-329.

[NIEDERÖST 00] M. NIEDERÖST (2000). Reliable Reconstruction of Buildings for Digital Map

Revision. IAPRS, vol. 33, Amsterdam. [OGAWA 00] Y. OGAWA, K. IWAMURA, S. KAKUMOTO (2000). Extracting object information

from aerial images: A map based approach. IEICE Transactions on Information and Systems, E83D (7), pp. 1450-1457.

[OHLHOF 00] T. OHLHOF, T. EMGE, W. REINHARDT, K. LEUKERT, C. HEIPKE, K. PAKZAD

(2000). Generation and Update of VMAP Data using Satellite and Airborne Imagery. IntArchPhRS (33) B4/2, pp. 762-768.

[OLIVEIRA 00] H. OLIVEIRA, J.J. CAEIRO (2000). Procura automática de estradas para

Cartografía Digital. Actas da II Conferencia Nacional de Cartografia e Geodesia. Lisboa. Portugal.

[PAKZAD 02] K. PAKZAD (2002). Knowledge Based Multitemporal Interpretation. ISPRS, Photo-

grammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-234 ff. [PEDDLE 02] D.R. PEDDLE, D.T. FERGUSON (2002). Optimisation of multisource data analysis:

an example using evidential reasoning for GIS data classification. Computers and Geosciencies, 28. pp. 45-52.

[PEDERSEN 02] K.S. PEDERSEN, A.B. LEE (2002). Toward a Full probability Model of Edges in na-

tural Images. In Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2350, 328 p. [PEÑA 93] D. PEÑA 1993. Estadística: modelos y métodos. Alianza Universidad Textos.

Page 193: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 187

[PETERSEN 02] M.E. PETERSEN, D. DE RIDDER, H. HANDELS (2002). Image processing with neural networks – a review. Pattern Recognition, 35, pp. 2279-2301.

[PRESS 97] W.H. PRESS, S.A. TEUKOLSKY, W.T. VETTERLING, B.P. FLANNERY (1997).

Numerical Recipes in C. Cambridge, University Press. [PUTERMAN 94] MARTIN L. PUTERMAN (1994). Markov Decision Processes: Discrete Stochastic

Dynamic Programming. Wiley and Sons Incorporated Publishers. New York. [QUAM 78] L.H. QUAM (1978) Road tracking and anomaly detection in aerial imagery. Image

Understanding Workshop, pp. 51-55. [REITER 89] R. REITER, A.K. MACKWORTH (1989). A logical framework for depiction and

image interpretation. Artificial Intelligence 41 (2), pp. 125-155. [RELLIER 02] G. RELLIER, X. DESCOMBES, J. ZERUBIA (2002). Local Registration and Defor-

mation of a Road Cartographic Database on a SPOT Satellite Image. Pattern Recog-nition 35, 2213-2221.

[RICHARDS 99] J.A. RICHARDS, XIUPING JIA. (1999). Remote Sensing Digital Image Analysis.

Third Edition. Springer, Berlin. [RIPLEY 96] B.D. RIPLEY (1996). Pattern Recognition and Neural Networks. Cambridge Univer-

sity Press. [RITTER 99] G.X. RITTER (1999). Image Algebra. Center for Computer Vision and Visualization.

Department of Computer and Information Science and Engineering. University of Florida. Gainesville FL 32611.

[ROGGERO 02] M. ROGGERO (2002). Object segmentation with region growing and principal

component analysis. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-289 ff.

[ROMAN 97] R. ROMAN, P.L. LUQUE, J. MARTINEZ, J.F. GOMEZ, V. BARRANCO, C.

ATAE-ALLAH (1997). Detección entrópica de bordes y segmentación de imágenes texturadas y/o ruidosas. Universidad de Córdoba. España.

[ROSENFELD 00] A. ROSENFELD (2000). Image Analysis and Computer Vision. Computer Vision and

Image Understanding, 78, pp. 222-302. [ROTTENSTEINER 02] F. ROTTENSTEINER, CH. BRIESE (2002). A New Method for Building Extraction

in Urban Areas from High Resolution LIDAR Data. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-295 ff.

[RUSKONÉ 94] R. RUSKONÉ, S. AIRAULT, O. JAMET (1994). A road extraction system using the

connectivity properties of the network. Zeitschrift für Photogrammetrie und Ferner-kundung 5, pp. 174-180.

[RUSKONÉ 95] R. RUSKONÉ, S. AIRAULT, O. JAMET (1995). Road network extraction by local

context interpretation. Image and Signal Processing for Remote Sensing, Satellite Remote Sensing II, SPIE, vol. 2579, pp. 126-136.

[RUSKONÉ 96] R. RUSKONÉ (Octobre, 1996). Extraction automatique du réseau routier par

interprétation locale du contexte: application à la production de données cartogra-phiques. Thèse de doctorat de lÚniversité de Marne-la-Vallée, laboratoire MATIS. Directeur: Sylvain Airault.

[RUSKONÉ 97] R. RUSKONÉ, S. AIRAULT (1997). Toward an automatic extraction of the road

network by local interpretation of the scene. 46th Photogrammetric Week, Stuttgart.

Page 194: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 188

[RUTHER 02] H. RUTHER, H.M. MARTINE, E.G. MTALO (2002). Application of snakes and dynamic programming optimisation technique in modeling of buildings in informal settlement areas. ISPRS Journal of Photogrammetry and R. S., 56 (4), pp. 269-282.

[SAALFELD 85] A. SAALFELD (1985). A fast Rubber-Sheeting transformation using simplicial coor-

dinates. The American Cartographer, vol. 12, pp. 169-173. [SAKODA 93] W. SAKODA, J. HU, T. PAVLIDIS (1993). Computer Assisted Tracing of Faint

Roads in Satellite Imagery. ACSM/ASPRS, New Orleans. [SANNITI 94] G. SANNITI DI BAJA (1994). Well-Shaped, stable and reversible skeletons from the

(3,4)-distance transform.. Journal of visual communication and image representation, 5 (1), pp 107-115.

[SCHENK 02 (a)] T. SCHENK, B. CSATHÓ (2002). Fusion of Lidar data and aerial imagery for a

more complete surface description. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-310 ff.

[SCHENK 02 (b)] T. SCHENK (2002). Digital Photogrammetry, volume I. The Ohio State University.

Terra Science Ed. [SERRA 82] J. SERRA (1982). Image Analysis and Mathematical Morphology (Vol 1). Theoretical

Advances (Vol 2). Academic Press, London. [SHANAHAN 00] J. SHANAHAN, B. THOMAS, M. MIRMEHDI, T. MARTIN, N. CAMPBELL, J.

BALDWIN (2000). A Soft Computing Approach to Road Classification. Journal of Intelligent and Robotic Systems, 29 (4), pp. 349-387.

[SHUFELT 99 (a)] J.A. SHUFELT (1999). Performance Evaluation and Analysis of Monocular Building

Extraction From Aerial Imagery. IEEE Transactions on Pattern Analysis and Machine Intelligence, 21 (4).

[SHUFELT 99 (b)] J.A. SHUFELT (1999). Geometric Constraints for Object Detection and Delineation.

Kluwer International Series in Engineering and Computer Science, SECS 530, Kluwer Academic publishers. Boston, pp. 280.

[SINGH 02] M. SINGH, S. SINGH (2002). Spatial Texture Analysis: A Comparative Study. In

proceedings of 15th International Conference on Pattern Recognition. ICPR’02. Quebec.

[SOHN 01] G. SOHN, I.J. DOWMAN (2001). Extraction of Buildings from High Resolution

Satellite Data. In: Baltsavias, E.P., Gruen, A., Van Gool, L. (Eds.), Automatic Extraction of Man-Made Objects from Aerial and Space Images (III). Zurich.

[SOUNDARARAJAN 02] E. SOUNDARARAJAN, J.A. CROSS (2002). Fractal based Texture Analysis. ACM

Special Interest Group on Computer Science Education (SIGCSE) 2002. Faculty Pos-ters n. 48.

[SOWMYA 00] A. SOWMYA, J. TRINDER (2000). Modelling and representation issues in automa-

ted feature extraction from aerial and satellite images. Journal of Photogrammetry and Remote Sensing, 55, pp. 34 – 47.

[STEGER 97] C. STEGER, H. MAYER, B. RADIG (1997). The Role of Grouping for Road Extrac-

tion. In: Baltsavias, E.P., Gruen, A., Henriccson, O., (Eds.), Automatic Extraction of Man-Made Objects from Aerial and Space Images (II). Birkhäuser Verlag, Basel, pp. 245-256.

[STOICA 00] R. STOICA, X. DESCOMBES, J. ZERUBIA (2000). Extraction des routes dans les

images aeriennes et satellitalles utilisant un processus ponctuel de Markov. Project ARIANA, Rapport de recherche de l’INRIA – 3923.

Page 195: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 189

[STRAT 91] T.M. STRAT, M.A. FISCHLER (1991). Context based vision : Recognising objects using information from both 2D and 3D imagery. IEEE Transactions on Pattern Analysis and Machine Intelligence, 13 (10), pp. 1050-1065.

[STRAUB 00 (a)] B.M. STRAUB, C. WEIDEMANN (2000). Towards the update of geodata by auto-

matic object extraction. In Serpico S.B. (Ed.), SPIE Vol. 4170, Image and Signal Processing for Remote Sensing VI, pp. 304-315.

[STRAUB 00 (b)] B.M. STRAUB, C. WEIDEMANN, C. HEIPKE (2000). Towards the automatic inter-

pretation of images for GIS update. IntArchPhRS B2 (33), pp. 521-532. [STRAUB 00 (c)] B.M. STRAUB, M. GERKE, C. WIEDEMANN (2000). Updating Geodata by

Automatic Object Extraction - Modelling Uncertainties. In 20 DGPF-Jahrestagung, Ed. J. Albertz, Berlin, pp. 195-202.

[STRAUB 02] B.M. STRAUB (2002). Investigation of the MPEG-7 Homogeneus Texture Descriptor

for the Automatic Extraction of Trees. Proceedings of Photogrammetric Computer Vision’ 02 – ISPRS Commission III Symposium (Graz), vol. A. 6 p.

[TAKAHASHI 00] K. TAKAHASHI, M. MATSUURA, T. SUGIYAMA, K. ABE (2000). Comparison of

Color Space Models Based on Human Color Classification and Image Segmentation. Proceedings of 2000 IAPR Workshop on Machine Vision Applications, pp. 39-43.

[TAM 02] R. TAM, W. HEIDRICH (2002). Feature-Preserving Medial Axis Noise Removal.

Computer Vision ECCV 2002, Copenhagen. LNCS vol. 2351, pp. 672 ff. [TANAKA 93] N. TANAKA, T. KAMIMURA (1993). Vectorization method based on energy

minimization principle. In Vision Geometry, Proc. SPIE, vol. 1832, pp. 184-193. [TANG 02] C. TANG, J. TONG, H.Q. LI, S. WANG (2002). Vectorization system for interactive

photoelastic image. In: Third International Conference on Experimental Mechanics. Proc. SPIE, vol. 4537, pp. 354-357.

[TESSER 00] H. TESSER, T. PAVLIDIS (2000). RoadFinder Front End : An Automated Road

Extraction System. IEEE Transactions on Geoscience and Remote Sensing 1, pp 338-341.

[TÖNJES 98] R. TÖNJES, S. GROWE (1998). Knowledge based road extraction from multi-sensor

imagery. ISPRS Symposium "Object Recognition and Scene Classification from Multispectral and Multisensor Pixels". 6-10 July 1998, Columbus, Ohio, USA.

[TÖNJES 99] R. TÖNJES, S. GROWE, J. BÜCKNER, C.E. LIEDTKE (1999). Knowledge based

Interpretation of Remote Sensing Images Using Semantic Nets. Photogrammetric Engineering and Remote Sensing, 65 (7), pp. 811-821.

[TOTH 02] C.K. TOTH, D.A. GREJNER – BRZEZINSKA (2002). Near Real Time Road Center-

line Extraction. ISPRS, Photogrammetric Computer Vision, 9-13 September 9-13, Graz, Austria, pp. A-362 ff.

[TRINDER 99] J. TRINDER, A. NACHIMUTHU, Y. WANG, A. SOWMYA, S. SINGH (1999).

Artificial Intelligence Techniques for Road Extraction from Aerial Images. In Proceedings of the Conference “ Automatic Extraction of GIS Objects from Digital Imagery”. Munich, 8-10 September, IAPRS, vol. 32. Part 3-2W5.

[VOSSELMAN 95] G. VOSSELMAN, J. DE KNECHT (1995). Road tracking by profile matching and

Kalman filtering. In Gruen, Kuebler, Agouris (Eds.), Workshop on Automatic Extraction of Man-Made Objects from Aerial and Space Images. Birkäuser, Basel – Boston – Berlín, pp. 265-274.

Page 196: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 190

[VOSSELMAN 97] G. VOSSELMAN, M. DE GUNST (1997). Updating Road Maps by Contextual Reasoning. Workshop on Automatic Extraction of Man Made Objects from Aerial and Space Images. Ascona, May 5-9.

[WALLACE 01] S.J. WALLACE, M.J. HATCHER, G. PRIESTNALL, R.D. MORTON (2001).

Research into a Framework for Automatic Linear Feature Identification and Extrac-tion. In: Baltsavias, E.P., Gruen, A., Van Gool, L., (Eds.), Automatic Extraction of Man-Made Objects from Aerial and Space Images (III). Zurich.

[WANG 00] Y. WANG, J. TRINDER (2000). Road network extraction by hierarchical grouping.

International Archives of Photogrammetry and Remote Sensing, 33 (Part B3/2), pp. 943-949.

[WHITE 85] M.S. WHITE, P. GRIFFIN (1985). Piecewise Linear Rubber-Sheet Map Transforma-

tion. The American Cartographer, 12, pp. 123-131. [WIEDEMMAN 98] C. WIEDEMMAN, C. HEIPKE, H. MAYER, O. JAMET (1998). Empirical evalua-

tion of automatically extracted road axes. In: Bowyer, K.J., Jonathon Phillips, P. (Eds.), Empirical Evaluation Methods in Computer Vision, IEEE Computer Society Press (1998) pp. 172-187. Also in: 9th Australasian Remote Sensing and Photogram-metry Conference, The University of New South Wales, Sydney, Paper n. 239 (CD).

[WIEDEMANN 00] C. WIEDEMANN, H. EBNER (2000). Automatic Completion and Evaluation of Road

Networks. Accepted for presentation at the XIX. ISPRS Congress, Amsterdam, The Netherlands, 16-23 July, 2000.

[WIEDEMANN 02] C. WIEDEMANN (2002). Improvement of Road Crossing Extraction and External

Evaluation of the Extraction Results. In Proceedings of the ISPRS-Commision III Symposium "Photogrammetric Computer Vision" (PCV'02), Graz 2002, International Archives of Photogrammetry and Remote Sensing, 34 (Part 3-B), pp. 297-300.

[WILLRICH 02] F. WILLRICH (2002). Quality Control and Updating of Road Data by GIS driven

Road Extraction from Imagery. Proceedings of the International Symposium on Geospatial Theory, Processing and Applications, and ISPRS IV symposium, Ottawa, Canada. 7 p.

[WINSTON 92] P.H. WINSTON (1992). Artificial Intelligence. 3rd Ed. Addison Wesley. New York. [WOLF 97] P.R. WOLF, C.H. GHILANI (1997). Adjustment Computations, Statistics and Least

Squares in Surveying and GIS. Wiley. [WUFENG 98] C. WUFENG, Q. QIMING (April, 1998). A Knowledge based Research for Road

Extraction from Digital Satellite Images. Acta Scientiarum Naturalium Universitatis Pekinensis. R.D.1997-12-08 P.D.1998-04-20, vol.34 (2-3), pp.254-263.

[YANG 02] JAR FERR YANG, SHU SHENG HAO, PAU CHOO CHUNG (2002). Color image

segmentation using fuzzy C-means and eigenspace projections. Signal processing, 82, pp. 461-472.

[YIN 01] P.Y. YIN, Y.B. HUANG (2001). Automating data extraction and identification on

Chinese road maps. In: O’Shea, D.C. (Eds.), Optical Engineering 40 (05), pp. 663-673.

[YOON 02] T. YOON, W. PARK, T. KIM (2002). Semiautomatic road extraction from IKONOS

satellite image. In: Manfred Ehlers (Ed.), Remote Sensing for Environmental Monitoring, GIS Applications, and Geology. Proc. SPIE, vol. 4545, pp. 320-328.

[YU 02] Z. YU, C. BAJAJ (2002). Normalized Gradient Vector Diffusion and Image Segmen-

tation. In Computer Vision ECCV 2002, Copenhagen. LNCS 2352, pp. 517 ff.

Page 197: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 191

[ZAFIROPOULOS 98] P. ZAFIROPOULOS, T.F. SCHENK (1998). Extraction of road structures with color energy models. In: Sabry, F., El-Hakim, Gruen, A. (Eds.), Proc. SPIE, Videometrics, vol. 3641, pp. 276-290.

[ZADEH 65] L.A. ZADEH (1965). Fuzzy sets. Information and control 8, pp. 338 - 353. [ZHANG 99] C. ZHANG, S. MURAI, E. BALTSAVIAS (1999). Road Network Detection by

Mathematical Morphology. Proc. ISPRS Workshop on 3D Geospatial Data Production: Meeting Application Requirements, París, pp. 185-200.

[ZHANG 01 (a)] C. ZHANG (2001). Updating of Cartographic Road Databases by Image Analysis. In:

Baltsavias, E.P., Gruen, A., Van Gool, L. (Eds.), Automatic Extraction of Man-Made Objects from Aerial and Space Images (III). Zurich.

[ZHANG 01 (b)] C. ZHANG (2001). Detection of urban housing development by fusing multisensor

satellite data and performing spatial feature post classification. International Journal of Remote Sensing, 22 (17), pp. 3339-3355.

[ZHANG 02 (a)] C. ZHANG, E. BALTSAVIAS (2002). Edge matching and 3D road reconstruction

using knowledge based methods.. Institute of Geodesy and Photogrammetry. ETH Hönggerberg, CH-8093 Zurich. Switzerland.

[ZHANG 02 (b)] C. ZHANG, E. BALTSAVIAS (2002). Improving cartographic road databases by

image analysis. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-400 ff.

[ZHAO 02] H. ZHAO, J. KUMAGAI, M. NAKAGAWA, R. SHIBASAKI (2002). Semi automatic

road extraction from high resolution satellite image. ISPRS, Photogrammetric Computer Vision, 9-13 September, Graz, Austria, pp. A-406 ff.

[ZHU 95] J. ZHU, X. YAO, Y. CHEN, J. ZHOU (1995). Vectorization of line drawings via

contour matching. In; Shuzi Yang, Ji Zhou, Cheng Gang Li, (Eds.), International Conference on Intelligent Manufacturing. Proc. SPIE, vol. 2620, pp. 722-727.

[ZHU 96] S. CH. ZHU, A. YUILLE (1996). Region Competition: Unifying Snakes, Region

Growing, and Bayes/MDL for Multiband Image Segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 18 (9).

[ZIMMERMANN 00] P. ZIMMERMANN (2000). A new Framework for Automatic Building Detection

Analysing Multiple Cue Data. IAPRS, Amsterdam, 2000, vol. 33. [ZLOTNICK 93] A. ZLOTNICK, P.D. CARNINE (1993). Finding roads seeds in aerial images.

CVGIP, Image Understanding, 57 (2), pp. 243-260.

__________________________________________

Page 198: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 192

Anexo II. Cálculo de la SVD en una matriz numérica sencilla. * Enunciado. Obtención de la descomposición SVD de la matriz:

=

110021

A

* Solución: - Sistema propio de la matriz simétrica AAt:

[ ]

−===

=

52

51

51

52

;1,6;2225

21 UAAt λλ

- Sistema propio de la matriz simétrica AtA:

[ ]

−====

=

61

52

301

610

305

62

51

302

;0,1,6;110152021

321 VAAt λλλ

- Descomposición SVD según expresión (4.41):

−=Σ=

61

61

62

520

51

301

305

302

010006

52

51

51

52

tVUA

- Descomposición SVD en sumas parciales según expresión (4.49):

=

−+

=

=

−+

=+=

110021

5405

25

2051

5115

25

2254

520

51

525

1

1301

305

302

515

2

621 AAA

__________________________________________

Page 199: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 193

Anexo III. Estructura linestring-3D en formato DGN. Dirección compuesta por 16 bits

1 U TIPO C R NIVEL 2 Nº DE DIRECCIONES QUE SIGUEN 3 4

X MÍNIMA

5 6

Y MÍNIMA

7 8

Z MÍNIMA

9 10

X MÁXIMA

11 12

Y MÁXIMA

13 14

Z MÁXIMA

15 NÚMERO DE GRUPO GRÁFICO 16 ÍNDICE ENLACE CON ATRIBUTOS 17 INDICADOR DE PROPIEDADES 18 SIMBOLOGÍA GRÁFICA 19 NÚMERO DE VÉRTICES

ÁREA DE CABECERA

20 21

X 1

22 23

Y1

24 25

Z 1

26 27

X 2

28 29

Y 2

30 31

Z 2

. . . . . .

20+6(n-1) 21+6(n-1)

X n

22+6(n-1) 23+6(n-1)

Y n

24+6(n-1) 25+6(n-1)

Z n

ÁREA DE GEOMETRÍA

ENLACE CON LOS ATRIBUTOS

ÁREA DE ATRIBUTOS

__________________________________________

Page 200: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 194

Anexo IV. Lista de publicaciones y estudios. 1. J.B. MENA (1983). Reconocimiento Geográfico, Económico y Militar en la Zona 5 de Sierra

Morena (Córdoba). Informe interno del Regimiento Mixto de Artillería nº 30 (Ceuta). 2. J.B. MENA (1984). Actualización Operativa, Geográfica, y de Balística y Tiro, de la Carpeta

Técnica de la Batería K-3. Informe interno del Grupo de Artillería de Costa del Regimiento Mixto de Artillería nº 30 (Ceuta).

3. J.B. MENA (1987). Diseño, desarrollo, funcionamiento y posibilidades de la aplicación con-

table HAB1. Informe interno del Parque Central de Armamento y Material de Artillería (Gua-dalajara).

4. J.B. MENA (1990). Resolución de los problemas topográficos en base a la Teoría de Errores

de observación. Aplicación informática. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

5. J. GARCIA, J.B. MENA (1990). Estudio, triangulación y apoyo topográfico y fotogramétrico

de la hoja 20-10 (Belorado) del Mapa Militar de España serie L. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

6. J.B. MENA (1991). Intercambio de formato de los elementos gráficos residentes en la base de

datos cartográfica considerando sus atributos alfanuméricos. Aplicación informática solicitada a la Escuela por el Departamento de Cartografía Digital del Servicio Geográfico del Ejército.

7. J.B. MENA (1992). Sistema de Proyección U.T.M. Programa para el Cálculo Automático de

Transformaciones. Revista Mapping, nº 5, Mayo de 1992, pp.28-46. 8. J.B. MENA (1992). Cartografía Digital. Desarrollo de software interno. Ed. RAMA. 9. XXII CURSO GM, J.B. MENA (Director) (1994). Estudio y levantamiento astrogeodésico del

vértice Cerro Gordo (Viator, Almería). Archivo de la Escuela de Geodesia del Ejército. Servi-cio Geográfico del Ejército.

10. C. ESPEJO, J.B. MENA (Director) (1994). Estudio de la ecuación vectorial de la línea geodé-

sica sobre el elipsoide de revolución y su resolución numérica. Archivo de la Escuela de Geo-desia del Ejército. Servicio Geográfico del Ejército.

11. J.B. MENA (1994). Proyecto para la mejora de precisión en la aplicación del GPS a la ac-

tualización de cartografía UTM sobre ED-50. Disponible en el Instituto INTI de Microsoft y el Servicio Geográfico del Ejército.

12. J.B. MENA (1994). Automatización completa del proceso de cálculo de la totalidad de

parámetros que intervienen en el levantamiento astrogeodésico de alta precisión. Aplicación informática. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

13. J.B. MENA (1994). Integración de los equipos pesado y portátil de Astronomía Geodésica

con la marca de tiempo UTC del GPS. (Desarrollo realizado en íntima colaboración con la Sección de Hora del Real Observatorio de la Armada). En Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

14. J.B. MENA (1995). Observación Astrogeodésica en la Antártida. Resultado y conclusiones de

la Observación. Informe interno del Servicio Geográfico del Ejército. 15. J.B. MENA (1995). Medida actual del tiempo. Aplicación informática orientada a la enseñan-

za. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

Page 201: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 195

16. J.B. MENA (1996). Apuntes de Astronomía Geodésica. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

17. XXIII CURSO GM, J.B. MENA (Director) (1997). Análisis de los métodos clásicos de

resolución de los problemas geodésicos principales a medias y grandes distancias. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

18. XXIII CURSO GM, J.B. MENA (Director) (1997). Estudio y levantamiento astrogeodésico

del vértice Lobón (Lobón, Badajoz). Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

19. J.B. MENA (1997). Teoría del tratamiento matemático de las mediciones experimentales. Es-

cuela de Geodesia del Ejército. Ed. Servicio Geográfico del Ejército. 20. J.B. MENA (1997). Curso de Geodesia. Matemáticas Superiores, Volumen I (Geometría Al-

gebraica, Cálculo Diferencial e Integral en Funciones de Variable Vectorial). Escuela de Geodesia del Ejército. Ed. Servicio Geográfico del Ejército.

21. J.B. MENA (1998). Curso de Geodesia. Matemáticas Superiores, Volumen II (Ecuaciones

Diferenciales Ordinarias, Ecuaciones Diferenciales en Derivadas Parciales, Teoría de Varia-ble Compleja). Escuela de Geodesia del Ejército. Ed. Servicio Geográfico del Ejército.

22. J.B. MENA (2000). Geodesia Matemática. Geometría del Elipsoide de Revolución. Escuela de

Geodesia del Ejército. Ed. Servicio Geográfico del Ejército. 23. XXIV CURSO GM, J.B. MENA (Director) (2000). Estudio y levantamiento astrogeodésico

del vértice Torregorda (S. Fernando, Cádiz). Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

24. W. LORENZO, J.B. MENA (Director) (2000). Desarrollo, análisis y discusión de las

fórmulas de Coticchia Surace para la resolución de los problemas geodésicos principales a cortas distancias. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

25. J.B. MENA (2000). El año 2000. Un final de milenio con 366 días. Revista Ejército, Enero-

Febrero de 2000, número 708, pp. 84-91.

26. J.A. MALPICA, J.B. MENA, J. PEDRAZA (2002). Fusión de Información con la teoría de la evidencia para la extracción de objetos cartográficos de imágenes aéreas. Seminario Anual de Automática, Electrónica Industrial e Instrumentación, 2002. Departamento de Electrónica de la Universidad de Alcalá de Henares. Madrid.

27. J.B. MENA (2002). Actualización y mejora de la aplicación gravimétrica original del

Profesor D. Miguel Sevilla (U. Complutense). Aplicación informática. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

28. XXV CURSO GM, J.B. MENA (Director) (2002). Aplicaciones fotogramétricas de la

transformación de Fourier. Aplicaciones geodésicas de las ecuaciones diferenciales de tipo hiperbólico y parabólico. Aplicaciones matemáticas de la transformación de Laplace. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

29. XXV CURSO GM, J.B. MENA (Director) (2002). Estudio y levantamiento astrogeodésico del

vértice Punta Acebuche (Algeciras, Cádiz). Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

30. G. COLL, J.B. MENA (Director) (2002). Los algoritmos matemáticos PCA y SVD y sus apli-

caciones al tratamiento de grandes volúmenes de datos. Archivo de la Escuela de Geodesia del Ejército. Servicio Geográfico del Ejército.

Page 202: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 196

31. J.B. MENA (2002). Vectorización automática de una imagen binaria mediante K-means y de-generación de la triangulación de Delaunay. Revista de la Asociación Española de Teledetec-ción. Nº 17, pp. 21-29.

32. J.B. MENA (2002). Extracción automática de entidades cartográficas lineales en zonas rura-les o semiurbanas a partir de imágenes satélite en color de alta resolución. Boletín Monográ-fico Extraordinario del Servicio Geográfico del Ejército.

33. J.B. MENA (2003). Reviewer Invitation for Remote Sensing and Environments (Journal). Paper Ecological multicriteria evaluation as fuzzy prior probability supporting forest type mapping on a regional scale.

34. J.B. MENA (2003). Actualización automática de la capa vectorial de carreteras a partir de imágenes aéreas y de satélite. V Jornadas sobre SIG en las titulaciones ITT e IGC, celebradas los días 15 y 16 de mayo de 2003 en la Escuela Politécnica de la Universidad de Alcalá.

35. J.B. MENA, J.A. MALPICA (2003). Color Image Segmentation Using the Dempster – Shafer Theory of Evidence for the Fusion of Texture. ISPRS Archives, Vol. XXXIV, Part 3/W8, pp. 139-144, Munich, 17-19, Sept. 2003.

36. J.A. MALPICA, J.B. MENA (2003). Automated Extraction, Refinement and Update of Road Databases from Imagery and Other Data. Participación en el Working Group of EuroSDR Commission II, “Image analysis and information extraction” por iniciativa del Dr. H. Mayer (Chair for Photogrammetry and Remote Sensing, Technische Universität München).

37. J.B. MENA (2003). State of the art on automatic road extraction for GIS update: a novel classification. Pattern Recognition Letters. Vol. 24, pp. 3037 – 3058.

38. J.B. MENA, J.A. MALPICA (2003). Image segmentation based on three levels of texture statistical evaluation. Applied Mathematics and Computation. Accepted November, 25, 2003.

39. J.B. MENA (2003). Reviewer Invitation for Remote Sensing and Environments (Journal). Paper Data fusion and Classification based on the SFIM algorithm.

PENDIENTES DE RESPUESTA: 40. J.B. MENA (2003). Automatic road extraction based on segmentation and vectorization of

aerial and satellite imagery. Image and vision computing.

41. J.B. MENA (2004). Automatic vectorization of segmented road networks by geometrical and topological analysis of high resolution binary images. ISPRS XXth Congress. Istanbul, 12-23 July 2004.

__________________________________________

Nota: Los puntos resaltados mediante recuadros corresponden con aquellos trabajos íntimamente rela-cionados con el tema motivo de esta memoria.

Page 203: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 197

Anexo V. Relación de cuadros, tablas y figuras. V.I. Lista de cuadros. Cuadro 1.1. Entorno general del proceso de extracción automática 5 Cuadro 1.2. Flujo del proceso teórico de extracción automática 7 Cuadro 1.3. Flujo del proceso específico de extracción automática 8 Cuadro 2.1. Proceso de actualización de la información cartográfica en formato vectorial 12 Cuadro 2.2. Estructura de clasificación para los estudios en extracción de carreteras 17 Cuadro 4.1. Conversión entre los sistemas RGB y HSV 51 Cuadro 4.2. Análisis comparativo en porcentajes del método de segmentación 63 Cuadro 5.1. Relación numérica de objetos 112 Cuadro 5.2. Relación numérica de elementos gráficos 123 Cuadro 6.1. Algoritmo propuesto para evaluación de los métodos de extracción automática 138 Cuadro 6.2. Resultados de la evaluación (Método propuesto) 146 Cuadro 6.3. Variables para la evaluación del sistema de extracción 147 Cuadro 6.4. Valores óptimos de las variables de evaluación 148 Cuadro 6.5. Resultado de la evaluación (Método de C. Wiedemann) 155 Cuadro 7.1. Referencias básicas en el diseño y perspectiva del sistema de extracción 167 V.II. Lista de tablas. Tabla I. Nodos 95 Tabla II. Bolsas 95 Tabla III. Topología de nodos y bolsas 96 Tabla IV. Bolsas y objetos 107 Tabla IV reordenada. Objetos y tramos 110 Tabla V. Topología de objetos y nodos 110 Tabla 6.8. Evaluación numérica 1ª prueba 148 Tabla 6.9. Evaluación numérica 2ª prueba 149 Tabla 6.10. Evaluación numérica 3ª prueba 150 Tabla 6.11. Evaluación numérica 4ª prueba 151 Tabla 6.12. Evaluación numérica 5ª prueba 152 Tabla 6.13. Evaluación numérica 6ª prueba 153 Tabla 6.14. Evaluación numérica 7ª prueba 154 V.III. Lista de figuras. Figura 4.1. Imagen IKONOS georreferenciada y entidades cartográficas de referencia 51 Figura 4.2. Masas de evidencia tras la primera segmentación 53 Figura 4.3. Masas de evidencia tras la segunda segmentación 54 Figura 4.4. Cubo de textura. Secciones a estudiar por cada pixel 55 Figura 4.5. Masas de evidencia tras la tercera segmentación 58 Figura 4.6. Producto ortogonal de masas de evidencia 59 Figura 4.7. Imagen binaria resultante del proceso de segmentación 59 Figura 4.8. Ejemplo de aplicación del método de segmentación 60 Figura 4.9. Ejemplo de aplicación del método de segmentación 60 Figura 4.10. Ejemplo de aplicación del método de segmentación 61 Figura 4.11. Ejemplo de aplicación del método de segmentación 61 Figura 4.12. Ejemplo de aplicación del método de segmentación 62

Page 204: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 198

Figura 4.13. Ejemplo de aplicación del método de segmentación 62 Figura 4.14. Descomposición KL de la imagen 67 Figura 4.15. Descomposición SVD de la imagen 69 Figura 4.16. Masas de evidencia tras la segmentación KL – SVD 70 Figura 4.17. Detección entrópica de bordes 72 Figura 5.1. Resultado de la segmentación a vectorizar 76 Figura 5.2. Primera etapa del proceso de limpieza 79 Figura 5.3. Segunda etapa del proceso de limpieza 79 Figura 5.4. Establecimiento del borde 80 Figura 5.5. Suavizado del borde 81 Figura 5.6. Ejemplo comparativo de las distancias euclídea y de Chamfer 81 Figura 5.7. Ejemplo numérico del curvado inicial por distancia euclídea 82 Figura 5.8. Imagen curvada según la distancia euclídea 82 Figura 5.9. Ejemplo numérico de aplicación de la distancia de Chamfer 83 Figura 5.10. Conjuntos de nivel según la distancia de Chamfer 83 Figura 5.11. Conjunto divisoria 84 Figura 5.12. Condiciones adicionales para el thinning 84 Figura 5.13. Conjunto divisoria tras el thinning 84 Figura 5.14. Tipos de bifurcación 85 Figura 5.15. Tipos de terminal 85 Figura 5.16. Ejemplo de enlace en la etapa de revisión de nodos 86 Figura 5.17. Establecimiento de los nodos 87 Figura 5.18. Esqueleto final 87 Figura 5.19. K-means y diagrama de Voronoi para K=134 89 Figura 5.20. Triangulación inicial de Delaunay para K=134 89 Figura 5.21. Etapas intermedias del proceso degenerativo 90 Figura 5.22. Pseudo-voronoi y triangulación degenerada 91 Figura 5.23. Convergencia del proceso de rectificación 92 Figura 5.24. Representación gráfica de la tabla principal 94 Figura 5.25. Bifurcaciones de segundo y tercer orden 96 Figura 5.26. Partición del esqueleto en nodos y bolsas 97 Figura 5.27. Podado del esqueleto a medio nivel 98 Figura 5.28. Información vectorial de edificaciones 99 Figura 5.29. Ejemplos del conjunto Area de Influencia 101 Figura 5.30. Podado topológico del esqueleto 102 Figura 5.31. Distribución de las bolsas en clases de equivalencia 106 Figura 5.32. Posiciones directa e inversa de las bolsas 107 Figura 5.33. Estructuración del esqueleto en objetos 111 Figura 5.34. Polinomios y polígonos de ajuste geométrico 118 Figura 5.35. Inviabilidad del ajuste condicionado 119 Figura 5.36. Elementos gráficos 121 Figura 5.37. Ejemplo de vectorización de una imagen binaria 124 Figura 5.38. Ejemplo de vectorización de una imagen binaria 125 Figura 5.39. Ejemplo de vectorización de una imagen binaria 126 Figura 5.40. Ejemplo de vectorización de una imagen binaria 126 Figura 5.41. Ejemplo de vectorización de una imagen binaria 128 Figura 5.42. Ejemplo de vectorización de una imagen binaria 129 Figura 5.43. Ejemplo de vectorización de una imagen binaria 130 Figura 5.44. Ejemplo de vectorización de una imagen binaria 130 Figura 5.45. Ejemplo de vectorización de una imagen binaria 130 Figura 5.46. Ejemplo de vectorización de una imagen binaria 130 Figura 6.1. Evaluación por nuestro método de la 1ª prueba 139 Figura 6.2. Evaluación por nuestro método de la 2ª prueba 140 Figura 6.3. Evaluación por nuestro método de la 3ª prueba 141

Page 205: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 199

Figura 6.4. Evaluación por nuestro método de la 4ª prueba 142 Figura 6.5. Evaluación por nuestro método de la 5ª prueba 143 Figura 6.6. Evaluación por nuestro método de la 6ª prueba 144 Figura 6.7. Evaluación por nuestro método de la 7ª prueba 145 Figura 6.8. Evaluación por el método de Wiedemann de la 1ª prueba 148 Figura 6.9. Evaluación por el método de Wiedemann de la 2ª prueba 149 Figura 6.10. Evaluación por el método de Wiedemann de la 3ª prueba 150 Figura 6.11. Evaluación por el método de Wiedemann de la 4ª prueba 151 Figura 6.12. Evaluación por el método de Wiedemann de la 5ª prueba 152 Figura 6.13. Evaluación por el método de Wiedemann de la 6ª prueba 153 Figura 6.14. Evaluación por el método de Wiedemann de la 7ª prueba 154

__________________________________________

Page 206: UNIVERSIDAD DE ALCALÁ - Webnode€¦ · 1.3. Exposición de la memoria en líneas generales 9 2. Estudio bibliográfico 2.1. Visión artificial y reconocimiento de patrones 10 2.2

TESIS DOCTORAL. Capítulo 8: Anexos. J. B. Mena

Pág. 200

Anexo VI. Siglas y términos utilizados. ACP Análisis de Componentes Principales. ALFIE Automatic Linear Feature Identification and Extraction. APT Análisis Progresivo de la Textura. ATKIS Authoritative Topographic and Cartographic Information System. BC Base de Conocimiento. BDA Base de Datos Alfanumérica. BDC Base de Datos Cartográfica. BDOO Base de Datos Orientada a Objetos. DGN Digital Graphic Design. DSM Digital Surface Model. DTED Digital Terrain Elevation Data. DTM Digital Terrain Model. DYNAMO Software GIS. ERS European Remote Sensing Satellites. FOL First Order Logic. GeoAIDA Geo Automatic Image Data Analyser. GeoMEDIA Software GIS. GIS Geographic Information System. GPS Global Positioning System. HELIOS Satélite militar francés, italiano, español y alemán de alta resolución. HSV Hue, Saturation and Value of brightness. HYDICE Hyperspectral Digital Imagery Collection Experiment. IGN Institut Géographique National. IKONOS Satélite de alta resolución para observación de la Tierra. JS Jensen Shannon Entropy. KL Karhunen Loève Transform. LaB Sistema de referencia color. LANDSAT ERTS (Earth Resources Technology Satellites) renamed. LIDAR Light Detection And Ranging. MDS Modelo Digital de Superficie. MDT Modelo Digital del Terreno. MRF Markov Random Fields. ORACLE Sistema de gestión de base de datos relacional. OTAN Organización del Tratado del Atlántico Norte. PCA Principal Components Analysis. QUICK BIRD Satélite de alta resolución para observación de la Tierra. RGB Reed, Green and Blue. SAR Synthetic Aperture Radar. SBC Sistema Basado en el Conocimiento. SGE Servicio Geográfico del Ejército. SIG Sistema de Información Geográfica. SPOT Systeme Pour l'Observation de la Terre. STANAG Standardization NATO Agreements. SVD Singular Values Decomposition. UTM Universal Transversa Mercator. VMAP Vectorial Map. WGS – 84 World Geodetic System (1984). YIQ Sistema de referencia color.