Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-3868
Autor(en): Chen, Hainan
Titel: Entwicklung von Verfahren zur Beurteilung und Verbesserung der Qualität von Navigationsdaten
Sonstige Titel: Development of methods for quality inspection and improvement of navigation data
Erscheinungsdatum: 2011
Dokumentart: Dissertation
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-68998
http://elib.uni-stuttgart.de/handle/11682/3885
http://dx.doi.org/10.18419/opus-3868
Zusammenfassung: Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von Verfahren zur Überprüfung und Verbesserung der Qualität von raumbezogenen Daten, hier insbesondere Navigationsdaten, indem verschiedene Datenquellen integriert werden. Nach der Vorstellung der Grundlagen widmet sich die vorliegende Arbeit der Integration sowohl zwischen kommerziellen digitalen Karten von unterschiedlichen Anbietern als auch zwischen kommerziellen und kostenfreien digitalen Karten, die aus nutzergenerierten Inhalten entstehen und eine immer wichtigere Rolle bei der Datenerfassung spielen. So werden eine kostenfreie (OpenStreetMap) und zwei kommerzielle digitale Karten (NavTeq und TeleAtlas) zur Untersuchung eingesetzt. Die Datenmodellierungen in den Datensätzen werden analysiert und verglichen. Um die Komplexität der Datenintegration aufgrund der Heterogenität der Datenmodellierung zu reduzieren, wird ein übergeordnetes Datenmodell entwickelt und die Datensätze werden mit unterschiedlichen Transformationsregeln in das übergeordnete Datenmodell abgebildet. Straßenobjekte werden mit der Relation 1:1, 1:n bzw. n:1 in das übergeordnete Datenmodell abgebildet. Die semantische Heterogenität in den Datensätzen wird durch eine semantische Homogenisierung reduziert. In der Folge werden die Zuordnung zur Ermittlung von Korrespondenzen in den Datensätzen, die Qualitätsanalyse mittels unterschiedlicher Ähnlichkeitsmaße und die Datenverschmelzung zur Verbesserung der Qualität der Daten erläutert. Zur Bestimmung von Kantenkorrespondenzen in den Datensätzen wird das Zuordnungsmodell „Buffer Growing“ so erweitert, dass nicht nur Zuordnungen zwischen Kanten, sondern auch Zuordnungen zwischen Kanten und Knoten möglich sind. Der Ansatz wird jeweils mit Testdaten im Stadtgebiet und im ländlichen Raum untersucht. Zur Untersuchung der unterschiedlichen geometrischen Modellierungen in den Datensätzen werden acht grundlegende Formklassen definiert. Durch die Erkennung der Formklassen lassen sich die geometrischen Modellierungen in den Datensätzen vergleichen. Darüber hinaus werden Korrespondenzen von Knoten zur Berechnung der komplexen Objekte und Verschmelzung der Datensätze automatisch bestimmt. Ähnlichkeitsmaße werden aus verschiedenen Aspekten zur Qualitätsprüfung entwickelt. Eine hohe Ähnlichkeit zwischen den Datensätzen bedeutet eine hohe relative Qualität. Auf der Ebene des Datensatzes werden die globale geometrische und topologische Ähnlichkeit sowie die Vollständigkeit untersucht. Dabei werden vergleichbare Adjazenzmatrizen mit Hilfe von komplexen Objekten berechnet, welche anhand der Zuordnungsergebnisse ermittelt werden. Die globale geometrische Ähnlichkeit erfolgt durch die Ermittlung der durchschnittlichen und maximalen Abweichungen in den Adjazenzmatrizen. Die globale topologische Ähnlichkeit wird durch die Korrelation der Exzentrizitätsvektoren reflektiert. Für jedes Zuordnungspaar werden die Ähnlichkeit der Form als Maß der Komplexität der geometrischen Modellierung, die lokale geometrische Ähnlichkeit anhand der Hausdorff-Distanz und die lokale topologische Ähnlichkeit mittels der Erreichbarkeit untersucht. Darüber hinaus werden Attribute nach ihren Wertbereichen in verschiedene Kategorien aufgeteilt und mit unterschiedlichen Verfahren ausgewertet. Einzelne Attribute lassen sich direkt vergleichen oder über eine Konfusionsmatrix auswerten. Zusammengesetzte Attribute werden allerdings zunächst zerlegt und anschließend ausgewertet. Die Ergebnisse der Qualitätsprüfung werden diskutiert. Zur Verbesserung der Qualität der Daten wird ein clusterbasierter Ansatz zur Verschmelzung der Datensätze unter Berücksichtigung der unterschiedlichen geometrischen Modellierungen vorgestellt. Anhand der Konnektivität der Kanten und der geometrischen Modellierungen wird eine gleiche Anzahl von Clustern für zugeordnete Kanten und Knoten ermittelt. Die Datenverschmelzung der zugeordneten Kanten und Knoten wird in drei Schritten durchgeführt. Im ersten Schritt werden die Verbindungsknoten ermittelt und die Zuordnungspaare zwischen Knoten und Kanten behandelt. Im weiteren Schritt werden die Mittellinien für die Cluster mit gleicher Form berechnet. Im letzten Schritt werden die Cluster aus den Zuordnungspaaren mit unterschiedlicher Form berechnet und in den Enddatensatz transformiert. Die Konflikte der unterschiedlichen geometrischen Modellierungen werden durch die Parametereinstellung der einfachen bzw. komplexen Form aufgehoben. Cluster für nicht zugeordnete Kanten und Knoten werden ebenfalls anhand der Konnektivität berechnet. Diese Cluster werden mit Hilfe von Verlinkungsknoten in den Enddatensatz transformiert. Konflikte, die nach der Datenverschmelzung entstanden sind, werden anhand von Beispielen diskutiert. Die erzeilten Ergebnisse bei der Zuordnung, Qualitätsanalyse und Datenverschmelzung werden an den jeweiligen Stellen vorgestellt und diskutiert. Eine Zusammenfassung und ein Ausblick schließen die Arbeit ab.
The present work deals with the development of methods for quality inspection and improvement of spatial data, especially navigation data, by integration of different data sources. The work at hand investigate the integration between commercial digital maps from different suppliers and between commercial and cost-free digital maps which result from user generated contents and play a more and more important role in the data collection. Therefore, one cost-free (OpenStreetMap) and two commercial digital maps (NavTeq and TeleAtlas) are applied for the research. The data modeling of the different datasets is analyzed and compared. In order to reduce the complexity of data integration due to differences of data modeling, a global data model is developed and the datasets are transformed into the global data model with different transformation rules. Street objects are transformed into the global data model with the relation 1:1, 1:n or n:1. The semantic heterogeneity in the datasets is reduced by a semantic homogenization. In the following, the matching to identify correspondences in the datasets, the quality inspection with different similarity measures and the data conflation for quality improvement are introduced. In order to determine correspondences between the datasets, the matching model “Buffer growing” is extended, so that not only matchings between edges, but also matchings between edges and nodes are possible. The approach is examined with test data in urban and rural areas. Correspondences of edges are identified manually with a tool developed under ArcGIS. To investigate the different geometric modeling in the datasets, eight basic form classes are defined. The geometric modeling of the datasets can be compared through recognition of the form classes. Furthermore, correspondences of nodes are computed automatically for calculation of complex objects and for conflation of the datasets. Similarity measures for quality inspection are developed from different points of view. A high similarity between the datasets is an indicator for a high relative quality. At the level of dataset, the global geometric and topologic similarity as well as the completeness are examined. For this purpose, comparable adjacency matrices are computed. The maximum and average differences in the adjacency matrices are calculated as global geometric similarity. The global topologic similarity is defined as correlation between the eccentricity vectors. For each matching pair, the similarity of form as degree of complexity of geometric modeling, the local geometric similarity with the Hausdorff distance and the local topologic similarity using accessibility are investigated. Attributes are subdivided into different categories according to their range of values and evaluated with different methods. Single attributes can be directly compared or analyzed by using a confusion matrix. Combined attributes are separated and then evaluated. The results of the quality inspection are discussed. In order to improve the quality of data, a cluster-based approach for conflation of the datasets considering the different geometric modeling is presented. Based on the connectivity of the edges and the geometric modeling, a same amount of clusters is calculated for the matched edges and nodes. The data conflation for the matched edges and nodes is performed in three steps. First, the connecting nodes are calculated and the matching pairs between nodes and edges are handled. Second, middle lines are built for clusters with the same form. Finally, the clusters of matching pairs with different forms are calculated and transformed into the final dataset. In the same way, clusters for unmatched edges and nodes are calculated according to their connectivity. These clusters are transformed into the final dataset with the aid of linking nodes. The conflicts which arise after the data conflation are discussed with examples. The results of matching, quality inspection and data conflation are presented and discussed in the respective chapters. A summary and an outlook conclude the work.
Enthalten in den Sammlungen:06 Fakultät Luft- und Raumfahrttechnik und Geodäsie

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
Dissertation_Hainan_Chen_2011.pdf2,99 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.