06 Fakultät Luft- und Raumfahrttechnik und Geodäsie
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/7
Browse
24 results
Search Results
Item Open Access Towards improved targetless registration and deformation analysis of TLS point clouds using patch-based segmentation(2023) Yang, Yihui; Schwieger, Volker (Prof. Dr.-Ing. habil. Dr. h.c.)The geometric changes in the real world can be captured by measuring and comparing the 3D coordinates of object surfaces. Traditional point-wise measurements with low spatial resolution may fail to detect inhomogeneous, anisotropic and unexpected deformations, and thus cannot reveal complex deformation processes. 3D point clouds generated from laser scanning or photogrammetric techniques have opened up opportunities for an area-wise acquisition of spatial information. In particular, terrestrial laser scanning (TLS) exhibits rapid development and wide application in areal geodetic monitoring owing to the high resolution and high quality of acquired point cloud data. However, several issues in the process chain of TLS-based deformation monitoring are still not solved satisfactorily. This thesis mainly focuses on the targetless registration and deformation analysis of TLS point clouds, aiming to develop novel data-driven methods to tackle the current challenges. For most deformation processes of natural scenes, in some local areas no shape deformations occur (i.e., these areas are rigid), and even the deformation directions show a certain level of consistency when these areas are small enough. Further point cloud processing, like stability and deformation analyses, could benefit from the assumptions of local rigidity and consistency of deformed point clouds. In this thesis, thereby, three typical types of locally rigid patches - small planar patches, geometric primitives, and quasi-rigid areas - can be generated from 3D point clouds by specific segmentation techniques. These patches, on the one hand, can preserve the boundaries between rigid and non-rigid areas and thus enable spatial separation with respect to surface stability. On the other hand, local geometric information and empirical stochastic models could be readily determined by the points in each patch. Based on these segmented rigid patches, targetless registration and deformation analysis of deformed TLS point clouds can be improved regarding accuracy and spatial resolution. Specifically, small planar patches like supervoxels are utilized to distinguish the stable and unstable areas in an iterative registration process, thus ensuring only relatively stable points are involved in estimating transformation parameters. The experimental results show that the proposed targetless registration method has significantly improved the registration accuracy. These small planar patches are also exploited to develop a novel variant of the multiscale model-to-model cloud comparison (M3C2) algorithm, which constructs prisms extending from planar patches instead of the cylinders in standard M3C2. This new method separates actual surface variations and measurement uncertainties, thus yielding lower-uncertainty and higher-resolution deformations. A coarse-to-fine segmentation framework is used to extract multiple geometric primitives from point clouds, and rigorous parameter estimations are performed individually to derive high-precision parametric deformations. Besides, a generalized local registration-based pipeline is proposed to derive dense displacement vectors based on segmented quasi-rigid areas that are corresponded by areal geometric feature descriptors. All proposed methods are successfully verified and evaluated by simulated and/or real point cloud data. The choice of proposed deformation analysis methods for specific scenarios or applications is also provided in this thesis.Item Open Access An approach for automated detection and classification of pavement cracks(2017) Al-Mistarehi, Bara'; Schwieger, Volker (Prof. Dr.-Ing. habil.)Item Open Access Realisierung und Anwendung eines kinematischen Multi-Sensor-Meßsystems zur Bestimmung von dynamischen Bauwerksverformungen(2001) Petzoldt, Rainer; Linkwitz, Klaus (em. Prof. Dr.-Ing. Dr. sc. Techn. h. c. Dr. h. c. )Durch die Erweiterung der geodätischen Aufgabengebiete, insbesondere in der Ingenieurvermessung, werden zukünftig vermehrt interdisziplinäre Lösungen verlangt, die von einer Fachrichtung alleine nicht geliefert werden können. Dadurch entstehen zum Teil einfachere, schnellere und trotzdem genaue Methoden. Dies wird in der vorliegenden Arbeit veranschaulicht. Dazu werden zuerst die aus den Einzeldisziplinen stammenden Verfahren klassifiziert und anschließend ein auf diesen Verfahren basierendes neu entwickeltes Feldkalibrierverfahren für Inertialnavigationssysteme vorgestellt. Es basiert auf der Messung des Erdschwerevektors und der Erddrehrate in 24 Lagen und erlaubt die Bestimmung der Kalibrierparameter Offset, Skalenfaktor und Fehlausrichtungswinkel. Die erreichbare Genauigkeit liegt für Beschleunigungsmesser in der gleichen Größenordnung wie bei aufwendigeren Laborkalibrierungen, für Kreisel ergibt sich, bedingt durch die sehr kleine Erddrehrate, eine um ein bis drei Größenordnungen schlechtere Genauigkeit. Im zweiten Schwerpunkt der Arbeit wird am Beispiel der Messung der Deformation einer Eisenbahnbrücke während der Überfahrt eines Zuges gezeigt, daß neben der eigentlichen Messung auch die Auswertung der Meßergebnisse von einer Zusammenarbeit verschiedener Fachrichtungen profitiert. Die in den ersten Kapiteln beschriebenen Methoden werden konkret angewandt. Ausgehend von der Problembeschreibung werden Konzeption und Realisierung des Multi-Sensor-Meßsystems entwickelt und die Durchführung und Auswertung der Messungen beschrieben. Die Ergebnisse werden mit dem theoretischen Modell verglichen, wobei trotz der nur parametrischen Zeitabhängigkeit eine sehr gute Übereinstimmung festgestellt wird. Dies zeigt, daß an einem Modell, je nach Art der Fragestellung, viele wohlüberlegte Vereinfachungen vorgenommen werden können, ohne daß es seine Aussagekraft verliert.Item Open Access Use of non-linearity as a characteristic in the selection of filtering algorithms in kinematic positioning(2020) Pham, Dung; Schwieger, Volker (Prof. Dr.-Ing. habil. Dr. h.c.)Selection of an optimal filtering algorithm for kinematic positioning systems constitutes one of the most extensively studied applications in the surveyor engineering community. The ability of a filtering algorithm is often assessed through its performance. The performance of a filtering algorithm is frequently evaluated in terms of accuracy and computational time. According to the accuracy parameter, it is often determined by a comparison between true trajectory and the estimated one from an algorithm. However, the true trajectory is commonly unknown in real-life situations, and thus the accuracy of the filtering algorithm cannot be assessed in this manner. Indeed, lack of true trajectory is one of the primary obstacles in the evaluation of the performance of filtering algorithms. The non-linearity of the model, on the other hand, can be determined without any information about the true trajectory and is also associated with the abilities of algorithms. So far, however, very little attention has been paid to the role of the decision of filtering algorithms based on non-linearity. Thus, this study proposes an alternative characteristic in the assessment of the performance of filtering algorithms, which is the non-linearity of the observation model. This research aims to assess the ability of non-linear characteristic for the choice of an optimal filtering algorithm. In this research, the data are simulated by the Monte Carlo method. The abilities of filtering algorithms are investigated on the extended Kalman filter (EKF), unscented Kalman filter (UKF), and particle filter (PF). These algorithms are widely utilized in kinematic positioning, and they are appropriate for various levels of non-linearity. The current study evaluated the influence of the algorithm’s accuracy on three factors: measurement uncertainty, observation geometry, and the number of observations. These algorithms are also assessed on their computational times according to a certain scenario. Regarding measures of non-linearity, three different indicators are examined for the non-linearity of both system and observation models. The coefficient of determination, 1-R2, is utilized as a single indicator to measure the non-linearity of each function of the above models. The M and 1-MVA, known as the deviation of a non-linear function from linearity and multivariate association, respectively, can be used as indicators to quantify the non-linearity of numerous functions of the above models jointly. The 1-MVA indicator is proposed for the first time to quantify the non-linearity of models. From analyses of the accuracy and non-linearity, the relationship between them is determined with changing measurement uncertainty and observation geometry in several scenarios. Based on the established relationship between accuracy and non-linearity, the choice of an optimal algorithm is analyzed through numerical examples. These results indicate that the accuracy of these algorithms is strongly influenced by measurement uncertainty, observation geometry, and the number of observations. The accuracy obtained by PF is higher than that of UKF and EKF. Conversely, the computational time of EKF is shorter than that of UKF and PF. According to measures of non-linearity, the above-proposed indicators are suitable, and the tendency of non-linearity of a model obtained by these indicators is the same. The non-linearity of the system model is small due to the given small amount of standard deviations of the disturbance quantities. Inversely, the non-linearity of the observation model is high due to high measurement uncertainties, or poor observation geometries. The main finding of this research is that both non-linearity of the observation model and position accuracy are influenced by factors of measurement uncertainty and observation geometry. Therefore, the relationship between the position accuracy and the non-linearity of the observation model is established based on these factors. This relationship is strong, which is assessed by the goodness-of-fit value of the best fitting function. In addition, another important result from the present research is that the fitting function described for this relationship changes due to influencing factors of scenarios. The established relationship constitutes the main limitation of this characteristic in application. As a result, instead of accuracy, the non-linearity of the observation model can be employed for the assessment of algorithms when the true trajectory is not available. However, the optimal algorithm can only be selected using these factors in some special cases. For a general case of arbitrary scenarios’ factors, the non-linear characteristic cannot be used for this purpose.Item Open Access Untersuchungen zum geometrischen Verhalten von Holz mittels optischer Sensoren(2024) Schmitt, Annette; Schwieger, Volker (Prof. Dr.-Ing. habil. Dr. h.c.)In Deutschland geht rund ein Drittel des jährlichen CO2-Ausstoßes auf dem Bausektor zurück. Davon ist zwar nur ein Viertel dem Bau von Hochbauten zu zuschreiben. Gerade deshalb müssen im Hochbau Innovationen und alternative Materialien und Bauweisen entwickelt werden, damit Deutschland seine Klimaziele erreicht. Neben dem hohen CO2-Ausstoß hat die Betonbauweise den Nachteil, dass die Rohstoffe von Beton wie zum Beispiel Kies, Sand oder Kalkstein, endliche Ressourcen sind. Eine Alternative zur Betonbauweise ist der jahrtausendealte Holzbau, der in letzten Jahren eine Renaissance erlebt hat. Durch einen nachhaltigen Holzanbau und eine nachhaltige, ressourcenschonende Bauweise kann Holzbau zu einer echten Alternative werden. Jedoch ist Holz ein anisotroper, inhomogener und poröser Werkstoff, dessen Eigenschaften stark richtungsabhängig und abhängig von Umwelteinflüssen sind. Dies macht die Bemessung von Holzbauwerken kompliziert und unattraktiv. Speziell bei Flächentragwerken wie Schalen, die in der Regel sehr filigran sind, haben Umwelteinflüsse wie Feuchte und Temperatur einen Einfluss auf die Standfestigkeit. Daher ist eine regelmäßige Überwachung der Struktur notwendig. Im Bauingenieurwesen werden für solche Aufgaben häufig Dehnmessstreifen eingesetzt. Diese liefern lediglich sehr lokal geltende Messwerte, von denen nur mittels mechanischer Modelle auf das gesamte Objekt geschlossen werden kann. Daher bietet es sich an, für Flächentragwerke optische Sensoren wie zum Beispiel Laserscanner einzusetzen. Im Rahmen dieser Arbeit werden verschiedene Holzobjekte, wie zum Beispiel Platten, Vierkanthölzer und Schalen, unter verschiedenen Umwelteinflüssen, wie Feuchte und Temperatur, untersucht. Ziel ist es dabei, die auftretenden Formänderungen durch Umwelteinflüsse mittels Laserscanner und Lasertracker zu detektieren. Unter anderem werden mehrere Holzplatten in Klimakammern unter definierten Bedingungen untersucht. So wird in einem ersten Versuch der Einfluss von Temperaturänderungen auf eine Holzplatte untersucht. Es zeigt sich, dass dieser zwar sehr gering ist, aber mittels Lasertracker zumindest in radialer Faserrichtung signifikant aufdeckbar ist. In einem weiteren Versuch werden Holzplatten zunächst in einer Klimakammer mit Feuchteregelung bei 95 % Luftfeuchte gelagert und anschließend bei 12 % Luftfeuchte getrocknet. Zwischenzeitlich werden die Platten mittels Lasertracker und Laserscanner vermessen. Hier lassen sich die Verformungen mit dem Lasertracker in allen drei Faserrichtungen signifikant detektieren. Die Messungen mit dem Laserscanner ermöglichen aufgrund des aus der Aufnahmekonfiguration folgenden Registrierungsfehlers keine Aufdeckung der Verformungen, da der Schwellwert für signifikante Verformungen zu hoch ist. In einem weiteren Laborversuch werden die Verformungen durch die Umwelteinflüsse auf belastete Vierkanthölzer untersucht. Auch hierfür kann gezeigt werden, dass der Lasertracker genutzt werden kann. Verifiziert wurden die Ergebnisse hierbei durch eine Finite-Elemente-Simulation, der Materialparameter aus der Literatur zugrunde liegen. Neben den Laborversuchen werden auch Untersuchungen an einem adaptiven Schalentragwerk aus Holz mit dem Laserscanner durchgeführt. Für die Auswertung der Laserscannerdaten wird eine Methode zur Detektion von signifikanten Formänderungen auf Basis von synthetischen Punktfehlern und der Deformationsanalyse implementiert. Alle Ergebnisse der Messungen sind plausibel und mit Literaturangaben vergleichbar, dennoch ist Holz als natürlich wachsender Rohstoff sehr anspruchsvoll und individuell.Item Open Access Ein Beitrag zur Identifikation von dynamischen Strukturmodellen mit Methoden der adaptiven Kalman-Filterung(2005) Eichhorn, Andreas; Möhlenbrink, Wolfgang (Prof. Dr.-Ing.)Die vorliegende Arbeit entstand am "Institut für Anwendungen der Geodäsie im Bauwesen" (IAGB) der Universität Stuttgart im Rahmen des Forschungsschwerpunkts "Identifikation dynamischer Systeme". Es werden zwei Aufgabenstellungen behandelt. Die erste Aufgabenstellung kommt aus dem Bereich der Deformationsanalyse und beinhaltet die Entwicklung eines Temperaturdeformationsmodells zur realitätsnahen Prädiktion bzw. Simulation der Auswirkung von einseitigen dynamischen Temperaturbelastungen auf balkenförmige Körper. Ein wichtiges Anwendungsgebiet ist im Maschinenbau durch die indirekten Kompensationsverfahren zur Minimierung von thermischen Effekten auf hochpräzise Werkzeugmaschinen gegeben. Im Bauwesen ist die Analyse der thermischen Biegung von schlanken Baukonstruktionen unter dem Einfluss der Sonneneinstrahlung von Interesse. Den Kern des Modells bildet eine Finite Elemente Topologie auf der Grundlage von partiellen Differenzialgleichungen zur Quantifizierung der instationären Temperaturverteilung. Die parametrische Identifikation des dynamischen Strukturmodells ("White box"-Modell) erfolgt mittels adaptiver KALMAN-Filterung. In Labortests mit einer Aluminiumsäule gelingt die Schätzung der Temperaturleitfähigkeit des Materials mit einer Abweichung von nur 0,2% des Sollwertes. Durch unabhängige Temperaturmessungen wird gezeigt, dass eine Prognose der instationären Temperaturgradienten entlang des Mantels der Säule mit Restabweichungen erfolgen kann, die innerhalb des Bereichs der dreifachen Standardabweichung der verwendeten Temperaturmesssensoren (sigmaT = 0,4 K) liegen. Das Modell ist damit zur realitätsnahen Berechnung der Temperaturverteilung unter einem variablen Spektrum von dynamischen Belastungen geeignet. Die Verknüpfung mit einem Deformationsmodul (thermische Biegung) ermöglicht dann die Prognose von Säulenbiegungen mit einer mittleren Abweichung von ca. 3% der experimentell erzeugten maximalen Amplitude, was den Anforderungen für indirekte Kompensationsverfahren genügt. Die zweite Aufgabenstellung beinhaltet die parametrische Identifikation einer Fahrzeugbewegung. Im Auftrag der DaimlerChrysler AG wird ein Modul zur kartenunabhängigen Fahrzeugortung entwickelt. Kern des Moduls ist ein KALMAN-Filter mit einem kausal modifizierten kinematischen Bewegungsmodell des Fahrzeugs. Das Modell berücksichtigt explizit die gemessenen Orientierungsänderungen. Hierdurch wird die übliche Trägheit von kinematischen Bewegungsgleichungen entscheidend reduziert. Bei Stadt- und Landstrassenfahrten werden mit dem Ortungsmodul Positionsschätzungen mit mittleren Genauigkeiten von sigmaP = 2...3 m erzielt.Item Open Access Entwicklung eines tachymeter-basierten Zielsystems(2023) Hassan, Aiham; Schwieger, Volker (Prof. Dr.-Ing. habil. Dr. h.c.)Im Rahmen dieser Arbeit wird ein Prototyp für ein flexibel einsetzbares Tachymeterzielsystem (TZS) zur Vermessung verdeckter Objektpunkte entwickelt und empirisch anhand von Testmessungen untersucht. Die Ergebnisse dieser Untersuchungen zeigen, dass das Potenzial des TZS vielversprechend ist. Des Weiteren wird die Methode der lokalen Sensitivitätsanalyse zur Identifikation der wichtigen Eingangsgrößen für das deterministische Modell des TZS eingesetzt. Anhand der Ergebnisse dieser Analyse wird eine Optimierung dieses Modells durchgeführt.Item Open Access Entwicklung eines Steuerungssystems für eine Laderaupe zur Durchführung vollautomatisierter Ladeprozesse unter Einsatz bildverarbeitender Robottachymeter und adaptiver Regelung(2020) Lerke, Otto; Schwieger, Volker (Prof. Dr.-Ing. habil.)Die Automatisierung von Bauprozessen spielt eine immer wichtigere Rolle auf Baustellen. Automatisierung ermöglicht es, Arbeiten in kürzerer Zeit durchzuführen und gleichzeitig eine Erhöhung der Arbeitsqualität zu erreichen. Daneben kann auch die Arbeitssicherheit gesteigert werden. Der Baubetrieb ist im Allgemeinen in mannigfaltige und vielschichtige Prozesse unterteilt. Viele Prozesse werden von automatisierten Baumaschinen durchgeführt. Für den Bereich Erdbewegungen werden Rad- oder Raupenfahrzeuge mit entsprechenden Ladewerkzeugen eingesetzt, die jedoch zum jetzigen Zeitpunkt nicht automatisiert sind. Ziel dieser Arbeit ist es, ein System zu entwickeln, welches es ermöglicht, Belade- und Entladevorgänge vollautomatisch durchzuführen. Dies dient dazu, das Spektrum erhältlicher Systeme bei Erdbewegungsmaschinen, um semi-automatische und vollautomatische 3D Systeme zu erweitern. Die Funktionsweise des Systems wird anhand eines Laderaupenmodells im Massstab 1:14 demonstriert. Die Innovationen sind die bildbasierte Positionsbestimmung mit bildverarbeitenden Tachymetern und die Konzeption einer adaptiven Regelung zur automatischen Führung von Raupenfahrzeugen.Item Open Access Anwendung von Unsicherheitsmodellen am Beispiel der Verkehrserfassung unter Nutzung von Mobilfunkdaten(2013) Borchers, Ralf; Schwieger, Volker (Prof. Dr.-Ing. habil.)Das hohe und stetig anwachsende Verkehrsaufkommen ist häufig Ursache für Überlastungen der Verkehrswege und deren Folgeerscheinungen, wie z. B. Verkehrsstaus und Unfälle. Mit Einführung von Verkehrsmanagement-systemen wird angestrebt, Effizienzverbesserungen des Verkehrsflusses auf den bestehenden Verkehrswegen zu erzielen. Als wesentliche Datengrundlage setzen Verkehrsmanagementsysteme Verkehrsdaten voraus, wie sie mittels Induktionsschleifen oder sogenannter Floating Car Data gewonnen werden können. Vor dem Hintergrund, dass Mobilfunkgeräte geortet werden können, eignen sich die als Floating Phone Data bezeichneten und aus Mobilfunkdaten hergeleiteten Verkehrsdaten ebenfalls zur Verkehrserfassung. Dieser auch wirtschaftlich attraktiven Verkehrserfassungsart stehen hohe Ortungsunsicherheiten von mehreren einhundert Metern sowie die fehlende Information, ob und in welchem Verkehrsmittel das Mobilfunkgerät mitgeführt wurde, gegenüber. In der vorliegenden Arbeit wird eine Mobilfunkortung basierend auf dem Signalpegel-Matching eingesetzt, die die gemessenen Signalpegel der Mobilfunkgeräte des GSM-Mobilfunknetzes mit Referenzsignalpegelkarten vergleicht. Die zufälligen, systematischen aber auch unbekannt wirkenden Unsicherheiten werden mit Hilfe der zufälligen Variabilität, der Fuzzy-Theorie und der Fuzzy-Randomness Methodik modelliert. Im Anschluss werden Identifikationsverfahren vorgestellt, mit denen in Verkehrsmitteln des Motorisierten Individualverkehrs (z. B. in PKW oder LKW) generierte Mobilfunkdaten aus anonymisierten Mobilfunkdaten identifiziert werden können. Zu Beginn wird geprüft, ob sich das Mobilfunkgerät in Bewegung befindet. Bewegt es sich, wird nachfolgend dessen Geschwindigkeit als Entscheidung bezüglich eines Verkehrsmittels herangezogen. Hintergrund ist, dass bauartbedingte oder administrative Gründe die Höchstgeschwindigkeit von Verkehrsmitteln begrenzen. Ist die Geschwindigkeit des Mobilfunkgerätes signifikant höher als die Höchstgeschwindigkeit des untersuchten Verkehrsmittels, kann dieses Verkehrsmittel ausgeschlossen werden. Da in öffentlichen Verkehrsmitteln generierte Mobilfunkdaten für die Erfassung des Motorisierten Individualverkehrs ungeeignet sind, werden sie im nächsten Schritt eliminiert. Aus Fahrplänen werden hierfür die Positionen der Fahrzeuge des Öffentlichen Verkehrs (z. B. Linienbusse, Straßenbahnen) prognostiziert und mit den Positionen des Mobilfunkgerätes sowohl zeitlich als auch räumlich verglichen. Abschließend wird geprüft, ob für die Positionsfolge des Mobilfunkgerätes eine Trajektorie auf dem Verkehrsnetzgraph des motorisierten Individualverkehrs (Straßennetz) generiert werden kann. Kann die Positionsfolge in den Verkehrsnetzgraph räumlich, topologisch und zeitlich eingepasst werden, ist sie grundsätzlich für die Verkehrslageerfassung des motorisierten Individualverkehrs geeignet. Für stehende Mobilfunkgeräte ist in der Regel keine eindeutige Identifikation des Verkehrsmittels möglich, da jedes Verkehrsmittel stehen kann. Eine Unterscheidung zwischen Mobilfunkgeräten in Verkehrsstaus und beispielsweise nicht am Verkehr beteiligten Mobilfunkgeräten (z. B. stehende Fußgänger) ist infolgedessen zunächst nicht möglich. Diese Problemstellung wurde durch die Verknüpfung aktueller und vorgehender Identifizierungsergebnisse gelöst. Um ihre Eignung und ihr Potential zu vergleichen, wurden die Identifikationsverfahren mit konsequenter Anwendung der mathematischen Unsicherheitsmodelle der zufälligen Variabilität, der Fuzzy-Theorie und des Fuzzy-Randomness entwickelt und softwaretechnisch umgesetzt. Die entwickelten Identifikationsverfahren wurden unter Verwendung realer Mobilfunkdaten validiert und evaluiert. Das auf der Fuzzy-Randomness Methodik basierende Identifikationsverfahren, ergab sowohl qualitativ als auch quantitativ die besten Identifikationsergebnisse.Item Open Access Modellgestützte Kostenprognose für den Aufbau qualitätsgesicherter Geodatenbestände(2005) Stark, Martin; Möhlenbrink, Wolfgang (Prof.Dr.-Ing.)Für moderne Verkehrs- und Telematikdienstleistungen spielen digitale, raumbezogene Daten eine entscheidende Rolle. Erst durch die Schaffung einer digitalen Straßenkarte erhielt z. B. die komplexe Aufgabe der Zielführung von Land-fahrzeugen unter Verwendung von Ortungs- und Navigationsverfahren den zur Markteinführung notwendigen Reife-grad. Diese Geodaten sind nicht nur unverzichtbare Grundlage solcher Anwendungen, sie verzehren bei ihrer Erfassung und Pflege auch die meisten Kosten. Mit der Datenalterung auf Grund mangelnden Aktualisierungen und fehlerhaften oder unvollständigen Inhalten geht ein hohes Maß an Akzeptanzverlust einher. Datenfehler können zudem zu erheblichen Mehraufwendungen und Folgekos-ten führen. Es liegt deshalb im unternehmenseigenen Interesse, die Investitions- und Folgekosten, welche durch den Einsatz von digitalen Geodaten entstehen, möglichst zuverlässig prognostizieren zu können. Diese Kostenprognose ist für die Un-ternehmensentwicklung in Form eines Geschäftsmodells von zentraler Bedeutung. In dieser Arbeit wird deshalb ein Konzept zur modellgestützten Kostenprognose für den Aufbau qualitätsgesicherter Geodatenbestände vorgestellt. Am Beispiel des im Rahmen des Forschungsprojekts MOBILIST in der Region Stuttgart geschaffenen Intermodalen Routenplaners wird gezeigt, mit welchen Arbeitsschritten und deren zeitlichen Umfängen es gelungen ist, von bereits vorhandenen digitalen raumbezogenen Daten zu einer digitalen Geodatengrundlage zu gelangen, die es gestattet, eine verkehrsnetzübergreifende Routenplanung durchzuführen. Hintergrund dieser Entwicklung ist das Bestreben nach ei-nem besseren Zusammenwirken der Verkehrsträger Straße und Schiene, um einen wichtigen Beitrag zu Sicherung der individuellen Mobilität bei stetig steigendem Verkehrsaufkommen zu leisten. Hierbei wird aufgezeigt, dass die Gesamtkosten zur Realisierung der Geodatengrundlage je nach Umfang der Qualitäts-sicherungsmaßnahmen stark variieren. Der Aufwand zur Qualitätssicherung durch Fehleridentifikation und –korrektur kann die Herstellkosten übersteigen. Hieraus motiviert sich die kostenmäßige Betrachtung von qualitätssichernden Maßnahmen sowie deren Einfluss auf die durchzuführende Strategie des Geodatenaufbaus. Mit der Integration dieser Betrachtung in das Kostenprognosemodell wird das Ziel verfolgt, nicht nur die reinen Aufbaukosten des Datenbestandes abschätzen zu können, sondern auch die richtige, kostengünstigere Fehleridentifikations- und -korrekturmaßnahme auszuwählen. Darüber hinaus werden Aussa-gen getroffen, von welchen Einflussfaktoren eine Auswahl unterschiedlicher Aufbaustrategien abhängig ist. Es wird anhand von Modellrechnungen nachgewiesen, dass es wirtschaftlich sinnvoll sein kann, statt der Nutzung des eigenen Datenbestandes einen kompletten fremden Datenbestand einzukaufen und nachträglich weitere Informationen hinzuzufügen. Ferner wird aufgezeigt, ab welchen Qualitätsforderungen eine vollständige Prüfung des gesamten Daten-bestandes einer Stichprobenprüfung vorzuziehen ist und welchen Einfluss dies auf die Gesamtkosten hat. Mit diesem praxistauglichen, anhand eines realen Geodatenaufbaus kalibrierten Kostenprognosemodells existiert eine Entscheidungsmethodik für den Aufbau von Geodatenbeständen. Zudem sind künftig die Qualitätssicherungsmaßnah-men systematisch planbar. Es ist weiterhin detailliert ausgearbeitet, welche Arbeitsschritte zur Projektion dieser mo-dellgestützten Kostenprognose auf andere Anforderungen zum Aufbau von Geodatenbeständen notwendig sind.
- «
- 1 (current)
- 2
- 3
- »