06 Fakultät Luft- und Raumfahrttechnik und Geodäsie
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/7
Browse
Item Open Access An approach for automated detection and classification of pavement cracks(2017) Al-Mistarehi, Bara'Item Open Access Anwendung von Unsicherheitsmodellen am Beispiel der Verkehrserfassung unter Nutzung von Mobilfunkdaten(2013) Borchers, Ralf; Schwieger, Volker (Prof. Dr.-Ing. habil.)Das hohe und stetig anwachsende Verkehrsaufkommen ist häufig Ursache für Überlastungen der Verkehrswege und deren Folgeerscheinungen, wie z. B. Verkehrsstaus und Unfälle. Mit Einführung von Verkehrsmanagement-systemen wird angestrebt, Effizienzverbesserungen des Verkehrsflusses auf den bestehenden Verkehrswegen zu erzielen. Als wesentliche Datengrundlage setzen Verkehrsmanagementsysteme Verkehrsdaten voraus, wie sie mittels Induktionsschleifen oder sogenannter Floating Car Data gewonnen werden können. Vor dem Hintergrund, dass Mobilfunkgeräte geortet werden können, eignen sich die als Floating Phone Data bezeichneten und aus Mobilfunkdaten hergeleiteten Verkehrsdaten ebenfalls zur Verkehrserfassung. Dieser auch wirtschaftlich attraktiven Verkehrserfassungsart stehen hohe Ortungsunsicherheiten von mehreren einhundert Metern sowie die fehlende Information, ob und in welchem Verkehrsmittel das Mobilfunkgerät mitgeführt wurde, gegenüber. In der vorliegenden Arbeit wird eine Mobilfunkortung basierend auf dem Signalpegel-Matching eingesetzt, die die gemessenen Signalpegel der Mobilfunkgeräte des GSM-Mobilfunknetzes mit Referenzsignalpegelkarten vergleicht. Die zufälligen, systematischen aber auch unbekannt wirkenden Unsicherheiten werden mit Hilfe der zufälligen Variabilität, der Fuzzy-Theorie und der Fuzzy-Randomness Methodik modelliert. Im Anschluss werden Identifikationsverfahren vorgestellt, mit denen in Verkehrsmitteln des Motorisierten Individualverkehrs (z. B. in PKW oder LKW) generierte Mobilfunkdaten aus anonymisierten Mobilfunkdaten identifiziert werden können. Zu Beginn wird geprüft, ob sich das Mobilfunkgerät in Bewegung befindet. Bewegt es sich, wird nachfolgend dessen Geschwindigkeit als Entscheidung bezüglich eines Verkehrsmittels herangezogen. Hintergrund ist, dass bauartbedingte oder administrative Gründe die Höchstgeschwindigkeit von Verkehrsmitteln begrenzen. Ist die Geschwindigkeit des Mobilfunkgerätes signifikant höher als die Höchstgeschwindigkeit des untersuchten Verkehrsmittels, kann dieses Verkehrsmittel ausgeschlossen werden. Da in öffentlichen Verkehrsmitteln generierte Mobilfunkdaten für die Erfassung des Motorisierten Individualverkehrs ungeeignet sind, werden sie im nächsten Schritt eliminiert. Aus Fahrplänen werden hierfür die Positionen der Fahrzeuge des Öffentlichen Verkehrs (z. B. Linienbusse, Straßenbahnen) prognostiziert und mit den Positionen des Mobilfunkgerätes sowohl zeitlich als auch räumlich verglichen. Abschließend wird geprüft, ob für die Positionsfolge des Mobilfunkgerätes eine Trajektorie auf dem Verkehrsnetzgraph des motorisierten Individualverkehrs (Straßennetz) generiert werden kann. Kann die Positionsfolge in den Verkehrsnetzgraph räumlich, topologisch und zeitlich eingepasst werden, ist sie grundsätzlich für die Verkehrslageerfassung des motorisierten Individualverkehrs geeignet. Für stehende Mobilfunkgeräte ist in der Regel keine eindeutige Identifikation des Verkehrsmittels möglich, da jedes Verkehrsmittel stehen kann. Eine Unterscheidung zwischen Mobilfunkgeräten in Verkehrsstaus und beispielsweise nicht am Verkehr beteiligten Mobilfunkgeräten (z. B. stehende Fußgänger) ist infolgedessen zunächst nicht möglich. Diese Problemstellung wurde durch die Verknüpfung aktueller und vorgehender Identifizierungsergebnisse gelöst. Um ihre Eignung und ihr Potential zu vergleichen, wurden die Identifikationsverfahren mit konsequenter Anwendung der mathematischen Unsicherheitsmodelle der zufälligen Variabilität, der Fuzzy-Theorie und des Fuzzy-Randomness entwickelt und softwaretechnisch umgesetzt. Die entwickelten Identifikationsverfahren wurden unter Verwendung realer Mobilfunkdaten validiert und evaluiert. Das auf der Fuzzy-Randomness Methodik basierende Identifikationsverfahren, ergab sowohl qualitativ als auch quantitativ die besten Identifikationsergebnisse.Item Open Access Application of Copernicus data for climate-relevant urban planning using the example of water, heat, and vegetation(2021) Bühler, Michael Max; Sebald, Christoph; Rechid, Diana; Baier, Eberhard; Michalski, Alexander; Rothstein, Benno; Nübel, Konrad; Metzner, Martin; Schwieger, Volker; Harrs, Jan-Albrecht; Jacob, Daniela; Köhler, Lothar; In het Panhuis, Gunnar; Rodríguez Tejeda, Raymundo C.; Herrmann, Michael; Buziek, GerdSpecific climate adaptation and resilience measures can be efficiently designed and implemented at regional and local levels. Climate and environmental databases are critical for achieving the sustainable development goals (SDGs) and for efficiently planning and implementing appropriate adaptation measures. Available federated and distributed databases can serve as necessary starting points for municipalities to identify needs, prioritize resources, and allocate investments, taking into account often tight budget constraints. High-quality geospatial, climate, and environmental data are now broadly available and remote sensing data, e.g., Copernicus services, will be critical. There are forward-looking approaches to use these datasets to derive forecasts for optimizing urban planning processes for local governments. On the municipal level, however, the existing data have only been used to a limited extent. There are no adequate tools for urban planning with which remote sensing data can be merged and meaningfully combined with local data and further processed and applied in municipal planning and decision-making. Therefore, our project CoKLIMAx aims at the development of new digital products, advanced urban services, and procedures, such as the development of practical technical tools that capture different remote sensing and in-situ data sets for validation and further processing. CoKLIMAx will be used to develop a scalable toolbox for urban planning to increase climate resilience. Focus areas of the project will be water (e.g., soil sealing, stormwater drainage, retention, and flood protection), urban (micro)climate (e.g., heat islands and air flows), and vegetation (e.g., greening strategy, vegetation monitoring/vitality). To this end, new digital process structures will be embedded in local government to enable better policy decisions for the future.Item Open Access An approach for automated detection and classification of pavement cracks(2017) Al-Mistarehi, Bara'; Schwieger, Volker (Prof. Dr.-Ing. habil.)Item Open Access Ein Beitrag zur Identifikation von dynamischen Strukturmodellen mit Methoden der adaptiven Kalman-Filterung(2005) Eichhorn, Andreas; Möhlenbrink, Wolfgang (Prof. Dr.-Ing.)Die vorliegende Arbeit entstand am "Institut für Anwendungen der Geodäsie im Bauwesen" (IAGB) der Universität Stuttgart im Rahmen des Forschungsschwerpunkts "Identifikation dynamischer Systeme". Es werden zwei Aufgabenstellungen behandelt. Die erste Aufgabenstellung kommt aus dem Bereich der Deformationsanalyse und beinhaltet die Entwicklung eines Temperaturdeformationsmodells zur realitätsnahen Prädiktion bzw. Simulation der Auswirkung von einseitigen dynamischen Temperaturbelastungen auf balkenförmige Körper. Ein wichtiges Anwendungsgebiet ist im Maschinenbau durch die indirekten Kompensationsverfahren zur Minimierung von thermischen Effekten auf hochpräzise Werkzeugmaschinen gegeben. Im Bauwesen ist die Analyse der thermischen Biegung von schlanken Baukonstruktionen unter dem Einfluss der Sonneneinstrahlung von Interesse. Den Kern des Modells bildet eine Finite Elemente Topologie auf der Grundlage von partiellen Differenzialgleichungen zur Quantifizierung der instationären Temperaturverteilung. Die parametrische Identifikation des dynamischen Strukturmodells ("White box"-Modell) erfolgt mittels adaptiver KALMAN-Filterung. In Labortests mit einer Aluminiumsäule gelingt die Schätzung der Temperaturleitfähigkeit des Materials mit einer Abweichung von nur 0,2% des Sollwertes. Durch unabhängige Temperaturmessungen wird gezeigt, dass eine Prognose der instationären Temperaturgradienten entlang des Mantels der Säule mit Restabweichungen erfolgen kann, die innerhalb des Bereichs der dreifachen Standardabweichung der verwendeten Temperaturmesssensoren (sigmaT = 0,4 K) liegen. Das Modell ist damit zur realitätsnahen Berechnung der Temperaturverteilung unter einem variablen Spektrum von dynamischen Belastungen geeignet. Die Verknüpfung mit einem Deformationsmodul (thermische Biegung) ermöglicht dann die Prognose von Säulenbiegungen mit einer mittleren Abweichung von ca. 3% der experimentell erzeugten maximalen Amplitude, was den Anforderungen für indirekte Kompensationsverfahren genügt. Die zweite Aufgabenstellung beinhaltet die parametrische Identifikation einer Fahrzeugbewegung. Im Auftrag der DaimlerChrysler AG wird ein Modul zur kartenunabhängigen Fahrzeugortung entwickelt. Kern des Moduls ist ein KALMAN-Filter mit einem kausal modifizierten kinematischen Bewegungsmodell des Fahrzeugs. Das Modell berücksichtigt explizit die gemessenen Orientierungsänderungen. Hierdurch wird die übliche Trägheit von kinematischen Bewegungsgleichungen entscheidend reduziert. Bei Stadt- und Landstrassenfahrten werden mit dem Ortungsmodul Positionsschätzungen mit mittleren Genauigkeiten von sigmaP = 2...3 m erzielt.Item Open Access A contribution to multipath modeling and simulation for kinematic trajectories(2021) Avram, Alexandra; Volker, Schwieger (Prof. Dr.-Ing. habil.)Over the last years, GNSS technology has been under continuous development and its applications as well. This progress is driven by the emergence of increasingly complex applications. One such trending application for GNSS technology is automated transportation, which expands the boundaries in terms of navigation safety. Since multipath is one of the most challenging errors which affect the position and integrity of a navigation system, research is required in this direction. The multipath topic is complex, since it is dependent on the satellite position in conjunction with the surroundings of the receiving antenna. Therefore, the multipath effects are different for a static user compared to a kinematic one. Environment properties may lead to one or many reflections, diffraction, or non-line-of-sight (NLOS) situations. The characterization of the errors due to multipath in the GNSS observations have been extensively studied since 1972. Nevertheless, most of the focus in this field of study has been towards static applications. This dissertation extends the current multipath research by simulation, characterization, and modeling of multipath errors for kinematic vehicles.Item Open Access Driving environment inference from POI of navigation map : fuzzy logic and machine learning approaches(2023) Li, Yu; Metzner, Martin; Schwieger, VolkerTo adapt vehicle control and plan strategies in a predictive manner, it is usually desired to know the context of a driving environment. This paper aims at efficiently inferring the following five driving environments around vehicle’s vicinity: shopping zone, tourist zone, public station, motor service area, and security zone, whose existences are not necessarily mutually exclusive. To achieve that, we utilize the Point of Interest (POI) data from a navigation map as the semantic clue, and solve the inference task as a multilabel classification problem. Specifically, we first extract all relevant POI objects from a map, then transform these discrete POI objects into numerical POI features. Based on these POI features, we finally predict the occurrence of each driving environment via an inference engine. To calculate representative POI features, a statistical approach is introduced. To composite an inference engine, three inference systems are investigated: fuzzy inference system (FIS), support vector machine (SVM), and multilayer perceptron (MLP). In total, we implement 11 variants of inference engine following two inference strategies: independent and unified inference strategies, and conduct comprehensive evaluation on a manually collected dataset. The result shows that the proposed inference framework generalizes well on different inference systems, where the best overall F1 score 0.8699 is achieved by the MLP-based inference engine following the unified inference strategy, along with the fastest inference time of 0.0002 millisecond per sample. Hence, the generalization ability and efficiency of the proposed inference framework are proved.Item Open Access Elementary error model applied to terrestrial laser scanning measurements: study case arch dam Kops(2020) Kerekes, Gabriel; Schwieger, VolkerAll measurements are affected by systematic and random deviations. A huge challenge is to correctly consider these effects on the results. Terrestrial laser scanners deliver point clouds that usually precede surface modeling. Therefore, stochastic information of the measured points directly influences the modeled surface quality. The elementary error model (EEM) is one method used to determine error sources impact on variances-covariance matrices (VCM). This approach assumes linear models and normal distributed deviations, despite the non-linear nature of the observations. It has been proven that in 90% of the cases, linearity can be assumed. In previous publications on the topic, EEM results were shown on simulated data sets while focusing on panorama laser scanners. Within this paper an application of the EEM is presented on a real object and a functional model is introduced for hybrid laser scanners. The focus is set on instrumental and atmospheric error sources. A different approach is used to classify the atmospheric parameters as stochastic correlating elementary errors, thus expanding the currently available EEM. Former approaches considered atmospheric parameters functional correlating elementary errors. Results highlight existing spatial correlations for varying scanner positions and different atmospheric conditions at the arch dam Kops in Austria.Item Open Access An elementary error model for terrestrial laser scanning(2023) Kerekes, Gabriel; Schwieger, Volker (Prof. Dr.-Ing. habil. Dr. h.c.)Terrestrial Laser Scanning (TLS) is a recent method in engineering geodesy area-wise deformation analysis. After a TLS scan, the result for each epoch is a point cloud that describes the object’s geometry. For each point cloud, the stochastic properties are important for a reliable decision concerning the current object geometry. Generally, the stochastic properties are described by a stochastic model. Currently, stochastic models for TLS observations are highly disputed and incomplete. A realistic stochastic model is necessary for typical applications like structural deformation analysis for buildings and civil engineering constructions. This work presents a method to define a stochastic model in form of a synthetic variance-covariance matrix (SVCM) for TLS observations. It relies on the elementary error theory defined by Bessel and Hagen at the beginning of the 19th century and adapted for geodetic observations by Pelzer and Schwieger at the end of the 20th century. According to this theory, different types of errors that affect TLS measurements are classified into three groups: non-correlating, functional correlating, and stochastic correlating errors. For each group, different types of errors are studied based on the error sources that affect TLS observations. These types are classified as instrument-specific errors, environment-related errors, and object surface-related errors. Regarding instrument errors, calibration models for high-end laser scanners are studied. For the propagation medium of TLS observations, the effects of air temperature, air pressure and vertical temperature gradient on TLS distances and vertical angles are studied. An approach based on time series theory is used for extracting the spatial correlations between observation lines. For the object’s surface properties, the effect of surface roughness and reflectivity on the distance measurement is considered. Both parameters affect the variances and covariances in the stochastic model. For each of the error types, examples based on own research or literature are given. After establishing the model, four different study cases are used to exemplify the utility of a fully populated SVCM. The scenarios include real objects measured under laboratory and field conditions and simulated objects. The first example outlines the results from the SVCM based on a simulated wall with an analysis of the variance and covariance contribution. In the second study case, the role of the SVCM in a sphere adjustment is highlighted. A third study case presents a deformation analysis of a wooden tower. Finally, the fourth example shows how to derive an optimal TLS station point based on the SVCM trace. All in all, this thesis brings a contribution by defining a new stochastic model based on the elementary error theory in the form a SVCM for TLS measurements. It may be used for purposes such as analysis of error magnitude on scanned objects, adjustment of surfaces, or finding an optimal TLS station point position with regard to predefined criteria.Item Unknown Entwicklung eines Steuerungssystems für eine Laderaupe zur Durchführung vollautomatisierter Ladeprozesse unter Einsatz bildverarbeitender Robottachymeter und adaptiver Regelung(2020) Lerke, Otto; Schwieger, Volker (Prof. Dr.-Ing. habil.)Die Automatisierung von Bauprozessen spielt eine immer wichtigere Rolle auf Baustellen. Automatisierung ermöglicht es, Arbeiten in kürzerer Zeit durchzuführen und gleichzeitig eine Erhöhung der Arbeitsqualität zu erreichen. Daneben kann auch die Arbeitssicherheit gesteigert werden. Der Baubetrieb ist im Allgemeinen in mannigfaltige und vielschichtige Prozesse unterteilt. Viele Prozesse werden von automatisierten Baumaschinen durchgeführt. Für den Bereich Erdbewegungen werden Rad- oder Raupenfahrzeuge mit entsprechenden Ladewerkzeugen eingesetzt, die jedoch zum jetzigen Zeitpunkt nicht automatisiert sind. Ziel dieser Arbeit ist es, ein System zu entwickeln, welches es ermöglicht, Belade- und Entladevorgänge vollautomatisch durchzuführen. Dies dient dazu, das Spektrum erhältlicher Systeme bei Erdbewegungsmaschinen, um semi-automatische und vollautomatische 3D Systeme zu erweitern. Die Funktionsweise des Systems wird anhand eines Laderaupenmodells im Massstab 1:14 demonstriert. Die Innovationen sind die bildbasierte Positionsbestimmung mit bildverarbeitenden Tachymetern und die Konzeption einer adaptiven Regelung zur automatischen Führung von Raupenfahrzeugen.Item Unknown Entwicklung eines tachymeter-basierten Zielsystems(2023) Hassan, Aiham; Schwieger, Volker (Prof. Dr.-Ing. habil. Dr. h.c.)Im Rahmen dieser Arbeit wird ein Prototyp für ein flexibel einsetzbares Tachymeterzielsystem (TZS) zur Vermessung verdeckter Objektpunkte entwickelt und empirisch anhand von Testmessungen untersucht. Die Ergebnisse dieser Untersuchungen zeigen, dass das Potenzial des TZS vielversprechend ist. Des Weiteren wird die Methode der lokalen Sensitivitätsanalyse zur Identifikation der wichtigen Eingangsgrößen für das deterministische Modell des TZS eingesetzt. Anhand der Ergebnisse dieser Analyse wird eine Optimierung dieses Modells durchgeführt.Item Unknown Entwicklung und Evaluierung eines formgestützten Location Referencing Verfahrens(2016) Schützle, Rainer; Schwieger, Volker (Prof. Dr.-Ing. habil.)Mit der wachsenden Verfügbarkeit von leistungsfähigen und kostengünstigen mobilen Endgeräten sowie flächendeckenden Datenübertragungsnetzen entstehen immer mehr Anwendungen sowohl in Geräten für Endkunden als auch professionelle Systeme, beispielsweise im Automobil-Bereich, bei denen Informationen mit einer Ortsangabe, der sogenannten Georeferenz, versehen werden. Im geodätischen Sinne besteht eine solche Georeferenz aus einem Koordinatensatz in einem definierten Koordinatensystem und bezeichnet somit einen Ort auf der Erde in eindeutiger Weise. Für praktische Anwendungen ist es jedoch häufig hilfreich, wenn zu dieser koordinatenmäßigen Darstellung auch Bezüge zu Objekten der Realwelt, etwa Gebäuden oder Straßen, hergestellt werden. Ein Katalog solcher Abbildungen von Realweltobjekten samt ihrer Beschreibung kann allgemein als (digitale) Karte bezeichnet werden. Um nun Informationen, welche auf die in einer solchen Karte abgebildeten Objekte referenziert sind, zwischen verschiedenen Endgeräten oder Systemen austauschen zu können, ist eine standardisierte Verallgemeinerung der Georeferenzierung erforderlich. Dies wird üblicherweise als Location Referencing bezeichnet. Location Referencing Verfahren wurden im Rahmen von Forschungsprojekten verschiedentlich entwickelt, implementiert und praktisch angewendet. Dabei wurde beispielsweise im Rahmen des EU-geförderten Forschungsprojektes ROSATTE deutlich, dass diese LR-Verfahren grundsätzlich für die Übertragung von kartenbasierten Informationen zwischen verschiedenen Kartensystemen geeignet sind. Für bestimmte Anwendungsfälle mit hohen Qualitätsanforderungen sind jedoch noch weitere Verbesserungen notwendig. Eine Location Referencing Übertragung kann technisch als Zuordnungsproblem zwischen zwei digitalen Karten verallgemeinert werden. Dabei wird die auf der Ausgangskarte basierende Georeferenz des zu übertragenden Objektes verallgemeinert. Diese wird als Ortsreferenz bezeichnet. In der als Zielnetz bezeichneten Karte des empfangenden Systems muss zur Zuordnung dann die korrespondierende Ortsreferenz identifiziert werden. Daher werden zunächst Grundlagen der Zuordnungsverfahren aus der Geoinformatik sowie bestehende Arbeiten auf diesem Gebiet dargestellt. Des Weiteren wird zwischen der Zuordnung auf Schema- und Objekt-Ebene unterschieden, was im späteren Verlauf der Arbeit zum Verständnis von Zuordnungsproblemen beiträgt. Die Zusammenführung der vorgestellten Zuordnungsmaße für eine Zuordnungsentscheidung kann mittels Kosten- oder Leistungsfunktionen erfolgen. Grundsätzlich lassen sich für das Location Referencing zwei Varianten, nämlich das statische und das dynamische Location Referencing unterscheiden. Aufgrund der starken Dynamik der möglichen LR-Anwendungen erscheint eine statische Referenzierung mit zentral verwalteten Ortstabellen für die heutige und zukünftige praktische Anwendung des Location Referencing wenig sinnvoll. Daher folgt nach der Vorstellung möglicher LR-Anwendungen eine Übersicht bestehender dynamischer LR-Verfahren. Aufgrund seiner schon weiten Verbreitung und freien Zugänglichkeit in Hinsicht auf Lizenz und Implementierung wird OpenLR als Grundlage für die Entwicklungen im Rahmen der vorliegenden Arbeit detailliert vorgestellt und einer detaillierten Analyse unterzogen. Dabei wird der entsprechende Standard und die verfügbare Referenz-Implementierung des Verfahrens untersucht und Verbesserungsmöglichkeiten identifiziert. Auf der vorangegangenen LR-Analyse aufbauend, wird im Rahmen dieser Arbeit ein neues Location Referencing Verfahren, der sogenannte Form-Matcher, entwickelt. Das neue Verfahren baut auf OpenLR auf, verwendet jedoch zusätzliche formbasierte Zuordnungsmerkmale, z.B. die Anzahl signifikanter Richtungsänderungen einer linienhaften Ortsreferenz. Für die Suche der Zuordnungskandidaten werden alle den vollständigen Verlauf der Ortsreferenz im Zielnetz abdeckenden Routen-Kandidaten identifiziert und dann einer individuellen Bewertung entsprechend der verwendeten Zuordnungsmaße unterzogen. Des Weiteren berücksichtigt das neue Verfahren insbesondere auch die topologischen Eigenschaften der Ortsreferenzen bei der Decodierung im Zielnetz. Die Beschreibung der Qualität der Kartenzuordnungen und damit auch die Evaluierung der LR-Übertragung soll auf einschlägigen Qualitätsmodellierungen aufbauen. Daher werden zunächst allgemeine Ansätze zur Qualitätsbeschreibung von Geodaten aus der Geoinformatik und auch speziell dem Verkehrsbereich vorgestellt. Daneben werden existierende Ansätze zur Beschreibung der Qualität von Kartenzuordnungen, beispielsweise aus dem ROSATTE-Projekt sowie der häufig verwendete Precision-Recall-Ansatz vorgestellt und auf ihre Tauglichkeit zur Verwendung im Rahmen der vorliegenden Arbeit hin untersucht. Auf diesen Grundlagen aufbauend, wird ein beschreibendes Qualitätsmodell sowie ein Verfahren zur Ermittlung der Qualität von Kartenzuordnungen für diese Arbeit entwickelt. Grundlage sind die Qualitätsmerkmale Vollständigkeit, Genauigkeit und Korrektheit. Von ihnen ausgehend werden Qualitätsparameter auf Objektebene abgeleitet und mittels Leistungsfunktion zusammengeführt. Zur globalen Beurteilung können diese lokalen Qualitätsparameter auch auf Datensatzebene zusammengeführt werden. Schließlich wurde das neu entwickelte LR-Verfahren sowie die Qualitätsbeurteilung zur Durchführung praktischer Untersuchungen in der sogenannten LR-Testumgebung implementiert. Aus den verfügbaren digitalen Straßenkarten TomTom MultiNet und OpenStreetMap wurden Datensätze für vier unterschiedliche Szenarien Autobahn, Landstraße, Innenstadt und Kreuzungen erstellt. Die damit durchgeführten empirischen Untersuchungen zeigen eine Qualitätssteigerung der LR-Übertragungen mittels Form-Matcher gegenüber OpenLR bei einer Übermittlung von OpenStreetMap Karten nach TomTom MultiNet. Für diese Übertragungsrichtung konnte der Anteil korrekter Zuordnungen von 63 % auf 75 % gesteigert werden. In umgekehrter Richtung zeigt OpenLR mit einem Anteil an korrekten Zuordnungen von 71 % ein höheres Qualitätsniveau, das der Form-Matcher mit 69 % korrekten Zuordnungen nicht verbessern kann.Item Open Access Estimating control points for B-spline surfaces using fully populated synthetic variance−covariance matrices for TLS point clouds(2021) Raschhofer, Jakob; Kerekes, Gabriel; Harmening, Corinna; Neuner, Hans; Schwieger, VolkerA flexible approach for geometric modelling of point clouds obtained from Terrestrial Laser Scanning (TLS) is by means of B-splines. These functions have gained some popularity in the engineering geodesy as they provide a suitable basis for a spatially continuous and parametric deformation analysis. In the predominant studies on geometric modelling of point clouds by B-splines, uncorrelated and equally weighted measurements are assumed. Trying to overcome this, the elementary errors theory is applied for establishing fully populated covariance matrices of TLS observations that consider correlations in the observed point clouds. In this article, a systematic approach for establishing realistic synthetic variance–covariance matrices (SVCMs) is presented and afterward used to model TLS point clouds by B-splines. Additionally, three criteria are selected to analyze the impact of different SVCMs on the functional and stochastic components of the estimation results. Plausible levels for variances and covariances are obtained using a test specimen of several dm—dimension. It is used to identify the most dominant elementary errors under laboratory conditions. Starting values for the variance level are obtained from a TLS calibration. The impact of SVCMs with different structures and different numeric values are comparatively investigated. Main findings of the paper are that for the analyzed object size and distances, the structure of the covariance matrix does not significantly affect the location of the estimated surface control points, but their precision in terms of the corresponding standard deviations. Regarding the latter, properly setting the main diagonal terms of the SVCM is of superordinate importance compared to setting the off-diagonal ones. The investigation of some individual errors revealed that the influence of their standard deviation on the precision of the estimated parameters is primarily dependent on the scanning distance. When the distance stays the same, one-sided influences on the precision of the estimated control points can be observed with an increase in the standard deviations.Item Open Access Evaluation von Filter-Ansätzen für die Positionsschätzung von Fahrzeugen mit den Werkzeugen der Sensitivitätsanalyse(2008) Ramm, Katrin; Schwieger, Volker (PD Dr.-Ing.)In dieser Arbeit werden drei verschiedene Ansätze zur Fahrzeugpositionsbestimmung im Kalman-Filter entwickelt. Die Filterentwicklungen erfolgen, um eine bessere Detektion von Filterstörungen beim Auftreten von GPS-Ausreißern mit-tels einer verbesserten stochastischen Modellierung zu erreichen. Zur Berücksichtigung der zeitlichen Korrelation von kinematischen DGPS-Positions¬lösungen wird der Kalman-Filter-Ansatz um einen Formfilter erweitert. In einem adapti-ven Formfilter-Ansatz wird der in der Formfilter Modellierung enthaltene Prozesskoeffizient adaptiv geschätzt. Eine weitere Verbesserung der stochastischen Modellierung wird durch die Einführung einer epochenscharfen GPS-Standardabweichung in das stochastische Modell des Filters erreicht. Das Formfilter und das adaptive Formfilter tragen nicht, wie aufgrund der verbesserten stochastischen Modellierung erwartet, zu einer verbesserten Detektion von Filterstörungen bei. Dieses gelingt aber mit der Einführung epochenschar-fer GPS-Standardabweichungen in das stochastische Modell des Filters. Zur Evaluation der entwickelten Filter-Ansätze wird neben umfangreichen Messfahrtdaten die Varianz- und Sensitivi-tätsanalyse als Methode zur a priori Evaluation von Auswerteansätzen auf Basis von Simulationen eingesetzt. Das Potenzial der Sensitivitätsanalyse kann an ausgewählten Beispielen der Modellentwicklung aufgezeigt werden. Des Weiteren führt die a priori Evaluation mittels Varianz- und Sensitivitätsanalyse zu weitgehend identischen Ergebnissen wie die Analyse anhand realer Messfahrtdaten. Das Werkzeug der Varianz- und Sensitivitätsanalyse kann folglich bei Kenntnis bezüglich der statistischen Verteilung der eingesetzten Sensoren Messfahrten ersetzten.Item Open Access Identifikation von Systemmodellen zur dreidimensionalen Zustandsschätzung eines Peilschiffs mit Propellerantrieb unter Verwendung eines Multi-Sensorsystems(2021) Scheider, Annette; Schwieger, Volker (Prof. Dr.-Ing. habil. Dr. h.c.)Zur Gewährleistung der Verkehrssicherheit auf deutschen Binnenwasserstraßen wird in regelmäßigen Intervallen die Gewässersohle messtechnisch erfasst. Hierzu werden Peilschiffe eingesetzt, die mit Echoloten ausgerüstet sind. Um die so erfassten Messdaten georeferenzieren zu können, muss das Peilschiff mit geeigneter Sensorik zur Positionsbestimmung ausgerüstet werden. Gegenwärtig werden hierzu meist GNSS-Empfänger eingesetzt. Es zeigt sich jedoch, dass es immer wieder zu Lücken in der so erfassten Trajektorie des Schiffs kommt. Zur Lösung dieses Problems werden Messdaten von mehreren Sensoren (Multi-Sensorsystem) erfasst. Um die Messdaten mittels eines Extended Kalman Filter (EKF) prozessieren zu können, werden mehrere Systemmodelle gebildet, evaluiert und ins EKF integriert. Durch die kombinierte Auswertung können auch in Bereichen ohne GNSS-Empfang Positionslösungen bereitgestellt werden.Item Open Access Integration von Geoinformation und Geodaten-gestützter Positionsbestimmung in Rechnergestützte Betriebsleitsysteme des öffentlichen Personennahverkehrs(2006) Bettermann, Roland; Möhlenbrink, Wolfgang (Prof. Dr.-Ing.)Diese Abhandlung geht davon aus, dass die Datengrundlage eines RBL mit einem georeferenzierten Verkehrsnetz erweitert wird und somit die Grundlage für eine technologische Weiterentwicklung gelegt wird. Das Innovationspotenzial durch die Integration einiger Funktionen, die auf Geodaten basieren, und Geodaten-gestützter Positionsbestimmung in Rechnergestützte Betriebsleitsysteme (RBL) des Öffentlichen Personennahverkehrs wird aufgezeigt und mittels prototypischer Systemaufbauten, sowohl zentralen- als auch fahrzeugseitig, verifiziert. Die Ausgangsszenarien der Untersuchung sind das Störfallmanagement, flexible Bedienungsformen sowie das Priorisieren von Bussen an Lichtsignalanlagen. Fahrzeugseitig sind hinreichend genaue Geodaten-gestützte Positionsbestimmungsverfahren Gegenstand der Betrachtung. Die zentralenseitigen Untersuchungen zeigen: * Eine signifikante Verbesserung durch die Geodatenintegration ist zu erwarten, wenn das RBL eine Funktionserweiterung über den Linienverkehr hinaus erfährt. * Der Aufbau einer Geodateninfrastruktur (GDI) ist ein wirtschaftlich kritischer Faktor, insbesondere wenn die GDI ausschließlich von Seiten des operativen Betriebes eines Verkehrsunternehmens genutzt wird. Die fahrzeugseitigen Untersuchungen zur Geodaten-gestützten Positionsbestimmung zeigen: * Die Integration von marktverfügbaren Komponenten mit Geodaten-gestützter Positionsbestimmung ist praktikabel, wenn die entsprechenden Geodaten bereitstehen. * Eine Positionsbestimmung über passive Landmarken ist ein Verfahren, das technologisches Entwicklungspotenzial bietet, da eine hinreichend genaue Positionsschätzung erreicht wird.Item Open Access Lane-level map-aiding approach based on non-lane-level digital map data in road transport security(2021) Luz, Philipp; Zhang, Li; Wang, Jinyue; Schwieger, VolkerTo prevent terror attacks in which trucks are used as weapons as happened in Nice or Berlin in 2016, the European Project Autonomous Emergency Maneuvering and Movement Monitoring for Road Transport Security (TransSec) was launched in 2018. One crucial point of this project is the development of a map-aiding approach for the localization of vehicles on digital maps, so that the information in digital map data can be used to detect prohibited driving maneuvers, such as offroad or wrong-way drivers. For example, a lane-level map-aiding approach is required for wrongway driver detection. Navigation Data Standard (NDS) is one of the worldwide map standards developed by several automobile manufacturers. So far, there is no lane-level NDS map covers a large area, therefore, it was decided to use the latest available NDS map without lane level accuracy. In this paper, a lane-level map-aiding approach based on a non-lane-level NDS map is presented. Due to the inaccuracy of vehicle position and digital map the map-aiding does not always provide the correct results, so probabilities of off-road and wrong-way diver detection are estimated to support risk estimation. The performance of the developed map-aiding approach is comprehensively evaluated with both real and simulated trajectories.Item Open Access Leistungsfähigkeit fahrzeugautonomer Ortungsverfahren auf der Basis von Map-Matching-Techniken(2000) Czommer , Renate; Möhlenbrink , Wolfgang (Prof. Dr.-Ing.)Autonome Fahrzeugnavigationssysteme, die die gesamte Ortungssensorik und das auf CD gespeicherte Straßennetz im Fahrzeug mitführen, erfordern die straßengenaue Kenntnis der Fahrzeugposition auf dem Straßennetz. Der logische Bezug zwischen Fahrzeugposition und digitaler Karte wird durch eine Karteneinpassung (map matching) hergestellt. Die beschränkte Verfügbarkeit der Satellitenverfahren in bebauten Gebieten, Reifenschlupf und die ungünstige Fehlerfortpflanzung der Koppelortung führen immer wieder zu Ortungsverlusten. Abhilfe soll durch eine Karteneinpassung geschaffen werden, die das typische Fehlerverhalten der Sensoren kompensiert. Mit den Fehlermodellen für die Sensoren Odometer (Radsensor), Magnetfeldsonde, Kreisel, Beschleunigungsmesser, GPS und DGPS werden fünf Verfahren zur Karteneinpassung entwickelt, die im Krümmungsbild, im Winkelbild oder mit ebenen Koordinaten angesetzt werden. Mit Simulationen für die Sensorsysteme Kreisel/Odometer und Kreisel/Beschleunigungsmesser und realen Messungen mit GPS, DGPS, Kreisel und Radsensoren werden diese fünf Verfahren hinsichtlich Empfindlichkeit auf Sensorfehler, Genauigkeit und Zuverlässigkeit bei der Trassenidentifikation analysiert und bewertet. D/GPS Abschattungen erfordern eine Stützung durch Radsensoren. Messungen mit den Sensorkombinationen Kreisel mit Radsensor und Differentialodometer (mit und ohne D/GPS) können auf die Karte eingepaßt werden, wenn mindestens zwei Kurven durchfahren wurden. Die Verfahren im Winkel- oder Krümmungsbild berücksichtigen systematische Sensorfehler deutlich besser und werden mit längerer Fahrt immer genauer. Bordautonome Navigationssysteme mit Odometer und Kreisel erreichen durch die Karteneinpassung mit einer Genauigkeit von 70cm günstigere Ergebnisse als reines DGPS, so daß im Ballungsraum eine zuverlässige Karteneinpassung ohne DGPS möglich ist. Die Integration von DGPS verbessert die Genauigkeit kaum, allerdings wird die Integrität durch hybride Systeme verbessert.Item Open Access Method of development of a new regional ionosphere model (RIM) to improve static single-frequency precise point positioning (SF-PPP) for Egypt using Bernese GNSS software(2023) Abdallah, Ashraf; Agag, Tarek; Schwieger, VolkerDue to the lack of coverage of IGS in Africa, especially over North Africa, and the construction revolution of infrastructure in Egypt, a geodetic CORS stations network was established in 2012. These CORS stations are operated by the Egyptian Surveying Authority (Egy. SA) and cover the whole of Egypt. The paper presents a fully developed regional ionosphere model (RIM) depending on the Egyptian CORS stations. The new model and the PPP solution were obtained using Bernese GNSS V. 5.2 software. An observation data series of eight days (DOY 201-208)/2019 was used in this study. Eighteen stations were used to develop the RIM model for each day; fifteen stations were used to validate the new RIM model. A static SF-PPP solution was obtained using the CODE-GIM and RIM models. Comparing the outcomes to the reference network solution, based on the recently developed RIM model, the solution showed a mean error of 0.06 m in the East direction, 0.13 m in the North direction, and 0.21 m in the height direction. In the East, North, and height directions, this solution improves the SF-PPP result achieved by the Global Ionosphere Maps (CODE-GIM) model by 60%, 68%, and 77%, respectively.Item Open Access Modellgestützte Kostenprognose für den Aufbau qualitätsgesicherter Geodatenbestände(2005) Stark, Martin; Möhlenbrink, Wolfgang (Prof.Dr.-Ing.)Für moderne Verkehrs- und Telematikdienstleistungen spielen digitale, raumbezogene Daten eine entscheidende Rolle. Erst durch die Schaffung einer digitalen Straßenkarte erhielt z. B. die komplexe Aufgabe der Zielführung von Land-fahrzeugen unter Verwendung von Ortungs- und Navigationsverfahren den zur Markteinführung notwendigen Reife-grad. Diese Geodaten sind nicht nur unverzichtbare Grundlage solcher Anwendungen, sie verzehren bei ihrer Erfassung und Pflege auch die meisten Kosten. Mit der Datenalterung auf Grund mangelnden Aktualisierungen und fehlerhaften oder unvollständigen Inhalten geht ein hohes Maß an Akzeptanzverlust einher. Datenfehler können zudem zu erheblichen Mehraufwendungen und Folgekos-ten führen. Es liegt deshalb im unternehmenseigenen Interesse, die Investitions- und Folgekosten, welche durch den Einsatz von digitalen Geodaten entstehen, möglichst zuverlässig prognostizieren zu können. Diese Kostenprognose ist für die Un-ternehmensentwicklung in Form eines Geschäftsmodells von zentraler Bedeutung. In dieser Arbeit wird deshalb ein Konzept zur modellgestützten Kostenprognose für den Aufbau qualitätsgesicherter Geodatenbestände vorgestellt. Am Beispiel des im Rahmen des Forschungsprojekts MOBILIST in der Region Stuttgart geschaffenen Intermodalen Routenplaners wird gezeigt, mit welchen Arbeitsschritten und deren zeitlichen Umfängen es gelungen ist, von bereits vorhandenen digitalen raumbezogenen Daten zu einer digitalen Geodatengrundlage zu gelangen, die es gestattet, eine verkehrsnetzübergreifende Routenplanung durchzuführen. Hintergrund dieser Entwicklung ist das Bestreben nach ei-nem besseren Zusammenwirken der Verkehrsträger Straße und Schiene, um einen wichtigen Beitrag zu Sicherung der individuellen Mobilität bei stetig steigendem Verkehrsaufkommen zu leisten. Hierbei wird aufgezeigt, dass die Gesamtkosten zur Realisierung der Geodatengrundlage je nach Umfang der Qualitäts-sicherungsmaßnahmen stark variieren. Der Aufwand zur Qualitätssicherung durch Fehleridentifikation und –korrektur kann die Herstellkosten übersteigen. Hieraus motiviert sich die kostenmäßige Betrachtung von qualitätssichernden Maßnahmen sowie deren Einfluss auf die durchzuführende Strategie des Geodatenaufbaus. Mit der Integration dieser Betrachtung in das Kostenprognosemodell wird das Ziel verfolgt, nicht nur die reinen Aufbaukosten des Datenbestandes abschätzen zu können, sondern auch die richtige, kostengünstigere Fehleridentifikations- und -korrekturmaßnahme auszuwählen. Darüber hinaus werden Aussa-gen getroffen, von welchen Einflussfaktoren eine Auswahl unterschiedlicher Aufbaustrategien abhängig ist. Es wird anhand von Modellrechnungen nachgewiesen, dass es wirtschaftlich sinnvoll sein kann, statt der Nutzung des eigenen Datenbestandes einen kompletten fremden Datenbestand einzukaufen und nachträglich weitere Informationen hinzuzufügen. Ferner wird aufgezeigt, ab welchen Qualitätsforderungen eine vollständige Prüfung des gesamten Daten-bestandes einer Stichprobenprüfung vorzuziehen ist und welchen Einfluss dies auf die Gesamtkosten hat. Mit diesem praxistauglichen, anhand eines realen Geodatenaufbaus kalibrierten Kostenprognosemodells existiert eine Entscheidungsmethodik für den Aufbau von Geodatenbeständen. Zudem sind künftig die Qualitätssicherungsmaßnah-men systematisch planbar. Es ist weiterhin detailliert ausgearbeitet, welche Arbeitsschritte zur Projektion dieser mo-dellgestützten Kostenprognose auf andere Anforderungen zum Aufbau von Geodatenbeständen notwendig sind.