Repository logoOPUS - Online Publications of University Stuttgart
de / en
Log In
New user? Click here to register.Have you forgotten your password?
Communities & Collections
All of DSpace
  1. Home
  2. Browse by Author

Browsing by Author "Schwieger, Volker (Prof. Dr.-Ing. habil.)"

Filter results by typing the first few letters
Now showing 1 - 9 of 9
  • Results Per Page
  • Sort Options
  • Thumbnail Image
    ItemOpen Access
    Anwendung von Unsicherheitsmodellen am Beispiel der Verkehrserfassung unter Nutzung von Mobilfunkdaten
    (2013) Borchers, Ralf; Schwieger, Volker (Prof. Dr.-Ing. habil.)
    Das hohe und stetig anwachsende Verkehrsaufkommen ist häufig Ursache für Überlastungen der Verkehrswege und deren Folgeerscheinungen, wie z. B. Verkehrsstaus und Unfälle. Mit Einführung von Verkehrsmanagement-systemen wird angestrebt, Effizienzverbesserungen des Verkehrsflusses auf den bestehenden Verkehrswegen zu erzielen. Als wesentliche Datengrundlage setzen Verkehrsmanagementsysteme Verkehrsdaten voraus, wie sie mittels Induktionsschleifen oder sogenannter Floating Car Data gewonnen werden können. Vor dem Hintergrund, dass Mobilfunkgeräte geortet werden können, eignen sich die als Floating Phone Data bezeichneten und aus Mobilfunkdaten hergeleiteten Verkehrsdaten ebenfalls zur Verkehrserfassung. Dieser auch wirtschaftlich attraktiven Verkehrserfassungsart stehen hohe Ortungsunsicherheiten von mehreren einhundert Metern sowie die fehlende Information, ob und in welchem Verkehrsmittel das Mobilfunkgerät mitgeführt wurde, gegenüber. In der vorliegenden Arbeit wird eine Mobilfunkortung basierend auf dem Signalpegel-Matching eingesetzt, die die gemessenen Signalpegel der Mobilfunkgeräte des GSM-Mobilfunknetzes mit Referenzsignalpegelkarten vergleicht. Die zufälligen, systematischen aber auch unbekannt wirkenden Unsicherheiten werden mit Hilfe der zufälligen Variabilität, der Fuzzy-Theorie und der Fuzzy-Randomness Methodik modelliert. Im Anschluss werden Identifikationsverfahren vorgestellt, mit denen in Verkehrsmitteln des Motorisierten Individualverkehrs (z. B. in PKW oder LKW) generierte Mobilfunkdaten aus anonymisierten Mobilfunkdaten identifiziert werden können. Zu Beginn wird geprüft, ob sich das Mobilfunkgerät in Bewegung befindet. Bewegt es sich, wird nachfolgend dessen Geschwindigkeit als Entscheidung bezüglich eines Verkehrsmittels herangezogen. Hintergrund ist, dass bauartbedingte oder administrative Gründe die Höchstgeschwindigkeit von Verkehrsmitteln begrenzen. Ist die Geschwindigkeit des Mobilfunkgerätes signifikant höher als die Höchstgeschwindigkeit des untersuchten Verkehrsmittels, kann dieses Verkehrsmittel ausgeschlossen werden. Da in öffentlichen Verkehrsmitteln generierte Mobilfunkdaten für die Erfassung des Motorisierten Individualverkehrs ungeeignet sind, werden sie im nächsten Schritt eliminiert. Aus Fahrplänen werden hierfür die Positionen der Fahrzeuge des Öffentlichen Verkehrs (z. B. Linienbusse, Straßenbahnen) prognostiziert und mit den Positionen des Mobilfunkgerätes sowohl zeitlich als auch räumlich verglichen. Abschließend wird geprüft, ob für die Positionsfolge des Mobilfunkgerätes eine Trajektorie auf dem Verkehrsnetzgraph des motorisierten Individualverkehrs (Straßennetz) generiert werden kann. Kann die Positionsfolge in den Verkehrsnetzgraph räumlich, topologisch und zeitlich eingepasst werden, ist sie grundsätzlich für die Verkehrslageerfassung des motorisierten Individualverkehrs geeignet. Für stehende Mobilfunkgeräte ist in der Regel keine eindeutige Identifikation des Verkehrsmittels möglich, da jedes Verkehrsmittel stehen kann. Eine Unterscheidung zwischen Mobilfunkgeräten in Verkehrsstaus und beispielsweise nicht am Verkehr beteiligten Mobilfunkgeräten (z. B. stehende Fußgänger) ist infolgedessen zunächst nicht möglich. Diese Problemstellung wurde durch die Verknüpfung aktueller und vorgehender Identifizierungsergebnisse gelöst. Um ihre Eignung und ihr Potential zu vergleichen, wurden die Identifikationsverfahren mit konsequenter Anwendung der mathematischen Unsicherheitsmodelle der zufälligen Variabilität, der Fuzzy-Theorie und des Fuzzy-Randomness entwickelt und softwaretechnisch umgesetzt. Die entwickelten Identifikationsverfahren wurden unter Verwendung realer Mobilfunkdaten validiert und evaluiert. Das auf der Fuzzy-Randomness Methodik basierende Identifikationsverfahren, ergab sowohl qualitativ als auch quantitativ die besten Identifikationsergebnisse.
  • Thumbnail Image
    ItemOpen Access
    An approach for automated detection and classification of pavement cracks
    (2017) Al-Mistarehi, Bara'; Schwieger, Volker (Prof. Dr.-Ing. habil.)
  • Thumbnail Image
    ItemOpen Access
    Entwicklung eines Steuerungssystems für eine Laderaupe zur Durchführung vollautomatisierter Ladeprozesse unter Einsatz bildverarbeitender Robottachymeter und adaptiver Regelung
    (2020) Lerke, Otto; Schwieger, Volker (Prof. Dr.-Ing. habil.)
    Die Automatisierung von Bauprozessen spielt eine immer wichtigere Rolle auf Baustellen. Automatisierung ermöglicht es, Arbeiten in kürzerer Zeit durchzuführen und gleichzeitig eine Erhöhung der Arbeitsqualität zu erreichen. Daneben kann auch die Arbeitssicherheit gesteigert werden. Der Baubetrieb ist im Allgemeinen in mannigfaltige und vielschichtige Prozesse unterteilt. Viele Prozesse werden von automatisierten Baumaschinen durchgeführt. Für den Bereich Erdbewegungen werden Rad- oder Raupenfahrzeuge mit entsprechenden Ladewerkzeugen eingesetzt, die jedoch zum jetzigen Zeitpunkt nicht automatisiert sind. Ziel dieser Arbeit ist es, ein System zu entwickeln, welches es ermöglicht, Belade- und Entladevorgänge vollautomatisch durchzuführen. Dies dient dazu, das Spektrum erhältlicher Systeme bei Erdbewegungsmaschinen, um semi-automatische und vollautomatische 3D Systeme zu erweitern. Die Funktionsweise des Systems wird anhand eines Laderaupenmodells im Massstab 1:14 demonstriert. Die Innovationen sind die bildbasierte Positionsbestimmung mit bildverarbeitenden Tachymetern und die Konzeption einer adaptiven Regelung zur automatischen Führung von Raupenfahrzeugen.
  • Thumbnail Image
    ItemOpen Access
    Entwicklung und Evaluierung eines formgestützten Location Referencing Verfahrens
    (2016) Schützle, Rainer; Schwieger, Volker (Prof. Dr.-Ing. habil.)
    Mit der wachsenden Verfügbarkeit von leistungsfähigen und kostengünstigen mobilen Endgeräten sowie flächendeckenden Datenübertragungsnetzen entstehen immer mehr Anwendungen sowohl in Geräten für Endkunden als auch professionelle Systeme, beispielsweise im Automobil-Bereich, bei denen Informationen mit einer Ortsangabe, der sogenannten Georeferenz, versehen werden. Im geodätischen Sinne besteht eine solche Georeferenz aus einem Koordinatensatz in einem definierten Koordinatensystem und bezeichnet somit einen Ort auf der Erde in eindeutiger Weise. Für praktische Anwendungen ist es jedoch häufig hilfreich, wenn zu dieser koordinatenmäßigen Darstellung auch Bezüge zu Objekten der Realwelt, etwa Gebäuden oder Straßen, hergestellt werden. Ein Katalog solcher Abbildungen von Realweltobjekten samt ihrer Beschreibung kann allgemein als (digitale) Karte bezeichnet werden. Um nun Informationen, welche auf die in einer solchen Karte abgebildeten Objekte referenziert sind, zwischen verschiedenen Endgeräten oder Systemen austauschen zu können, ist eine standardisierte Verallgemeinerung der Georeferenzierung erforderlich. Dies wird üblicherweise als Location Referencing bezeichnet. Location Referencing Verfahren wurden im Rahmen von Forschungsprojekten verschiedentlich entwickelt, implementiert und praktisch angewendet. Dabei wurde beispielsweise im Rahmen des EU-geförderten Forschungsprojektes ROSATTE deutlich, dass diese LR-Verfahren grundsätzlich für die Übertragung von kartenbasierten Informationen zwischen verschiedenen Kartensystemen geeignet sind. Für bestimmte Anwendungsfälle mit hohen Qualitätsanforderungen sind jedoch noch weitere Verbesserungen notwendig. Eine Location Referencing Übertragung kann technisch als Zuordnungsproblem zwischen zwei digitalen Karten verallgemeinert werden. Dabei wird die auf der Ausgangskarte basierende Georeferenz des zu übertragenden Objektes verallgemeinert. Diese wird als Ortsreferenz bezeichnet. In der als Zielnetz bezeichneten Karte des empfangenden Systems muss zur Zuordnung dann die korrespondierende Ortsreferenz identifiziert werden. Daher werden zunächst Grundlagen der Zuordnungsverfahren aus der Geoinformatik sowie bestehende Arbeiten auf diesem Gebiet dargestellt. Des Weiteren wird zwischen der Zuordnung auf Schema- und Objekt-Ebene unterschieden, was im späteren Verlauf der Arbeit zum Verständnis von Zuordnungsproblemen beiträgt. Die Zusammenführung der vorgestellten Zuordnungsmaße für eine Zuordnungsentscheidung kann mittels Kosten- oder Leistungsfunktionen erfolgen. Grundsätzlich lassen sich für das Location Referencing zwei Varianten, nämlich das statische und das dynamische Location Referencing unterscheiden. Aufgrund der starken Dynamik der möglichen LR-Anwendungen erscheint eine statische Referenzierung mit zentral verwalteten Ortstabellen für die heutige und zukünftige praktische Anwendung des Location Referencing wenig sinnvoll. Daher folgt nach der Vorstellung möglicher LR-Anwendungen eine Übersicht bestehender dynamischer LR-Verfahren. Aufgrund seiner schon weiten Verbreitung und freien Zugänglichkeit in Hinsicht auf Lizenz und Implementierung wird OpenLR als Grundlage für die Entwicklungen im Rahmen der vorliegenden Arbeit detailliert vorgestellt und einer detaillierten Analyse unterzogen. Dabei wird der entsprechende Standard und die verfügbare Referenz-Implementierung des Verfahrens untersucht und Verbesserungsmöglichkeiten identifiziert. Auf der vorangegangenen LR-Analyse aufbauend, wird im Rahmen dieser Arbeit ein neues Location Referencing Verfahren, der sogenannte Form-Matcher, entwickelt. Das neue Verfahren baut auf OpenLR auf, verwendet jedoch zusätzliche formbasierte Zuordnungsmerkmale, z.B. die Anzahl signifikanter Richtungsänderungen einer linienhaften Ortsreferenz. Für die Suche der Zuordnungskandidaten werden alle den vollständigen Verlauf der Ortsreferenz im Zielnetz abdeckenden Routen-Kandidaten identifiziert und dann einer individuellen Bewertung entsprechend der verwendeten Zuordnungsmaße unterzogen. Des Weiteren berücksichtigt das neue Verfahren insbesondere auch die topologischen Eigenschaften der Ortsreferenzen bei der Decodierung im Zielnetz. Die Beschreibung der Qualität der Kartenzuordnungen und damit auch die Evaluierung der LR-Übertragung soll auf einschlägigen Qualitätsmodellierungen aufbauen. Daher werden zunächst allgemeine Ansätze zur Qualitätsbeschreibung von Geodaten aus der Geoinformatik und auch speziell dem Verkehrsbereich vorgestellt. Daneben werden existierende Ansätze zur Beschreibung der Qualität von Kartenzuordnungen, beispielsweise aus dem ROSATTE-Projekt sowie der häufig verwendete Precision-Recall-Ansatz vorgestellt und auf ihre Tauglichkeit zur Verwendung im Rahmen der vorliegenden Arbeit hin untersucht. Auf diesen Grundlagen aufbauend, wird ein beschreibendes Qualitätsmodell sowie ein Verfahren zur Ermittlung der Qualität von Kartenzuordnungen für diese Arbeit entwickelt. Grundlage sind die Qualitätsmerkmale Vollständigkeit, Genauigkeit und Korrektheit. Von ihnen ausgehend werden Qualitätsparameter auf Objektebene abgeleitet und mittels Leistungsfunktion zusammengeführt. Zur globalen Beurteilung können diese lokalen Qualitätsparameter auch auf Datensatzebene zusammengeführt werden. Schließlich wurde das neu entwickelte LR-Verfahren sowie die Qualitätsbeurteilung zur Durchführung praktischer Untersuchungen in der sogenannten LR-Testumgebung implementiert. Aus den verfügbaren digitalen Straßenkarten TomTom MultiNet und OpenStreetMap wurden Datensätze für vier unterschiedliche Szenarien Autobahn, Landstraße, Innenstadt und Kreuzungen erstellt. Die damit durchgeführten empirischen Untersuchungen zeigen eine Qualitätssteigerung der LR-Übertragungen mittels Form-Matcher gegenüber OpenLR bei einer Übermittlung von OpenStreetMap Karten nach TomTom MultiNet. Für diese Übertragungsrichtung konnte der Anteil korrekter Zuordnungen von 63 % auf 75 % gesteigert werden. In umgekehrter Richtung zeigt OpenLR mit einem Anteil an korrekten Zuordnungen von 71 % ein höheres Qualitätsniveau, das der Form-Matcher mit 69 % korrekten Zuordnungen nicht verbessern kann.
  • Thumbnail Image
    ItemOpen Access
    Ein modulares Simulationskonzept zur Evaluierung von Positionssensoren sowie Filter- und Regelalgorithmen am Beispiel des automatisierten Straßenbaus
    (2012) Beetz, Alexander; Schwieger, Volker (Prof. Dr.-Ing. habil.)
    Im Bereich des automatisierten Straßenbaus gab es in den letzten Jahren sehr große Fortschritte, sodass auf großen Autobahnbaustellen schon vielfach automatisierte Baumaschinen eingesetzt werden. Bei diesen Maschinen findet hauptsächlich nur eine automatische Höhenregelung der Werkzeuge statt. Eine vollständige automatische Steuerung von Lage und Höhe des Fahrzeuges und Werkzeuges ist nur bei langsam fahrenden Baumaschinen, wie z.B. bei Asphaltfertigern und Randsteinfertigern, umgesetzt. Der Aufbau solcher Systeme wird zumeist individuell für jede Maschine durchgeführt, wobei das Zusammenspiel von Sensoren, Filter- und Regelalgorithmen von zentraler Bedeutung ist und für jeden Baumaschinentyp erneut vorgenommen werden muss. Simulationen für die Implementierung der Software auf dem Maschinenrechner und den zu verwendenden Sensoren werden meist nur softwareseitig durchgeführt. Ein Zwischenschritt, bei dem sowohl einzelne Sensorkomponenten oder auch die zu implementierenden Filter im Labor ohne äußere Einflüsse, wie z.B. Bodenbeschaffenheit oder andere Umgebungseinflüsse, getestet werden können fehlt. Das in dieser Arbeit entwickelte dreistufige Simulationskonzept schließt mit der Entwicklung eines zusätzlichen Hardware-In-The-Loop Simulators diese Lücke. Für den Hardware-In-The-Loop-Simulator werden ferngesteuerte Fahrzeugmodelle im Maßstab 1:14 eingesetzt, welche die kinematischen Fahreigenschaften realitätsnah abbilden. Durch das Zusammenschalten von Sensoren, Software und den Modellen können entsprechende Simulationen durchgeführt werden, um die neu einzubindenden Sensoren und Algorithmen im Labor zu optimieren. Zur Umsetzung des Simulators findet, neben der geometrischen Beschreibung von weitverbreiteten Fahrzeugmodellen im Straßenbau, auch eine exemplarische Beschreibung von drei charakteristischen Werkzeugen statt. Bei diesen handelt es sich um die Werkzeuge einer Planierraupe, eines Motorgraders und eines Asphaltfertigers. Anhand von zwei dieser geometrischen Werkzeugmodelle wird eine Sensitivitätsanalyse durchgeführt, welche den Einfluss verschiedener Sensoren auf die erreichbare Positionsgenauigkeit der Werkzeuge untersucht. Zum besseren Verständnis der systemtheoretischen und regelungstechnischen Begriffe für die Beschreibung des Simulators wird eine kurze Einführung in diese Thematik gegeben. Dabei wird gezielt auf die im Simulator benutzten Regler zur Querregelung der Fahrzeugmodelle auf einer vorgegebenen Trajektorie (Soll-Trajektorie) eingegangen. Die verwendeten Regler bestehen aus verschiedenen Kombinationen der einzelnen Parameter des PID-Reglers und beruhen somit auf einem nicht modellbasierten Ansatz. Für die Beschreibung der Regelgüte, am Beispiel der Querregelung, wird zur Evaluierung der Sensoren sowie der Regel- und Filteralgorithmen im Regelkreis der quadratische Mittelwert (Root Mean Square = RMS) eingeführt. Dieser berechnet sich aus den Querabweichungen der Fahrzeuge zu einer Soll-Trajektorie während der Querregelung. Vor dem Einsatz der Regler im Simulatorsystem werden diese anhand von Softwaresimulationen evaluiert. Zur Positionsbestimmung der zu regelnden Fahrzeuge werden drei Robot-Tachymeter im Simulator eingesetzt. Diese werden hinsichtlich ihrer Messgenauigkeit für die Bestimmung der Regelgüte untersucht. Hierfür wird als Positionsreferenz zusätzlich ein Laser-Tracker verwendet, mit dessen Hilfe eine Trennung von Regelgüte und Messgenauigkeit erreicht werden kann. Bei den im Simulator integrierten Fahrzeugen handelt es sich um ein Raupen- und um ein LKW-Modell, mit deren Hilfe ein Großteil der im Straßenbau vorkommenden Fahrzeugmodelle untersucht werden kann. Für diese Modelle wird ein automatisiertes Kalibrierverfahren zur Bestimmung der Lenkparameter zur rechnergestützten Steuerung vorgestellt. Bei den praktischen Experimenten, die mit Hilfe des Simulators durchgeführt werden, findet neben der Überprüfung der implementierten Fahrzeugmodelle auch ein Vergleich von zwei Kalman-Filter-Varianten zur Verbesserung der Regelgüte statt. Innerhalb der Testreihen konnte in einem Geschwindigkeitsbereich von 10 - 30 cm/s eine Regelgüte von 2 - 4 mm erreicht werden.
  • Thumbnail Image
    ItemOpen Access
    Multi-sensor multi-object detection and tracking for ADAS, applied to trucks
    (2025) Bader, Christian; Schwieger, Volker (Prof. Dr.-Ing. habil.)
  • Thumbnail Image
    ItemOpen Access
    Precise point positioning for kinematic applications to improve hydrographic survey
    (2016) Abdallah, Ashraf; Schwieger, Volker (Prof. Dr.-Ing. habil.)
    Recently, there is an increasing interest to obtain cost-effective and accurate coordinates using the technique of GNSS Precise Point Positioning (PPP). This technique is mainly based on utilizing just one dual frequency GNSS instrument. The hydrography has the main interest in the field of positioning using the GNSS technique. The precise hydrographic surveying causes a better estimation for the bathymetric survey, which provides a vital estimation for the level of the bed of water resource and detects soil sedimentations and obstacles. The current study investigates the performance of the kinematic PPP solution using Bernese GNSS software from two sides. The first side relates to the effective parameters that affect the PPP solution, and the second side to its performance for the hydrographic applications. The accuracy of the PPP solution is affected by the interval of the satellite clocks, especially, for the high rate kinematic data. There are a lot of studies concerning the impact of the satellite clocks on the static PPP solution. On the other hand, few studies regarding real kinematic measurements are published. Therefore, the current study focuses on this impact on the kinematic measurements and improves the estimated accuracy using Bernese GNSS solution. In order to evaluate this parameter, the final satellite clocks from CODE (Centre of Orbit Determination in Europe) with an interval of 30 s and 5 s have been investigated. Regarding this impact, two groups have been processed. Each group includes static data and kinematic hydrographic measurements. The first observation group had a sampling rate of 5 s. The first data set is based on four CORS (Continuously Operating Reference Station) stations showing with satellite clocks of CODE/5 s, a mean RMS error of 1.30 cm, 1.70 cm, and 3.35 cm for the East, North, and height, respectively. This solution provided better accuracy of 70% than that obtained from the default solution using CODE/30 s. In comparison with the adapted solution from Bernese for CODE/30 s, the solution of CODE/5 s achieved a better solution of 25% in the East, 40% in the North, and 12% in the height. Regarding the hydrographic measurements that were observed on the River Rhine, Germany, the solution showed for the satellite clocks of CODE/5 s, a mean root mean square (RMS) error of 4.73 cm, 3.90 cm, and 6.77 cm for the East, North, and height directions, respectively. In comparison with the default solution of CODE/30 s, the solution of CODE/5 s provided an improvement of 50% in the horizontal and 70% in the height. In comparison with the modified solution of CODE/30 s, the solution of CODE/5 s delivered 25% improvement in the horizontal component and 45% in the height. The second observation group had a sampling rate of 1 s. The first data set of four CORS stations obtained consequently a mean RMS error of 2.43 cm, 2.15 cm, and 6.10 cm for the East, North, and height. The default solution from Bernese GNSS software of CODE/30 s provided very high errors; therefore, the modified solution of CODE/30 s was considered. The solution of CODE/5 s provided an improvement of 10% compared to CODE/30 s. Furthermore, for the second data set of the hydrographic data that was measured on the River Nile, Egypt, the solution achieved a mean RMS error of 2 cm to 3 cm in the horizontal component, and 5 cm for the height component. This solution provided a better solution compared to the solution obtained from CODE/30s with a percentage of 15%, 40%, and 35% for the East, North, and height directions, respectively. A further parameter which is affecting the PPP solution is the zenith troposphere delay (ZTD). Three troposphere models have been investigated: the NIELL model, the Vienna Mapping Function (VMF1) model and the Global Mapping Function (GMF) model. 45 global IGS’s stations have been investigated. These stations cover different climates over the world. The results showed that the variation in the estimated height between the models is in the level of sub-mm to 1 mm; only for the Antarctica region, the NMF showed a worse solution than others. In addition, the real hydrographic measurements do not provide a significant coordinate solution difference between the three models. Since the water level is theoretically stable for the shallow water resources, the PPP estimation approach can be extended to enhance the obtained positions. The approach is based on constraining of the height for the hydrographic measurements by a specified standard deviation. The first solution was established using the assumption of the stable water level. The procedure is applied for a hydrographic trajectory that was observed on the Rhine River. The solution did not achieve any improvement due to the high variation of height during measurement. The solution is extended by considering a piecewise stability of the water level. Three hydrographic trajectories that provided without constraining a RMS2D position of 7 cm to 10 cm were processed concerning this concept. Two trajectories were observed on the Rhine River and one trajectory was surveyed on the Nile River. The trajectories were divided into different sessions; each session had a mean height, a standard deviation (σ), and a number of epochs (t). After applying the height constraining with the concept of piecewise stability of water level for these trajectories, the achieved RMS2D position after height constraining was 4.7 cm to 8 cm. This means that the RMS2D position is improved by 16% to 35%.
  • Thumbnail Image
    ItemOpen Access
    Prozedurale Qualitätsmodellierung und -management für Daten : ingenieurgeodätische und verkehrstechnische Anwendungen
    (2011) Laufer, Ralf; Schwieger, Volker (Prof. Dr.-Ing. habil.)
    Daten und Informationen sind die fundamentalen Grundlagen für Entscheidungen. Jeder Mensch trifft im Laufe seines Lebens unzählige Entscheidungen, die auf mehr oder weniger vollständigen, objektiven und korrekten Daten und Informationen beruhen. Nicht nur bei persönlichen Entscheidungen spielt die Qualität der Informationen, die zur Abwägung zur Verfügung stehen, eine wesentliche Rolle. Insbesondere bei technischen Anwendungen in allen Bereichen des Lebens, ist die Qualität von Daten als Entscheidungsgrundlage von essenzieller Bedeutung. Grundlage und Motivation dieser Arbeit war die konsequente Fortführung der Tätigkeiten im Bereich der Handhabung von Datenqualität am Institut für Anwendungen der Geodäsie im Bauwesen (IAGB) bzw. am Institut für Ingenieurgeodäsie (IIGS)1 der Universität Stuttgart. Die erarbeiteten Grundlagen zur qualitätsgesicherten Bereitstellung von Daten, die in modernen Fahrerassistenzsystemen (FAS) von Bedeutung sind (vgl. Wiltschko [2004]), sollten weiter verallgemeinert und für andere Bereiche, in denen Datenqualität eine wesentliche Rolle spielt, zugänglich gemacht werden. Neben den FAS sind hier im Bereich der Verkehrsanwendungen insbesondere Mobilfunkortungsverfahren zu nennen. Datenqualität spielt seit jeher jedoch auch in anderen Bereichen, wie zum Beispiel in der Geodäsie, eine entscheidende Rolle. Die Qualität von Daten hat oftmals erheblichen Einfluss auf sicherheitsrelevante Entscheidungen und mangelnde Datenqualität kann unter Umständen zu Systemausfällen oder folgenschweren Fehlinterpretationen führen. Das von Wiltschko [2004] aufgestellte Konzept zur Beschreibung und Bewertung der Datenqualität innerhalb informationsverarbeitender Systeme besteht aus einem Qualitätsmodell und einem Analyseverfahren. Das Qualitätsmodell umfasst sechs inhärente Merkmale, die durch geeignete Qualitätsparameter konkretisiert werden können. Durch die Wahl der Merkmale ist das Modell universell einsetzbar und für eine Vielzahl von unterschiedlichen Arten von Daten geeignet. Da das vorgestellte Modell auf einer umfangreichen Recherche beruht, konnte hier zumindest für raumbezogene Daten in der Geodäsie und Verkehrstelematik kein weiterer Forschungsbedarf festgestellt werden. Im Bereich der Geoinformationssysteme wurde nach jahrelanger Forschungsarbeit mit der ISO TS 19138 [2006] ein Modell zur Beschreibung der Datenqualität eingeführt. Dabei handelt es sich jedoch um ein speziell für den Datenaustausch und die Datenanalyse von Geodaten in Geoinformationssystemen entwickeltes Modell, welches für die hier untersuchten Daten nicht allgemeingültig genug ist. Neben dem immer noch aktuellen Qualitätsmodell wurde von Wiltschko auch ein Analyseverfahren auf Basis Boolescher Algebra eingeführt, welches bei näherer Betrachtung einige Einschränkungen hinsichtlich der praktischen Umsetzbarkeit zeigt und Qualitätsparameter nur unzureichend oder gar nicht behandeln kann. Hier wurde konkreter Forschungsbedarf erkannt, um das bestehende Verfahren zu ergänzen oder zu verbessern und die in dieser Arbeit herausgearbeiteten Grenzen zu überwinden. Die Recherche nach geeigneten Verfahren zur quantitativen Beschreibung von Datenqualität in Prozessen ist daher ein wesentlicher Bestandteil der Arbeit. Künstliche neuronale Netze (KNN) stellen ein mächtiges Werkzeug dar, welches auch für die umfassende Modellierung von Datenqualität zum Einsatz kommen kann. In dieser Arbeit wurde deren Eignung an zwei Beispielen im Detail untersucht. Wie die Untersuchungen ergaben, können KNN zur Modellierung von Qualitätsparametern in Prozessen eingesetzt werden. An einem einfachen geodätischen Beispiel wird gezeigt, dass eine Modellierung der Genauigkeit auch in Kombination mit Parametern der Verfügbarkeit und Vollständigkeit in zufrieden stellender Qualität erfolgen kann. Im Anschluss erfolgt der Test von KNN in einem komplexeren, verkehrstechnischen Beispiel. Dabei werden KNN erfolgreich bei der Mobilfunkortung mit realen Eingangsdaten zur Modellierung eines Qualitätsparameters eingesetzt, welcher der Beurteilung des Prozesses dient. Damit ist der Einsatz eines trainierten KNN auch in Echtzeit zur kontinuierlichen Überwachung eines laufenden Prozesses möglich. Schließlich wird ein umfassendes Qualitätsmanagementkonzept für Daten vorgestellt, welches die im Detail beschriebenen und untersuchten Methoden, sowie das bestehende Qualitätsmodell in einen globalen Gesamtzusammenhang stellt. Das vorgestellte Konzept basiert auf dem PDCA-Gedanken (dem Konzept der ständigen Verbesserung) von Deming [1982] und kann in ein ISO-konformes Qualitätsmanagementsystem integriert werden. Das Konzept besteht einerseits aus bekannten Bausteinen zur Beschreibung und Analyse von Daten verarbeitenden Systemen, andererseits bietet es jedoch neue Möglichkeiten zur Behandlung und Simulation von Datenqualität in Prozessen mit Hilfe künstlicher neuronaler Netze.
  • Thumbnail Image
    ItemOpen Access
    Qualitätssteigerung von Low-Cost-GPS Zeitreihen für Monitoring Applikationen durch zeitlich-räumliche Korrelationsanalyse
    (2016) Zhang, Li; Schwieger, Volker (Prof. Dr.-Ing. habil.)
    Das Monitoring von Bauwerken und natürlichen Objekten ist einer der zentralen Aufgabenbereiche der Ingenieurgeodäsie. Mit Low-Cost Ein-Frequenz GPS-Empfängern steht im Vergleich zu den konventionellen geodätischen Zwei-Frequenz GNSS-Empfängern eine kosteneffektivere Alternative zur Verfügung, insbesondere für geodätische Monitoring Applikationen, bei denen mehrere Empfänger eingesetzt werden. Zahlreiche Voruntersuchungen zeigen, dass Low-Cost Ein-Frequenz GPS-Empfänger unter Nutzung von Phasendaten bei kurzen Basislinien ein vergleichbares Ergebnis wie geodätische GNSS-Empfänger erreichen können. Stationsabhängige Fehler, insbesondere die Mehrwegeeffekte, sind dabei die dominierende Fehlerquelle für kurze Basislinien. Das Ziel der vorliegenden Arbeit ist die Entwicklung eines koordinatenbasierten Algorithmus, der eine Reduktion der Auswirkungen der Mehrwegeeffekte in Nahe-Echtzeit ermöglicht, so dass die Qualität der Low-Cost-GPS Zeitreihen für Monitoring Applikationen verbessert werden kann. In dieser Arbeit wird der Einfluss der Mehrwegeeffekte zunächst durch Verwendung einer L1-optimierten Choke-Ring Grundplatte reduziert. Die Genauigkeit kann dadurch um ca. 50 % verbessert werden, die Standardabweichung des Einzelwertes (1σ) in der dreidimensionalen Position liegt damit bei etwa 11 mm. Anschließend werden zwei koordinatenbasierte Methoden entwickelt, um die harmonischen Schwingungen, die in den Zeitreihen auftreten und wahrscheinlich durch die Mehrwegeeffekte hervorgerufen sind, zu reduzieren. Dabei werden jeweils die zeitlichen und räumlichen Korrelationen von mehreren, dicht nebeneinander stehenden Low-Cost Ein-Frequenz GPS-Empfängern berücksichtigt (Methode 1 basiert auf den zeitlichen Korrelationen und Methode 2 auf den räumlichen Korrelationen). Durch Anwendung der beiden Methoden wird die Genauigkeit der Zeitreihen der Low-Cost-GPS Empfangssysteme nochmals um etwa 50 % verbessert. Die wichtigste Anforderung an ein Monitoring System ist, dass richtige Aussagen über geometrische Änderungen des überwachten Objekts rechtzeitig zur Verfügung stehen. Daher wird die Qualität der GPS-Messung für Monitoring Applikationen durch zwei Qualitätsmerkmale beschrieben: Genauigkeit und Korrektheit der Aussage. Die Korrektheit der Aussage kann durch die Rate des unterlassenen Alarms und die Rate des falschen Alarms parametrisiert werden. Durch die Verbesserung der Genauigkeit wird die Rate des unterlassenen Alarms, insbesondere für kleine Deformationen, reduziert. Die Aussagen stehen als Nahe-Echtzeit-Lösungen zur Verfügung: Mit einem Zeitverzug von 30 Minuten kann eine Aussage darüber getroffen werden, ob eine Deformation vorliegt. Die Raten des unterlassenen Alarms bei einer Deformationsgröße von 1 σ werden von 91,3 % jeweils auf 51,4 % (durch Methode 1) bzw. auf 43,1 % (durch Methode 2) reduziert. Die Raten des falschen Alarms der Methode 1 und 2 sind allerdings von 0,0 % jeweils auf 1,3 % und 4,9 % leicht gestiegen. Insgesamt wird die Korrektheit der Aussage durch die zwei Methoden verbessert. Die Ergebnisse der vorliegenden Arbeit zeigen, dass die Qualität des Low-Cost-GPS Empfangssystem durch die zwei Methoden und die L1-optimierte Choke-Ring-Grundplatte deutlich verbessert werden. Das vorgestellte Low-Cost-GPS Empfangssystem stellt somit ein kostengünstiges, genaues und zuverlässiges System für Monitoring Applikationen dar.
OPUS
  • About OPUS
  • Publish with OPUS
  • Legal information
DSpace
  • Cookie settings
  • Privacy policy
  • Send Feedback
University Stuttgart
  • University Stuttgart
  • University Library Stuttgart