06 Fakultät Luft- und Raumfahrttechnik und Geodäsie

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/7

Browse

Search Results

Now showing 1 - 10 of 13
  • Thumbnail Image
    ItemOpen Access
    Setting-up of GPS reference stations and investigating the effects of antenna radome
    (2003) Ogonda, Godfrey Onyango
    With the shutting down of Selective Availability (S/A) in year 2000 , accuracies as better as 5 to 9 metres in the horizontal and 8 to 9 metres in the vertical have been guaranteed in GPS positioning using code measurements in Single Point Positioning (SPP) mode. Although the accuracies attainable through unassisted SPP are sufficient for most applications such as navigation, GIS and recreation, a whole range of experience has shown that millimetre accuracies can be attained through performance of GPS surveys using enhanced satellite systems, improved equipment and streamlined field procedures. Such concepts include the tendency to use reference stations (i.e. relative Positioning) to generate DGPS corrections and maintenance of reference frames. The precisions and accuracies at which the reference stations are established and monitored are very high. All the possible sources of error to which the antennas and receivers at the site are susceptible to, must be identified and minimised or eliminated. This include Phase Centre Variation (PCV) and multipath. To protect the antennas from bad weather and vandalism, reference station antennas are usually covered. The PCV patterns are further complicated from the fact that addition of antenna covers (radomes) are known to have effects on the positions and the existence of several correction models. In this study, two reference stations were established and an investigation on the effect of conical radome on one of the reference stations was carried out. A baseline of about 5 metres was set-up on top of the building housing the Institute of Navigation on Breitscheid 2. At one end of the baseline was station 1, mounted with a choke ring antenna, and the other end station 2, mounted with a compact L1/L2 antenna. Twenty four hour GPS observations at a data rate of 2 seconds were carried out in six consecutive days. The antenna setting for every two days was the same. Part of the data files collected on day 1 was used to fix the positions of the two reference stations with respect to the SAPOS network. A further analysis was done with the six day data files to determine the effect of the radome and the radome mount plate on station 1. The solutions obtained show that the reference stations were successfully established and that the conical radome has a negligible effect of about 1.5 mm on the height component of station 1.
  • Thumbnail Image
    ItemOpen Access
    A regional analysis of GNSS-Levelling
    (2008) Raizner, Carina
    Die herkömmliche Methode zur präzisen Höhenbestimmung ist das Nivellement. Durch die verbesserte Genauigkeit des Geoids, das von den neuesten und von CHAMP und GRACE (und in Zukunft GOCE) abgeleiteten Modellen des Gravitationspotentials bereitgestellt wird, kann das sogenannte „GNSS-levelling“ als eine Alternative für praktische Höhenanwendungen in Betracht gezogen werden. Der Schwerpunkt dieser Arbeit liegt in einer detaillierten Analyse einer optimalen Kombination von heterogenen Daten, die sich aus Ellipsoid-, orthometrischen und Geoidhöhen eines Höhenfestpunktnetzes zusammensetzen. Das Verhältnis zwischen diesen drei verschiedenartigen Höhen basiert theoretisch auf einer einfachen linearen Gleichung. Nachdem aber zahlreiche Faktoren, wie z.B. Datumsinkonsistenzen und systematische Fehler, zu Abweichungen zwischen diesen kombinierten Höhendaten führen, wird ein Modell als Korrekturfläche integriert. Die Eignung ausgewählter Modelle wird anhand verschiedener empirischer und statistischer Tests beurteilt. Um der Korrelation zwischen den Modellparametern entgegenzuwirken, wird das Gram-Schmidtsche Orthonormalisierungsverfahren angewandt und die Testergebnisse mit jenen von orthogonalen und nicht-orthogonalen Basisfunktionen verglichen. Zusätzlich wird eine Varianzkomponentenschätzung auf die kombinierte Ausgleichung der drei Höhen angewandt, um die Eignung des stochastischen Modells zu überprüfen, d.h. um zufällige Fehler zu separieren und die zugehörigen Varianz-komponenten für jeden Höhentyp zu schätzen. Außerdem wird eine detaillierte Studie über geeignete Methoden zur Überprüfung der Daten durchgeführt, um grobe Fehler zu entdecken und zu eliminieren. Schließlich beinhaltet diese Arbeit auch die Implementierung einer Interpolation mit radialen Basisfunktionen. Diese stellen eine orthonormale Basis dar, mit der eine Oberfläche mit unabhängigen Parametern bestimmt werden kann. Gleichzeitig hängt die entsprechende Effizienz der Fläche nicht vom Entwicklungsgrad der Basisfunktionen ab. Die Optimierung des in dem Interpolationskern enthaltenen Formparameters wird mittels eines genetischen Algorithmus (GA) realisiert, um den Interpolationsfehler zu minimieren. Diese Methode bietet den Vorteil, dass sie differenzierbar ist und somit kann die Verteilung der Daten berücksichtigt werden. Mögliche Oszillationen in der Parameterfläche können vermieden werden. Die Wirkungsweise dieser inversen multiquadratischen Funktion wird durch eine spezielle Kreuzvalidierung beurteilt, welche eine höhere Effizienz aufweist als das klassische Verfahren. Die beschriebenen Ansätze werden anhand des aktuellen Geoidmodells und anhand von GPS und Nivellierdaten in Kanada und einzelnen Teilregionen evaluiert.
  • Thumbnail Image
    ItemOpen Access
    Empirical orthogonal function analysis of GRACE gravity data
    (2009) Bentel, Katrin
    The Gravity Recovery and Climate Experiment (GRACE) twin-satellite mission has been providing measurements of the time-varying gravity field of the Earth for almost seven years now. Gravity changes on Earth are due to mass changes and play an important role in Earth sciences. Monthly maps of mass changes are derived from the satellite measurements and need to be interpreted. The major difficulty in analyzing GRACE data are North-South stripes in the estimated gravity fields, caused by the fact that the GRACE satellites are flying in a near-polar orbit, one following the other. A microwave ranging instrument is measuring the distance between the two spacecraft, which is about 220 km. Due to these longitudinal stripes, major errors, analyzing the GRACE gravity fields is demanding. The technique of empirical orthogonal function (EOF) analysis is investigated in this thesis, and it is demonstrated the performance of EOF analysis for separating signal from noise and errors, and for identifying different sources of gravity changes in a real GRACE data set. EOF analysis is explained from a theoretical point of view and is applied to the GRACE data. Basically, the EOF method gives a transformation of the data into a new coordinate frame in the data space, where the axis are chosen according to the data variances. The core of the method is a singular value decomposition of the data matrix. The components obtained from this decomposition need to be interpreted, and signal has to be separated from noise. Additionally, EOF analysis can be used as a filtering tool. In the detailed data analysis, benefits and shortcomings of the EOF method are studied and described with respect to GRACE data. Global maps of mass changes as well as different smaller regions are analyzed, and global and regional results are compared.
  • Thumbnail Image
    ItemOpen Access
    Einfluss lateraler Variationen in Lithosphäre und oberem Mantel auf den glazial-isostatischen Ausgleich in der Antarktis
    (2009) Rau, Daniel
    Diese Arbeit beschäftigt sich mit den Auswirkungen der lateral variierenden Lithosphärenmächtigkeit auf die regionale glazial-isostatische Ausgleichsbewegung (GIA) in der Antarktis. Damit einhergehend wird auch die Viskosität des oberen Mantels variiert. Die Lithosphäre in der Antarktis ist in zwei Bereiche mit scharfem Übergang unterteilt, eine dicke Lithosphäre in der Ostantarktis und eine dünne Lithosphäre in der Westantarktis. Nun wird untersucht wie sich die verschiedenen Lithosphärendicken im Modell auf das Verhalten der nacheiszeitlichen Hebung bzw. auf den glazial-isostatischen Ausgleich auswirken. Zur Einordnung werden die Vertikalbewegung, die Horizontalbewegung sowie die Geoidhöhenänderung modelliert. Hierzu wird zunächst ein dreidimensionales (3D) Viskositätsmodell mit einer lateral variablen Lithosphäre erstellt. Dieses Erdmodell wird mit einem Lastmodell belastet, welches sich aus der Vereisungsgeschichte ICE-5G ergibt. Die Berechnung der in dieser Arbeit untersuchten Größen erfolgt unter Verwendung der spektralen Finite-Elemente-Methode für 3D viskoelastische Belastung. Durch ein inhomogenes Abschmelzen der Eismassen in der Antarktis sind dessen Auswirkungen in der Westantarktis stärker ausgeprägt. Um die Effekte der Lithosphärenvariation zu extrahieren, werden Vergleichsmodelle erstellt, die beispielsweise einen 3D-Mantel, jedoch nur eine eindimensionale (1D) Lithosphäre aufweisen. Anhand der durchgeführten Vergleiche wurde deutlich, dass der Einfluss der Lithosphärenmächtigkeit in Relation zu den Einflüssen des Mantels sehr gering ist. Lediglich im Bereich der Horizontalbewegungen ist ein Einfluss von 20-30 % der Gesamtgeschwindigkeit messbar. Für die Vertikalbewegungen bleibt der Einfluss mit < 1 mm/a unter 10 %, und für die Geoidhöhenänderungen ist die Änderung aufgrund von Lithosphärenvariationen < 0.10 mm/a. Der Einfluss der Mantelviskosität ist in allen Bereichen höher.
  • Thumbnail Image
    ItemOpen Access
    Variance-covariance matrix estimation with LSQR in a parallel programming environment
    (2008) Guo, Ronggang
    Knowledge about the gravity field allows an insight into the structure and dynamics of the earth. It provides the geoid as the most important physical reference surface in geodesy and oceanography. Since 2000, the CHAMP (CHAllenging Mini-satellite Payload) mission detects the structure of the global gravity field, followed by the launch of GRACE (Gravity Recovery And Climate Experiment) in 2002. In 2008, finally, the GOCE (Gravity field and steady-state Ocean Circulation Explorer) satellite is supposed to be set in orbit. These missions demonstrate satellite-based gravity field recovery to be at the center of geo-scientific interest. Interpretation and evaluation of satellite observations are difficult, especially the determination of the unknown gravity field parameters from a huge amount of measurements. Because of the immense demand for memory and computing time, the occurring systems of equations pose a real numerical challenge. Therefore, High-Performance Computing (HPC) is commonly adopted to overcome computational problems. Basically, parallel programming with MPI and OpenMP routines allows to speed up the solution process considerably. In this thesis, firstly global gravity field modelling by means of satellite observations is reviewed. Secondly, the LSQR method (Least-Squares using QR factorization) is introduced in detail in order to solve the resulting least-squares problems. Because the LSQR method is an iterative solver, it basically can not provide the variance-covariance information of the parameter estimate. To investigate the approximate computation of the variance-covariance matrix, two methods are introduced. The first one is based on the generalized inverse of the design matrix. The second approach applies Monte-Carlo integration techniques. Because parallel programming is very helpful to implement such iterative methods, it is necessary to introduce some basic principles and concepts about HPC.
  • Thumbnail Image
    ItemOpen Access
    GOCE sensitivity studies in terms of cross-over analysis
    (2009) Xue, Yang
    The GOCE (Gravity field and steady-state Ocean Circulation Explorer) satellite, launched on 17 March 2009, for the first time applies satellite gravity gradiometry (SGG) to recover the Earth's gravity field with cm accuracy at a resolution of 100km. To meet the envisaged accuracy, measurement validation at cross-over points (XOs) is necessary. Typically, validation is based on gravity gradients (GGs). However, the coefficient matrix of the gravitational tensor is dependent on orientation. In order to avoid matrix rotation, analysis based on orientation-independent invariants is possible. By applying various noise models, the goodness of XO-validation based on GGs and invariants will be studied in this thesis. First, by determining the maximum of scalar products from two tracks, the XOs can be predicted. Next, using local polynomial approximation, the geographical coordinates of XOs are calculated by solving a system of equations. Due to the orbit drift, the interpolation of height is performed separately along ascending and descending track before final comparison. Considering a sampling rate of 1Hz, GGs and invariants in all points of a one-week orbit are simulated for the further interpolation at the XOs. To determine the goodness of the selected interpolation algorithm, a closed loop test with noise-free data is investigated first. Since signal to noise ratios of GGs and invariants are all above 70dB, the same algorithm is applied in closed loop tests with noisy data. Since GOCE can only provide high accuracy for the main diagonal tensor components, various noise models, i.e. homogeneous and inhomogeneous white noise as well as homogeneous and inhomogeneous coloured noise, are added to the simulated values. The comparison of the goodness of GGs opposed to invariants is based on the signal to noise ratio (SNR). In this study, the second invariant demonstrates better SNR than GGs and the third invariant in the case of homogenous noise. However, due to the impact of inaccurate GGs, the SNR of invariants is poorer than the SNR of all GGs in the case of inhomogeneous noise.
  • Thumbnail Image
    ItemOpen Access
    High Performance Computing im Einsatz zur Schwerefeldanalyse mit CHAMP, GRACE und GOCE
    (2004) Wittwer, Tobias
    Das Schwerefeld der Erde ist in den letzten Jahren verstärkt zum Forschungsgegenstand geworden. Von besonderer Bedeutung zur globalen Modellierung des Schwerefeldes sind dabei Satellitenverfahren. Derzeit sind dafür die drei Satellitenmissionen CHAMP, GRACE und GOCE operierend oder in Vorbereitung. Die Auswertung dieser Daten ist aufgrund der großen Menge an Beobachtungen und Unbekannten sehr aufwändig, weshalb der Einsatz von Hochleistungsrechnern nötig ist. Diese Arbeit erläutert die Grundlagen der Schwerefeldbestimmung aus Satellitenverfahren. Detailiert werden die heute existierenden Hochleistungsrechner-Architekturen mit ihren spezifischen Vor- und Nachteilen vorgestellt. Ebenfalls eingegangen wird auf die Programmierung von Hochleistungsrechnern und die dafür geeigneten Softwarepakete. Im Rahmen dieser Arbeit wurden zwei Algorithmen zur Schwerefeldbestimmung auf verschiedenen Hochleistungsrechner-Architekturen implementiert. Die beiden Algorithmen (ein Brute-Force und ein iteratives Schätzverfahren) werden mit den Details ihrer Implementierung und Parallelisierung beschrieben. Dazu gehört auch die Einführung einer Gewichtsmatrix, die Verwendung von Regularisierung zur Stabilisierung des Gleichungssystems, sowie der Varianzkomponentenschätzung zur Kombination verschiedener Beobachtungstypen. Die Ergebnisse der Implementierung und Parallelisierung der beiden Algorithmen auf den verschiedenen verwendeten Hochleistungsrechnern werden detailiert präsentiert. Daraus lassen sich unter anderem Rückschlüsse auf die Eignung verschiedener Architekturen für die verwendeten Algorithmen ziehen. Ebenfalls vorgestellt werden die Ergebnisse der Gewichtung, der Regularisierung und der Varianzkomponentenschätzung.
  • Thumbnail Image
    ItemOpen Access
    Bahnstörungen durch Ozeangezeiten
    (2007) Daubrawa, Julian
    Diese Arbeit beschäftigt sich mit dem Aspekt der Ozeangezeiten in der Satellitenbahnberechnung. Durch Gravitationskräfte des Mondes, der Sonne und der Planeten kommt es zu Massenverlagerungen in den Ozeanen. Diese Massenverlagerungen haben eine Änderung bzw. Störung des Gravitationspotenzials der Erde zur Folge. Diese Störung hat Auswirkungen auf die Bahn eines Satelliten in Form von Störbeschleunigungen. In dieser Arbeit wird die Geschichte der Ozeangezeiten und die Verwendung der Ozeangezeitenmodelle dargestellt. Es werden die Prädiktionsmethoden für die Veränderung der Meeresoberfläche vor den ersten Modellen für Ozeangezeiten erläutert. Ebenfalls wird auf die verschiedenen Klassen der Modelle eingegangen. Ein weiterer Punkt, der in dieser Arbeit Beachtung findet, ist die Theorie der Admittanz. Es werden die Auswirkungen der Ozeangezeiten auf die Satellitenbahnberechnung und auf die Koeffizienten des Schwerefeldmodells untersucht. Die Satellitenbahnberechnung konzentriert sich auf den GOCE-Satelliten und die GPS-Satelliten. Zusätzlich hierzu werden die Auswirkungen der Ozeangezeiten auf einen Punkt auf der Erdoberfläche über verschiedene Zeiträume und auf einen Punkt in verschiedenen Höhen über der Erdoberfläche berechnet. In den Fällen, in denen es interessant ist, werden zwei Ozeangezeitenmodelle miteinander verglichen.
  • Thumbnail Image
    ItemOpen Access
    Preprocessing of high rate GPS data for real-time applications
    (2008) Deng, Zhiguo
    In den letzten Jahren erforderten immer mehr geodätische Anwendungen GPS-Daten mit 1 Hz sampling rate, zum Beispiel die Low Earth Orbiter Missionen CHAMP und GRACE sowie GPS-Überwachungsnetze. In der gleichen Zeit verbesserten die wachsenden Kapazitäten des Internets den Transport von Daten in Echtzeit und die langfristige Archivierung mit weniger Kosten. Dies erfordert GPS-Software mit der Fähigkeit, GPS-Daten und GPS-Netze in Echtzeit zu verarbeiten. Weil nur ein Cycle Slip die GPS-Lösung verfälschen kann, ist die Vorprozessierung von GPS-Daten zur Erhaltung der hohen Genauigkeit besonders wichtig. Zurzeit gibt es eine ganze Reihe von verfügbaren Techniken für diesen Zweck. In dieser Arbeit wird ein neuer Algorithmus vorgestellt, mit dem Cycle Slips von 1 Hz GPS-Daten in Echtzeit erkannt werden können. Um die Verarbeitung der 1 Hz GPS-Daten in Echtzeit zu gewährleisten, muss der neue Algorithmus schnell und vollautomatisch arbeiten. Des weiteren müssen Verfügbarkeit, Zuverlässigkeit und Effektivität berücksichtigt werden. Nach dem Studium der 1Hz GPS-Daten und existierender Algorithmen wird in dieser Arbeit ein neuer Algorithmus entwickelt. Der Algorithmus verwendet Differenzen zwischen Satellitenträgerphasen und ionosphärische (geometriefreie) lineare Kombination. Mit Polynom Fitting werden cycle slips gesucht. In dieser Arbeit wird die Leistung des Algorithmus zur Bestimmung von Cycle Slips als Funktion von Satellitenelevationswinkeln, anhand Einzelfrequenzenempfängern wie Garmin, Thales und Notvale untersucht.
  • Thumbnail Image
    ItemOpen Access
    Bewertungsrelevante Aspekte bei Offenen Immobilienfonds
    (2005) Gebert, Christoph
    Im Zuge dieser Diplomarbeit wird versucht dem Leser einen Eindruck über die verschlüsselte Thematik der Offenen Immobilienfonds und die Bewertung der darin gehaltenen Immobilien zu geben. Bereits seit 1959 gibt es diese für Deutschland typische Assetklasse. Welche mittlerweile ein Volumen von fast 90 Milliarden Euro verwaltet. Viele der Aktivitäten, die im Zusammenhang mit der Investition stehen, werden für die Anleger in keiner Weise sichtbar. Die Kapitalanlagegesellschaften erweisen sich bei genauerer Betrachtung als ein komplexes System aus verschiedenen Bereichen, die einzig und allein das Ziel verfolgen, durch gezielte Immobilienkäufe und -vermietungen auf der ganzen Erde, eine hohe Rendite für die Anleger zu erwirtschaften. Nach einem Überblick über die derzeit aufgelegten Fonds und ihre charakteristischen Merkmale wendet sich die vorliegende Arbeit den rechtlichen und steuerlichen Belangen der Fonds zu. Gerade die Einführung des Investmentgesetzes im Jahre 2004 brachte mehr Kompetenzen für die Kapitalanlagegesellschaften aber ebenfalls eine weitere Steigerung der Anlegerrechte. Der Leser wird von der Diplomarbeit durch ausgewählte Abteilungen einer Fondsgesellschaft begleitet: Research: Hier werden die internationalen Regionen und ihre Immobilienmärkte analysiert um u. a. die Sachverständigen bei ihrem Bewertungsauftrag mit Informationen versorgen zu können. Einen wesentlichen Beitrag zum Erfolg eines Offenen Immobilienfonds leisten die Mitarbeiter des Portfolio-Managements. Sie sind für die Umsetzung der Fondsstrategie in die Anlagerealität zuständig. Weiterhin werden in diesem Zusammenhang die Begriffe der Diversifizierung und der Ertragssicherung erläutert. Die Akquisitionsabteilung befasst sich mit dem Kauf neuer Liegenschaften. Es wird der schematische Ablauf einer Akquisition und die Arbeit der Akquisiteure präsentiert. Im Anschluss an eine Neuanschaffung ist das Asset-Management für die Betreuung der Liegenschaft verantwortlich. Durch das dortige Wissen über die Mieteinnahmen und andere Objektdaten, ist das Asset-Management ein wichtiger Ansprechpartneer für die Sachverständigen. Nach der Exkursion durch eine Fondsgesellschaft wendet sich die Diplomarbeit der Problematik der Bewertung zu. Es werden der Sachverständigenausschuss und seine Arbeit vorgestellt, sowie die Bewertung der Fondsimmobilien beschrieben. Auf die Problematik der Bewertung von Immobilien im Ausland und die Beschaffung wertrelevanter Daten wird eingegangen. Abschließend wird der Versuch unternommen, die Bewertung von Auslandobjekte durch die Ermittlung von wertrelevanten Faktoren, die im Ausland nicht existieren, zu vereinfachen. Dies erwies sich aufgrund der Gesamtsituation der OIF als momentan sehr schwierig.