06 Fakultät Luft- und Raumfahrttechnik und Geodäsie

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/7

Browse

Search Results

Now showing 1 - 10 of 24
  • Thumbnail Image
    ItemOpen Access
    Setting-up of GPS reference stations and investigating the effects of antenna radome
    (2003) Ogonda, Godfrey Onyango
    With the shutting down of Selective Availability (S/A) in year 2000 , accuracies as better as 5 to 9 metres in the horizontal and 8 to 9 metres in the vertical have been guaranteed in GPS positioning using code measurements in Single Point Positioning (SPP) mode. Although the accuracies attainable through unassisted SPP are sufficient for most applications such as navigation, GIS and recreation, a whole range of experience has shown that millimetre accuracies can be attained through performance of GPS surveys using enhanced satellite systems, improved equipment and streamlined field procedures. Such concepts include the tendency to use reference stations (i.e. relative Positioning) to generate DGPS corrections and maintenance of reference frames. The precisions and accuracies at which the reference stations are established and monitored are very high. All the possible sources of error to which the antennas and receivers at the site are susceptible to, must be identified and minimised or eliminated. This include Phase Centre Variation (PCV) and multipath. To protect the antennas from bad weather and vandalism, reference station antennas are usually covered. The PCV patterns are further complicated from the fact that addition of antenna covers (radomes) are known to have effects on the positions and the existence of several correction models. In this study, two reference stations were established and an investigation on the effect of conical radome on one of the reference stations was carried out. A baseline of about 5 metres was set-up on top of the building housing the Institute of Navigation on Breitscheid 2. At one end of the baseline was station 1, mounted with a choke ring antenna, and the other end station 2, mounted with a compact L1/L2 antenna. Twenty four hour GPS observations at a data rate of 2 seconds were carried out in six consecutive days. The antenna setting for every two days was the same. Part of the data files collected on day 1 was used to fix the positions of the two reference stations with respect to the SAPOS network. A further analysis was done with the six day data files to determine the effect of the radome and the radome mount plate on station 1. The solutions obtained show that the reference stations were successfully established and that the conical radome has a negligible effect of about 1.5 mm on the height component of station 1.
  • Thumbnail Image
    ItemOpen Access
    Maintenance strategies for large offshore wind farms
    (2012) Scheu, Matti
    Which equipment is needed and how shall tasks be scheduled in order to implement the economically most efficient operation and maintenance strategy for large offshore wind farms? This is the question motivating this research project. Considering production losses due to turbine downtime as well as local geographical and weather conditions, an efficient operation and maintenance (O&M) solution shall be achieved for two reference sites at the UK east coast. For this purpose, a Matlab-based tool has been developed, consisting of the following five main modules: Weather, Failures, Resources, Strategy and Cost. The "Weather" module is able to generate future sea states and wind speeds based on historical data. It uses a finite state Markov chain in discrete time to model significant wave heights. Wind speeds are then generated according to their conditional probability distribution at the corresponding wave height. In order to validate the weather module, several time series were generated and compared with existing data. For comparison, the mean values, standard errors, linear correlations and cumulative distribution functions for persistence of operational weather windows were chosen, both for synthetic and observed wind speed and wave height time series. Both reference sites in the UK North Sea were considered for validation. Failure rates are the basis for the "Failure" module. As an input, data gathered from onshore reliability investigations are used, which can be updated once more detailed data is available for offshore turbines. The outcomes of this module are turbine-failures occurring at a certain time. Within the “Resources” module, it is defined which equipment and personnel is available for O&M activities. The equipment is specified by its technical characteristics, e.g., the maximum transportable personnel and the operational wave height boundary. Another key parameter is the "Strategy". The main goal of this module is to take the decision whether to perform an operation or not. Within this thesis, one specific strategy has been used, but references are made to possible modifications in the according paragraphs. The measurement of economic performance is done in the "Cost" module. Here, production losses are quantified by combining the wind speed during a failure with the linearized power curve of the turbine and the local buyback price system. Therefore, the worth of additional or better maintenance equipment can be seen directly as an increase in availability and a decrease of production losses. Results show how sensitive availability and therefore production losses change with respect to changes in the maintenance fleet, reliability characteristics of components and distance to shore. Major improvements of availability were achieved by applying maintenance vessels with a higher operational wave height boundary. An increase of this constraint from one to 1.8 m significant wave height raised the availability by up to 30 percent, leading to a much better economic performance. The influence of the weather forecast accuracy on the number of maintenance vessel and crane deployments is also stated, showing a significant increase of deployments if the weather forecast is only accurate for short times. An improvement of component-reliability, modeled as a 50% decreased annual failure rate, could save up to 440 k€ of yearly production losses for each modeled wind turbine. Higher transit times, due to a greater distance to shore, strongly decrease the wind park availability.
  • Thumbnail Image
    ItemOpen Access
    A regional analysis of GNSS-Levelling
    (2008) Raizner, Carina
    Die herkömmliche Methode zur präzisen Höhenbestimmung ist das Nivellement. Durch die verbesserte Genauigkeit des Geoids, das von den neuesten und von CHAMP und GRACE (und in Zukunft GOCE) abgeleiteten Modellen des Gravitationspotentials bereitgestellt wird, kann das sogenannte „GNSS-levelling“ als eine Alternative für praktische Höhenanwendungen in Betracht gezogen werden. Der Schwerpunkt dieser Arbeit liegt in einer detaillierten Analyse einer optimalen Kombination von heterogenen Daten, die sich aus Ellipsoid-, orthometrischen und Geoidhöhen eines Höhenfestpunktnetzes zusammensetzen. Das Verhältnis zwischen diesen drei verschiedenartigen Höhen basiert theoretisch auf einer einfachen linearen Gleichung. Nachdem aber zahlreiche Faktoren, wie z.B. Datumsinkonsistenzen und systematische Fehler, zu Abweichungen zwischen diesen kombinierten Höhendaten führen, wird ein Modell als Korrekturfläche integriert. Die Eignung ausgewählter Modelle wird anhand verschiedener empirischer und statistischer Tests beurteilt. Um der Korrelation zwischen den Modellparametern entgegenzuwirken, wird das Gram-Schmidtsche Orthonormalisierungsverfahren angewandt und die Testergebnisse mit jenen von orthogonalen und nicht-orthogonalen Basisfunktionen verglichen. Zusätzlich wird eine Varianzkomponentenschätzung auf die kombinierte Ausgleichung der drei Höhen angewandt, um die Eignung des stochastischen Modells zu überprüfen, d.h. um zufällige Fehler zu separieren und die zugehörigen Varianz-komponenten für jeden Höhentyp zu schätzen. Außerdem wird eine detaillierte Studie über geeignete Methoden zur Überprüfung der Daten durchgeführt, um grobe Fehler zu entdecken und zu eliminieren. Schließlich beinhaltet diese Arbeit auch die Implementierung einer Interpolation mit radialen Basisfunktionen. Diese stellen eine orthonormale Basis dar, mit der eine Oberfläche mit unabhängigen Parametern bestimmt werden kann. Gleichzeitig hängt die entsprechende Effizienz der Fläche nicht vom Entwicklungsgrad der Basisfunktionen ab. Die Optimierung des in dem Interpolationskern enthaltenen Formparameters wird mittels eines genetischen Algorithmus (GA) realisiert, um den Interpolationsfehler zu minimieren. Diese Methode bietet den Vorteil, dass sie differenzierbar ist und somit kann die Verteilung der Daten berücksichtigt werden. Mögliche Oszillationen in der Parameterfläche können vermieden werden. Die Wirkungsweise dieser inversen multiquadratischen Funktion wird durch eine spezielle Kreuzvalidierung beurteilt, welche eine höhere Effizienz aufweist als das klassische Verfahren. Die beschriebenen Ansätze werden anhand des aktuellen Geoidmodells und anhand von GPS und Nivellierdaten in Kanada und einzelnen Teilregionen evaluiert.
  • Thumbnail Image
    ItemOpen Access
    Assessing hydrological changes in the Murray-Darling basin
    (2010) Schmid, Stefanie
    In this diploma thesis GRACE-derived time-variable gravity, TRMM precipitation, and in-situ hydrological observations (water level, river flow) between May 2003 and April 2009 (6 years) are used to assess hydrological changes in the Murray-Darling Basin (MDB). The investigations in terms of Multiple Linear Regression Analysis (MLRA) and Principal Component Analysis (PCA) show distinct differences between the northern and southern climatic regions of the MDB. While the north is dominated by precipitation occurring within the early part of each year, precipitation appears in the south half a year later. Furthermore, a severe drought is detected, which appeared in 2006/07. The analysis of seasonal variations reveals that gravity changes are preceded by precipitation by about one month in the north of the MDB, while the south shows the inverse behaviour. The phase shift of gravity changes between the north and the south suggests a mass transport taking about 5 months to cross the MDB from the north to the south, which is confirmed by the in-situ hydrological observations.
  • Thumbnail Image
    ItemOpen Access
    Empirical orthogonal function analysis of GRACE gravity data
    (2009) Bentel, Katrin
    The Gravity Recovery and Climate Experiment (GRACE) twin-satellite mission has been providing measurements of the time-varying gravity field of the Earth for almost seven years now. Gravity changes on Earth are due to mass changes and play an important role in Earth sciences. Monthly maps of mass changes are derived from the satellite measurements and need to be interpreted. The major difficulty in analyzing GRACE data are North-South stripes in the estimated gravity fields, caused by the fact that the GRACE satellites are flying in a near-polar orbit, one following the other. A microwave ranging instrument is measuring the distance between the two spacecraft, which is about 220 km. Due to these longitudinal stripes, major errors, analyzing the GRACE gravity fields is demanding. The technique of empirical orthogonal function (EOF) analysis is investigated in this thesis, and it is demonstrated the performance of EOF analysis for separating signal from noise and errors, and for identifying different sources of gravity changes in a real GRACE data set. EOF analysis is explained from a theoretical point of view and is applied to the GRACE data. Basically, the EOF method gives a transformation of the data into a new coordinate frame in the data space, where the axis are chosen according to the data variances. The core of the method is a singular value decomposition of the data matrix. The components obtained from this decomposition need to be interpreted, and signal has to be separated from noise. Additionally, EOF analysis can be used as a filtering tool. In the detailed data analysis, benefits and shortcomings of the EOF method are studied and described with respect to GRACE data. Global maps of mass changes as well as different smaller regions are analyzed, and global and regional results are compared.
  • Thumbnail Image
    ItemOpen Access
    Einfluss lateraler Variationen in Lithosphäre und oberem Mantel auf den glazial-isostatischen Ausgleich in der Antarktis
    (2009) Rau, Daniel
    Diese Arbeit beschäftigt sich mit den Auswirkungen der lateral variierenden Lithosphärenmächtigkeit auf die regionale glazial-isostatische Ausgleichsbewegung (GIA) in der Antarktis. Damit einhergehend wird auch die Viskosität des oberen Mantels variiert. Die Lithosphäre in der Antarktis ist in zwei Bereiche mit scharfem Übergang unterteilt, eine dicke Lithosphäre in der Ostantarktis und eine dünne Lithosphäre in der Westantarktis. Nun wird untersucht wie sich die verschiedenen Lithosphärendicken im Modell auf das Verhalten der nacheiszeitlichen Hebung bzw. auf den glazial-isostatischen Ausgleich auswirken. Zur Einordnung werden die Vertikalbewegung, die Horizontalbewegung sowie die Geoidhöhenänderung modelliert. Hierzu wird zunächst ein dreidimensionales (3D) Viskositätsmodell mit einer lateral variablen Lithosphäre erstellt. Dieses Erdmodell wird mit einem Lastmodell belastet, welches sich aus der Vereisungsgeschichte ICE-5G ergibt. Die Berechnung der in dieser Arbeit untersuchten Größen erfolgt unter Verwendung der spektralen Finite-Elemente-Methode für 3D viskoelastische Belastung. Durch ein inhomogenes Abschmelzen der Eismassen in der Antarktis sind dessen Auswirkungen in der Westantarktis stärker ausgeprägt. Um die Effekte der Lithosphärenvariation zu extrahieren, werden Vergleichsmodelle erstellt, die beispielsweise einen 3D-Mantel, jedoch nur eine eindimensionale (1D) Lithosphäre aufweisen. Anhand der durchgeführten Vergleiche wurde deutlich, dass der Einfluss der Lithosphärenmächtigkeit in Relation zu den Einflüssen des Mantels sehr gering ist. Lediglich im Bereich der Horizontalbewegungen ist ein Einfluss von 20-30 % der Gesamtgeschwindigkeit messbar. Für die Vertikalbewegungen bleibt der Einfluss mit < 1 mm/a unter 10 %, und für die Geoidhöhenänderungen ist die Änderung aufgrund von Lithosphärenvariationen < 0.10 mm/a. Der Einfluss der Mantelviskosität ist in allen Bereichen höher.
  • Thumbnail Image
    ItemOpen Access
    Variance-covariance matrix estimation with LSQR in a parallel programming environment
    (2008) Guo, Ronggang
    Knowledge about the gravity field allows an insight into the structure and dynamics of the earth. It provides the geoid as the most important physical reference surface in geodesy and oceanography. Since 2000, the CHAMP (CHAllenging Mini-satellite Payload) mission detects the structure of the global gravity field, followed by the launch of GRACE (Gravity Recovery And Climate Experiment) in 2002. In 2008, finally, the GOCE (Gravity field and steady-state Ocean Circulation Explorer) satellite is supposed to be set in orbit. These missions demonstrate satellite-based gravity field recovery to be at the center of geo-scientific interest. Interpretation and evaluation of satellite observations are difficult, especially the determination of the unknown gravity field parameters from a huge amount of measurements. Because of the immense demand for memory and computing time, the occurring systems of equations pose a real numerical challenge. Therefore, High-Performance Computing (HPC) is commonly adopted to overcome computational problems. Basically, parallel programming with MPI and OpenMP routines allows to speed up the solution process considerably. In this thesis, firstly global gravity field modelling by means of satellite observations is reviewed. Secondly, the LSQR method (Least-Squares using QR factorization) is introduced in detail in order to solve the resulting least-squares problems. Because the LSQR method is an iterative solver, it basically can not provide the variance-covariance information of the parameter estimate. To investigate the approximate computation of the variance-covariance matrix, two methods are introduced. The first one is based on the generalized inverse of the design matrix. The second approach applies Monte-Carlo integration techniques. Because parallel programming is very helpful to implement such iterative methods, it is necessary to introduce some basic principles and concepts about HPC.
  • Thumbnail Image
    ItemOpen Access
    GOCE sensitivity studies in terms of cross-over analysis
    (2009) Xue, Yang
    The GOCE (Gravity field and steady-state Ocean Circulation Explorer) satellite, launched on 17 March 2009, for the first time applies satellite gravity gradiometry (SGG) to recover the Earth's gravity field with cm accuracy at a resolution of 100km. To meet the envisaged accuracy, measurement validation at cross-over points (XOs) is necessary. Typically, validation is based on gravity gradients (GGs). However, the coefficient matrix of the gravitational tensor is dependent on orientation. In order to avoid matrix rotation, analysis based on orientation-independent invariants is possible. By applying various noise models, the goodness of XO-validation based on GGs and invariants will be studied in this thesis. First, by determining the maximum of scalar products from two tracks, the XOs can be predicted. Next, using local polynomial approximation, the geographical coordinates of XOs are calculated by solving a system of equations. Due to the orbit drift, the interpolation of height is performed separately along ascending and descending track before final comparison. Considering a sampling rate of 1Hz, GGs and invariants in all points of a one-week orbit are simulated for the further interpolation at the XOs. To determine the goodness of the selected interpolation algorithm, a closed loop test with noise-free data is investigated first. Since signal to noise ratios of GGs and invariants are all above 70dB, the same algorithm is applied in closed loop tests with noisy data. Since GOCE can only provide high accuracy for the main diagonal tensor components, various noise models, i.e. homogeneous and inhomogeneous white noise as well as homogeneous and inhomogeneous coloured noise, are added to the simulated values. The comparison of the goodness of GGs opposed to invariants is based on the signal to noise ratio (SNR). In this study, the second invariant demonstrates better SNR than GGs and the third invariant in the case of homogenous noise. However, due to the impact of inaccurate GGs, the SNR of invariants is poorer than the SNR of all GGs in the case of inhomogeneous noise.
  • Thumbnail Image
    ItemOpen Access
    High Performance Computing im Einsatz zur Schwerefeldanalyse mit CHAMP, GRACE und GOCE
    (2004) Wittwer, Tobias
    Das Schwerefeld der Erde ist in den letzten Jahren verstärkt zum Forschungsgegenstand geworden. Von besonderer Bedeutung zur globalen Modellierung des Schwerefeldes sind dabei Satellitenverfahren. Derzeit sind dafür die drei Satellitenmissionen CHAMP, GRACE und GOCE operierend oder in Vorbereitung. Die Auswertung dieser Daten ist aufgrund der großen Menge an Beobachtungen und Unbekannten sehr aufwändig, weshalb der Einsatz von Hochleistungsrechnern nötig ist. Diese Arbeit erläutert die Grundlagen der Schwerefeldbestimmung aus Satellitenverfahren. Detailiert werden die heute existierenden Hochleistungsrechner-Architekturen mit ihren spezifischen Vor- und Nachteilen vorgestellt. Ebenfalls eingegangen wird auf die Programmierung von Hochleistungsrechnern und die dafür geeigneten Softwarepakete. Im Rahmen dieser Arbeit wurden zwei Algorithmen zur Schwerefeldbestimmung auf verschiedenen Hochleistungsrechner-Architekturen implementiert. Die beiden Algorithmen (ein Brute-Force und ein iteratives Schätzverfahren) werden mit den Details ihrer Implementierung und Parallelisierung beschrieben. Dazu gehört auch die Einführung einer Gewichtsmatrix, die Verwendung von Regularisierung zur Stabilisierung des Gleichungssystems, sowie der Varianzkomponentenschätzung zur Kombination verschiedener Beobachtungstypen. Die Ergebnisse der Implementierung und Parallelisierung der beiden Algorithmen auf den verschiedenen verwendeten Hochleistungsrechnern werden detailiert präsentiert. Daraus lassen sich unter anderem Rückschlüsse auf die Eignung verschiedener Architekturen für die verwendeten Algorithmen ziehen. Ebenfalls vorgestellt werden die Ergebnisse der Gewichtung, der Regularisierung und der Varianzkomponentenschätzung.
  • Thumbnail Image
    ItemOpen Access
    Nachweis einer vulkanischen Struktur auf der Schwäbischen Alb mittels gravimetrischer Messungen und unterstützender Höhenbestimmung
    (2010) Scheider, Annette
    Im Bereich der Schwäbischen Alb und des Albvorlandes existieren eine Vielzahl von vulkanischen Strukturen unterschiedlicher Größe, die man zusammen als Schwäbischer Vulkan bezeichnet. Sie entstanden bereits im Miozän und sind heute oft nicht mehr als solche zu erkennen. Besonders viele davon befinden sich im Gebiet von Kirchheim u.T. und Bad Urach. Das Maar am Hofbrunnen ist eine dieser Strukturen und liegt in der Gemeinde Münsingen, nahe des Ortes Trailfingen auf der Schwäbischen Alb. Diese Struktur ist bereits seit langer Zeit bekannt, dennoch ist sie in einigen neueren Karten nicht enthalten. In dieser Diplomarbeit soll ein Teilgebiet im Süden des Maars untersucht werden und es wird überprüft, ob eine vulkanische Struktur mittels gravimetrischer Messungen und unterstützender Höhenbestimmungen nachgewiesen werden kann. Zunächst werden die geologischen Grundlagen, die die Entstehung dieser vulkanischen Strukturen und speziell zu der des Maars am Hofbrunnen erklären, betrachtet. Da sowohl Höhen- als auch Schweremessungen durchgeführt werden sollen, werden anschließend die verschiedenen möglichen Messverfahren genauer betrachtet und die für diesen Zweck am besten geeigneten ausgewählt. Um die notwendigen Messungen durchführen zu können, muss im nächsten Schritt ein geeignetes Messkonzept aufgestellt werden, das dann bei der Durchführung der Messungen im Gelände umgesetzt werden kann. Bei der Auswertung wird zuerst aus den erhaltenen Höhendaten ein DGM generiert, dass die Ausgangslage für die Auswertung der Schwere-Messergebnisse liefert. Für die Herleitung der Schwereanomalien auf das Geoid müssen einige Reduktionen und Korrekturen angebracht werden, so dass im Ergebnis die vulkanische Struktur sichtbar wird. In einem letzten Schritt wird der Einfluss der vulkanische Struktur, die eine Störmasse im Untergrund darstellt, auf die Schwere modelliert. Dazu wird die Struktur aufgeteilt, vereinfacht und als geometrische Körper aufgefasst, die aus einem Gestein bestehen, dessen Dichte sich vom Umgebungsgestein unterscheiden. Die Ergebnisse dieser Modellierung werden abschließend mit den Messergebnissen verglichen.