06 Fakultät Luft- und Raumfahrttechnik und Geodäsie

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/7

Browse

Search Results

Now showing 1 - 10 of 312
  • Thumbnail Image
    ItemOpen Access
    Ein Beitrag zur Stützung eines Software GNSS Empfängers mit MEMS-Inertialsensoren
    (2016) Gäb, Michael; Kleusberg, Alfred (Prof. Dr.-Ing.)
    Die genaue Bestimmung von Position und Geschwindigkeit mit einem globalen Navigationssatellitensystem (engl. Global Navigation Satellite System) (GNSS) in Echtzeit bildet eine essentielle Grundlage für viele Anwendungen in der Navigation. Bei mobilen Navigationsanwendungen finden häufig GNSS-Messungen unter ungünstigen Beobachtungsbedingungen statt, so dass Fehler in den Ergebnissen auftreten können. In diesem Fall ist der GNSS-Empfänger in Bewegung, so dass die Empfangsumgebung sich ständig ändert. So können Objekte, wie z.B. Gebäude, Bäume, Tunnel usw. zu Reflektionen, Dämpfung bzw. Abschattung der GNSS-Signale führen. Eine hohe zusätzliche Dynamik bzgl. der beobachteten Dopplerfrequenzverschiebung erfährt das empfangene GNSS-Signal durch die Bewegung des GNSS-Empfängers. Das beeinflusst die Signalnachführung (Tracking) und verursacht Fehler bei der Positions- und Geschwindigkeitsbestimmung oder eine Bestimmung ist sogar unmöglich. Eine Verbesserung der Positions- und Geschwindigkeitsbestimmung wird durch die gleichzeitige Messung mit einem GNSS-Empfänger und einem inertialen Navigationssystem (engl. Inertial Navigation System) (INS) ermöglicht. Kostengünstige INS beinhalten heute Mikro-Elektro-Mechanische Systeme (engl. Micro Electro Mechanical Systems) (MEMS), die als MEMS-Inertialsensoren bezeichnet werden. Die gemeinsame Nutzung der Messdaten von GNSS und INS wird als GNSS/INS-Integration bezeichnet. Diese Arbeit befasst sich mit der Tiefen GNSS/INS-Integration, so dass mit der Information eines INSs in die Tracking Loop des GNSS-Empfängers eingegriffen wird, um Verbesserungen beim Tracking des Signals und der daraus bestimmten GNSS-Beobachtungen zu erzielen. Dieser Eingriff wird auch als Stützung (engl. aiding) bezeichnet. Die Stützung erfolgt über die Regelgrößen (Dopplerfrequenz und Codephase) in der Tracking Loop für den jeweiligen Kanal des GNSS-Empfängers. Dazu werden die Regelgrößen zunächst prädiziert, bevor diese beim Tracking des empfangenen GNSS-Signals berücksichtigt werden können. Für die Prädiktion müssen die Position und Geschwindigkeit des Satelliten und des Empfängers vorliegen. Außerdem müssen die Uhrenfehlerrate des Satelliten und des Empfängers bekannt sein. Aus diesen Größen kann die Dopplerfrequenz und daraus die Rate der Codephase berechnet werden. Die zeitliche Integration der Codephasenrate ergibt die aktuelle Codephase. Aus den Ephemeriden des GNSS-Satelliten kann die Position, die Geschwindigkeit und die Uhrenfehlerrate für einen zeitnahen beliebigen Zeitpunkt berechnet werden. Die Uhrenfehlerrate des Empfängers wird hierbei mittels einer Extrapolation vorausbestimmt. Mit den MEMS-Inertialsensoren kann die Position und Geschwindigkeit des Empfängers fortgeführt werden. Diese Fortführung erfolgt über eine Lose GNSS/INS-Integration mittels einer Strapdown-Rechnung und einem Kalman-Filter für 15 Fehlerzustände. Als Stützwerte für den Kalman-Filter dienen hier die Position und Geschwindigkeit des SGEs. Die Stützung sollte bei einem Signalabriss oder für die Stabilisierung des Trackings eingeschaltet werden. Die Stützungsmethode wird mit einem Software GNSS-Empfänger (SGE) und einer Inertiale Messeinheit (engl. inertial measurement unit) (IMU) aus MEMS-Inertialsensoren (MEMS-IMU) in der Landfahrzeugnavigation getestet und analysiert. Der SGE ist für die Signale des globalen Positionierungssystem (engl. Global Positioning System) (GPS) mit dem C/A-Code auf der L1-Frequenz entwickelt und bestimmt die Position und Geschwindigkeit mit einer Messrate von 1 kHz. Die MEMS-IMU beeinhaltet 6 Freiheitsgrade mit jeweils einem 3-achsigen MEMS-Beschleunigungs- und MEMSDrehratensensor. Die Messrate des MEMS-Beschleunigungssensors beträgt 1 kHz und die Messrate des MEMS-Drehratensensors beträgt 800 Hz. Mit diesem Messsystem ist es möglich, die Prädiktion der Regelgrößen für jede Millisekunde durchzuführen, so dass diese bei jedem Tracking-Durchlauf mit dem C/A-Code vorliegen. Aufgrund der hohen Messraten können nur wenige Minuten Messdaten erfasst werden und die Auswertung erfolgt in der Nachbearbeitung (engl. post-processing). Die Stützungsmethode wird durch Fahrten mit einem Messfahrzeug getestet. Dazu werden Messfahrten mit verschiedenen Fahrmanöver ausgeführt, um im empfangenen GPS-Signal unterschiedliche Raten in der Dopplerfrequenz zu erzeugen. Eine Fahrt unter Bäumen ermöglicht den Einfluss des zeitlichen Verlaufs im Signal-Rauschverhältnis (engl. signal-to-noise ratio) (S/N) des empfangenen GPS-Signals auf die Stützungsmethode zu untersuchen. Bei dieser Messfahrt treten auch immer wieder kurzzeitige Signalabrisse auf. Die in der vorliegenden Arbeit dokumentierten Messfahrten und Ergebnisse zeigen, dass die Stützung für einen SGE erfolgreich in der Landfahrzeugnavigation durchgeführt werden kann. Die prädizierten Regelgrößen werden für die verschiedenen Messfahrten zuverlässig berechnet und das Tracking kann damit stabilisiert und sogar bei einem Signalabriss vorgesteuert werden. Außerdem können Ausreißer direkt in den Beobachtungen minimiert werden, so dass Verbesserungen in der Positions- und Geschwindigkeitsbestimmung des SGEs erzielt werden können.
  • Thumbnail Image
    ItemOpen Access
    Lebensdauerabschätzung von metallischen Strukturen mittels der Diskrete-Elemente-Methode im gekoppelten thermo-mechanischen Feld
    (2012) Hahn, Manfred; Kröplin, Bernd (Prof. Dr.-Ing. habil.)
    Aufgrund der hohen Streubreite der physikalischen Eigenschaften von metallischen Werkstoffen kann man deren Verhalten nicht zuverlässig voraussagen. Dies stellt insbesondere bei der Lebensdauervorhersage von industriell gefertigten Konstruktionen ein Problem dar. Der atomare Aufbau eines metallischen Werkstoffs besteht in der Regel aus einem Hauptelement und einem oder mehreren Nebenkomponenten was dazu führt, dass beim Erstarren einer Metallschmelze auf der Atomskala die Anreihung der Atome nicht strukturiert erfolgt, sondern mit zufällig verteilten Fehlern. Betrachtet man den Werkstoff auf einer göberen Skala so fällt auf, dass metallische Schmelzen an vielen Stellen zu erstarren beginnen und dass die Erstarrungskeime und die Grenzen der Erstarrungsfronten stochastisch verteilt sind. Die metallischen Werkstoffe sind also bei genauerer Betrachtung kein Kontinuum sondern ein Diskontinuum in dem die physikalischen Eigenschaften global betrachtet zu den in den Laborexperimenten beobachteten Werten verschmieren. Ziel der vorliegenden Arbeit ist es, den Werkstoff als ein Diskontinuum darzustellen, um die stochastisch verteilten physikalischen Eigenschaften auf einer kleinen Skala zu erfassen. Im Weiteren sollen auf einer größeren Skala die physikalischen Eigenschaften zu den global beobachteten Werten verschmieren. Dabei soll die in dieser Arbeit vorgestellte numerische Methode der diskreten Elemente im mechanischen Feld ausgebaut und im Folgenden auf andere physikalische Felder übertragen werden. In metallischen Werkstoffen gehen bei zyklischen Belastungen im Inneren des Werkstoffs mikroplastische Verformungen vonstatten, welche mit zunehmender Zyklenzahl den Werkstoff an diskreten Stellen mit Mikroschäden sättigen. Dabei schreitet die diskrete Sättigung solange voran, bis der diskrete Ort übersättigt bzw.~geschwächt ist und im Folgenden versagt. Die mikroplastischen Verformungen sind, wie auch die anderen physikalischen Parameter, mit einer statistischen Größe behaftet. Die diskrete Akkumulation der statistisch verteilten mikroplastischen Schädigung soll in das numerische Modell der Diskreten-Elemente-Methode (DEM) mit aufgenommen werden, so dass sich auf numerischem Weg Lebensdauersimulationen durchführen lassen. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit den mathematischen Beweisen für die Gültigkeit der DEM als numerische Methode, sowohl für das mechanische als auch für das thermische Feld. Die Beweisführung erfolgt über eine vergleichende Betrachtung mit der Finite-Volumen-Methode (FVM), der Finite-Differenzen-Methode (FDM) und der Finite-Elemente-Methode (FEM). Dabei wird aus der FVM die Idee übernommen, dass physikalische Flüsse übertragen werden. Im Weiteren ergibt die Assemblierung von sechs Stäben, welche die physikalische Feldgröße übertragen, zusammen mit dem lokalen physikalischen Gleichgewicht den Finite-Differenzen-Stern der FDM. Zuletzt wird das globale Gleichgewicht mittels der FEM gewonnen. Im Nachlauf der Finite-Elemente-Rechnung lassen sich die Flussgrößen zurückbestimmen. In dieser Arbeit wird gezeigt, wie die Kopplung des mechanischen und thermischen Feldes mittels der DEM vorgenommen werden kann. Dazu wird ausgeführt, wie die beiden Felder zusammen wirken und wie stark deren Kopplung ist. Abschließend wird eine Lebensdauersimulation an einer thermo-mechanisch belasteten virtuellen Probe vorgeführt. Das Ergebnis dieser Arbeit zeigt, dass die DEM eine Methode ist, um partielle Differentialgleichungen zu lösen, sowohl für Einzelfelder, als auch für gekoppelte Felder. Außerdem kann der Werkstoff durch die Methode als ein Diskontinuum betrachtet werden, so dass sich Lebensdauersimulationen mittels eines erweiterten Werkstoffmodells vornehmen lassen.
  • Thumbnail Image
    ItemOpen Access
    Thermodynamic analysis and numerical modeling of supercritical injection
    (2015) Banuti, Daniel; Weigand, Bernhard (Prof. Dr.-Ing. habil.)
    Although liquid propellant rocket engines are operational and have been studied for decades, cryogenic injection at supercritical pressures is still considered essentially not understood. This thesis intends to approach this problem in three steps: by developing a numerical model for real gas thermodynamics, by extending the present thermodynamic view of supercritical injection, and finally by applying these methods to the analysis of injection. A new numerical real gas thermodynamics model is developed as an extension of the DLR TAU code. Its main differences to state-of-the-art methods are the use of a precomputed library for fluid properties and an innovative multi-fluid-mixing approach. This results in a number of advantages: There is effectively no runtime penalty of using a real gas model compared to perfect gas formulations, even for high fidelity equations of state (EOS) with associated high computational cost. A dedicated EOS may be used for each species. The model covers all fluid states of the real gas component, including liquid, gaseous, and supercritical states, as well as liquid-vapor mixtures. Numerical behavior is not affected by local fluid properties, such as diverging heat capacities at the critical point. The new method implicitly contains a vaporization and condensation model. In this thesis, oxygen is modeled using a modified Benedict-Webb-Rubin equation of state, all other involved species are treated as perfect gases. A quantitative analysis of the supercritical pseudo-boiling phenomenon is given. The transition between supercritical liquid-like and gas-like states resembles subcritical vaporization and is thus called pseudo-boiling in the literature. In this work it is shown that pseudo-boiling differs from its subcritical counterpart in that heating occurs simultaneously to overcoming molecular attraction. In this process, the dividing line between liquid-like and gas-like, the so called Widom line, is crossed. This demarcation is characterized by the set of states with maximum specific heat capacity. An equation is introduced for this line which is more accurate than previous equations. By analyzing the Clausius-Clapeyron equation towards the critical limit, an expression is derived for its sole parameter. A new nondimensional parameter evaluates the ratio of overcoming molecular attraction to heating: It diverges towards the critical point but shows a significant pseudo-boiling effect for up to reduced pressures of 2.5 for various fluids. It appears reasonable to interpret the Widom-line, which divides liquid-like from gas-like supercritical states, as a definition of the boundary of a dense supercritical fluid. This may be used to uniquely determine the radius of a droplet or the dense core length of a jet. Then, a quantitative thermodynamic analysis is possible. Furthermore, as the pseudo-boiling process may occur during moderate heat addition, this allows for a previously undescribed thermal jet disintegration mechanism which may take place within the injector. This thermal jet break-up hypothesis is then applied to an analysis of Mayer’s and Branam’s nitrogen injection experiments. Instead of the constant density cores as predicted by theory, the majority of their cases show an immediate drop in density upon entering the chamber. Here, three different axial density modes are identified. The analysis showed that heat transfer did in fact take place in the injector. The two cases exhibiting a dense core are the cases which require the largest amount of power to reach the pseudo-boiling temperature. After this promising application of pseudo-boiling analysis, thermal break-up is tested numerically. By accounting for heat transfer inside the injector, a non dense-core injection can indeed be simulated for the first time with CFD. Finally, the CFD model is applied to the A60 Mascotte test case, a reactive GH2/LOX single injector operating at supercritical pressure. The results are compared with experimental and other researcher’s numerical data. The flame shape lies well within the margins of other CFD results. Maximum OH* concentration is found in the shear layer close to the oxygen core and not in the shoulder, in agreement with experimental data. The axial temperature distribution is matched very well, particularly concerning position and value of the maximum temperature.
  • Thumbnail Image
    ItemOpen Access
    Comparison of feedforward and model predictive control of wind turbines using LIDAR
    (2012) Schlipf, David; Pao, Lucy Y.; Cheng, Po Wen
    LIDAR systems are able to provide preview information of wind disturbances at various distances in front of wind turbines. This technology paves the way for new control concepts such as feedforward control and model predictive control. This paper compares a nonlinear model predictive controller and a feedforward controller to a baseline controller. Realistic wind "measurements" are obtained using a detailed simulation of a LIDAR system. A full lifetime comparison shows the advantages of using the wind predictions to reduce wind turbine fatigue loads on the tower and blades as well as to limit the blade pitch rates. The results illustrate that the feedforward controller can be combined with a tower feedback controller to yield similar load reductions as the model predictive controller.
  • Thumbnail Image
    ItemOpen Access
    Application-specific UML profiles for multidisciplinary product data integration
    (2011) Reichwein, Axel; Rudolph, Stephan (Priv.Doz. Dr.-Ing.)
    This thesis examines the suitability of the UnifiedModeling Language (UML) to establish a central product model for multidisciplinary product data integration. Computer-aided product design involves the use of specialized discipline-specific software applications in order to model and simulate various product aspects. Dependencies between models are thereby frequent as the same product information often appears redundantly in various engineering models. In addition, dependencies exist due to relationships between distinct features of various models. As a result, model modifications frequently require the update of dependent models. Data consistency between models is achieved automatically through model-to-model data exchange software. The use of a central product model enables to reduce the required number of data exchange connections. Central product models store product information which is spread across several models and achieve data consistency through data exchange connections between themselves and specific models as in a hub-and-spoke network. Central product models are especially useful for automatic data consistency in design scenarios which include a high number of inter-model dependencies and model modifications. The integration of geometry and therefrom derived models such as structural analysis or computational fluid dynamics models has already been successfully addressed in numerous central product models. However, the multidisciplinary integration of more diverse models, such as geometric, software, controller and multibody system models, currently presents a challenge. Although several central product models have been developed for multidisciplinary design, none has yet gained, in contrast to geometry-focused central product models, wide acceptance nor reached the status of an international standard. The unmanageable high number of diverse discipline- and application-specific modeling concepts hinders the development of a standardized holistic central product representation. This thesis investigates the possibility of establishing an interdisciplinary central product model based on the common modular structure of models from various disciplines. Most models which are edited with current state-of-the-art software applications are composed of modular components in order to support the exchange and reuse of model information. Models from different disciplines therefore share common modeling concepts for the specification of modular model components. However, there is yet no overarching modeling standard to describe the common characteristics of modular model components from various disciplines. Object-oriented modeling concepts currently mainly describe software modules called objects. Object-oriented modeling concepts are generic and can be used to represent modular components in general. The Unified Modeling Language (UML) has been since its emergence in 1997 the de facto standard for object-oriented modeling. This thesis examines the use of the object-oriented modeling concepts of the UML to uniformly describe widely used application-specific geometric, dynamic and multibody system models in a central product model. Application-specific model information was represented in UML through generic UML modeling concepts in combination with lightweight UML extensions in the form of stereotypes. UML profiles regrouped stereotypes which corresponded to a specific modeling application. The automatic translation of UML model information into the specific models and vice versa was implemented in order to test and validate the application-specific UML profiles. The UML-based central product model was used in several test cases to automatically generate consistent models for the simulation and evaluation of various product configurations. The test cases included models for the simulation of slider-crank mechanisms, the evaluation of cabin pressure control systems, the design of conveyor system configurations, the evaluation of satellite configurations and the generation of customized aircraft geometry. The workflows within the test cases included the automatic creation and modification of UML models as well as the invocation of data exchange connections. The workflows were described in executable UML activity diagrams or Java programs. The thesis demonstrates that the UML can be used beyond conventional software modeling to establish a central holistic product representation. The modeling concepts of geometric, dynamic and multibody system models were translated mostly according to one-to-one mappings into corresponding UML modeling concepts with their respective stereotype. As a result, the specific model information is easily recognizable in the UML-based central product model. Furthermore, the use of a UML-based central product model is facilitated for the many modelers who are already familiar with the widespread and standardized UML modeling language.
  • Thumbnail Image
    ItemOpen Access
    A MATLAB toolbox for the Scintrex CG-5 gravimeter at GIS
    (2017) Gu, Siyun
    This thesis is about a MATLAB toolbox for the Scintrex CG-5 gravimeter. The aim of this toolbox is to offer a basic data process for gravity measurement, which is compatible for most applications in geodesy. In particular, the toolbox covers: 1. data selection, 2. adjustment, 3. gravity gradient computation, 4. gravity visualization, 5. calibration factor estimation. A graphical user interface enables users without deeper programming knowledge to operate this toolbox and obtain the results like adjusted values or figures.
  • Thumbnail Image
    ItemOpen Access
    Shape derivatives and shock capturing for the Navier-Stokes equations in discontinuous Galerkin methods
    (2017) Sonntag, Matthias; Munz, Claus-Dieter (Prof. Dr.)
    This work addresses two different topics, the shape derivatives for the compressible Navier-Stokes equations on the one hand and, on the other hand, the treatment of shocks or other flow discontinuities in Discontinuous Galerkin methods. There is a strong demand for very efficient methods for shape optimization in the aerospace industry, for example drag reduction or lift maximization of an aircraft. The use of gradient based optimization schemes requires derivatives of the cost function with respect to the shape of an object. With the shape derivatives presented in this work, these derivatives can be calculated independent of the parametrization of the object's shape, and, since the derivation takes place in the continuous space, they can be applied to almost any discretization. Nevertheless, one has to take the numerical scheme, which is later applied, into account. For methods based on the variational formulation a difference in the shape derivative, compared to the pointwise approach, arises, which cannot be neglected. Hence, one objective of this work is to derive the shape derivatives of the drag- and lift-coefficient for the Navier-Stokes equations in variational formulation and compare it with the pointwise approach both analytically and numerically. A discrepancy has to be expected, especially for flow phenomena with high gradients or discontinuities which do not fulfill the strong form of the governing equations. These flow phenomena require a special treatment in numerical methods of high order. In the second part of this work, a shock capturing for the Discontinuous Galerkin method is developed which prevents the oscillations originating from the approximation of discontinuities with high order polynomials. Therefore a hybrid approach is presented, where the original DG scheme is coupled with a second order Finite Volume method. In all elements containing shocks or discontinuities the operator of the DG method is replaced by the Finite Volume scheme. This scheme is, due to the use of slope limiters, well known for its strengths in handling shocks. However, in regions where the flow is smooth the Finite Volume method requires a finer resolution for the same accuracy than the Discontinuous Galerkin scheme. Using the same mesh for the FV method as for the DG scheme would lead to a big reduction in resolution. Hence, to compensate this loss the original elements of the mesh are divided into logical sub-cells. By associating exactly one Finite Volume sub-cell to each degree of freedom of a DG element, the same data structures can be used. This enables an efficient implementation of the outlined shock capturing designated for high performance computations. Therefore, not only the basic properties of this hybrid DG/FV sub-cell approach are investigated with several examples, but also studies regarding the parallel efficiency are performed.
  • Thumbnail Image
    ItemOpen Access
    An approach for automated detection and classification of pavement cracks
    (2017) Al-Mistarehi, Bara'; Schwieger, Volker (Prof. Dr.-Ing. habil.)
  • Thumbnail Image
    ItemOpen Access
    Evaluierung generalisierter Gebäudegrundrisse in großen Maßstäben
    (2012) Filippovska, Yevgeniya; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    Bei der Erzeugung von Karten werden die darzustellenden räumlichen Objekte in Abhängigkeit des angestrebten Maßstabs ausgewählt, verändert und so arrangiert, dass deren Form und Verteilung zu einem bestmöglichen Verständnis der räumlichen Gegebenheiten führt. Dabei weist die kartographische Abbildung unvermeidliche und zuweilen tiefgreifende geometrische Veränderungen im Vergleich zur Realität auf, welche durch eine übergeordnete Kontrollinstanz zu verifizieren und bewerten sind. Hierfür strebt man eine formalisierte Qualitätsbewertung der Ergebnisse an, so dass sich entsprechende Prozesse, bevorzugt mit Hilfe automatisierter Werkzeuge, umsetzen lassen. Obwohl die Lesbarkeit der Gesamtkomposition einer Karte das Ziel ist, muss die Qualitätsbewertung zuerst auf der untersten Generalisierungsebene, der sogenannten Mikroebene erfolgen, indem die Geometrie- bzw. die Formveränderungen von Einzelobjekten bemessen werden. Neben dem Straßennetz dienen den Kartennutzern häufig vor allem markante Gebäude als Orientierungshilfe, welche aus diesem Grund nicht allzu großen Veränderungen unterliegen dürfen. Im Rahmen dieser Arbeit werden daher Qualitätscharakteristiken aufgezeigt, welche auf dem direkten Vergleich zweier Gebäudegrundrisse – Original und generalisiert – basieren. Die vorliegende Arbeit beginnt mit einer theoretischen Einführung in das Thema der Qualität von Geodaten. Anschließend wird ein Wahrnehmungstest vorgestellt, welcher die Bewertung generalisierter Grundrisse durch menschliche Betrachter vornimmt. Versuche diese Wahrnehmungsprozesse mathematisch zu formalisieren wird als Ähnlichkeitsschätzung bezeichnet, deren Grundlagen darauffolgend dargelegt sind. In diesem Zusammenhang wird eine einheitliche Klassifizierung der Objektmerkmale basierend auf der zugrundeliegenden Berechnungsmethode vorgeschlagen. Ein Überblick über die bislang zur Qualitätsbewertung der Generalisierung gelaufenen Forschungsarbeiten und eine kritische Auseinandersetzung dazu runden den derzeitigen Kenntnisstand zum Themengebiet ab. Daran anschließend werden neue Charakteristiken zur Ähnlichkeitsanalyse vorgestellt, welche die 2D-Gebäudeobjekte unter den Aspekten der Kontur- und Flächentreue hin vergleichen. Da eine Zuordnung zwischen den Formelementen allgemein nicht zweifelsfrei feststellbar ist, werden die Objekte geometrisch gemäß der Standardisierung von Geodaten als Punktmengen betrachtet. Dies erlaubt es, die geometrischen Berechnungen fast ausschließlich auf den Standardoperatoren der Mengentheorie aufzusetzen und mit den topologischen Algorithmen der Graphentheorie zu kombinieren. Zur Bewertung der Konturtreue werden Charakteristiken auf Basis der objektbildenden Randmengen aufgezeigt, welche Aufschluss über die maximale Abweichung und den Anteil der Überlappung gibt. Die Flächentreue wird unter einem quantitativen und einem räumlichen Aspekt betrachtet, wobei eine Differenzierung zwischen den Elementen der Strukturveränderungen vorgenommen wird. Um die Aussagekraft und Praxistauglichkeit der vorgeschlagenen Charakteristiken zu überprüfen, wird eine Evaluierung von generalisierten Gebäudegrundrissen auf der Mikro- und Makroebene durchgeführt. Dabei spielt insbesondere auch die anschauliche Präsentation der Ergebnisse eine zentrale Rolle, so dass verschiedene Möglichkeiten zur Darstellung der einzelnen Charakteristiken bezüglich einer guten Diskriminierbarkeit der Qualitätsangaben im Fokus stehen. Die Analyse der Ergebnisse zeigt, dass alle vorgeschlagenen Charakteristiken aussagekräftig sind und eine vielseitige Beschreibung verschiedener Qualitätsaspekte der Generalisierung in deren Gesamtheit ermöglichen.
  • Thumbnail Image
    ItemOpen Access
    Dynamic water masks from optical satellite imagery
    (München : Verlag der Bayerischen Akademie der Wissenschaften, 2019) Elmi, Omid; Sneeuw, Nico (Prof. Dr.-Ing.)
    Investigation of the global freshwater system has a vital role in critical issues e.g. sustainable development of water resources, acceleration of the hydrological cycle, variability of global sea level. Measurement of river streamflow is vital for such investigations as it gives a reliable estimate of freshwater fluxes over the continents. Despite such importance, the number of river discharge gauging station has been decreasing. At the same time, information on the global freshwater system has been increasing because of various types of ground observations, water-use information and spaceborne geodetic observations. Nevertheless, we cannot answer properly crucial questions about the amount of freshwater available on a certain river basin, or the spatial and temporal dynamics of freshwater variations and discharge, or the distribution of world’s freshwater resources in the future. The lack of comprehensive measurements of surface water storage and river discharge is a major impediment for a realistic understanding of the hydrological water cycle, which is a must for answering the aforementioned questions. This thesis aims to improve the methods for monitoring the surface extent of inland water bodies using satellite images. Satellite imaging systems capture the Earth surface in a wide variety of spectral and spatial resolution repeatedly. Therefore satellite imagery provides the opportunity to monitor the spatial change in shorelines, which can serve as a way to determine the water extent. Each band of a multispectral image reveals a unique characteristic of the Earth surface features like surface water extent. However selecting the spectral bands which provide the relevant information is a challenging task. In this thesis, we analyse the potential of multispectral transformations like Principal Component Analysis (PCA) and Canonical Correlation Analysis (CCA) to tackle this issue by condensing the information available in all spectral bands in just a few uncorrelated variables. Moreover, we investigate how the change between multispectral images at different epochs can be highlighted by using the transformations. This study proposes an automatic algorithm for extracting the lake water extent from MODIS images and generating dynamics lake masks. For improving the accuracy of the lake masks and computational efficiency of the algorithm, two masks are defined for limiting the search area. The restricting masks are developed according to DEM of the surrounding area together with a map of the long-term variation of pixel values. Subsequently, an unsupervised pixel-based classification algorithm is applied for defining the lake coastline. The algorithm particularly deals with the challenges of generating long time series of lake masks. We apply the algorithm on five lakes in Africa and Asia, each of which demonstrates a challenge for lake area monitoring. However in the validation section, we demonstrate that the algorithm can generate accurate dynamic lake masks. Rivers show diverse behaviour along their path due to the contribution of different parameters like gradient of the elevation, river slope, tributaries and river bed morphology. Therefore for generating accurate river reach mask, we need to consider additional sources of information apart from pixel intensity. The region-based classification algorithm that we propose in this study takes advantages of all types of available information including pixel intensity and spatial and temporal interactions. Markov Random Fields provide a flexible frame for interaction between different sources of data and constraint. To find the most probable configuration of the field, the Maximum A Posteriori solution for the MRF must be found. To this end, the problem is reshaped as an energy minimization. The energy function is minimized applying graph cuts as a powerful optimization technique. The uncertainty in the graph cuts solution is also measured by calculating the minimum marginal energies. The proposed method is applied to four rivers reaches with different hydrological characteristics. We validate the obtained river area time series by comparing with in situ river discharge and satellite altimetric water level time series. Moreover, in this study, we present river discharge estimation models using the generated river reach masks. Our aim is to find an empirical relationship between the average river reach width and river discharge. The statistics in the validation periods support the idea of using river width-discharge prediction models as a complementary technique to the other spaceborne geodetic river discharge prediction approaches.