06 Fakultät Luft- und Raumfahrttechnik und Geodäsie

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/7

Browse

Search Results

Now showing 1 - 10 of 36
  • Thumbnail Image
    ItemOpen Access
    Volcanic evolution of Southern Tenerife (Canary Islands) during the Pleistocene and Holocene
    (2009) Kröchert, Jörg; Buchner, Elmar (PD Dr.)
    The Canary Islands are a group of volcanic ocean islands in the Central Atlantic near the continental margin of northwest Africa. Tenerife, with a volcanic history of more than 12 Ma of subaerial eruptions, is the largest island of the Canaries and is situated in the centre of the Archipelago. The Quaternary Bandas del Sur Formation in the South of Tenerife comprises a complex sequence of pyroclastic rocks and lavas and is part of the southern rift zone. In contrast to the northwest and northeast rift zones on Tenerife, the southern rift zone comprises a number of characteristics with respect to the morphological features, eruption cyclicity, and the geochemistry of the volcanic deposits. Various flank eruptions of the Las Cañadas volcano associated with basaltic lavas and the formation of cinder cones within the Bandas del Sur are important volcanic units for understanding the explosive volcanic cycles during the Pleistocene on Tenerife. Paleomagnetic studies, geochemical analysis of major and trace elements, and two radioisotopic dating (K-Ar) have been carried out on prominent cinder cones, to determine their stratigraphic position. By combining the results with previous K-Ar data in the Literature, the cones and lavas can be subdivided into three stratigraphic units. Cinder cones that belong to the first unit show reverse magnetization and Y/Nb ratios between 0.37-0.41; cinder cones of the second unit show normal magnetization and Y/Nb ratios of <0.35. The third unit comprises cinder cones with normal magnetization and Y/Nb ratios of about 0.47. The first two units were constructed between ~0.948-0.779 Ma and 0.323-0.300 Ma. These units define volcanic cycles that culminated in violent Plinian eruptions. The third and youngest unit possibly marks the beginning of a further volcanic cycle that started ~0.095 Ma ago. In order to reconstruct the uplift history of Tenerife, numerous uplifted fossil beaches and tuff cones were investigated. In the North and Northeast of Tenerife, the positions of fossil beaches indicate stable conditions since 130 ka. The uplift rates in southern Tenerife (within the Bandas del Sur) amount to a minimum of 15 m since 778 ka at Montaña Pelada and to a maximum of up to 45 m since 10 ka in the area of El Médano, suggesting an asymmetrical uplift of the island complex. The uplift in the South could be caused by seismic activity or mass loss due to flank collapse events. However, uplift due to ascending magma is more plausible. The fossil beach deposits of the El Médano area exhibit tubular-shaped concretions and concretionary dykes. These sediment structures have been interpreted as the result of a) the interaction between hot ignimbrites that overflowed wet beaches, b) fast accumulation of beach sands on hot and degassing ignimbrites, c) paleoliquefaction caused by an earthquake (seismites). Based on the interpretation as seismites, an intense paleoearthquake was proposed to be responsible for the generation of the paleoliquefaction structures. However, the sedimentary structures in question show the general criteria diagnostic for rhizocretions and root tubules with respect to their orientation, size, branching system, and style of cementation. Faults of a well-defined strike direction that precisely coincides with the southern rift fault system occur in the El Médano site. This fault system was generated contemporaneously with a chain of cinder cones ~948 ka ago. Open fractures in ignimbrites (~668 ka) and the fossil beach deposits (~10 ka) of the El Médano area suggest that the rift-associated fault system has been seismically active in the aftermath and probably is still active. A further fault system striking perpendicular to the rift-associated faults probably originates from a Holocene paleoearthquake of moderate intensity. Earthquake-induced ground effects in the fossil beach deposits of the study area are consistent with seismically induced ground effects of several recent and well-documented earthquakes and gravitational sliding triggered by an intense earthquake in Nicoya/Costa Rica in 1990. Both, the rift-associated and the earthquake-induced fault system, initially produced open cracks in the fossil beach deposits that were occupied by plants and subsequently stabilized by cementation. These results accentuate that the densely settled southern part of Tenerife is latently endangered by volcanic and seismic activity, though, currently, there are no indications of increasing volcanic activity in this region. Uplift due to recent magma loading is not observable and the intensity of a paleoearthquake in the El Médano area was probably considerably lower than mentioned in the literature.
  • Thumbnail Image
    ItemOpen Access
    Numerical prediction of flow induced noise in free jets of high Mach numbers
    (2009) Schönrock, Olaf; Munz, Claus-Dieter (Prof. Dr.)
    A direct aeroacoustic simulation methodology is developed on the basis of the numerical schemes implemented in the commercial tool ANSYS CFX. The focus lies upon the efficient and direct numerical prediction of the flow-induced noise generated by natural gas and pneumatic applications. The respective compressed gas related components are characterized by tiny supersonic gas jets, strong noise emissions, poor accessibility by measurement techniques and excessive simulation costs in particular. Highly resolved computational grids close to DNS requirements become necessary just in order to capture the time-averaged flow profile, tiny shocks and gradients correctly. Furthermore the coexistent supersonic flow velocity results in an exceptionally small timestepping in compliance with the CFL condition, e.g. for LES aeroacoustic simulations. Considering the assumably nonlinear noise propagation and the acoustic feedback within enclosed environments the well-established hybrid approaches cannot be employed here as well. The flow and acoustics of the whole domain rather have to be captured within a single tool instead. In fact, the corresponding simulation costs inhibit the numerical prediction and reduction of the emitted noise levels for those compressed gas components at the industrial scale. In this work the test subject is a dedicated natural gas injector in an open and a confined environment and with varying boundary conditions. Specific to the injector nozzle, four under-expanded supersonic gas jets (M=1.4, Re=30000) are formed and cause a strong flow three-dimensionality. Furthermore a turbulence cluster establishes between the jets driving jet fluctuations and aeroacoustics. To enable aeroacoustic simulations in the first place, ANSYS CFX is augmented by a transient inlet boundary condition and a non-reflective farfield boundary condition based on an implicit damping sponge layer. In order to reduce the simulation costs the scale-adaptive turbulence model (SAS-SST) recently implemented in ANSYS CFX is validated for the gas injection problem and especially for CFL numbers much larger than one. Since a degrading solution quality has to be expected then a timestep study is conducted in order to detect the limit for aeroacoustic simulations. Bottom line the different turbulence modeling allows a strongly increased global timestepping such that a net simulation costs reduction by a factor of 19 compared to LES is achieved. In spite of the generally lower solution quality the predicted noise levels, spectral distributions as well as noise sensitivities are in well agreement with own experimental data. In an alternative simulation approach the research code NSDG2D is applied to a simplified 2D setup with very promising results. The more sophisticated solver numerics based on an explicit Discontinuous Galerkin scheme allows local dynamic adaption to the problem, amongst others by local timestepping and locally adaptive element orders. These features prove to be feasible especially for locally varying unsteady compressible flows and the supersonic gas injection in particular. Considering these advantages a further reasonable simulation costs reduction compared to ANSYS CFX can be projected for the 3D application as well.
  • Thumbnail Image
    ItemOpen Access
    Empirical orthogonal function analysis of GRACE gravity data
    (2009) Bentel, Katrin
    The Gravity Recovery and Climate Experiment (GRACE) twin-satellite mission has been providing measurements of the time-varying gravity field of the Earth for almost seven years now. Gravity changes on Earth are due to mass changes and play an important role in Earth sciences. Monthly maps of mass changes are derived from the satellite measurements and need to be interpreted. The major difficulty in analyzing GRACE data are North-South stripes in the estimated gravity fields, caused by the fact that the GRACE satellites are flying in a near-polar orbit, one following the other. A microwave ranging instrument is measuring the distance between the two spacecraft, which is about 220 km. Due to these longitudinal stripes, major errors, analyzing the GRACE gravity fields is demanding. The technique of empirical orthogonal function (EOF) analysis is investigated in this thesis, and it is demonstrated the performance of EOF analysis for separating signal from noise and errors, and for identifying different sources of gravity changes in a real GRACE data set. EOF analysis is explained from a theoretical point of view and is applied to the GRACE data. Basically, the EOF method gives a transformation of the data into a new coordinate frame in the data space, where the axis are chosen according to the data variances. The core of the method is a singular value decomposition of the data matrix. The components obtained from this decomposition need to be interpreted, and signal has to be separated from noise. Additionally, EOF analysis can be used as a filtering tool. In the detailed data analysis, benefits and shortcomings of the EOF method are studied and described with respect to GRACE data. Global maps of mass changes as well as different smaller regions are analyzed, and global and regional results are compared.
  • Thumbnail Image
    ItemOpen Access
    Recovery of the geometric road design elements using low-cost sensors : a feasibility study
    (2009) Ogonda, Godfrey Onyango; Kleusberg, Alfred (Prof. Dr.-Ing.)
    Roadway inventory databases are continuously being applied in two main areas, first in the design, construction and maintenance of new and existing roads and secondly in the specific areas of intelligent transport systems such as driver assistance and mobile information systems. The initial development, storage and management of the database have therefore become the responsibility of the various road agencies around the world, which ascertain that this is done in accordance with the respective road policies and design standards in the respective states or regions. The roadway inventory database has been estimated to comprise of about 49 possible collectible categories of roadway inventory data elements such as the horizontal curve elements, the vertical alignment elements, drainage, the number of lanes and the traffic signs among others. As a result of the rapidly changing roadway environment, the challenge therefore is the up-dating of the roadway inventory database using relatively accurate and cost-effective techniques, as opposed to the mobile mapping systems usually employed in their initial development. This calls for investigation into other low-cost data collection and processing methods and devices. The aim of this study is therefore to develop a methodology for extracting the geometric road design elements from position time series derived from a set of low-cost sensors, and to assess the accuracy potential of such sensors. The report begins with a review of the basics of road design and the formulations used in the estimation of the geometric road design elements as well as a brief mention of the road design standards and guidelines. The various sensors and systems for land based positioning and navigation, with emphasis on their costs and sources of error, are discussed. An overview of the theory of curve fitting functions and criteria with specific interest in splines and their properties is also presented. The investigations, tests and data analyses carried out are based on computer simulated data as well as on field measured data collected in the vicinity of the city of Stuttgart. A set of spline-based algorithms is developed and tested for the extraction of geometric road design elements for the purpose of updating the roadway inventory database. Furthermore, a set of low-cost navigation sensors, comprising of wheel speed sensors, a single-axis micro electro-mechanical systems accelerometer and a single-axis micro electro-mechanical systems gyroscope, was built up and utilised for the acquisition of vehicle track positions. The methodologies and formulations used in the synchronisation of the measurements and the calibration of the sensors, the integration of the sensors' data based on a Kalman filter algorithm, the estimation of curvature and recovery of the geometric road design elements are presented. In summary, the tests and data analyses illustrate that - the developed spline-based algorithms successfully extract the geometric road design elements based on the assumption that the road geometry consist of straight lines, circular and transitional curves, as demonstrated by the analysis of simulated data. - the field calibration procedure of the wheel speed sensors employing a Kalman filtering process achieve an accuracy of +0.04 m in distance increments. The derived heading differences have a final cumulative deviation of +3° or a drift of about 0.0025 °/s. - the proposed set of low-cost sensors can be a viable solution as a short duration georeferencing device for mobile mapping systems in the recovery of the geometric shape of the road track, as long as (i) the vehicle is driven at low speed (about 36km/h or 10m/s) but certainly above the threshold speed of the wheel sensors, (ii) the random errors in the measurements are characterized and reduced and (iii) the pitch angle and gravitation effect are compensated for in the measured data. - the random and the systematic errors in the measured vehicle track position time series are a serious predicament to curvature estimation, which however can be reduced by the use of smoothing splines and by calibration of the measuring devices, respectively. Based on the above tests and analyses, the low-cost sensors together with the developed algorithms generated sufficiently accurate geometric road design elements for updating roadway inventory databases especially those intended for intelligent transport system applications whose accuracies are specified in metres to sub-meter. However, the recovered geometric road design elements may not be sufficiently accurate for roadway inventory databases used for road design and construction because here the accuracy requirements are in centimetre level.
  • Thumbnail Image
    ItemOpen Access
    Einfluss lateraler Variationen in Lithosphäre und oberem Mantel auf den glazial-isostatischen Ausgleich in der Antarktis
    (2009) Rau, Daniel
    Diese Arbeit beschäftigt sich mit den Auswirkungen der lateral variierenden Lithosphärenmächtigkeit auf die regionale glazial-isostatische Ausgleichsbewegung (GIA) in der Antarktis. Damit einhergehend wird auch die Viskosität des oberen Mantels variiert. Die Lithosphäre in der Antarktis ist in zwei Bereiche mit scharfem Übergang unterteilt, eine dicke Lithosphäre in der Ostantarktis und eine dünne Lithosphäre in der Westantarktis. Nun wird untersucht wie sich die verschiedenen Lithosphärendicken im Modell auf das Verhalten der nacheiszeitlichen Hebung bzw. auf den glazial-isostatischen Ausgleich auswirken. Zur Einordnung werden die Vertikalbewegung, die Horizontalbewegung sowie die Geoidhöhenänderung modelliert. Hierzu wird zunächst ein dreidimensionales (3D) Viskositätsmodell mit einer lateral variablen Lithosphäre erstellt. Dieses Erdmodell wird mit einem Lastmodell belastet, welches sich aus der Vereisungsgeschichte ICE-5G ergibt. Die Berechnung der in dieser Arbeit untersuchten Größen erfolgt unter Verwendung der spektralen Finite-Elemente-Methode für 3D viskoelastische Belastung. Durch ein inhomogenes Abschmelzen der Eismassen in der Antarktis sind dessen Auswirkungen in der Westantarktis stärker ausgeprägt. Um die Effekte der Lithosphärenvariation zu extrahieren, werden Vergleichsmodelle erstellt, die beispielsweise einen 3D-Mantel, jedoch nur eine eindimensionale (1D) Lithosphäre aufweisen. Anhand der durchgeführten Vergleiche wurde deutlich, dass der Einfluss der Lithosphärenmächtigkeit in Relation zu den Einflüssen des Mantels sehr gering ist. Lediglich im Bereich der Horizontalbewegungen ist ein Einfluss von 20-30 % der Gesamtgeschwindigkeit messbar. Für die Vertikalbewegungen bleibt der Einfluss mit < 1 mm/a unter 10 %, und für die Geoidhöhenänderungen ist die Änderung aufgrund von Lithosphärenvariationen < 0.10 mm/a. Der Einfluss der Mantelviskosität ist in allen Bereichen höher.
  • Thumbnail Image
    ItemOpen Access
    Measurement of soot precursor particles under atmospheric and low pressure conditions by means of time-of-flight mass spectrometry
    (2009) González Baquet, Tania; Aigner, Manfred (Prof. Dr.-Ing.)
    During the last decades a great progress has been achieved in the understanding of the combustion of hydrocarbons. The gas phase reactions governing the first steps in the combustion process are well understood. The existing models describing the growth of soot particles and the formation of soot aggregates are widely accepted, as well. However, the so-called inception, i.e. the mechanism leading to the formation of the first solid particles from gas phase molecules, is still a controversial issue. This is mainly due to the lack of adequate experimental techniques capable of detecting particles in the low nanometer range like those created in the nucleation process in flames. At present most of the combustion models stress the importance of PAH formation and growth in the soot formation process. Other models, however, propose a soot formation mechanism based on the formation of large three dimensional structures without crystallinity. In the present work, the detection and characterization of soot precursor particles, as transition species between gas phase molecules and solid soot particles in the combustion process, is attempted by means of mass spectrometry. To this end a ”custom-built” reflectron time-of-flight mass spectrometer of high sensitivity and with a large mass range is used. Measurements are carried out in different premixed ethylene laboratory flames at different pressures and in a wide range of stoichiometries. Additionally, the exhaust of a gasoline and a diesel engine is investigated. These measurements require the development of a sampling technique capable of transporting the sample from atmospheric conditions to the high vacuum of the mass spectrometer. The resulting fast pulsed sampling system minimizes undesirable sampling line effects while it enables the generation of an optimized molecular beam. Photo ionization of the sample is provided by an excimer laser. The main findings of this work can be summarized as follows: 1. Different types of soot precursor particles can coexist in the flame. For the first time two different types of soot precursor particles with diameters ranging from approximately 1 to 5 nm have been simultaneously detected. The different soot precursor particle modes, in the following referred to as mode A and mode B, show different features. Thus, the existence of at least two different types of soot precursor particles is postulated. Mode A particles are found in a wide range of flame stoichiometries. They are characterized by an ionization order close to two and show a fragmentation threshold of around 0.12 MW/cm2. These particles are considered amorphous, more characteristic of low temperature flames and associated to the soot precursor particles described by D’Alessio et al.. Mode B particles are only observed in a limited stoichiometric range associated with rather high flame temperatures. Mode B particles show an ionization order close to one and a relatively high fragmentation threshold close to 2.24 MW/cm2. These particles are considered to be similar to the ones described by Dobbins et al., i.e. stacks of planar PAHs. 2. Soot precursor particles, although considered to be very reactive, can survive the flame and be emitted. 3. Soot precursor particles are found in significant amounts only at flame stoichiometries above the soot threshold. The lower stoichiometric limit for particle generation is still an issue discussed in the combustion community. All results of this study indicate that the onset of particle formation takes place at flame stoichiometries close to the soot threshold. Consequently, the emission of soot precursor particles seems not to be an outstanding problem in the case of gasoline combustion engines, since the latter work under fairly stoichiometric burning conditions and are characterized by a homogeneous fuel-mixture. This is confirmed by the measurements carried out in the exhaust gas of a gasoline generator. Conventional diesel engines work under globally lean burning conditions but are characterized by a heterogeneous fuel-mixture. Consequently, high particle emissions are expected. The measurements carried out in the exhaust gas of a diesel generator, however, show negligible soot precursor particle emissions. In this case soot precursor particles are oxidized due to the excess of oxygen in the exhaust gas. Soot precursor particle losses due to coagulation with soot particles are also expected. This work demonstrates the utility of time-of-flight mass spectrometry for the detection and study of soot precursor particles. The experimental data presented in this thesis provide new information about the transition region between gas phase molecules and soot particles in the combustion process. This improves the understanding of the soot formation process and stimulates the revision of current combustion models.
  • Thumbnail Image
    ItemOpen Access
    Modell-basierte Systemsimulation eines Kleinsatelliten mit einem FPGA-basierten On-board-Computer
    (2009) Falke, Albert; Röser, Hans-Peter (Prof. Dr.-Ing.)
    Die vorliegende Dissertation beschäftigt sich schwerpunktmäßig mit der Systemsimulation des Satelliten Flying Laptop unter Weltraumbedingungen, mit dem Ziel die Funktionalitäten des Satellitensystems als Ganzes zu verifizieren. Simulation bezeichnet allgemein das Nachahmen des Verhaltens eines Systems oder Prozesses zum Zwecke der Analyse von Systemen, die für die theoretische oder formelmäßige Behandlung zu kompliziert sind. Auch im Kontext einer Kleinsatellitenmission ist das Satellitensystem bereits so komplex, dass man ohne die systemweite Simulation keine detaillierte Analyse unter Berücksichtigung der vielen miteinander interagierenden Komponenten mehr durchführen kann. Bereits seit einigen Jahren verwenden renommierte Satellitenhersteller Simulationstechnologien, um bereits während der Satellitenentwicklung und Fertigung den größtmöglichen Missionserfolg zu gewährleisten. Eine dieser Technologien ist die Modell-basierte Entwicklungs- und Verifikationsumgebung der Firma EADS Astrium GmbH aus Friedrichshafen. Sie bietet ein systematisches und standardisiertes Entwicklungs- und Verifikationsrahmenwerk im Sinne eines systemweiten Satellitensimulators an, um die Entwicklung von Satelliten, die Verifikation der On-board Software und den Gesamtfunktionsnachweis des Satelliten zu unterstützen. In diesem Simulator können alle Satellitenkomponenten modelliert und die On-board Software somit auf funktionaler Ebene verifiziert werden. Auf diese Weise können aufwendige und kostenintensive Entwicklungsmodelle einzelner Subsysteme und Schlüsseltechnologien wegfallen. Insbesondere sei hier die Verifizierung der Genauigkeit des Lageregelungssystems angesprochen. Als technologische Voraussetzung bringt gerade diese Entwicklungstechnologie budgetschwache Kleinsatellitenprojekte der Realisierung einen deutlichen Schritt näher und erhöht gleichzeitig die Güte des Systemdesigns des Satelliten. Im Rahmen einer Kooperation wurde diese Simulationsumgebung dem Institut für Raumfahrtsysteme zur Adaption und Anwendung im Stuttgarter Kleinsatellitenprogramm zur Verfügung gestellt. Zur Anwendung der Systemsimulation im Kleinsatellitenprojekt Flying Laptop sind alle relevanten Satellitenkomponenten im Simulator durch entsprechende, detaillierte Softwaremodelle abgebildet worden. Der sukzessiven Entwicklung der Komponentenmodelle ist durch den schrittweisen Aufbau von immer komplexeren Testständen der Software-Verifikations-Einrichtung Rechnung getragen worden. Infolgedessen erweiterten sich die Simulationsfähigkeiten von ersten Orbitsimulationen mit wenigen Komponentenmodellen, aber mit geschlossenem Simulationskreislauf, über die Simulation von Energie- und Thermalbilanzen unter Betriebsbedingungen bis hin zu vollständigen Systemsimulationen unter Einbindung der realen On-board Kontrollalgorithmen auf einem FPGA-Entwicklungsboard. Gerade dieses charakteristische FPGA-basierte On-board Computer System mit den darauf betriebenen Kontrollalgorithmen führt zu einer großen Herausforderung bei der modellhaften Repräsentation derselbigen im Systemsimulator. In diesem Zusammenhang stellt die Einbindung der realen On-board Kontrollalgorithmen auf einem FPGA-Entwicklungsboard in den geschlossenen Simulationskreislauf eine erfolgreich realisierte technische Neuerung dar. Zum Zeitpunkt der Fertigstellung dieser Arbeit steht dem Projekt Flying Laptop durch die Einbindung der realen On-board Kontrollalgorithmen auf dem FPGA-Entwicklungsboard ein umfangreicher Teststand mit großem Potential zur Entwicklung und zum Funktionsnachweis der On-board Kontrollalgorithmen zur Verfügung. Dieser wurde, wie die vorgestellten Simulationsergebnisse zeigen, bereits intensiv zum Testen der ersten Lageregelungsalgorithmen genutzt und kann auch zukünftig sukzessive mit Funktionserweiterungen der On-board Kontrollalgorithmen angewandt werden. Typische Missionsszenarien wie die Transition zwischen zwei Betriebsmodi des Satelliten oder der automatische Übergang in den SAFE Mode bei einem Fehler können jetzt simuliert und getestet werden. Die Ergebnisse dieser Simulationen dienen nicht nur dem reinen Funktionsnachweis der On-board Kontrollalgorithmen, sondern fließen direkt in die Optimierung der Kontrollalgorithmen zurück und führen so zu einem iterativem Verbesserungsprozess. Der Systemsimulator ist mit seiner Datenbank als Teil seiner Infrastruktur ganz gezielt so implementiert worden, dass einzelne Testszenarien einfach und ohne wiederholten Konfigurationsaufwand reproduziert werden können. Somit unterstützt der Systemsimulator den sich in der Softwareentwicklung typischerweise iterativ wiederholenden Verifikationsprozess in einer optimalen Form.
  • Thumbnail Image
    ItemOpen Access
    Navigation und Regelung eines Luftschiffes mittels optischer, inertialer und GPS Sensoren
    (2009) Fach, Martin; Well, Klaus H. (Prof. Ph. D.)
    In der vorliegenden Arbeit wird am Beispiel des autonomen Fluges eines unbemannten Prallluftschiffes der Einsatz optischer, inertialer und GPS-Sensorik für die Navigation und Flugführung gezeigt. Bei dem eingesetzten Versuchsträger handelt es sich um das Luftschiff des ALUSTRA-MOEWE Projektes, welches zum Ziel hat, dreidimensionale Modelle von Gebäuden und Landschaften zu erstellen. Hierfür soll das Luftschiff autonom um die entsprechenden Gebäude beziehungsweise über die Landschaften fliegen und mittels einer digitalen Kamera Aufnahmen erstellen. Diese Aufnahmen sollen im Post-Processing für die Generierung der virtuellen Modelle herangezogen werden. Dieses Projektziel erfordert eine sehr geringe Trajektoriendynamik, damit die Aufnahmen keine Bewegungsunschärfe enthalten. Zudem ist die Anforderung an die Genauigkeit der geflogenen Trajektorie sehr hoch, womit sich auch direkt die hohen Anforderungen an die Güte der Navigationssensorik ableiten lassen. Spezielles Augenmerk wird auf die Fusion der drei genannten Sensoren für die Ermittlung der sogenannten Navigationslösung bei niedriger Trajektoriendynamik gelegt. Die ermittelten Größen sind die Translations- und Rotationsgeschwindigkeiten des Flugkörpers, die Lage im Raum und die Position. Daneben wird einem nachgeschalteten Flugführungssystem noch der Abstand zu den vom optischen System verfolgten Punkten der Szene geliefert. Diese Information kann zu einer Kollisionsvermeidung herangezogen werden oder aber auch zur Abschätzung der Höhe des Flugobjektes über einem Landeplatz. Die Sensordatenfusion wird mittels eines erweiterten Kalman-Filters realisiert, das es ermöglicht, asynchron arbeitende Sensoren miteinander zu fusionieren und auch mit dem kurzzeitigen Ausfall einzelner Messungen zu Recht kommt. Dies ist zum Beispiel der Fall, wenn die Antenne des GPS-Empfängers keine freie Sicht zu den Satelliten hat. Bei der eingesetzten inertialen Messeinrichtung wird aus Gewichtsgründen auf eine low-cost Sensorik auf MEMS Basis zurückgegriffen. Genauso wie beim GPS-System handelt es sich hierbei um käufliche Komponenten, die fertig prozessierte Messwerte zur Verfügung stellen. Bei der optischen Sensorik dagegen wurde eine Echtzeitbildverarbeitung in Software aufgebaut, um die Messwerte zu erhalten. Diese Messungen sind die Koordinaten von verfolgten Merkmalen der beobachteten Szene auf dem Bildsensor. Da der Sensor für beliebige Szenen ausgelegt wurde, wird hierfür ein low-level Featuretracker auf Basis des Lucas Kandade Trackers eingesetzt. Zudem wird ein Gütemaß für die Vertraulichkeit der Merkmalsverfolgung eingeführt, damit eventuell driftende Merkmale ausgetauscht werden können. Die Informationsauswertung des optischen Systems innerhalb der Datenfusion basiert auf dem sogenannten Focus of Expansion und der Epipolarbedingung. Die eingesetzte Kamera ist eine Industriekamera, die die Bilder mittels einer Camera-Link-Verbindung an einen Framegrabber auf dem Targetrechner übermittelt, auf dem die Auswertung stattfindet. Neben der Bildauswertung ist auf diesem Rechner der Fusionsalgorithmus untergebracht, womit der komplette Sensor an Bord des Fluggerätes untergebracht ist und dem Projektziel Autonomie Rechnung getragen wird. Über eine Funkstrecke ist eine überwachende Bodenstation angeschlossen, welche vor allem im Entwicklungsstadium hilfreiche Informationen in Echtzeit visualisiert. Zudem ist dort ein Instrumentenbrett für die Beobachtung des Fluges untergebracht. Damit die Multisensordatenfusion überhaupt erst möglich ist, wird eine Kalibrierung durchgeführt. Hierfür werden jeweils die für die einzelnen Komponenten bestehenden Standardverfahren in Betracht gezogen und auf Basis einer Aufwand-Nutzen-Abschätzung, beziehungsweise einer Abschätzung der erreichbaren Genauigkeit ein Verfahren ausgewählt und realisiert. Gleiches geschieht bei der Bestimmung der Lage und Position des Sensors zum körperfesten System des Fluggerätes. Vor allem für die Tests des optischen Systems, aber auch des gesamten Sensors, wurde im Entwicklungsstadium eine fahrbare Versuchsplattform herangezogen, mit der der langsame Flug mit niedriger Trajektoriendynamik des Luftschiffes nachgestellt werden kann. Die dabei maximal erreichbare Höhe über Grund liegt bei 5 Metern, womit der tiefe Überflug als eines der kritischsten Manöver aus Sicht des optischen Systems nachempfunden werden kann. Nach erfolgreichen Tests des Sensorsystems auf dieser Plattform wird am Ende der Arbeit zunächst in einer Hardware-in-the-loop Testumgebung des Luftschiffes ein abschließender Test mit den gewonnenen Ergebnissen aus den Fahrversuchen durchgeführt. Hierfür wird nicht der gesamte Sensor in der Testumgebung nachgebildet, sondern die möglichen Fehler und das Originalrauschen aus den Messdaten der Versuchsfahrten extrahiert und damit die Messungen auf dem Prüfstand verfälscht. Abschließend wird der Funktionsnachweis beim Einsatz auf dem realen Versuchsträger ALUSTRA I bei sehr geringer Trajektoriendynamik erbracht.
  • Thumbnail Image
    ItemOpen Access
    GOCE sensitivity studies in terms of cross-over analysis
    (2009) Xue, Yang
    The GOCE (Gravity field and steady-state Ocean Circulation Explorer) satellite, launched on 17 March 2009, for the first time applies satellite gravity gradiometry (SGG) to recover the Earth's gravity field with cm accuracy at a resolution of 100km. To meet the envisaged accuracy, measurement validation at cross-over points (XOs) is necessary. Typically, validation is based on gravity gradients (GGs). However, the coefficient matrix of the gravitational tensor is dependent on orientation. In order to avoid matrix rotation, analysis based on orientation-independent invariants is possible. By applying various noise models, the goodness of XO-validation based on GGs and invariants will be studied in this thesis. First, by determining the maximum of scalar products from two tracks, the XOs can be predicted. Next, using local polynomial approximation, the geographical coordinates of XOs are calculated by solving a system of equations. Due to the orbit drift, the interpolation of height is performed separately along ascending and descending track before final comparison. Considering a sampling rate of 1Hz, GGs and invariants in all points of a one-week orbit are simulated for the further interpolation at the XOs. To determine the goodness of the selected interpolation algorithm, a closed loop test with noise-free data is investigated first. Since signal to noise ratios of GGs and invariants are all above 70dB, the same algorithm is applied in closed loop tests with noisy data. Since GOCE can only provide high accuracy for the main diagonal tensor components, various noise models, i.e. homogeneous and inhomogeneous white noise as well as homogeneous and inhomogeneous coloured noise, are added to the simulated values. The comparison of the goodness of GGs opposed to invariants is based on the signal to noise ratio (SNR). In this study, the second invariant demonstrates better SNR than GGs and the third invariant in the case of homogenous noise. However, due to the impact of inaccurate GGs, the SNR of invariants is poorer than the SNR of all GGs in the case of inhomogeneous noise.
  • Thumbnail Image
    ItemOpen Access
    Simulation der instationären Strömung um das Stratosphärenobservatorium SOFIA
    (2009) Schmid, Sven; Krämer, Ewald (Prof. Dr.-Ing.)
    Die Überströmung von Hohlräumen (engl. Cavities) ist in der Regel durch selbsterregte, instationäre Druckfluktuationen gekennzeichnet. Ziel dieser Arbeit ist die Simulation und die Charakterisierung der bei der Überströmung des SOFIA-Teleskopschachts auftretenden instationären Phänomene mittels URANS- und DES-Verfahren, sowie die Untersuchung von Methoden zur passiven Beeinflussung der Strömung und der Wechselwirkung mit akustischen Resonanzen. Da die äußerst komplexe Interaktion der beteiligten Phänomene eine große Herausforderung für die im Rahmen dieser Arbeit angewandten Rechenverfahren darstellt, wird deren Gültigkeit durch Vergleich mit experimentellen Daten geprüft und die verfahrensbedingten Unsicherheiten werden bewertet. Um den erforderlichen Rechenaufwand der numerischen Strömungssimulationen in Grenzen zu halten, erfolgt im ersten Teil der Arbeit eine Vielzahl der Untersuchungen am Beispiel abstrahierter zweidimensionaler Konfigurationen. Aufgrund der Zweidimensionalität des zu selbsterhaltenden Druckfluktuationen führenden Feedback-Mechanismus ist diese Vereinfachung für bestimmte Cavitykonfigurationen unter Umständen zulässig. Im Fall der hier betrachteten Cavities werden sowohl die Amplituden als auch die Frequenzen der periodischen Druckfluktuationen von diesem vereinfachten Modell im Vergleich zur Messung sehr gut wiedergeben. Die verhältnismäßig simple Geometrie der untersuchten Cavitykonfigurationen ermöglicht die Verwendung von strukturierten Rechengittern und den Einsatz effizienter Lösungsalgorithmen. Durch parametrische Variation verschiedener Größen der Anströmung bzw. der Geometrie lassen sich fundamentale Einflüsse der Anströmmachzahl, des Verhältnisses von Länge zu Tiefe oder des Grenzschichtaufbaus auf die Strömung untersuchen. Separate Akustiksimulationen, basierend auf der Lösung der homogenen Helmholtzgleichungen im Inneren der betrachteten Cavity, ermöglichen ein vertieftes Verständnis der Wechselwirkungen zwischen den Phänomenen der Strömung und den angeregten akustischen Resonanzen. Die Erkenntnisse dieser Vorarbeiten werden im zweiten Teil der Arbeit auf die Untersuchungen der instationären Umströmung der komplexen SOFIA-Flugzeugkonfiguration übertragen. SOFIA ist ein deutsch-amerikanisches Projekt zur Erforschung astronomischer Objekte im infraroten Spektralbereich mit Hilfe eines im Rumpf einer Boeing 747-SP untergebrachten Spiegelteleskops. Während der Beobachtung in Stratosphärenhöhe wird der Flugzeugrumpf im Bereich des Teleskops geöffnet. Die Überströmung des Telskopschachts zeigt die allgemein typischen Phänomene der instationären Cavityströmung, die im Fall der hier betrachteten SOFIA-Konfiguration die Teleskopstruktur zu Schwingungen anregt und damit die Beobachtungsqualität beeinträchtigt. Im Rahmen dieser Arbeit wurde die instationäre Umströmung der gesamten SOFIA-Flugzeugkonfiguration inklusive Spiegelteleskop und Cavity mittels URANS und DES simuliert. Der Vergleich der Ergebnisse der URANS-Simulationen mit experimentellen Windkanaldaten zeigt, dass die dominanten niederfrequenten periodischen Druckfluktuationen dieser äußerst komplexen, dreidimensionalen und instationären Strömung vom Verfahren gut wiedergegeben werden. Geringe Unsicherheiten zeigen sich in den berechneten Amplitudenwerten, insbesondere im höherfrequenten Bereich. Die Detached-Eddy-Simulation hingegen liefert auch bei höheren Frequenzen eine hervorragende Übereinstimmung mit den Messwerten. Die Ergebnisse der separat durchgefühten Akustiksimulation deuten auch im Fall der SOFIA-Konfiguration auf die Wechselwirkung zwischen der instationären Strömung und akustischen Resonanzen hin. Die URANS-Simulationen wurden auf hybriden Rechengittern durchgeführt, die aus Prismen, Tetraedern und Pyramiden aufgebaut sind. Für die DES-Simulation wurde im Bereich der Scherschicht zusätzlich ein strukturierter Block mit nahezu isotropen Hexaederzellen eingefügt. Der Einfluss der Türposition auf die Strömungsvorgänge im Teleskopschacht wird anhand von URANS-Simulationen an Modellen mit unterschiedlichem Öffnungsgrad aufgezeigt. Eine der größten Unsicherheiten des SOFIA-Projektes stellt der partiell geöffnete SOFIA-Teleskopschacht während des Öffnungs- bzw. Schließvorgangs der Tür sowie im Fall eines möglichen Versagens des Türantriebs dar, da hierfür nur unzureichend Windkanaldaten vorhanden sind. Zur Kontrolle der Strömung wird im Rahmen der vorliegenden Arbeit das Konzept von stromauf der Cavity angebrachten Wirbelgeneratoren untersucht, die eine Stabilisierung der Scherschicht, und dadurch eine Abschwächung der akustischen Resonanzmoden im Teleskopschacht bewirken. Weiterhin werden mittels Akustiksimulationen verschiedene Konzepte zur Verschiebung der Resonanzfrequenzen untersucht, die auf der Modifikation der Cavitygeometrie beruhen. Ziel dieser Maßnahme ist es, den Abstand zwischen den charakteristischen Frequenzen der akustischen Störungen und den Resonanzen der Teleskopstruktur zu erhöhen.