06 Fakultät Luft- und Raumfahrttechnik und Geodäsie

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/7

Browse

Search Results

Now showing 1 - 10 of 27
  • Thumbnail Image
    ItemOpen Access
    Volcanic evolution of Southern Tenerife (Canary Islands) during the Pleistocene and Holocene
    (2009) Kröchert, Jörg; Buchner, Elmar (PD Dr.)
    The Canary Islands are a group of volcanic ocean islands in the Central Atlantic near the continental margin of northwest Africa. Tenerife, with a volcanic history of more than 12 Ma of subaerial eruptions, is the largest island of the Canaries and is situated in the centre of the Archipelago. The Quaternary Bandas del Sur Formation in the South of Tenerife comprises a complex sequence of pyroclastic rocks and lavas and is part of the southern rift zone. In contrast to the northwest and northeast rift zones on Tenerife, the southern rift zone comprises a number of characteristics with respect to the morphological features, eruption cyclicity, and the geochemistry of the volcanic deposits. Various flank eruptions of the Las Cañadas volcano associated with basaltic lavas and the formation of cinder cones within the Bandas del Sur are important volcanic units for understanding the explosive volcanic cycles during the Pleistocene on Tenerife. Paleomagnetic studies, geochemical analysis of major and trace elements, and two radioisotopic dating (K-Ar) have been carried out on prominent cinder cones, to determine their stratigraphic position. By combining the results with previous K-Ar data in the Literature, the cones and lavas can be subdivided into three stratigraphic units. Cinder cones that belong to the first unit show reverse magnetization and Y/Nb ratios between 0.37-0.41; cinder cones of the second unit show normal magnetization and Y/Nb ratios of <0.35. The third unit comprises cinder cones with normal magnetization and Y/Nb ratios of about 0.47. The first two units were constructed between ~0.948-0.779 Ma and 0.323-0.300 Ma. These units define volcanic cycles that culminated in violent Plinian eruptions. The third and youngest unit possibly marks the beginning of a further volcanic cycle that started ~0.095 Ma ago. In order to reconstruct the uplift history of Tenerife, numerous uplifted fossil beaches and tuff cones were investigated. In the North and Northeast of Tenerife, the positions of fossil beaches indicate stable conditions since 130 ka. The uplift rates in southern Tenerife (within the Bandas del Sur) amount to a minimum of 15 m since 778 ka at Montaña Pelada and to a maximum of up to 45 m since 10 ka in the area of El Médano, suggesting an asymmetrical uplift of the island complex. The uplift in the South could be caused by seismic activity or mass loss due to flank collapse events. However, uplift due to ascending magma is more plausible. The fossil beach deposits of the El Médano area exhibit tubular-shaped concretions and concretionary dykes. These sediment structures have been interpreted as the result of a) the interaction between hot ignimbrites that overflowed wet beaches, b) fast accumulation of beach sands on hot and degassing ignimbrites, c) paleoliquefaction caused by an earthquake (seismites). Based on the interpretation as seismites, an intense paleoearthquake was proposed to be responsible for the generation of the paleoliquefaction structures. However, the sedimentary structures in question show the general criteria diagnostic for rhizocretions and root tubules with respect to their orientation, size, branching system, and style of cementation. Faults of a well-defined strike direction that precisely coincides with the southern rift fault system occur in the El Médano site. This fault system was generated contemporaneously with a chain of cinder cones ~948 ka ago. Open fractures in ignimbrites (~668 ka) and the fossil beach deposits (~10 ka) of the El Médano area suggest that the rift-associated fault system has been seismically active in the aftermath and probably is still active. A further fault system striking perpendicular to the rift-associated faults probably originates from a Holocene paleoearthquake of moderate intensity. Earthquake-induced ground effects in the fossil beach deposits of the study area are consistent with seismically induced ground effects of several recent and well-documented earthquakes and gravitational sliding triggered by an intense earthquake in Nicoya/Costa Rica in 1990. Both, the rift-associated and the earthquake-induced fault system, initially produced open cracks in the fossil beach deposits that were occupied by plants and subsequently stabilized by cementation. These results accentuate that the densely settled southern part of Tenerife is latently endangered by volcanic and seismic activity, though, currently, there are no indications of increasing volcanic activity in this region. Uplift due to recent magma loading is not observable and the intensity of a paleoearthquake in the El Médano area was probably considerably lower than mentioned in the literature.
  • Thumbnail Image
    ItemOpen Access
    Numerical prediction of flow induced noise in free jets of high Mach numbers
    (2009) Schönrock, Olaf; Munz, Claus-Dieter (Prof. Dr.)
    A direct aeroacoustic simulation methodology is developed on the basis of the numerical schemes implemented in the commercial tool ANSYS CFX. The focus lies upon the efficient and direct numerical prediction of the flow-induced noise generated by natural gas and pneumatic applications. The respective compressed gas related components are characterized by tiny supersonic gas jets, strong noise emissions, poor accessibility by measurement techniques and excessive simulation costs in particular. Highly resolved computational grids close to DNS requirements become necessary just in order to capture the time-averaged flow profile, tiny shocks and gradients correctly. Furthermore the coexistent supersonic flow velocity results in an exceptionally small timestepping in compliance with the CFL condition, e.g. for LES aeroacoustic simulations. Considering the assumably nonlinear noise propagation and the acoustic feedback within enclosed environments the well-established hybrid approaches cannot be employed here as well. The flow and acoustics of the whole domain rather have to be captured within a single tool instead. In fact, the corresponding simulation costs inhibit the numerical prediction and reduction of the emitted noise levels for those compressed gas components at the industrial scale. In this work the test subject is a dedicated natural gas injector in an open and a confined environment and with varying boundary conditions. Specific to the injector nozzle, four under-expanded supersonic gas jets (M=1.4, Re=30000) are formed and cause a strong flow three-dimensionality. Furthermore a turbulence cluster establishes between the jets driving jet fluctuations and aeroacoustics. To enable aeroacoustic simulations in the first place, ANSYS CFX is augmented by a transient inlet boundary condition and a non-reflective farfield boundary condition based on an implicit damping sponge layer. In order to reduce the simulation costs the scale-adaptive turbulence model (SAS-SST) recently implemented in ANSYS CFX is validated for the gas injection problem and especially for CFL numbers much larger than one. Since a degrading solution quality has to be expected then a timestep study is conducted in order to detect the limit for aeroacoustic simulations. Bottom line the different turbulence modeling allows a strongly increased global timestepping such that a net simulation costs reduction by a factor of 19 compared to LES is achieved. In spite of the generally lower solution quality the predicted noise levels, spectral distributions as well as noise sensitivities are in well agreement with own experimental data. In an alternative simulation approach the research code NSDG2D is applied to a simplified 2D setup with very promising results. The more sophisticated solver numerics based on an explicit Discontinuous Galerkin scheme allows local dynamic adaption to the problem, amongst others by local timestepping and locally adaptive element orders. These features prove to be feasible especially for locally varying unsteady compressible flows and the supersonic gas injection in particular. Considering these advantages a further reasonable simulation costs reduction compared to ANSYS CFX can be projected for the 3D application as well.
  • Thumbnail Image
    ItemOpen Access
    Recovery of the geometric road design elements using low-cost sensors : a feasibility study
    (2009) Ogonda, Godfrey Onyango; Kleusberg, Alfred (Prof. Dr.-Ing.)
    Roadway inventory databases are continuously being applied in two main areas, first in the design, construction and maintenance of new and existing roads and secondly in the specific areas of intelligent transport systems such as driver assistance and mobile information systems. The initial development, storage and management of the database have therefore become the responsibility of the various road agencies around the world, which ascertain that this is done in accordance with the respective road policies and design standards in the respective states or regions. The roadway inventory database has been estimated to comprise of about 49 possible collectible categories of roadway inventory data elements such as the horizontal curve elements, the vertical alignment elements, drainage, the number of lanes and the traffic signs among others. As a result of the rapidly changing roadway environment, the challenge therefore is the up-dating of the roadway inventory database using relatively accurate and cost-effective techniques, as opposed to the mobile mapping systems usually employed in their initial development. This calls for investigation into other low-cost data collection and processing methods and devices. The aim of this study is therefore to develop a methodology for extracting the geometric road design elements from position time series derived from a set of low-cost sensors, and to assess the accuracy potential of such sensors. The report begins with a review of the basics of road design and the formulations used in the estimation of the geometric road design elements as well as a brief mention of the road design standards and guidelines. The various sensors and systems for land based positioning and navigation, with emphasis on their costs and sources of error, are discussed. An overview of the theory of curve fitting functions and criteria with specific interest in splines and their properties is also presented. The investigations, tests and data analyses carried out are based on computer simulated data as well as on field measured data collected in the vicinity of the city of Stuttgart. A set of spline-based algorithms is developed and tested for the extraction of geometric road design elements for the purpose of updating the roadway inventory database. Furthermore, a set of low-cost navigation sensors, comprising of wheel speed sensors, a single-axis micro electro-mechanical systems accelerometer and a single-axis micro electro-mechanical systems gyroscope, was built up and utilised for the acquisition of vehicle track positions. The methodologies and formulations used in the synchronisation of the measurements and the calibration of the sensors, the integration of the sensors' data based on a Kalman filter algorithm, the estimation of curvature and recovery of the geometric road design elements are presented. In summary, the tests and data analyses illustrate that - the developed spline-based algorithms successfully extract the geometric road design elements based on the assumption that the road geometry consist of straight lines, circular and transitional curves, as demonstrated by the analysis of simulated data. - the field calibration procedure of the wheel speed sensors employing a Kalman filtering process achieve an accuracy of +0.04 m in distance increments. The derived heading differences have a final cumulative deviation of +3° or a drift of about 0.0025 °/s. - the proposed set of low-cost sensors can be a viable solution as a short duration georeferencing device for mobile mapping systems in the recovery of the geometric shape of the road track, as long as (i) the vehicle is driven at low speed (about 36km/h or 10m/s) but certainly above the threshold speed of the wheel sensors, (ii) the random errors in the measurements are characterized and reduced and (iii) the pitch angle and gravitation effect are compensated for in the measured data. - the random and the systematic errors in the measured vehicle track position time series are a serious predicament to curvature estimation, which however can be reduced by the use of smoothing splines and by calibration of the measuring devices, respectively. Based on the above tests and analyses, the low-cost sensors together with the developed algorithms generated sufficiently accurate geometric road design elements for updating roadway inventory databases especially those intended for intelligent transport system applications whose accuracies are specified in metres to sub-meter. However, the recovered geometric road design elements may not be sufficiently accurate for roadway inventory databases used for road design and construction because here the accuracy requirements are in centimetre level.
  • Thumbnail Image
    ItemOpen Access
    Measurement of soot precursor particles under atmospheric and low pressure conditions by means of time-of-flight mass spectrometry
    (2009) González Baquet, Tania; Aigner, Manfred (Prof. Dr.-Ing.)
    During the last decades a great progress has been achieved in the understanding of the combustion of hydrocarbons. The gas phase reactions governing the first steps in the combustion process are well understood. The existing models describing the growth of soot particles and the formation of soot aggregates are widely accepted, as well. However, the so-called inception, i.e. the mechanism leading to the formation of the first solid particles from gas phase molecules, is still a controversial issue. This is mainly due to the lack of adequate experimental techniques capable of detecting particles in the low nanometer range like those created in the nucleation process in flames. At present most of the combustion models stress the importance of PAH formation and growth in the soot formation process. Other models, however, propose a soot formation mechanism based on the formation of large three dimensional structures without crystallinity. In the present work, the detection and characterization of soot precursor particles, as transition species between gas phase molecules and solid soot particles in the combustion process, is attempted by means of mass spectrometry. To this end a ”custom-built” reflectron time-of-flight mass spectrometer of high sensitivity and with a large mass range is used. Measurements are carried out in different premixed ethylene laboratory flames at different pressures and in a wide range of stoichiometries. Additionally, the exhaust of a gasoline and a diesel engine is investigated. These measurements require the development of a sampling technique capable of transporting the sample from atmospheric conditions to the high vacuum of the mass spectrometer. The resulting fast pulsed sampling system minimizes undesirable sampling line effects while it enables the generation of an optimized molecular beam. Photo ionization of the sample is provided by an excimer laser. The main findings of this work can be summarized as follows: 1. Different types of soot precursor particles can coexist in the flame. For the first time two different types of soot precursor particles with diameters ranging from approximately 1 to 5 nm have been simultaneously detected. The different soot precursor particle modes, in the following referred to as mode A and mode B, show different features. Thus, the existence of at least two different types of soot precursor particles is postulated. Mode A particles are found in a wide range of flame stoichiometries. They are characterized by an ionization order close to two and show a fragmentation threshold of around 0.12 MW/cm2. These particles are considered amorphous, more characteristic of low temperature flames and associated to the soot precursor particles described by D’Alessio et al.. Mode B particles are only observed in a limited stoichiometric range associated with rather high flame temperatures. Mode B particles show an ionization order close to one and a relatively high fragmentation threshold close to 2.24 MW/cm2. These particles are considered to be similar to the ones described by Dobbins et al., i.e. stacks of planar PAHs. 2. Soot precursor particles, although considered to be very reactive, can survive the flame and be emitted. 3. Soot precursor particles are found in significant amounts only at flame stoichiometries above the soot threshold. The lower stoichiometric limit for particle generation is still an issue discussed in the combustion community. All results of this study indicate that the onset of particle formation takes place at flame stoichiometries close to the soot threshold. Consequently, the emission of soot precursor particles seems not to be an outstanding problem in the case of gasoline combustion engines, since the latter work under fairly stoichiometric burning conditions and are characterized by a homogeneous fuel-mixture. This is confirmed by the measurements carried out in the exhaust gas of a gasoline generator. Conventional diesel engines work under globally lean burning conditions but are characterized by a heterogeneous fuel-mixture. Consequently, high particle emissions are expected. The measurements carried out in the exhaust gas of a diesel generator, however, show negligible soot precursor particle emissions. In this case soot precursor particles are oxidized due to the excess of oxygen in the exhaust gas. Soot precursor particle losses due to coagulation with soot particles are also expected. This work demonstrates the utility of time-of-flight mass spectrometry for the detection and study of soot precursor particles. The experimental data presented in this thesis provide new information about the transition region between gas phase molecules and soot particles in the combustion process. This improves the understanding of the soot formation process and stimulates the revision of current combustion models.
  • Thumbnail Image
    ItemOpen Access
    Modell-basierte Systemsimulation eines Kleinsatelliten mit einem FPGA-basierten On-board-Computer
    (2009) Falke, Albert; Röser, Hans-Peter (Prof. Dr.-Ing.)
    Die vorliegende Dissertation beschäftigt sich schwerpunktmäßig mit der Systemsimulation des Satelliten Flying Laptop unter Weltraumbedingungen, mit dem Ziel die Funktionalitäten des Satellitensystems als Ganzes zu verifizieren. Simulation bezeichnet allgemein das Nachahmen des Verhaltens eines Systems oder Prozesses zum Zwecke der Analyse von Systemen, die für die theoretische oder formelmäßige Behandlung zu kompliziert sind. Auch im Kontext einer Kleinsatellitenmission ist das Satellitensystem bereits so komplex, dass man ohne die systemweite Simulation keine detaillierte Analyse unter Berücksichtigung der vielen miteinander interagierenden Komponenten mehr durchführen kann. Bereits seit einigen Jahren verwenden renommierte Satellitenhersteller Simulationstechnologien, um bereits während der Satellitenentwicklung und Fertigung den größtmöglichen Missionserfolg zu gewährleisten. Eine dieser Technologien ist die Modell-basierte Entwicklungs- und Verifikationsumgebung der Firma EADS Astrium GmbH aus Friedrichshafen. Sie bietet ein systematisches und standardisiertes Entwicklungs- und Verifikationsrahmenwerk im Sinne eines systemweiten Satellitensimulators an, um die Entwicklung von Satelliten, die Verifikation der On-board Software und den Gesamtfunktionsnachweis des Satelliten zu unterstützen. In diesem Simulator können alle Satellitenkomponenten modelliert und die On-board Software somit auf funktionaler Ebene verifiziert werden. Auf diese Weise können aufwendige und kostenintensive Entwicklungsmodelle einzelner Subsysteme und Schlüsseltechnologien wegfallen. Insbesondere sei hier die Verifizierung der Genauigkeit des Lageregelungssystems angesprochen. Als technologische Voraussetzung bringt gerade diese Entwicklungstechnologie budgetschwache Kleinsatellitenprojekte der Realisierung einen deutlichen Schritt näher und erhöht gleichzeitig die Güte des Systemdesigns des Satelliten. Im Rahmen einer Kooperation wurde diese Simulationsumgebung dem Institut für Raumfahrtsysteme zur Adaption und Anwendung im Stuttgarter Kleinsatellitenprogramm zur Verfügung gestellt. Zur Anwendung der Systemsimulation im Kleinsatellitenprojekt Flying Laptop sind alle relevanten Satellitenkomponenten im Simulator durch entsprechende, detaillierte Softwaremodelle abgebildet worden. Der sukzessiven Entwicklung der Komponentenmodelle ist durch den schrittweisen Aufbau von immer komplexeren Testständen der Software-Verifikations-Einrichtung Rechnung getragen worden. Infolgedessen erweiterten sich die Simulationsfähigkeiten von ersten Orbitsimulationen mit wenigen Komponentenmodellen, aber mit geschlossenem Simulationskreislauf, über die Simulation von Energie- und Thermalbilanzen unter Betriebsbedingungen bis hin zu vollständigen Systemsimulationen unter Einbindung der realen On-board Kontrollalgorithmen auf einem FPGA-Entwicklungsboard. Gerade dieses charakteristische FPGA-basierte On-board Computer System mit den darauf betriebenen Kontrollalgorithmen führt zu einer großen Herausforderung bei der modellhaften Repräsentation derselbigen im Systemsimulator. In diesem Zusammenhang stellt die Einbindung der realen On-board Kontrollalgorithmen auf einem FPGA-Entwicklungsboard in den geschlossenen Simulationskreislauf eine erfolgreich realisierte technische Neuerung dar. Zum Zeitpunkt der Fertigstellung dieser Arbeit steht dem Projekt Flying Laptop durch die Einbindung der realen On-board Kontrollalgorithmen auf dem FPGA-Entwicklungsboard ein umfangreicher Teststand mit großem Potential zur Entwicklung und zum Funktionsnachweis der On-board Kontrollalgorithmen zur Verfügung. Dieser wurde, wie die vorgestellten Simulationsergebnisse zeigen, bereits intensiv zum Testen der ersten Lageregelungsalgorithmen genutzt und kann auch zukünftig sukzessive mit Funktionserweiterungen der On-board Kontrollalgorithmen angewandt werden. Typische Missionsszenarien wie die Transition zwischen zwei Betriebsmodi des Satelliten oder der automatische Übergang in den SAFE Mode bei einem Fehler können jetzt simuliert und getestet werden. Die Ergebnisse dieser Simulationen dienen nicht nur dem reinen Funktionsnachweis der On-board Kontrollalgorithmen, sondern fließen direkt in die Optimierung der Kontrollalgorithmen zurück und führen so zu einem iterativem Verbesserungsprozess. Der Systemsimulator ist mit seiner Datenbank als Teil seiner Infrastruktur ganz gezielt so implementiert worden, dass einzelne Testszenarien einfach und ohne wiederholten Konfigurationsaufwand reproduziert werden können. Somit unterstützt der Systemsimulator den sich in der Softwareentwicklung typischerweise iterativ wiederholenden Verifikationsprozess in einer optimalen Form.
  • Thumbnail Image
    ItemOpen Access
    Navigation und Regelung eines Luftschiffes mittels optischer, inertialer und GPS Sensoren
    (2009) Fach, Martin; Well, Klaus H. (Prof. Ph. D.)
    In der vorliegenden Arbeit wird am Beispiel des autonomen Fluges eines unbemannten Prallluftschiffes der Einsatz optischer, inertialer und GPS-Sensorik für die Navigation und Flugführung gezeigt. Bei dem eingesetzten Versuchsträger handelt es sich um das Luftschiff des ALUSTRA-MOEWE Projektes, welches zum Ziel hat, dreidimensionale Modelle von Gebäuden und Landschaften zu erstellen. Hierfür soll das Luftschiff autonom um die entsprechenden Gebäude beziehungsweise über die Landschaften fliegen und mittels einer digitalen Kamera Aufnahmen erstellen. Diese Aufnahmen sollen im Post-Processing für die Generierung der virtuellen Modelle herangezogen werden. Dieses Projektziel erfordert eine sehr geringe Trajektoriendynamik, damit die Aufnahmen keine Bewegungsunschärfe enthalten. Zudem ist die Anforderung an die Genauigkeit der geflogenen Trajektorie sehr hoch, womit sich auch direkt die hohen Anforderungen an die Güte der Navigationssensorik ableiten lassen. Spezielles Augenmerk wird auf die Fusion der drei genannten Sensoren für die Ermittlung der sogenannten Navigationslösung bei niedriger Trajektoriendynamik gelegt. Die ermittelten Größen sind die Translations- und Rotationsgeschwindigkeiten des Flugkörpers, die Lage im Raum und die Position. Daneben wird einem nachgeschalteten Flugführungssystem noch der Abstand zu den vom optischen System verfolgten Punkten der Szene geliefert. Diese Information kann zu einer Kollisionsvermeidung herangezogen werden oder aber auch zur Abschätzung der Höhe des Flugobjektes über einem Landeplatz. Die Sensordatenfusion wird mittels eines erweiterten Kalman-Filters realisiert, das es ermöglicht, asynchron arbeitende Sensoren miteinander zu fusionieren und auch mit dem kurzzeitigen Ausfall einzelner Messungen zu Recht kommt. Dies ist zum Beispiel der Fall, wenn die Antenne des GPS-Empfängers keine freie Sicht zu den Satelliten hat. Bei der eingesetzten inertialen Messeinrichtung wird aus Gewichtsgründen auf eine low-cost Sensorik auf MEMS Basis zurückgegriffen. Genauso wie beim GPS-System handelt es sich hierbei um käufliche Komponenten, die fertig prozessierte Messwerte zur Verfügung stellen. Bei der optischen Sensorik dagegen wurde eine Echtzeitbildverarbeitung in Software aufgebaut, um die Messwerte zu erhalten. Diese Messungen sind die Koordinaten von verfolgten Merkmalen der beobachteten Szene auf dem Bildsensor. Da der Sensor für beliebige Szenen ausgelegt wurde, wird hierfür ein low-level Featuretracker auf Basis des Lucas Kandade Trackers eingesetzt. Zudem wird ein Gütemaß für die Vertraulichkeit der Merkmalsverfolgung eingeführt, damit eventuell driftende Merkmale ausgetauscht werden können. Die Informationsauswertung des optischen Systems innerhalb der Datenfusion basiert auf dem sogenannten Focus of Expansion und der Epipolarbedingung. Die eingesetzte Kamera ist eine Industriekamera, die die Bilder mittels einer Camera-Link-Verbindung an einen Framegrabber auf dem Targetrechner übermittelt, auf dem die Auswertung stattfindet. Neben der Bildauswertung ist auf diesem Rechner der Fusionsalgorithmus untergebracht, womit der komplette Sensor an Bord des Fluggerätes untergebracht ist und dem Projektziel Autonomie Rechnung getragen wird. Über eine Funkstrecke ist eine überwachende Bodenstation angeschlossen, welche vor allem im Entwicklungsstadium hilfreiche Informationen in Echtzeit visualisiert. Zudem ist dort ein Instrumentenbrett für die Beobachtung des Fluges untergebracht. Damit die Multisensordatenfusion überhaupt erst möglich ist, wird eine Kalibrierung durchgeführt. Hierfür werden jeweils die für die einzelnen Komponenten bestehenden Standardverfahren in Betracht gezogen und auf Basis einer Aufwand-Nutzen-Abschätzung, beziehungsweise einer Abschätzung der erreichbaren Genauigkeit ein Verfahren ausgewählt und realisiert. Gleiches geschieht bei der Bestimmung der Lage und Position des Sensors zum körperfesten System des Fluggerätes. Vor allem für die Tests des optischen Systems, aber auch des gesamten Sensors, wurde im Entwicklungsstadium eine fahrbare Versuchsplattform herangezogen, mit der der langsame Flug mit niedriger Trajektoriendynamik des Luftschiffes nachgestellt werden kann. Die dabei maximal erreichbare Höhe über Grund liegt bei 5 Metern, womit der tiefe Überflug als eines der kritischsten Manöver aus Sicht des optischen Systems nachempfunden werden kann. Nach erfolgreichen Tests des Sensorsystems auf dieser Plattform wird am Ende der Arbeit zunächst in einer Hardware-in-the-loop Testumgebung des Luftschiffes ein abschließender Test mit den gewonnenen Ergebnissen aus den Fahrversuchen durchgeführt. Hierfür wird nicht der gesamte Sensor in der Testumgebung nachgebildet, sondern die möglichen Fehler und das Originalrauschen aus den Messdaten der Versuchsfahrten extrahiert und damit die Messungen auf dem Prüfstand verfälscht. Abschließend wird der Funktionsnachweis beim Einsatz auf dem realen Versuchsträger ALUSTRA I bei sehr geringer Trajektoriendynamik erbracht.
  • Thumbnail Image
    ItemOpen Access
    Simulation der instationären Strömung um das Stratosphärenobservatorium SOFIA
    (2009) Schmid, Sven; Krämer, Ewald (Prof. Dr.-Ing.)
    Die Überströmung von Hohlräumen (engl. Cavities) ist in der Regel durch selbsterregte, instationäre Druckfluktuationen gekennzeichnet. Ziel dieser Arbeit ist die Simulation und die Charakterisierung der bei der Überströmung des SOFIA-Teleskopschachts auftretenden instationären Phänomene mittels URANS- und DES-Verfahren, sowie die Untersuchung von Methoden zur passiven Beeinflussung der Strömung und der Wechselwirkung mit akustischen Resonanzen. Da die äußerst komplexe Interaktion der beteiligten Phänomene eine große Herausforderung für die im Rahmen dieser Arbeit angewandten Rechenverfahren darstellt, wird deren Gültigkeit durch Vergleich mit experimentellen Daten geprüft und die verfahrensbedingten Unsicherheiten werden bewertet. Um den erforderlichen Rechenaufwand der numerischen Strömungssimulationen in Grenzen zu halten, erfolgt im ersten Teil der Arbeit eine Vielzahl der Untersuchungen am Beispiel abstrahierter zweidimensionaler Konfigurationen. Aufgrund der Zweidimensionalität des zu selbsterhaltenden Druckfluktuationen führenden Feedback-Mechanismus ist diese Vereinfachung für bestimmte Cavitykonfigurationen unter Umständen zulässig. Im Fall der hier betrachteten Cavities werden sowohl die Amplituden als auch die Frequenzen der periodischen Druckfluktuationen von diesem vereinfachten Modell im Vergleich zur Messung sehr gut wiedergeben. Die verhältnismäßig simple Geometrie der untersuchten Cavitykonfigurationen ermöglicht die Verwendung von strukturierten Rechengittern und den Einsatz effizienter Lösungsalgorithmen. Durch parametrische Variation verschiedener Größen der Anströmung bzw. der Geometrie lassen sich fundamentale Einflüsse der Anströmmachzahl, des Verhältnisses von Länge zu Tiefe oder des Grenzschichtaufbaus auf die Strömung untersuchen. Separate Akustiksimulationen, basierend auf der Lösung der homogenen Helmholtzgleichungen im Inneren der betrachteten Cavity, ermöglichen ein vertieftes Verständnis der Wechselwirkungen zwischen den Phänomenen der Strömung und den angeregten akustischen Resonanzen. Die Erkenntnisse dieser Vorarbeiten werden im zweiten Teil der Arbeit auf die Untersuchungen der instationären Umströmung der komplexen SOFIA-Flugzeugkonfiguration übertragen. SOFIA ist ein deutsch-amerikanisches Projekt zur Erforschung astronomischer Objekte im infraroten Spektralbereich mit Hilfe eines im Rumpf einer Boeing 747-SP untergebrachten Spiegelteleskops. Während der Beobachtung in Stratosphärenhöhe wird der Flugzeugrumpf im Bereich des Teleskops geöffnet. Die Überströmung des Telskopschachts zeigt die allgemein typischen Phänomene der instationären Cavityströmung, die im Fall der hier betrachteten SOFIA-Konfiguration die Teleskopstruktur zu Schwingungen anregt und damit die Beobachtungsqualität beeinträchtigt. Im Rahmen dieser Arbeit wurde die instationäre Umströmung der gesamten SOFIA-Flugzeugkonfiguration inklusive Spiegelteleskop und Cavity mittels URANS und DES simuliert. Der Vergleich der Ergebnisse der URANS-Simulationen mit experimentellen Windkanaldaten zeigt, dass die dominanten niederfrequenten periodischen Druckfluktuationen dieser äußerst komplexen, dreidimensionalen und instationären Strömung vom Verfahren gut wiedergegeben werden. Geringe Unsicherheiten zeigen sich in den berechneten Amplitudenwerten, insbesondere im höherfrequenten Bereich. Die Detached-Eddy-Simulation hingegen liefert auch bei höheren Frequenzen eine hervorragende Übereinstimmung mit den Messwerten. Die Ergebnisse der separat durchgefühten Akustiksimulation deuten auch im Fall der SOFIA-Konfiguration auf die Wechselwirkung zwischen der instationären Strömung und akustischen Resonanzen hin. Die URANS-Simulationen wurden auf hybriden Rechengittern durchgeführt, die aus Prismen, Tetraedern und Pyramiden aufgebaut sind. Für die DES-Simulation wurde im Bereich der Scherschicht zusätzlich ein strukturierter Block mit nahezu isotropen Hexaederzellen eingefügt. Der Einfluss der Türposition auf die Strömungsvorgänge im Teleskopschacht wird anhand von URANS-Simulationen an Modellen mit unterschiedlichem Öffnungsgrad aufgezeigt. Eine der größten Unsicherheiten des SOFIA-Projektes stellt der partiell geöffnete SOFIA-Teleskopschacht während des Öffnungs- bzw. Schließvorgangs der Tür sowie im Fall eines möglichen Versagens des Türantriebs dar, da hierfür nur unzureichend Windkanaldaten vorhanden sind. Zur Kontrolle der Strömung wird im Rahmen der vorliegenden Arbeit das Konzept von stromauf der Cavity angebrachten Wirbelgeneratoren untersucht, die eine Stabilisierung der Scherschicht, und dadurch eine Abschwächung der akustischen Resonanzmoden im Teleskopschacht bewirken. Weiterhin werden mittels Akustiksimulationen verschiedene Konzepte zur Verschiebung der Resonanzfrequenzen untersucht, die auf der Modifikation der Cavitygeometrie beruhen. Ziel dieser Maßnahme ist es, den Abstand zwischen den charakteristischen Frequenzen der akustischen Störungen und den Resonanzen der Teleskopstruktur zu erhöhen.
  • Thumbnail Image
    ItemOpen Access
    A contribution to characterizing and calibrating the pointing control system of the SOFIA telescope
    (2009) Harms, Franziska; Röser, Hans-Peter (Prof. Dr. rer. nat.)
    SOFIA, the Stratospheric Observatory for Infrared Astronomy, is an airborne observatory that will study the universe in the infrared spectrum. A Boeing 747-SP aircraft will carry a 2.5 m telescope designed to make sensitive infrared measurements of a wide range of astronomical objects. It will fly at and above 12 km, where the telescope collects radiation in the wavelength range from 0.3 micrometers to 1.6 millimeters of the electromagnetic spectrum. During flight, a door will be opened to allow clear optical observations from the cavity environment where the telescope is mounted. The telescope pointing control is achieved during science observations by an array of sensors including three imagers, gyroscopes and accelerometers. In addition, throughout alignment and calibration of the telescope assembly, the High-speed Imaging Photometer for Occultation (HIPO) is used as a reference instrument. A theoretical concept has been developed to compensate the perturbations in the airborne environment and to correct them within the attitude control loop. A set of Cartesian reference frames is established to describe and manipulate the orientations of the various subsystems, sensor and pointing orientations. The dissertation proposes the alignment strategy for these reference frames. By means of sky observations, reduced to make fundamental measurements of control performance, the calibration parameters for the transformation matrices between the reference frames are determined. The alignment maneuvers are described in order to measure the misalignment between the gyroscopes, the imagers and the focal plane. The alignment strategy incorporates the compensation concept for pointing errors due to static structural deformation and combines it with the alignment measurements. To avoid a false calibration due to misinterpretation of the measured data, sensor errors and external perturbations that are present in the sensor signals are studied in detail. This refers mainly to the three gyroscopes which are the primary feedback sensors for the telescope pointing control loop. A set of data reduction techniques is presented that is used for the analysis of the sensor performance and alignment measurements. This includes the data reduction for the gyroscopes and for astrometric measurements with the imagers and HIPO. An extensive test series of gyroscope measurements is presented. They characterize the sensor performance after the three gyroscopes are integrated into the telescope system. Various system effects caused by other TA subsystems, aircraft systems or ground support equipment are analyzed and typified. During the first on sky tests of the SOFIA telescope in 2004, a variety of alignment measurements, structural flexure measurements and pointing measurements were performed. In particular, the gyroscope misalignment was measured and compensated. Measurements over the entire operational elevation range provide additional alignment and sensor performance information. The results are presented and discussed within this work. Due to the fact that all of the optical components will be demounted for coating and cleaning from time to time, the alignment between the imagers and other sensors and the reference instrument is changing. Thus, a semi-autonomous method for the calibration is pursued and recommendations are established based on the proposed calibration concept and the measurement results.
  • Thumbnail Image
    ItemOpen Access
    Untersuchungen zum externen und internen Strömungsfeld eines Scramjet Triebwerkseinlaufs bei unterschiedlichen Betriebspunkten
    (2009) Häberle, Jürgen; Krämer, Ewald (Prof. Dr.-Ing.)
    Die vorliegende Arbeit entstand im Rahmen des Graduiertenkollegs 1095/1 „Aerothermodynamische Auslegung eines Scramjet Antriebssystems für zukünftige Raumtransportsysteme“ und befasst sich mit der experimentellen Untersuchung des Strömungsfelds eines Scramjet-Einlaufsystems unter aerodynamischen und aerothermodynamischen Gesichtspunkten. Wesentliche Ziele der Arbeit bestanden darin, die Stoß-Grenzschicht-Interaktion im Halsbereich zu untersuchen und ein umfassendes Verständnis der aerodynamischen und aerothermodynamischen Vorgänge im externen und insbesondere im internen Strömungsfeld eines Scramjet-Einlaufs zu erlangen. Hierzu wurden zwei unterschiedliche Einläufe bei Ma = 6 und Ma = 7 untersucht. Um die auftretenden Strömungstopologien untersuchen zu können, wurden diverse Messtechniken eingesetzt. Hierzu zählte die Messung des statischen Druckes an der Ober- und Unterseite entlang der Mittellinie der Einläufe und die Messung des Pitotdruckes in der Brennkammereintrittsebene. Zusätzlich wurde mit Hilfe einer Drossel der vom Einlauf gefangene Massenstrom bestimmt sowie der simulierte Brennkammergegendruck variiert. Die Innenströmung wurde optisch mit Hilfe von Schattenaufnahmen visualisiert. Mit Hilfe der Infrarot-Thermographie wurde die zeitliche Entwicklung der Oberflächentemperatur der Isolatorseitenwand und der externen Rampen gemessen, im Rahmen der Datenauswertung wurde hieraus die Wärmestromdichte berechnet und anschließend die dimensionslose Stantonzahl dargestellt. Im Rahmen dieser Arbeit wurde erstmals am H2K die IR-Thermographie auf interne Strömungsfelder angewendet und ausgewertet. Die Veränderung der Strömungstopologie mit einhergehender Variation der aerothermodynamischen Belastung konnte für verschiedene Betriebszustände und Konfigurationen anhand der 2D-Verteilung der Stantonzahl entlang der Isolatorseitenwand dargestellt und diskutiert werden. Zur Untersuchung der Stoß-Grenzschicht-Interaktion im Halsbereich waren beide Modelle mit einer optionalen passiven Absaugung im Halsbereich ausgestattet. Hierdurch war es möglich, die Veränderung der Strömungstopologie bei starker Stoß-Grenzschicht-Interaktion mit dem Fall geringer (keiner) Stoß-Grenzschicht-Interaktion zu vergleichen. Um das Betriebsverhalten der Einlaufsysteme zu untersuchen und insbesondere die sich verändernden Strömungsbedingungen am Brennkammereintritt zu quantifizieren, wurde mit Hilfe der Drossel das Gegendruckverhältnis variiert. Die Erhöhung des statischen Druckes am Ende des Isolators führte zu einem Druckanpassungsgebiet im Isolator. Im Bereich dieses Druckanpassungsgebietes kam es zur Aufdickung bzw. im Extremfall zur Ablösung der Grenzschicht und damit zur Bildung komplexer Stoßstrukturen und der Ausbildung eines inhomogenen Strömungsfeldes in der Brennkammereintrittsebene. Das Verhalten des Scramjet-Einlaufs bei unterschiedlichen Anstellwinkeln wurde speziell unter dem Gesichtspunkt der Variation des gefangenen Massenstroms und der Veränderung der Druckverteilung untersucht. Zusätzlich zu den 2D-Einlaufuntersuchungen wurden für den neu ausgelegten Einlauf Untersuchungen bei erhöhter Innenkompression durchgeführt. Hierbei wurde die Innenkompression in zwei Schritten bis über das Startkriterium nach Kantrowitz hinaus erhöht. Die Erhöhung der Innenkompression erfolgte durch eine Verringerung der Breite des internen Strömungskanals. Hierbei wurde ein ausgeprägter dreidimensionaler Charakter der Strömung beobachtet. Die Veränderung des Strömungsfeldes im Vergleich zum 2D-Einlauf wurde anhand der statischen und Pitotdruckmessungen aufgezeigt. Abschließend wurde in dieser Arbeit das Auswerteverfahren zur Bestimmung der Wärmestromdichte und der daraus berechneten dimensionslosen Stantonzahl erweitert. Zu diesem Zweck wurde exemplarisch für die Basiskonfiguration des GK-Einlaufs die gemessene Temperaturverteilung mit Hilfe eines FEM ANSYS Modells ausgewertet. Dies ermöglichte die dreidimensionale Auswertung der gemessenen zeitabhängigen Oberflächentemperatur. Die Unterschiede zum bisherigen 1D-Auswerteverfahren konnten dargestellt und ausführlich diskutiert werden.
  • Thumbnail Image
    ItemOpen Access
    Harmonische Gravitationsfeldanalyse aus GPS-vermessenen kinematischen Bahnen niedrig fliegender Satelliten vom Typ CHAMP, GRACE und GOCE mit einem hoch auflösenden Beschleunigungsansatz
    (2009) Reubelt, Tilo; Grafarend, Erik W. (em. Prof. Dr.-Ing. habil. Dr. tech.h.c. mult. Dr.-Ing. E.h.mult)
    Mit dem Start der Satellitenmission CHAMP im Sommer 2000 fing eine neue Ära der Schwerefeldbestimmung an, die inzwischen durch GRACE (seit Frühjahr 2002) erweitert wurde und durch GOCE (ab 2009) komplettiert werden soll. Der große Erfolg dieser Satellitenmissionen liegt neben ausgefeilten Messprinzipien vor allem auch darin begründet, dass mit Beginn von CHAMP erstmalig globale, homogene und flächendeckende Schwerefelddaten erfasst werden konnten. Verschiedene Messprinzipien garantieren eine Modellierung der langwelligen Schwerefeldanteile (Detailstrukturen >= 500 km) mit CHAMP über eine Auflösung bis in mittelwellige Bereiche (Detailstrukturen >= 250 km) bei GRACE bis hin zu hochfrequenten Anteilen (Detailstrukturen >= 150 km) mit GOCE. Die angewandten Messverfahren sind dabei die Bahnvermessung mit GPS bei CHAMP, die Erfassung der Abstandsänderung zwischen zwei hintereinander fliegenden Satelliten mit Hilfe einer hochgenauen Mikrowellenverbindung bei GRACE sowie die differentielle Beschleunigungsmessung zwischen Probemassen (Satellitengradiometrie) bei GOCE. In der vorliegenden Arbeit wird ein neuartiges Verfahren — der Beschleunigungsansatz — zur Gravitationsfeldbestimmung aus der Bahnvermessung mit GPS am Beispiel des CHAMP-Satelliten untersucht. Die eigentlichen Messgrößen bei der Bahnanalyse sind Trägerphasen und Pseudostrecken der GPS-Messungen zwischen den hoch fliegenden GPS-Satelliten und dem niedrig fliegenden CHAMP-Satelliten. Zur Analyse dieser Messgrößen wird traditionell das auf der Integration der Variationsgleichungen beruhende bahndynamische Verfahren angewendet, welches aufgrund der Integration und des nichtlinearen Gleichungssystems sehr rechenaufwändig ist. Aus diesem Grunde wurden im Hinblick auf CHAMP alternative und effiziente Analysemethoden wie das Energieintegral, das Randwertproblem für kurze Bahnbögen und der Beschleunigungsansatz entwickelt und untersucht. Diese alternativen Verfahren setzen allerdings voraus, dass zuvor die kinematische Bahn des CHAMP-Satelliten aus den GPS-Messungen bestimmt wurde. Fortschritte in der kinematischen Bahnbestimmung, die eine Genauigkeit kinematischer Orbits von 1–3 cm ermöglichen, motivieren zusätzlich den Einsatz der alternativen Analyseverfahren. Bei dem Beschleunigungsansatz werden zunächst aus kinematisch bestimmten CHAMP-Bahnen mittels numerischer Differentiation die auf den Satelliten wirkenden Beschleunigungen berechnet. Es zeigt sich dabei, dass aufgrund der zeitlichen Korrelation der Fehler kinematischer Bahndaten der rauschverstärkende Effekt der numerischen Differentiation stark abgeschwächt wird und somit die Satellitenbeschleunigungen genau genug bestimmt werden können. Nachdem diese Beschleunigungen von gravitativen und nicht-gravitativen Störeffekten bereinigt worden sind, können die gesuchten Kugelfunktionskoeffizienten des Gravitationsfeldmodells direkt durch Anwendung der Newton’schen Bewegungsgleichung bestimmt werden. Zur Lösung des großen linearen Gleichungssystems (für 2 Jahre CHAMP: ca. 6 Mio. Beobachtungen, 8278 Unbekannte für Grad und Ordnung 90) wird die hinsichtlich des Speicherplatzes und der Rechenzeit effiziente Methode der Präkonditionierten Konjugierten Gradienten vorgeschlagen und verwendet. Ein wichtiger Aspekt bei der Analyse von kinematischen Bahnen ist die Datenvorverarbeitung, da die Orbits Ausreißer enthalten, welche die Genauigkeit der Gravitationsfeldschätzung deutlich verschlechtern können. Es wurden verschiedene Verfahren zur Ausreißerelimination getestet, die entweder auf die Varianz-Information der kinematischen Bahnen zurückgreifen, oder Referenzinformation in Form von (reduziert) dynamischen Orbits und bereits bestehenden globalen Gravitationsfeldmodellen benötigen. Als überlegen gegenüber den Methoden der Datenvorverarbeitung erweisen sich die robusten Schätzer. Diese benötigen keine Referenzinformation, stattdessen werden ungenaue Beobachtungen iterativ heruntergewichtet. Die Genauigkeit und Effizienz des Beschleunigungsansatzes wird in dieser Arbeit anhand der Analyse von simulierten und realen 2-jährigen kinematischen CHAMP-Bahnen untersucht. Vergleiche mit den Ergebnissen aus dem klassischen Verfahren und den weiteren alternativen Methoden zeigen, dass mit dem Beschleunigungsansatz Gravitationsfeldmodelle ähnlicher oder sogar höherer Genauigkeit erhalten werden können. Die Gravitationsfeldmodelle können aus dem 2-jährigen kinematischen Orbit bis ca. Grad 80 mit einem Signal-zu-Rausch-Verhältnis > 1 bestimmt werden und zeigen eine Genauigkeitssteigerung gegenüber dem besten Gravitationsfeld der Vor-CHAMP-Ära, EGM96, bis ca. Grad 65.