Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
620 results
Search Results
Item Open Access Messung und Modellierung der effektiven Wärmeleitfähigkeit von Dämmstoffschüttungen für vakuumwärmegedämmte Warmwasserspeicher(2022) Lang, Stephan; Spindler, Klaus (apl. Prof. Dr.-Ing.)Das Ziel dieser Arbeit ist es, hinsichtlich Dämmwirkung und Kosten geeignete schüttfähige Wärmedämmstoffe für doppelwandige Warmwasserspeicher mit Vakuumwärmedämmung zu identifizieren und eine Vorhersage über die effektive Wärmeleitfähigkeit in Abhängigkeit von Luftdruck und Temperatur treffen zu können. Zu diesem Zweck werden expandierte Perlite unterschiedlicher mittlerer Korngrößen und Mischungen aus expandierten Perliten und pyrogener Kieselsäure untersucht. Schwerpunkt der Untersuchungen ist die Ermittlung der effektiven Wärmeleitfähigkeit bei unterschiedlichen Luftdrücken und Temperaturen. Die effektive Wärmeleitfähigkeit wird in einer eigens entwickelten Versuchsanlage, nach einem stationären Messprinzip, bei Luftdrücken zwischen 0,001 mbar und Atmosphärendruck von (960 ± 20) mbar sowie bei Probenmitteltemperaturen zwischen -5 °C und 90 °C bestimmt. Die maximale relative Messunsicherheit der Versuchsanlage beträgt < 8 % bei den geringsten und < 3 % bei den höchsten gemessenen effektiven Wärmeleitfähigkeiten. Reine feinkörnige expandierte Perlite mit Dichten der Schüttungen ≥ 182 kg/m³ erreichen bei Luftdrücken ≤ 0,1 mbar und allen gemessenen Probenmitteltemperaturen die geringsten effektiven Wärmeleitfähigkeiten. Bei einer Probenmitteltemperatur von 48 °C liegen diese bei ≤ 4,84 mW/(m·K). Mischungen aus einem vergleichsweise grobkörnigen expandierten Perlit mit einer sehr feinkörnigen und feinporigen pyrogenen Kieselsäure können hingegen, bei technisch einfacher zu handhabenden Luftdrücken von > 1 mbar, z. T. geringere effektive Wärmeleitfähigkeiten erreichen als reine expandierte Perlite. Mischungen dieser Komponenten werden in dieser Arbeit erstmals in Form einer losen Schüttung bzgl. ihrer effektiven Wärmeleitfähigkeit untersucht. Bei einer Probenmitteltemperatur von 48 °C werden in diesem Luftdruckbereich effektive Wärmeleitfähigkeiten dieser Mischungen von > 12,17 mW/(m·K) gemessen. Anhand der gemessenen effektiven Wärmeleitfähigkeiten sowie weiterer Stoffeigenschaften, werden vollständig prädiktive analytische Modelle der effektiven Wärmeleitfähigkeit entwickelt. Das Modell für Mischungen gilt für ein ausgewähltes Stoffpaar, während das Modell für expandierte Perlite für beliebige ungemahlene expandierte Perlite verwendbar ist. Es handelt sich nach Kenntnis des Autors um das erste vollständig prädiktive analytische Modell der effektiven Wärmeleitfähigkeit für expandierte Perlite, welches auch die Kopplung von Gas- und Festkörperwärmeleitung berücksichtigt und für welches lediglich drei einfach und kostengünstig zu messende Größen bestimmt werden müssen. Diese Größen sind der volumengewichtet gemittelte Korndurchmesser, die mittlere Korndichte sowie die Dichte der Schüttung des expandierten Perlits. Aus den Messwerten der effektiven Wärmeleitfähigkeit wird ein Zusammenhang von volumengewichtet gemitteltem Korndurchmesser zur Kopplung von Gas- und Festkörperwärmeleitung deutlich, der für das Modell für expandierte Perlite verwendet wird. Mit den Modellen ist es nun möglich, ohne entsprechende Messungen, die effektive Wärmeleitfähigkeit von Mischungen aus einem expandierten Perlit und einer pyrogenen Kieselsäure sowie für beliebige ungemahlene expandierte Perlite, mit zufriedenstellender bis hoher Genauigkeit vorherzusagen.Item Open Access Untersuchungen zur Manipulation des Lastabtrages biegebeanspruchter Betonbauteile durch integrierte fluidische Aktoren(2022) Kelleter, Christian; Sobek, Werner (Prof. Dr.-Ing. Dr.-Ing. E.h. Dr. h.c.)Item Open Access Experimental investigation of low-frequency sound and infrasound induced by onshore wind turbines(2024) Blumendeller, Esther; Cheng, Po Wen (Prof. Dr.)Climate change has a global impact and is increasingly affecting our environment. This is driving the continuous expansion of renewable energies, with wind energy playing a major role. As wind energy becomes more widespread, an increasing number of people will live near wind turbines in complex terrain. In such scenarios, wind turbines are often positioned at elevated locations, while residents live in valleys. In complex terrain, such as a steep escarpment, local turbulence, wind speed, and direction are strongly influenced by topography, contributing to the complexity of sound propagation or impacts the background noise situation in valleys, for example, due to shielding effects. The operation of wind turbines is associated with both visual and sound-related impact, with sound being generated at various frequencies. There is a growing interest in low-frequency sound and infrasound, characterized by long wavelengths that propagate over considerable distances without significant attenuation. This is in contrast to higher-frequency sound, and might increase the impact of wind turbine sound at residential areas located several hundred meters or a few kilometers away from the wind farm. In the context of complex terrain, this work investigates wind turbines in complex terrain as sources of low-frequency sound and infrasound. The investigations on characterization of sound generation and propagation are based on measurements in the vicinity of two wind farms. Measurements were conducted within four measurement campaigns at two wind farms located close to an escarpment at the Swabian Alb in Southern Germany over a period of about nine month. Acoustic data was obtained in the proximity of the wind turbines and at residential buildings in 1–1.7km distance to the wind farms in municipalities located within a valley. Besides acoustic measurements including the infrasonic frequency range, a comprehensive data set with ground motion data, wind turbine operating data, meteorological data and data from a noise reporting app supports the investigation. Two aspects require analysis: Firstly, the aspect of generation and propagation of wind turbine low-frequency sound and infrasound in complex terrain, and secondly, the relation with annoyance. Results show that sounds within the infrasonic range assigned to the blade passage at the tower are transmitted through the air over distances of 1 km. Low-frequency sounds were found to be amplitude-modulated and were investigated as amplitude modulation. Infrasound and amplitude modulation occurrences were more likely during morning, evening and night hours and during atmospheric conditions with positive lapse rate, vertical wind shear and low turbulence intensity. The occurrence of both infrasound and amplitude modulation was typically observed during rated rotational speed but below-rated power. To allow predictions, a standard prediction method was extended to include the lowfrequency sound and infrasound range and adapted to the measurement data in order to apply it to complex terrain. The sound level difference of the measured data aligns well with the predictions within the frequency range of 8 Hz and 250 Hz. Investigations regarding outdoor-to-indoor sound reductions showed influences from structural resonances and room modes, which depend on the characteristics of the building and the specific room under investigation. Combining acoustic measurements with annoyance reports showed that rated wind turbine operation appears to be a contributing factor in annoyance ratings obtained through a noise reporting app, ranging from “somewhat” to “very” levels. Furthermore, the analysis indicates that varying levels of annoyance at a distance of 1km from the wind farm, both outside and inside buildings, do not correspond to significant differences in the averaged and A-weighted sound pressure levels. Overall, this work contributes to a better understanding of the low-frequency sound and infrasound generated from wind turbines and provides insight into the sound characteristics of measured wind turbine sound at residential locations in complex terrains.Item Open Access Modellbasierte Regelstrategien für adaptive Tragwerke(2023) Heidingsfeld, Julia L.; Sawodny, Oliver (Prof. Dr.-Ing. habil. Dr. h. c.)Bauwerke sind von zentraler Relevanz im Leben der Menschen, da diese einen Großteil ihrer Lebenszeit in Gebäuden verbringen. Zu deren Erstellung wendet der Bausektor einen großen Anteil der weltweiten Ressourcen auf und stößt große Mengen an Treibhausgasen aus. Mit Blick auf den prognostizierten Baubedarf dieses Jahrhunderts, um die Bedürfnisse der Menschen nach Wohnraum, Infrastruktur und Gewerbeflächen ressourcenschonend zu stillen, werden dringend neue Ansätze des Bauens gebraucht. Im Bauwesen ist die Notwendigkeit, aber auch das Potential gegeben, nachhaltiger zu agieren. Adaptive Gebäude bieten dafür einen vielversprechenden Lösungsansatz. Im Vergleich zu konventionellen Bauten, beinhalten adaptive Gebäude Sensoren, Aktoren und eine Steuereinheit im Tragwerk. Das Bauwerk ist dadurch in der Lage, sich aktiv an veränderliche Lasten anzupassen und das vorhandene Baumaterial effizient zu nutzen. So kann trotz des verringerten Materialeinsatzes die Gebrauchstauglichkeit und Standsicherheit uneingeschränkt gewährleistet werden. Adaptive Tragwerke stellen neue Herausforderungen an die Branche, die nur mit einem interdisziplinären Ansatz gelöst werden können. Um adaptive Tragwerke in der baupraktischen Realität zu verwirklichen, sind systemdynamische und regelungstechnische Ansätze unabdingbar. Diese Dissertation beschäftigt sich mit den in diesem Kontext auftretenden Fragestellungen und erprobt die Methoden an verschiedenen adaptiven Tragwerken und Komponenten - dem Demonstrator-Hochhaus, ein 37m hohes adaptives Hochhaus, dem Maßstabsmodell, eine 2m hohe maßstäbliche Version dieses Hochhauses und dem Balken mit integrierten Fluidaktoren, eine Tragwerkskomponente mit Adaptionsfähigkeit. Die Grundlage bildet die Modellierung der adaptiven Tragwerke, wobei Modelle mit dem für die Regelungstechnik relevanten Detaillierungsgrad hergeleitet werden. Aufbauend auf gängigen Methoden aus dem Bauingenieurwesen werden die notwendigen Modellgleichungen in geschlossener Form für die Reglersynthese erarbeitet. Darin integriert sind ebenfalls die Systemeingänge und -ausgänge. Insbesondere für druckschlaffe Elemente, die durch ihre Nichtlinearität unter Druck keine Kraft übertragen, werden Modellgleichungen in expliziter Form formuliert. Somit ist eine Abkehr von iterativen Lösungsmethoden möglich, wodurch die Modelle als Analyseund Synthesemodelle in der Regelungstechnik einsetzbar sind. Die Schwingungsanalyse von Tragwerken mit druckschlaffen Elementen gelingt durch die datenbasierte Methode der Hauptkomponentenanalyse, wobei sich starke Ähnlichkeiten zu den Eigenmoden des linearen Modells zeigen. Diese Ergebnisse werden zudem zur Modellordnungsreduktion genutzt. Hinsichtlich der statischen Analyse wird die disziplinübergreifende Verbindung der Methode der Redundanz aus dem Bauingenieurwesen mit der statischen Übertragungsfunktion aus der Systemdynamik herausgestellt. Die Aktorplatzierung ist bei adaptiven Tragwerken eine zentrale Frage in der Auslegung und Planung. Das Ziel hierbei ist die Auswahl von wenigen Aktorpositionen aus einer Vielzahl an möglichen Positionen, um die Systemkomplexität gering zu halten und gleichzeitig alle relevanten Verformungszustände beeinflussen zu können. Es werden Kriterien für die statische und dynamische Aktorplatzierung erarbeitet und diese hinsichtlich verschiedener Aktuierungsprinzipien untersucht. Anschließend steht ein Konzept zum Erhalt einer Aktormenge, die statische und dynamische Ansprüche vereint. Die statische Gramsche Kompensierbarkeitsmatrix wird für örtlich verteilte Systeme formuliert und eine Aktorplatzierung am Beispiel eines Balkens durchgeführt. Zum Betrieb adaptiver Tragwerke sind Regelungskonzepte zur Kompensation statischer Lasten und zur aktiven Dämpfung von Schwingungen notwendig. Die statische Lastkompensation setzt auf ein optimierungsbasiertes Verfahren zur Reduktion der Verformung von Tragwerken mit druckschlaffen Elementen unter Stellgrößenbeschränkungen. Eine Reduktion der mittleren Verformung von 87% wird experimentell am Maßstabsmodell bestätigt. Für die aktive Schwingungsdämpfung wird die Methode der approximativ linearisierenden Eingangstransformation entwickelt. Der nichtlinearen Systemdynamik wird dabei durch eine Eingangstransformation eine lineare Zieldynamik aufgeprägt. Anschließend wird die am linearen Zielmodell entworfene und dadurch effizient zu berechnende Schwingungsdämpfung als modellprädiktive Regelung ausgeführt. Diese Dissertation folgt einer interdisziplinären Perspektive und schafft eine Basis für zukünftige Arbeiten in der Regelungstechnik mit Bezug zu adaptiven Tragwerken.Item Open Access Automatische Applikation modellbasierter Diesel-Luftsystem-Funktionen in Motorsteuergeräten(2020) Xie, Yijiang; Kistner, Arnold (Prof. Dr.-Ing.)The continuous development of diesel engines for meeting the legal and functional requirements, e.g. reducing emissions and fuel consumption while taking drivability into account, has led to a significant increase in the number of sensors and actuators required for the engine. For the diesel-air system it means to introduce a turbocharger, a system for exhaust gas recirculation (EGR), an exhaust gas aftertreatment system, a variable valve control, etc. In order to control such an increasingly complex system in diesel engines, ECU-functions are developed by means of a model-based approach. The success of a model-based development methodology is based on a precise and e cient modeling of the relevant engine behavior. Because of the limited computing power of an ECU, a combination of physical models and so-called calibration parameters is usually preferred for engine modeling. The calibration parameters can be scalar or one or two-dimensional empirical models and usual ly have to be determined (calibrated) by experiments on an engine test bench. Typical examples for such calibration parameters are lookup-tables for modeling the cylinder charge (volumetric e ciency) and the e ective area of the EGR valve. In this thesis a procedure is proposed which is able to calibrate the ECU functions for stationary relationships, e.g. in the diesel-air system, automatically and with as little measurement e ort as possible in terms of the number of measurement points. The algorithm runs within the framework of sequential experimental planning, in which Gaussian models with non-stationary covariance functions are used to approximate the relations of interest. For adaptive experimental planning an active sampling strategy is developed based on the concept of mutual information and optimal system inputs (engine speed, fuel quantity, air actuators, etc.) and which determines the resulting operating points, with respect to the input space coverage, the inhomogeneous properties of the relations, the uncertainty of the estimated calibration parameters and the feasibility of the operating points. The method is able to predict the stationary engine behavior, which results from the selected system inputs, by means of the physical structure of the air system and the data-based models of the calibration parameters. On this basis the uncertainties of the application parameters are estimated using extended Kalman filters. The feasibility of the operating point is checked by comparing the predicted system behavior with the engine limits. For validation the developed algorithm was implemented on an engine test bench to calibrate the air system of a diesel engine equipped with high and low pressure EGR, a variable geometry turbocharger and variable valve timing. As a result, using the presented approach, using as little as approx. 130 measurement points is enough to obtain a comparable application quality to that achieved by conventional methods with more than 800 measurement points.Item Open Access Entwicklung laserspektroskopischer Methoden zur Analyse der Verdunstungseigenschaften von Brennstofftropfen(Stuttgart : Deutsches Zentrum für Luft- und Raumfahrt, Institut für Verbrennungstechnik, 2021) Werner, Stefanie; Riedel, Uwe (Prof. Dr. rer. nat.)Die steigenden Emissionen des klimaschädlichen Treibhausgases CO2 durch die Verbrennung von fossilen, endlichen Energieträgern müssen möglichst schnell und nachhaltig reduziert werden. Ein vielversprechender Lösungsansatz zur Reduzierung der Schadstoffemissionen bei der Verbrennung liegt in dem Einsatz von alternativen und erneuerbaren Brennstoffen. Als Energieträger bieten sich auf Grund ihrer hohen Energiedichte vor allem flüssige Brennstoffe an. Diese werden typischerweise durch Druckzerstäubung in die Brennkammer eingebracht, verdunstet und dann mit dem Oxidationsmittel vermischt und verbrannt. Die Verdunstung der kleinen Brennstofftropfen des sogenannten Sprays ist von entscheidender Bedeutung für den Gesamtverbrennungsprozess in Verbrennungsmotoren und Gasturbinen. Im Allgemeinen bestimmt die Verdunstungsrate die Verbrennungsrate. Daher sind Modelle notwendig, die eine genaue Vorhersage der Brennstoffverdunstung ermöglichen. Zur Validierung dieser Modelle werden quantitative Messungen unter genau definierten Randbedingungen benötigt. Da die Prozesse in technischen Brennkammern sehr komplex sind, werden Experimente zur Tropfenverdunstung häufig mit linearen, monodispersen Tropfenketten durchgeführt, um die Kopplung zwischen den verschiedenen Effekten zu minimieren. Durch die geringe Größe der Tropfen (typischerweise wenige hundert Mikrometer oder weniger), erfordert die experimentelle Untersuchung eine hohe räumliche Auflösung. In dieser Arbeit wurden quantitative, laseroptische Messtechniken mit hoher räumlicher Auflösung zur experimentellen Untersuchung der Tropfenverdunstung an monodispersen Tropfenketten entwickelt. Mit den Messtechniken wurden Validierungsdaten für die Verdunstungseigenschaften von verschiedenen Brennstoffen bestimmt. Konzentrationsmessungen von verdunsteten Kohlenwasserstoffen wurden unter Verwendung von Infrarot-Laserabsorptionsspektroskopie und laserinduzierter Fluoreszenzspektroskopie (LIF) durchgeführt. Tropfenketten wurden mit einem Tropfenkettengenerator erzeugt, welcher vertikal in einem Strömungskanal installiert wurde. Die untersuchten Brennstoffe waren Cyclohexan, iso-Octan, n-Heptan, n-Pentan, 1-Butanol und Anisol. Der Strömungskanal wurde mit einer laminaren Luftströmung bei verschiedenen Temperaturen (313 K - 430 K) durchströmt. Da die untersuchten Tropfen einen Durchmesser in der Größenordnung von 120 bis 160 µm hatten und die Konzentrationsgradienten nahe der Tropfenoberfläche groß waren, war eine hohe räumliche Auflösung der Messtechniken erforderlich. Die Absorptionsmessungen wurden mit der Infrarotstrahlung eines HeNe-Lasers bei λ = 3,39 µm durchgeführt, um die CH-Streckschwingung der Kohlenwasserstoffe anzuregen. Die für die Quantifizierung der Brennstoffkonzentrationen benötigten Absorptionsquerschnitte wurden in einer beheizten Gaszelle für Temperaturen von 300 K - 773 K bestimmt. Die räumliche Auflösung im Strömungskanal betrug < 50 µm über eine Länge von 2 mm (Halbwertsbreite). Durch die Zylindersymmetrie und gute Stabilität der Tropfenketten konnten zeitliche Mittelungs- und Tomografieverfahren angewandt werden. Hierdurch konnten radiale Konzentrationsprofile an mehreren Positionen im Strömungskanal erhalten werden. Aus dem Anstieg der Dampfkonzentration an verschiedenen Messpositionen konnte die Verdunstungsrate bestimmt werden. Die Verdunstungsraten wurden in Abhängigkeit von der Mantelstromtemperatur (313 K - 430 K), der Tropfengeschwindigkeit (8 m/s - 23 m/s), der Tropfenerzeugungsfrequenz (12 kHz - 75 kHz) und dem Tropfenabstand (300 µm - 685 µm) gemessen. Im untersuchten Temperaturbereich steigt die Verdunstungsrate des Brennstoffs linear mit der Temperatur an. Die Reihenfolge der Brennstoffe in Bezug auf die Verdunstungsrate entspricht den Siedepunkten der einzelnen Brennstoffe. Da technische Brennstoffe häufig eine Mischung mehrerer Komponenten sind, ist die Untersuchung von Brennstoffgemischen von großem Interesse. Daher wurde ein Messverfahren entwickelt, um binäre Gemische zu untersuchen. Das Verfahren wurde verwendet, um eine Mischung aus Cyclohexan und Anisol zu untersuchen. Zwei Messtechniken - laserinduzierte Fluoreszenz (LIF) und Infrarot Absorptionsspektroskopie - wurden verwendet, um beide Spezies zu messen. Um λ = 3,39 µm ist der Absorptionsquerschnitt von Cyclohexan um etwa den Faktor 8 größer als von Anisol. Im untersuchten Fall war die Konzentration aufgrund des höheren Dampfdrucks ebenfalls deutlich größer. Daher konnte das Infrarot-Absorptionssignal praktisch ausschließlich Cyclohexan zugeordnet werden. Anisol hat bei Anregung bei λ = 266 nm eine sehr gute Fluoreszenzquantenausbeute, während Cyclohexan keine Fluoreszenz zeigt. LIF ermöglicht daher die Quantifizierung von Anisol (oder anderen Aromaten) ohne Interferenz durch Kohlenwasserstoffe. Es wurde ein Messverfahren entwickelt, welches Halationseffekte vermeidet, die typischerweise in planaren LIF-Experimenten an Tropfenketten auftreten. Kalibrationsmessungen, die im gleichen Strömungskanal durchgeführt wurden, ermöglichten die Quantifizierung der verdunsteten Anisolkonzentrationen. Die räumliche Auflösung betrug 80 µm. Ähnlich wie bei den Einzelkomponentenmessungen wurden Verdunstungsraten bestimmt. Wie aufgrund des niedrigeren Dampfdrucks zu erwarten, ist die Verdunstungsrate von Anisol niedriger als die von Cyclohexan. Die Verdunstungsrate von Cyclohexan in der binären Mischung stimmt gut mit den Einzelkomponentenmessungen überein. Das entwickelte Messverfahren ist sehr vielversprechend für weitere Untersuchungen an Mehrkomponentenmischungen. In dieser Arbeit konnte damit erstmals mit hoher räumlicher Auflösung die Verdunstung von Brennstoffkomponenten mittels Absorptionsspektroskopie in der Nähe von Brennstofftropfen untersucht werden. Zusätzlich wurden in Kombination mit laserinduzierter Fluoreszenzspektroskopie Messungen an binären Mischungen durchgeführt. Damit steht ein wertvoller Datensatz zur Validierung von numerischen Simulationen zur Verfügung.Item Open Access Entwicklung einer Methodik zur Bewertung von Trinkwassertarifen für Privathaushalte in Deutschland(Stuttgart : Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart ISWA, 2022) Krauß, Manuel; Steinmetz, Heidrun (Prof. Dr.-Ing.)Kern dieser Arbeit ist die Entwicklung einer Methodik zur ökonomischen, ökologischen und sozialen Bewertung von Trinkwassertarifen für Privathaushalte mittels öffentlich verfügbarer Daten für eine möglichst große Anzahl an Tariffällen. Trinkwassertarife können eine zielführende Maßnahme zur Unterstützung ökonomischer, ökologischer und sozialer Politikziele darstellen. Wasserversorgungsunternehmen (WVU) sind natürliche Monopolisten, die in Deutschland ein einseitiges Preisbestimmungsrecht besitzen. Der übliche Tarif in Deutschland bezeichnet einen Grundtarif auf Basis des Hausanschlusses oder Wasserzählers in Kombination mit einem Arbeitsentgelt, das pro genutzte Wassermenge abgerechnet wird. Im Rahmen dieser Arbeit wurde auf Basis öffentlich verfügbarer belastbarer statistischer Daten eine Methodik entwickelt, die zur Analyse und Bewertung von Trinkwassertarifmodellen bzw. -änderungen für Privathaushalte genutzt werden kann.Item Open Access A model-based framework for the assessment of energy-efficiency and CO2-mitigation measures in multi-cylinder paper drying(Stuttgart : Universität Stuttgart, Institut für Energiewirtschaft und Rationelle Energieanwendung, 2022) Godin, Hélène; Radgen, Peter (Prof. Dr.-Ing.)Thesis on the effect of energy-efficiency and CO2-mitigation measures in multi-cylinder paper drying.Item Open Access Untersuchungen zu flüssigkeitsbasierten, kapazitiven Neigungswinkelsensoren(2022) Schwenck, Adrian; Zimmermann, André (Prof. Dr.-Ing.)Bei der Neigungswinkelmessung wird die relative Lage von Objekten zum Erdschwerfeld bestimmt. Stand der Technik im Bereich der Konsumgüter, der Industrietechnik, der Messtechnik oder der Fahrzeugtechnik sind vor allem Sensoren auf Basis von Beschleunigungssensoren. Diese werden hauptsächlich als Mikrosysteme (MEMS) ausgeführt und mittels mikrotechnischer Verfahren hergestellt. Die Neigungswinkelmessung, erfolgt dabei anhand einer Messung der Projektion der Erdbeschleunigung auf die sensitive Achse oder Achsen. Der in dieser Arbeit vorgestellte flüssigkeitsbasierte, kapazitive Sensor soll eine Alternative zu den MEMS-Beschleunigungssensoren bieten. Aufgrund seiner einfachen Herstellbarkeit mittels Standard-Surface-Mount-Technology (SMT) kann er durch kleine und mittelständische Unternehmen (KMU) auf meist vorhandener Anlagentechnik produziert werden. Die MEMS-Fertigung hat den Vorteil der kostengünstigen Massenfertigung im Batch. Dafür sind jedoch technologisch anspruchsvolle Reinraumprozesse notwendig, die nur bei großen und darauf spezialisierten Unternehmen zu finden sind. Die Arbeit stellt zuerst den Stand der Technik der Neigungs- und Beschleunigungsmessung sowie der Molded Interconnect Device (MID) Technologie vor und beschriebt dann das Sensorprinzip der flüssigkeitsbasierten +/-90° und 360° Neigungswinkelmessung. Dieses basiert darauf, dass sich die Oberfläche einer Flüssigkeit aufgrund der Gravitationskraft immer horizontal ausrichtet. Der Sensor verwendet eine dielektrische Flüssigkeit in einer teilweise gefüllten Kavität und bestimmt kapazitiv seine Lage zur Flüssigkeitsoberfläche. Zur Sensorauslegung werden ein analytisches Modell sowie eine Monte-Carlo-Simulation verwendet. Danach werden die Aufbau- und Verbindungstechniken (AVT) zur Herstellung der Sensoren beschrieben. Es kommen dabei zwei Varianten für die Ausformung der Kavität für das Fluid zum Einsatz. Eine Sensorvariante nutzt die die MID-Technik. Eine andere Möglichkeit ist die Verwendung von Standard-Leiterplatten, welche gestapelt und verlötet werden. Anschließend wurden die grundlegenden Sensoreigenschaften von drei Sensorvarianten charakterisiert. Dazu wurden Kennlinien der Sensoren bei Raumtemperatur aufgenommen und daraus eine Kalibrationsvorschrift für die Winkelberechnung abgeleitet. Da Neigungswinkelsensoren eine Sensitivität auf Neigungen quer zur Messachse haben können, wurden Messungen mit unterschiedlichen Querneigungen durchgeführt. Zur Charakterisierung der dynamischen Eigenschaften wurde die Abklingzeit der Sensoren bestimmt. Da der Sensor einen systematischen Einfluss der Temperatur auf die Steigung der Sensorkennlinie zeigt, wurde dieser gemessen und Möglichkeiten zur Kompensation untersucht. Temperaturschocktests zur beschleunigten Alterung schließen die Charakterisierungen der Sensoren ab. Abschließend diskutiert die Arbeit die Monte-Carlo-Simulation, die Temperaturkompensation und die Ergebnisse des Benchmarks. Ein Vergleich einer Monte-Carlo-Simulation mit einem analytisch berechenbaren Fall zeigt die grundsätzliche Eignung der Simulation zur Beschreibung des Sensorverhaltens. Die Ergebnisse der Simulation für verschiedene Temperaturen wurden drüber hinaus mit Messungen von Sensoren und einem rechnerischen Ansatz zur Temperaturkompensation verglichen. Dabei zeigte sich ebenfalls eine sehr gute Übereinstimmung von Simulation und Messung. Mithilfe der mathematischen Temperaturkompensation konnte der systematische Temperaturfehler weitgehend korrigiert werden. Bei der Diskussion des Benchmarks werden die wichtigsten technischen Eigenschaften der Sensoren, Allan-Deviation, Temperaturstabilität und Nichtwiederholbarkeit verglichen. Dabei zeigten die flüssigkeitsbasierten Sensoren eine im Zielmarkt wettbewerbsfähige Performance, vor allem für Anwendungen, welche ein geringes Rauschen, eine gute Bias-Stabilität sowie eine geringe Hysterese des Sensorsignales benötigen.Item Open Access Forming a hybrid intelligence system by combining Active Learning and paid crowdsourcing for semantic 3D point cloud segmentation(2023) Kölle, Michael; Sörgel, Uwe (Prof. Dr.-Ing.)While in recent years tremendous advancements have been achieved in the development of supervised Machine Learning (ML) systems such as Convolutional Neural Networks (CNNs), still the most decisive factor for their performance is the quality of labeled training data from which the system is supposed to learn. This is why we advocate focusing more on methods to obtain such data, which we expect to be more sustainable than establishing ever new classifiers in the rapidly evolving ML field. In the geospatial domain, however, the generation process of training data for ML systems is still rather neglected in research, with typically experts ending up being occupied with such tedious labeling tasks. In our design of a system for the semantic interpretation of Airborne Laser Scanning (ALS) point clouds, we break with this convention and completely lift labeling obligations from experts. At the same time, human annotation is restricted to only those samples that actually justify manual inspection. This is accomplished by means of a hybrid intelligence system in which the machine, represented by an ML model, is actively and iteratively working together with the human component through Active Learning (AL), which acts as pointer to exactly such most decisive samples. Instead of having an expert label these samples, we propose to outsource this task to a large group of non-specialists, the crowd. But since it is rather unlikely that enough volunteers would participate in such crowdsourcing campaigns due to the tedious nature of labeling, we argue attracting workers by monetary incentives, i.e., we employ paid crowdsourcing. Relying on respective platforms, typically we have access to a vast pool of prospective workers, guaranteeing completion of jobs promptly. Thus, crowdworkers become human processing units that behave similarly to the electronic processing units of this hybrid intelligence system performing the tasks of the machine part. With respect to the latter, we do not only evaluate whether an AL-based pipeline works for the semantic segmentation of ALS point clouds, but also shed light on the question of why it works. As crucial components of our pipeline, we test and enhance different AL sampling strategies in conjunction with both a conventional feature-driven classifier as well as a data-driven CNN classification module. In this regard, we aim to select AL points in such a manner that samples are not only informative for the machine, but also feasible to be interpreted by non-experts. These theoretical formulations are verified by various experiments in which we replace the frequently assumed but highly unrealistic error-free oracle with simulated imperfect oracles we are always confronted with when working with humans. Furthermore, we find that the need for labeled data, which is already reduced through AL to a small fraction (typically ≪1 % of Passive Learning training points), can be even further minimized when we reuse information from a given source domain for the semantic enrichment of a specific target domain, i.e., we utilize AL as means for Domain Adaptation. As for the human component of our hybrid intelligence system, the special challenge we face is monetarily motivated workers with a wide variety of educational and cultural backgrounds as well as most different mindsets regarding the quality they are willing to deliver. Consequently, we are confronted with a great quality inhomogeneity in results received. Thus, when designing respective campaigns, special attention to quality control is required to be able to automatically reject submissions of low quality and to refine accepted contributions in the sense of the Wisdom of the Crowds principle. We further explore ways to support the crowd in labeling by experimenting with different data modalities (discretized point cloud vs. continuous textured 3D mesh surface), and also aim to shift the motivation from a purely extrinsic nature (i.e., payment) to a more intrinsic one, which we intend to trigger through gamification. Eventually, by casting these different concepts into the so-called CATEGORISE framework, we constitute the aspired hybrid intelligence system and employ it for the semantic enrichment of ALS point clouds of different characteristics, enabled through learning from the (paid) crowd.