02 Fakultät Bau- und Umweltingenieurwissenschaften
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/3
Browse
Item Open Access 2D numerische Modellierung von multifraktionalem Schwebstoff- und Schadstofftransport in Flüssen(2008) Karnahl, Joachim Alexander; Westrich, Bernhard (Prof. Dr.-Ing. habil.)Die vorliegende Arbeit beschäftigt sich mit der numerischen Modellierung der Transport- und sorptiven Reaktionsprozessen von Schwebstoffen und Schadstoffen in Fließgewässern. Das Transportverhalten wird durch zahlreiche interagierende Prozesse - beispielsweise Sedimentation, Erosion, Dispersion, Sorptionskinetik- beeinflußt und erfordert für den Modellaufbau die Bestimmung der transportrelevanten Prozesse sowie die daraus resultierende Aufstellung der notwendigen physikalisch und parametrisch basierten mathematischen Modellansätze. Die im Rahmen der Arbeit entwickelte Modellkonzeption zur Beschreibung der multifraktionalen Schwebstoff- und Schadstofftransportprozesse sowie die Umsetzung in das tiefenintegrierte zweidimensionale Transportmodell SUBIEF umfaßt dabei für mehrere Schwebstofffraktionen die folgenden maßgeblichen Prozesse: Transport, Sedimentation auf Basis eines Schwellenwertansatzes, Erosion und Disaggregation in die einzelnen Schwebstofffraktionen. Für die Sedimentationsprozesse wurde dabei der für ein Korngrößengemisch vorhandene Energieansatz zur Beschreibung der kritischen Sedimentationsschubspannung auf die multifraktionale Sedimentation übertragen und implementiert. Das Schadstofftransportmodell beschreibt den gelösten und fraktionsbezogenen partikulären Schadstofftransport, Adsorptions- und Desorptionsprozesse mit einer Reaktionskinetik erster Ordnung im Wasser- und Sedimentkörper, die Sedimentation und Erosion partikulärer Substanzen sowie diffusive Prozesse an der Wasser-Sedimentgrenzschicht. Die Ergebnisse der an einem idealisierten Gewässer durchgeführten Modellrechnungen bestätigen die Modellkonzeption zur Beschreibung der multifraktionalen Sedimentations- und Erosionsprozesse sowie der Reaktionsprozesse. Als Fallstudie wurden experimentelle Untersuchungen und numerische Studien mit dem entwickelten Modell für die Sedimentverspülung an der Staustufe Iffezheim/Rhein bearbeitet: Um einen ausreichenden Fließquerschnitt im Hochwasserfall zu gewährleisten, wurden im Frühjahr 2005 ca. 150.000 m³ mit Hexachlorbenzol (HCB) belastete Sedimente oberhalb der Staustufe Iffezheim mit einem Saugbagger entnommen und ins Unterwasser verspült. Die Umweltauswirkungen der Sedimentverspülung wurden durch ein umfangreiches Meßprogramm der Bundesanstalt für Gewässerkunde in Zusammenarbeit mit dem Wasser- und Schifffahrtsamt Freiburg begleitet und durch Messungen, die im Rahmen dieser Arbeit durchgeführt wurden, ergänzt: Strömungsgeschwindigkeits- bzw. Abflußmessungen, Entnahme von Wasserproben zur Bestimmung der Schwebstoffkonzentration und der Korngrößenverteilung sowie Ausbringen und Auswerten von Sedimentfallen. Die Bestimmung der Korngrößenverteilung wurde dabei mit unterschiedlichen Meßmethoden durchgeführt. Dabei ergaben sich teilweise stark voneinander abweichende Ergebnisse, die als Unsicherheitsfaktor für die Modellierung anzusehen. Die numerischen Untersuchungen wurden für den 22 km langen Flußabschnitt unterhalb der Staustufe Iffezheim durchgeführt. Es wurden drei Sedimentfraktionen < 200 µm sowie das gelöste und auf allen Fraktionen adsorbierte HCB berücksichtigt. Als Modelleingangsdaten dienten dabei die bei der Meßkampagne erhobenen Daten. Aufgrund des hochgradig diskontinuierlichen Verspülungsmassenstroms und der geringen Meßdatendichte war eine Kalibrierung des Modells im strengen Sinne nicht möglich. Daher wurden mehrere Sensitivitätsrechnungen mit Variation der Modellparameter durchgeführt. Obwohl die komplexen 3D Strömungsphänomene von überströmten Buhnen in einem 2D Modell nur näherungsweise abgebildet werden können, zeigten die Modellergebnisse ein gutes Verhalten hinsichtlich der Sedimentations- und Erosionsprozesse in Buhnenfeldern. Die Sensitivitätsrechnungen ergaben für die verschiedenen Fraktionen eine direkte Proportionalität zwischen der Sedimentation und der mittleren Sinkgeschwindigkeit. Aufgrund der unterschiedlichen Ablagerungszonen der einzelnen Fraktionen ergaben sich hieraus unterschiedliche Resuspensionspotentiale der einzelnen Fraktionen. Zum besseren Verständnis der Ablagerungs- und Transportprozesse wurden idealisierte quasistationäre Transportberechnungen mit Variation der Abfluß- und Verspülungsrandbedingungen durchgeführt. Im Modellgebiet stellt sich bei den quasistationären Transportverhältnissen eine Konzentrationsabnahme in Fließrichtung ein. Ein Transportgleichgewicht im Flußschlauch kann sich im Modellgebiet nicht einstellen, da durch die Buhnenfelder und Stillwasserzonen permanente Sedimentsenken vorhanden sind, die durch den dispersiven Eintrag einen permanenten Schwebstoffzustrom erhalten. Bei diesen quasistationären Rechnungen zeigen sich analog zur diskontinuierlichen Verspülung zunehmende Ablagerungsraten mit zunehmendem Partikeldurchmesser. Bei steigenden Abflüssen zeigt sich eine Reduktion der Ablagerungen für alle Fraktionen, die auf Verdünnungseffekte und die erhöhten Fließgeschwindigkeiten zurückzuführen sind.Item Open Access A 3D continuum-mechanical model for forward-dynamics simulations of the upper limb(Stuttgart : Institut für Mechanik (Bauwesen), Lehrstuhl für Kontinuumsmechanik, Research Group on Continuum Biomechanics and Mechanobiology, Universität Stuttgart, 2015) Sprenger, Michael; Röhrle, Oliver (Prof. PhD)In this thesis, a suitable theoretical modelling procedure is presented, providing numerical simulations of the material behaviour of muscle-tendon complexes that are included into an articulation. In order to do that, it is necessary to introduce the anatomical and physiological fundamentals of the musculoskeletal system and in particular the upper limb. Caused by the complex microscopic property of the participating muscles, appropriate constitutive equations for the muscle, tendon, and other soft tissues are presented and embedded into the Theory of Finite Elasticity which provides a suitable framework in describing the finite deformation regime. The resulting set of coupled partial differential equations is spatially discretised using the finite element method, which has proven to provide a powerful numerical technique for finding approximate solutions to such BVP. A contact formulation is modularly included to the finite element method to consider contact between the elastic muscle-tendon complexes and rigid bones. The solution of the subject specific BVP is achieved within CMISS. The resulting system of equations was solved in a monolithic manner. While the material mechanical contribution is linearised numerically, the contact mechanical contribution is linearised analytically. The geometry of the Upper Limb Model is established from the virtual human data set. By introducing the Upper Limb Model with its static equivalent system, a continuum-mechanically based framework could be established. This enables stand-alone investigations as well as a coupling to other frameworks. Three different concepts to facilitate the muscle activation are presented in order to use the Upper Limb Model and the equivalent static system. In a first step, muscle activation is prescribed to demonstrate the feasibility of the system and investigated its convergence behaviour as a stand-alone framework. In a second step, the Upper Limb Model is linked to the forward-inverse model established by Prof. David Lloyd’s Musculoskeletal Research Group. Therefore, experimental data is acquired and processed. The results of the forward-inverse model are compared to those of the Upper Limb Model. The third step was conceptually introduced but not implemented. Yet, this concept of coupling FE simulations to MBS is very promising. Besides the well known tendon-displacement method, a second method to determine the lever arm is established by employing properties of the muscle force such as its point of action and orientation. The in silico experiments produced muscle reaction forces, muscle fibre stretch distributions, lever arms, and equilibrium positions. In addition, the impact of contact on a musculoskeletal system is investigated. These results are elaborately visualised and discussed to provide a better mechanical understanding of the examined musculoskeletal system.Item Open Access 3D-printed scale model for detection of railway wheel flats using augmented vibration data from axle box(2024) Kim, Eui-Youl; Martin, Ullrich (Prof. Dr.-Ing.)As data-driven methods for defect detection become more prevalent in the railway industry, the demand for high-quality data continues to grow. However, field experiments are often time-consuming and constrained by practical limitations. This study introduces a methodology that uses Fused Deposition Modeling (FDM) 3D printing to develop a scale model for simulating wheel flat-induced vibrations, combined with a Long Short-Term Memory (LSTM)-based generative model to produce synthetic vibration data. This approach improves data quality by enhancing quantity, variety, and velocity, while increasing data volume and reducing the need for extensive experimental testing. The LSTM-based model generates realistic synthetic data, minimizing reliance on labor-intensive field experiments and offering a broader spectrum of defect scenarios. By accelerating the data generation process, this method provides an effective alternative in a laboratory setting and contributes to foundational research aimed at improving defect detection and maintenance processes in the railway industry.Item Open Access Der Abbau von Fluorbenzol und seinen Homologen durch Burkholderia fungorum FLU 100(2007) Strunk, Niko; Engesser, Karl-Heinrich (Prof. Dr.)Der Stamm Burkholderia fungorum FLU 100 besitzt die unter den Bakterien äußerst selten zu findende Eigenschaft, Fluorbenzol als alleinige Kohlenstoff- und Energiequelle nutzen zu können. Außerdem kann der Stamm auch die anderen Monohalogenbenzole sowie Benzol und Toluol - als Reinstoff oder in beliebigen Mischungen - vollständig produktiv verwerten. In dieser Arbeit wurden ein Teil des Abbauweges sowie die Einsatzmöglichkeiten des Stammes im Rahmen der biologischen Abluftreinigung erforscht. Der Stamm FLU 100 kann mit Halogenatomen oder Alkylgruppen di- und höher substituierte Benzole nicht abbauen. 3-Fluorphenol ist hingegen abbaubar, jedoch wird hierzu, abweichend vom Fluorbenzolabbauweg, mindestens ein weiteres Enzym, eine Phenoloxygenase exprimiert. Zur Aufklärung der Aromatenabbauwege wurde Burkholderia fungorum FLU 100 mittels einer Tn5 Variante (pCro2) mutiert. Die Untersuchung der gewonnenen Transposonmutanten lieferte zahlreiche Metabolite des oberen Abbauweges. Das initiale Dioxygenasesystem greift die angebotenen benzoiden Substrate stets in Orthoposition zum Substituenten an. Dadurch wird die Aromatizität aufgehoben, es werden in 3 Position substituierte Cyclohexa 3,5 dien 1,2 diole (Diendiole) gebildet, welche beim Abbau von Monohalogenaromaten das Halogenatom in 3 Position tragen. Diese Metabolite werden zu den entsprechenden, an der 3 Position substituierten Catecholen zyklisiert, welche wiederum zu 2 substituierten Muconaten oxidativ gespalten werden. Aus den Muconaten entstehen in einem weiterem Schritt Muconolactone. Die Catechol-1,2-dioxygenase weist dabei klassische Typ – II Kinetik auf. Der Stamm FLU 100 verfügt über eine bemerkenswert hohe Fluorid – Toleranz. Er stellt das Wachstum erst ab 200 mmol/L im Medium ein. Zwei Biotricklingfilter im Technikumsmaßstab wurden konstruiert und über anderthalb Jahre hinweg betrieben. Als Packungsmaterial kam Blähton zum Einsatz. Es zeigte sich, dass fluorbenzolbelastete Abluft mit einer geringen Eliminationskapazität von ca. 5 g/m3h abgereinigt werden konnte, der Wirkungsgrad lag dabei um die 50 %. Eine äquimolare Mischung aus Fluorbenzol und Chlorbenzol konnte mit einer Eliminationskapazität zwischen 6 und 10 g/m3h behandelt werden. Dabei lag der Wirkungsgrad bezüglich des Fluorbenzols bei ca. 50 %, der des Chlorbenzols bei ca. 90 %. In den Reaktorsümpfen sammelten sich Fluorwasserstoff und Chlorwasserstoff als saure Metabolite an. Diese konnten mit Natriumhydrogencarbonat neutralisiert werden. Weiße, kristalline Ablagerungen traten mit der Zeit in den Reaktorsümpfen auf. Diese enthielten entgegen den Erwartungen nur sehr wenig Calciumfluorid (Fluoranteil 5 %), sondern vor allem Calcium, Sauerstoff, Phosphor und Silizium.Item Open Access Abbildung der Eigenschaften automatisierter Fahrzeuge in makroskopischen Verkehrsnachfragemodellen(Stuttgart : Institut für Straßen- und Verkehrswesen, Universität Stuttgart, 2022) Sonnleitner, Jörg; Friedrich, Markus (Prof. Dr.-Ing.)Mit der fortschreitenden Entwicklung in der Fahrzeugtechnik wird sich in den kommenden Jahren die Funktionalität von Pkw und damit deren Nutzung verändern. Noch sind die Auswirkungen der Fahrzeugautomatisierung auf Verkehrsablauf und Mobilitätsverhalten nur unzureichend bekannt. Dies erschwert eine Prognose der künftigen Verkehrsnachfrage. Verkehrsnachfragemodelle können Planern und Entscheidungsträgern helfen, mögliche Auswirkungen technischer Entwicklungen bei automatisierten Fahr-zeugen (AV) und zugehöriger regulatorischer Maßnahmen auf den zukünftigen Verkehr besser zu verstehen. Automatisierte Fahrzeuge werden ein anderes Fahrverhalten als Menschen zeigen und folglich Fahrtzeiten im Verkehrsnetz in Abhängigkeit des Anteils dieser Fahrzeuge in der Fahrzeugflotte verändern. Diese Einflussgrößen müssen auf geeignete Weise in vorhandene Fahrtzeitermittlungsmodelle integriert werden. Hochgradig automatisierte Fahrzeuge erlauben es den Personen, die sonst die Fahraufgabe übernehmen, einen Teil der im Fahrzeug verbrachten Zeit mit anderen Aktivitäten zu verbringen. Dies führt zu der Annahme, dass sich die Wahrnehmung der Fahrzeit in AV von derjenigen in konventionellen Fahrzeugen unterscheidet. Änderungen von tatsächlichen oder empfundenen Fahrtzeiten sind entscheidend für den Ablauf eines Verkehrsnachfragemodells, weil diese die Angebotsqualität beeinflussen, die sich durch Rückkopplung in der Nachfrageberechnung auf die Ziel-, Modus- und Routenwahl auswirkt. Damit wirken sich die erwähnten Einflussgrößen auf Mobilitätsverhalten und Verkehrsnachfrage aus. Verkehrsnachfragemodelle müssen diese Einflüsse adäquat abbilden können. Dies führt zur Notwendigkeit, die Modelle dafür zu erweitern, sodass Nachfragewirkungen automatisierter Fahrzeuge abgeschätzt werden können. In dieser Arbeit werden Modellierungsmethoden vorgestellt, um die Eigenschaften und Auswirkungen von automatisierten Fahrzeugen in makroskopische Verkehrsnachfragemodelle zu integrieren. Der Zweck dieser Methoden ist es, den Personen, die solche bestehenden Modelle anwenden, eine Möglichkeit zur Erweiterung dieser aufzuzeigen, damit diese, basierend auf Annahmen oder Daten zu AV, Prognosen erstellen können. Um die Wirkungen eines veränderten Fahrverhaltens von AV in Fahrtzeitermittlungsmodellen zu berücksichtigen, wird das Konzept der Personenkraftwagen (Pkw)-Einheiten erweitert. Dieses Konzept umfasst die Umrechnung der Fahrzeuganzahl aller Fahrzeugtypen in die Einheit herkömmlicher Pkw. Die Leistungsfähigkeit eines AV wird dann über Pkw-Einheiten-Faktoren angegeben, die von der Funktionalität des Fahrzeugs und vom Typ der Straßenanlage abhängen. Die Arbeit stellt auch eine Methode vor, um die Fahrtzeitwahrnehmung in AV, die nicht vollautomatisiert und damit Teil des Modus Pkw-Fahrer sind, anzupassen. Dafür wird die automatisierte Fahrtzeit mit einem zusätzlichen, vorzugebenden Parameter multipliziert. Dies wirkt sich auf die Routenwahl aus. Anhand des AV-Anteils werden die empfundenen Fahrtzeiten für konventionelle und automatisierte Fahrzeuge gewichtet gemittelt, um empfundene Fahrtzeiten des Modus Pkw-Fahrer als Input für die Modellstufen der Ziel- und Moduswahl zu erhalten. Der Wahrnehmungsparameter für die Modellanwendung in dieser Arbeit reduziert die empfundene automatisierte Fahrtzeit und folgt damit Erkenntnissen der Literaturauswertung. Die verwendeten Faktoren für die Pkw-Einheiten von AV werden durch die Auswertung von Daten mikroskopischer Verkehrsflusssimulationen ermittelt. Beide Methoden werden im makroskopischen Verkehrsnachfragemodell des Verbands der Region Stuttgart angewendet, um Auswirkungen automatisierter Fahrzeuge zu untersuchen. Der Anteil von AV an der privaten Pkw-Flotte wird vorgegeben. Im Rahmen dieser Arbeit sind AV hochautomatisiert und benötigen daher immer eine Person mit Fahrerlaubnis und Pkw-Verfügbarkeit. Für automatisierte Fahrzeuge der ersten Generation wird ein vorsichtigeres Fahrverhalten zugrunde gelegt. Diese beeinflussen dadurch den Verkehrsablauf im Vergleich zu konventionellen Fahrzeugen negativ und verursachen Fahrtzeitverlängerungen. Bei dieser geringeren Leistungsfähigkeit von AV gehen Verkehrsaufkommen und Verkehrsleistung für Pkw-Modi geringfügig zurück. Mit fortschreitender technologischer Entwicklung kann das Fahrverhalten so verbessert werden, dass AV leistungsfähiger als CV sind und den Verkehrsablauf positiv beeinflussen können. Das Verkehrsaufkommen und die Verkehrsleistung der Pkw-Modi nehmen zu. Die Wirkungen fallen mit steigendem AV-Anteil stärker aus. Eine veränderte Wahrnehmung automatisierter Fahrtzeit, sodass diese als kürzer empfunden wird, erhöht die empfundene Angebotsqualität und Erreichbarkeit von Zielen und macht den Modus Pkw-Fahrer damit attraktiver. Aufgrund von dadurch ausgelösten Änderungen in der Ziel- und Routenwahl nehmen mittlere Fahrtweiten und die Verkehrsleistung zu. Für die Ergebnisse ist es entscheidend, wie dicht das Straßennetz ist, das als automatisiert befahrbar zugrunde gelegt wird. Um von den Vorteilen automatisierten Fahrens profitieren zu können, sind Personen bereit, ihre Routenwahl anzupassen. Dies führt dazu, dass die Belastung auf den automatisiert befahrbaren Straßen im Verhältnis stärker zunimmt. Die Modellergebnisse zeigen, dass aufgrund der fortschrittlichen Fähigkeiten hochautomatisierter Fahrzeuge die Pkw-Verkehrsleistung in der Region Stuttgart um etwa 18 % zunehmen könnte. Die Vorteile des automatisierten Fahrens für die Personen, die diese nutzen, bringen also auch erhebliche negative Auswirkungen mit sich, die aus der Zunahme des Straßenverkehrs resultieren. Die Erkenntnisse der Modellanwendung können als Grundlage für die Diskussion über geeignete Maßnahmen aus der Verkehrsplanung dienen, um negative Folgen der Fahrzeugautomatisierung abzumildern oder zu vermeiden. Solche Maßnahmen müssen die Nutzung der zum Pkw konkurrierenden Modi attraktiver machen. Dies kann mit der Förderung anderer Verkehrsmodi oder der Einschränkung der Pkw-Nutzung erreicht werden.Item Open Access Abflusskonzentration in mesoskaligen Einzugsgebieten unter Berücksichtigung des Sickerraumes(2006) Rojanschi, Vlad; Bárdossy, András (Prof. Dr. rer. nat. Dr.-Ing. habil.)Die physikalisch-basierte Modellierung der Abflusskonzentrationsprozesse in einem Einzugsgebiet wird üblicherweise auf die Modellierung von drei strickt von einander abgetrennten Teilen, dem Boden- (Wurzel-) Raum, dem Grundwasserraum und den Oberflächengewässern, reduziert. Dieses Schema vernachlässigt allerdings, dass sich zwischen dem Boden- und dem Grundwasserraum ein weiterer Bereich befindet, der hier als Sickerraum bezeichnet wird und der aus demjenigen Teil der ungesättigten Zone besteht, der nicht dem Bodenraum zugerechnet wird. Für größere Einzugsgebiete treten im Sickerraum, der bis zu mehreren hundert Metern mächtig sein kann, auch kleinere schwebende gesättigte Bereiche auf, was dazu führt, dass die Strömungsrichtung im Sickerraum nicht nur vertikal, sondern auch horizontal ist. Die Vernachlässigung der dort stattfindenden Prozesse schränkt die Aussagekraft des Gesamtmodells deutlich ein. Deshalb wurde die Modellierung der Abflusskonzentration unter Berücksichtigung der hydrologischen Rolle des Sickerraumes als Hauptthema dieser Arbeit ausgewählt. Untersuchungseinheiten sind das Einzugsgebiet der Oberen Donau (bis zum Pegel Passau-Achleiten, 77.000 km2), das ein Forschungschwerpunkt des BMBF-Projektverbundes GLOWA ist, und zwei ausgewählte Teileinzugsgebiete(Ammer und Naab). Der erste Schritt ist eine umfassende Untersuchung über die Anwendbarkeit von Ganglinienanalyseverfahren für die Abtrennung des Grundwasser- und Sickerraumabflusses von der gemessenen Gesamtabflussganglinie. Ein numerisches Programm, das erstmals zwölf relevante Ganglinienanalyseverfahren in einem einheitlichen Rahmen implementiert, wurde hier entwickelt und auf Ganglinien aus dem gesamten Gebiet der Oberen Donau angewandt. Die Analyse der Ergebnisse, ihrer Abhängigkeit von der Raum und Zeitskala, sowie ihrer Verbindung zu den Gebietseigenschaften führte zu neuen Erkenntnissen über die Verfahren. Eine Schätzung des Grundwasser- und Sickerraumabflusses konnte damit für jedes Teileinzugsgebiet berechnet werden. Die Analyse zeigt aber auch, dass die Verfahren mit Inkonsistenzen und Willkürlichkeiten behaftet sind, was nicht zu einer Anwendung ihrer Ergebnisse für quantitative Aussagen ermutigt. Im zweiten Schritt wurde ein neues Modellkonzept, das die explizite Betrachtung des Sickerraumes ermöglicht und damit die Modellierungslücke zwischen dem Bodenwasserhaushalts- und dem Grundwassermodell schließt, entwickelt, implementiert und auf das Gebiet der Ammer angewandt. Nicht nur die Modellgüte, sondern auch die Unsicherheit der Modellergebnisse und bei der Bestimmung der Modellparameter, die generalisierte und einzelne Sensitivität des Modells im Parameterraum, sowie die Wechselbeziehungen zwischen den Modellparametern wurden ausführlich untersucht. Mehrere Modellversionen mit unterschiedlichen Graden an Konzeptualisierung wurden dabei verglichen. Trotz der allgemein guten Anpassung der Modellergebnisse an die Modelldaten, konnten anhand der inversen Modellierung auf Grund der strukturellen Unsicherheit des Modells und der Eingangsdaten keine gut bestimmten Parameterwerte für den Sickerraum berechnet werden. Das führte dazu, dass interne Modellergebnisse wie der Grundwasserabfluss und der Sickerraumabfluss auch von einer großen Unsicherheit behaftet waren. Die allgemeine Erkenntnis ist, dass nur die Modellergebnisse, die anhand von Messdaten direkt geprüft werden können, als validiert und aussagekraftig gelten sollten. Um das Problem der strukturellen Unsicherheit zu lösen, wurde in einem dritten Schritt die Methode der inversen Modellierung erweitert und verbessert. Ein Regionalisierungsverfahren, dass die Modellparameter mit den Gebietseigenschaften mit Hilfe von linearen Beziehungen verbindet, wurde in den Kalibrierungsprozess direkt integriert. Der Ansatz wurde auf die Einzugsgebiete der Ammer und der Naab angewandt und lieferte gute Modellergebnisse und führte gleichzeitig zu einer viel geringeren strukturellen Unsicherheit des Modells. Durch die Interpretation der linearen Beziehungen konnten auch Schlüsse über die physikalische Plausibilität des Modells gezogen werden.Item Open Access Ableitung von Typologien adaptiver Hochhausstabtragwerke mittels der Methode der Einflussmatrizen(2023) Steffen, Simon; Sobek, Werner (Prof. Dr.-Ing. Dr.-Ing. E.h. Dr. h.c.)Im Jahr 2015 haben 194 Länder und die Europäische Union im Pariser Klimaabkommen vereinbart, die Erderwärmung auf 1,5 °C zu beschränken. Um dies zu erreichen, müssen unter anderem alle produzierenden Industrien eine erhebliche Transformation umsetzen, um Produktion und Produkte nachhaltiger zu gestalten. Eine tragende Rolle kommt hierbei dem Bauwesen zu, da es für etwa die Hälfte der weltweiten Treibhausgas-Emissionen und ca. die Hälfte der weltweiten Energieaufwendung verantwortlich ist. Weiterhin führt der hohe Ressourcenverbrauch des Bauwesens zu einer Verknappung von wichtigen Baumaterialien, die zudem noch ungenügend rezykliert werden. In Verbindung mit der global wachsenden Bevölkerung und dem steigendem Wohlstand in den sogenannten „Entwicklungsländern“ wird deutlich, dass neue Technologien, Entwurfsmethoden und Tragwerkstypologien erforderlich sind, um die Umweltwirkung des Bauwesens zu verringern und das Pariser Klimaziel einzuhalten. Die vorliegende Arbeit greift den Lösungsansatz adaptiver Tragwerke auf. Adaptive Tragwerke sind mit Sensoren, Aktoren und Regelungseinheiten ausgestattet. Diese ermöglichen es, auf Basis einer hinterlegten Regelung das Tragverhalten der Tragwerke mechanisch an die aktuelle Belastungssituation anzupassen. Wird diese Anpassungsfähigkeit genutzt, um gezielt Beanspruchungszustände zu optimieren oder aktiv Verformungen zu reduzieren, können im Tragwerk Material und Emissionen eingespart werden. Der Fokus der Arbeit liegt auf adaptiven Hochhausstabtragwerken, da Hochhäuser eine mögliche Antwort auf die zunehmende Urbanisierung darstellen, sodass eine weitflächige Ausdehnung der Städte und die damit verbundene hohe Flächenversiegelung vermieden werden kann. Das Ziel dieser Arbeit ist die Ableitung von Typologien adaptiver Hochhausstabtragwerke, die zu Materialeinsparungen gegenüber konventionellen Tragwerken führen. Eine Bilanzierung der Emissionen erfolgt in dieser Arbeit nicht. Hieraus leiten sich die folgenden Forschungsfragen ab: • Was ist das Entwurfsproblem konventioneller passiver Hochhaustragwerke? Ermöglicht eine Adaption Materialeinsparungen? • Welches Aktuierungsziel führt bei Hochhaustragwerken zu Materialeinsparungen? Was ist das Entwurfsproblem adaptiver Hochhaustragwerke? • Mit welchem Aktuierungskonzept kann das Aktuierungsziel in unterschiedlichen Tragwerkstypologien erreicht werden? • In welcher Größenordnung liegen die potenziellen Materialeinsparungen? Die Beantwortung der Fragen erfolgt anhand von Literaturrecherchen sowie mit Hilfe von analytischer und numerischer Untersuchungen. Nach einer qualitativen Herleitung des primären Aktuierungsziels einer Verformungsadaption werden Aktuierungskonzepte für ausgewählte Hochhausstabtragwerkstypologien erarbeitet. Im ersten Schritt wird mithilfe von Einflussmatrizen die inhärente Adaptierbarkeit von vier Aussteifungsmodulen analysiert. Die mit Hilfe von verschiedener Aktuierungsprinzipien erzeugbaren Verformungsfiguren und zugehörigen Schnittgrößenverläufe werden untersucht und erklärt. Anschließend werden die Grundmodule zu abstrahierten Aussteifungssystemen zusammengesetzt und das Anwendungspotenzial unterschiedlicher Aktuierungskonzepte diskutiert. Im nächsten Schritt werden unterschiedliche Möglichkeiten erörtert, mit Hilfe derer die abstrahierten Aussteifungssysteme zu Hochhaustragwerken erweitert werden können. Auf dieser Basis wird als Viertes das Adaptionspotenzial ausgewählter konventioneller Hochhausstabtragwerkstypologien eingeordnet und neue Typologien abgeleitet. Abschließend werden für die untersuchten Hochhausstabtragwerkstypologien anhand von numerischen Parameterstudien die Materialeinsparungspotenziale abgeschätzt und die abgeleiteten Aktuierungskonzepte und Typologien simulativ validiert. Die Arbeit zeigt, dass Materialeinsparungen in erster Linie erzielt werden, wenn in der Bemessung des passiven Tragwerks ein Steifigkeitsproblem vorliegt. Je maßgebender das Steifigkeitsproblem, desto größer das Einsparungspotenzial durch Adaption, welches mit einer zunehmenden Schlankheit des Aussteifungssystems korrespondiert. Zwei grundlegende Aktuierungskonzepte werden entwickelt. Im ersten Aktuierungskonzept erfolgt die Verformungsadaption beanspruchungsfrei. Im zweiten Aktuierungskonzept ist die Verformungsadaption an eine Beanspruchungsmanipulation gekoppelt, welche zusätzliche Materialeinsparungen ermöglichen kann. Welches Aktuierungskonzept eingesetzt werden sollte, hängt von der Hochhaustragwerkstypologie ab und kann von dessen passivem Tragverhalten abgeleitet werden. Insgesamt kann aufgewiesen werden, dass eine mechanische Adaption von Hochhaustragwerken signifikante Materialeinsparungen ermöglicht und somit eine sinnvolle Lösung zur Reduktion der Umweltwirkung des Bauwesens darstellt, speziell in Anbetracht der zunehmenden Urbanisierung.Item Open Access Adaptive diskret-kontinuierliche Modellierung von Materialien mit Mikrostruktur(2014) Sorg, Annika; Bischoff, Manfred (Prof. Dr.-Ing. habil.)In der vorliegenden Arbeit wird zunächst die unterschiedliche Struktur von Materialien auf verschiedenen Skalen diskutiert. Abhängig von der Skala, auf der ein Material betrachtet wird, eignen sich unterschiedliche Modellierungsansätze. Zur Modellierung diskreter Strukturen und Kontinua werden jeweils verschiedene Methoden vorgestellt, sowie einige Methoden, die diskrete und kontinuierliche Modelle miteinander koppeln. Den Kern dieser Arbeit bildet die Entwicklung einer netz- und modelladaptiven Methode. Bei praktisch gleicher Genauigkeit ermöglicht die Methode Simulationen des Bruchverhaltens kohäsiver Reibungsmaterialien mit einer Form der Diskrete-Elemente-Methode (DEM), ohne die gesamte Struktur mit Partikeln aufzulösen. Um der Erfordernis einer Modellierung von Phänomenen auf unterschiedlichen geometrischen Skalen in einer Simulation gerecht zu werden, wird eine Kopplung der Finite-Elemente-Methode (FEM) und der DEM vorgeschlagen. Es werden Ideen der Quasikontinuumsmethode (TADMOR U.A., 1996) übernommen und auf eine Anwendung für Probleme in der Strukturmechanik kohäsiver Reibungsmaterialien übertragen. Bei der entwickelten Methode liefert die FEM die Kinematik des Systems und die DEM das Konstitutivverhalten. Runde, gleich große und regelmäßig angeordnete Partikel, die über Stäbe miteinander verbunden sind, bilden die Mikrostruktur (in 2D). Es werden drei unterschiedliche Elementtypen eingeführt, die die Mikrostruktur mit unterschiedlicher Genauigkeit auflösen. Im homogenen Fall, bei dem alle Stäbe dieselbe Steifigkeit besitzen, kann die Cauchy-Born-Regel auf die Mikrostruktur angewendet werden, um die Ersatzsteifigkeit der Übergangselemente zu bestimmen. Bei einer heterogenen Steifigkeitsverteilung ist dies jedoch nicht möglich. Für solche Fälle wird eine neue Strategie vorgeschlagen, bei der für jedes Übergangselement ein lokales Unterproblem gelöst wird.Item Open Access Adaptive Methoden zur Pfadverfolgung bei Entfestigung(2014) Pohl, Tanja; Bischoff, Manfred (Prof. Dr.-Ing. habil.)Diese Arbeit befasst sich mit der Entwicklung robuster und effizienter numerischer Kontrollmethoden zur Ermittlung statischer Gleichgewichtspfade. Insbesondere bei entfestigenden Strukturen versagen konventionelle Pfadverfolgungsmethoden häufig nach Erreichen von Traglastpunkten. Der Fokus der Arbeit liegt auf Adaptivitätskriterien, die den Auswertungsort eines Kontrollparameters in Abhängigkeit des Entfestigungsprozesses in jedem Lastschritt festlegen. Diese selbst-adaptierende Kontrollregion liefert die Grundlage für die Auswertung der Kontrollparameter der adaptiven Verzerrungskontrolle und der adaptiven Verschiebungskontrolle in der Prozesszone. Hierfür werden die äquivalenten Verzerrungen aller Gaußpunkte überwacht und mit Kriterien zur Bestimmung einer aktiven Prozesszone abgeglichen. Der identifizierte Gaußpunkt beziehungsweise das zugehörige Element bildet dann die Kontrollregion im aktuellen Lastschritt. In der adaptiven Verzerrungskontrolle sind die Kontrollgröße und der Parameter zur Identifikation der Kontrollregion identisch und direkt mit dem Schädigungsprozess verbunden. Die adaptive Verschiebungskontrolle in der Prozesszone beschreibt eine Verschiebungskontrolle des maximalen Inkrements der Elementverschiebungen in der Kontrollregion. Die Formulierung ist bis auf das Auswahlkriterium der Kontrollregion vom Schädigungsprozess entkoppelt. Die neu entwickelten Methoden weisen in den numerischen Beispielen wesentliche Verbesserungen im Bezug auf die Rechengeschwindigkeit gegenüber vergleichbar einsatzfähigen Methoden auf und vermeiden ungewollte künstliche Entlastungen.Item Open Access Adaptive modelling of compositional multi-phase flow with capillary pressure(2014) Faigle, Benjamin; Helmig, Rainer (Prof. Dr.-Ing)Many technical as well as environmental applications in the field of multi-phase flow in porous media, such as CO2 storage in the subsurface, remediation of hazardous spills in the groundwater or gaseous infiltration from nuclear storage sites into the surrounding rock, take place on a huge spatial domain and occur over large time-scales. In most cases, however, complex flow regimes occur only in small regions of the whole domain of interest. Inside these regions, the quality of simulations benefits from highly resolved grids and from an in-depth description of the physics involved. Outside, in contrast, the grid can remain coarse and the relevant processes are already captured by a simpler model abstraction. To simulate such processes, numerical models have to be developed that mimic the relevant system properties and characteristics of flow. In this work, the sequential solution scheme is shown to be an efficient alternative to fully implicit formulations for compressible, compositional multi-phase systems; it even considers the often neglected gravitational effects and capillary pressure. An extension for non-isothermal flow is presented as well. Some numerical obstacles have to be mastered to model these numerically challenging systems in an efficient manner, avoiding costly iteration of the global solution. Two adaptive strategies are discussed: the multi-physics concept adapts the model complexity locally according to the underlying physical processes. Complicated physics are approached by complex models that differ from those applied in flow regimes that are simpler. The efficiency gain is flanked by the qualitative improvement to model each process not only with the fastest, but also with the most appropriate numerical model. As an example of such an adaptive modelling strategy, a large-scale CO2 injection scenario is presented. This example provides insights into the increased efficiency, as well as the decrease in modelling bias because the constraint on one numerical model per simulation is relaxed and the most appropriate available model is applied locally. In the quest for a good global solution, the physical and thermodynamic detail employed in complicated areas should be supported by a detailed resolution of the grid. Uniform refinement a priori is again avoided in favour of dynamic adaptation, resembling the second branch of adaptivity in this work. Detail and accuracy are gained in the region of interest while the global system remains coarse enough to be solved efficiently. The modification of the simulation grid should not be an additional source of error: for the complex systems considered, this requires careful transformation of the data while modifying the grid. Indicators have to be developed that steer the dynamic adaptation of the grid. These should be tailored to the specific problem at hand. Nevertheless, the stability of the numerical formulation applied is jeopardized by the types of indicators that would cause a back-coupling of modelling errors into the refinement process. On such adaptive grids, the standard approach to computing fluxes is known to fail. An alternative method, a multi-point flux approximation, is successfully applied and the improvements investigated. The combination with the standard flux expression yields a very efficient and potent solution to modelling compositional flow on adaptive grids. The proposed conceptual methods can only be successfully adapted if they are applicable to real problems. The large-scale simulations presented in this work are not intended to answer specific problem-related questions but to show the general applicability of the modelling concepts even for such complicated natural systems. At the same time, such large-scale real systems provide a good environment for balancing the efficiency potentials and possible weaknesses of the approaches discussed. The last example features four levels of complexity bonded together in the multi-physics setting: compositional single-phase flow with a simplified thermal approximation and under full non-isothermal consideration as well as compositional two-phase flow with and without full non-isothermal effects. Simulations are performed on an adaptively refined simulation grid.Item Open Access Adaptive Strahlungstransmission von Verglasungen mit Flüssigkristallen(2004) Haase, Walter; Sobek, Werner (Prof. Dr.-Ing.)Ziel der vorliegenden Arbeit war es zu untersuchen, ob und mit welchem Aufbau sich verdrillt-nematische Flüssigkristallzellen (zu englisch "twisted nematic",TN-Zellen) eignen, um als Licht- und Energiestrom regelnde Fensterelemente am Gebäude eingesetzt werden zu können. Es wurden hierzu Muster solcher TN-Zellen in diversen Aufbauten hergestellt, die Einwirkungen, resultierend aus der Bestrahlung auf ein solches Element qualitativ und quantitativ spezifiziert und die optischen Eigenschaften für ausgewählte Aufbauten der Funktionselemente charakterisiert. Versuche zur kurzzeitigen thermischen Belastung sowie Langzeit-Freilandversuche dienten zur Verifizierung der Schädigung der Funktionsschichten und der Elemente. Die Ergebnisse der Versuche waren Grundlage für die Auswahl geeigneter und langzeitstabiler Komponenten eines stufenlos schaltbaren Elementes.Item Open Access Adaptivität bei Flächentragwerken(2008) Weilandt, Agnes; Sobek, Werner (Prof. Dr.-Ing.)Scheiben und Schalen sind nur in ihrer Ebene beanspruchte Tragwerke bzw. Tragwerkselemente. Aus diesem Grund sind sie für den Leichtbau von großer Bedeutung. Ihre hohe Tragfähigkeit wird jedoch bei Störung des homogenen Spannungszustandes, z.B. durch Ausschnitte, lokale Lasteinleitungen oder Zwängungen an den Auflagern, stark reduziert. Bisherige Optimierungsversuche mittels Formoptimierung der Ausschnitte oder lokaler Verstärkungen führten nur für einzelne, in ihrer Richtung konstante Belastungen zu einer Reduktion der Störungen. Adaptive Tragwerke sind eine neue Alternative für die Optimierung des Tragverhaltens von Scheiben und Schalen. Sie können mit Hilfe von Sensoren, Steuerungs- bzw. Regelungseinheiten und Aktuatoren verschiedene äußere Einwirkungen erfassen und sich an diese anpassen. Dieser Anpassungsprozess wird als Adaption bezeichnet und ermöglicht den adaptiven Tragwerken optimal auf unterschiedliche Beanspruchungen reagieren zu können. Im Rahmen dieser Arbeit wird untersucht, inwiefern mittels adaptiver Systeme die Tragfähigkeit von Scheiben und Schalen erhöht werden kann. Hierbei werden Systeme betrachtet, deren Tragfähigkeit durch Störungen erheblich geschwächt ist. Ziel der Adaption ist eine Reduktion der Inhomogenitäten in den Spannungsfeldern, so dass die Scheiben bzw. Schalen bei konstanter Bauteildicke optimal ausgenutzt werden können. Es werden drei verschiedene Typen adaptiver Systeme bei Scheiben und Schalen betrachtet: 1. Dehnungsaktivierte Scheiben, die in Teilbereichen oder über ihre gesamte Ausstreckung so gestaltet sind, dass in sie ein stetiger Dehnungsverlauf induziert werden kann. Diese induzierten Dehnungen bewirken eine Umverteilung der Scheibenbeanspruchungen, so dass die maximal auftretenden Inhomogenitäten in den Spannungsfeldern der betrachteten Systeme minimiert werden können. Entscheidend für die Effizienz solcher Systeme ist der Verlauf der induzierten Dehnungen, für deren Ermittlung - neben einer analytischen Lösung für das Beispiel der Scheibe mit Ausschnitt - zwei Verfahren auf Basis der Finiten-Element-Methode vorgeschlagen werden. 2. Scheiben mit integrierten diskreten Dehnungsaktuatoren, deren Wirkungsweise mit lokal begrenzten flächigen Verstärkungen verglichen werden kann. Für die Effizienz dieser Systeme sind vor allem die Lage der Aktuatoren, sowie deren Materialkennwerte und deren Höhe der Aktivierung von Bedeutung. Diese Werte können mit einem mehrstufigen Verfahren, das in dieser Arbeit vorgestellt wird, ermittelt werden. 3. Systeme mit aktiven Randbedingungen, bei denen der innere Beanspruchungs-zustand von außen manipuliert wird, werden stellvertretend anhand einer Schale untersucht. Hierzu wird eines der Verfahren zur Berechnung dehnungsaktivierter Scheiben entsprechend an die untersuchte Problemstellung angepasst. Anhand von ausgewählten Beispielen wird zum einen die Effizienz der vorgeschlagenen Berechnungsverfahren zum anderen das hohe Potential der adaptiven Systeme bei Scheiben und Schalen aufgezeigt.Item Open Access Addressing the input uncertainty for hydrological modeling by a new geostatistical method(2013) Lebrenz, Hans-Henning; Bárdossy, András (Prof. Dr. rer.nat. Dr.-Ing.)The variogram-based regionalization methods for precipitation and their application as input to the subsequent hydrological modeling are examined in this study. The variogram, as the central tool, is firstly reviewed and a new robust estimation method is proposed. The central core of the proposed method is the description of spatial dependence by the coefficient of Kendall’s tau; , instead of the commonly applied Pearson correlation coefficient. A Monte-Carlo simulation and a quantile-quantile transformation converts the coefficient of Kendall’s tau; into the corresponding covariance function. The proposed method suits the general case of empirical marginal distributions and is not limited to gaussianity. The cross-validation of the estimator revealed a superior estimation method for the empirical marginal distributions, which is robust against some artificially induced outliers. Next, the new interpolation method of Quantile Kriging is elaborated and compared to the traditional interpolation methods of Ordinary Kriging and External Drift Kriging. The proposed interpolation method fits a theoretical distribution to the observations of monthly precipitation at every raingauge and subsequently decomposes the actual variable into corresponding quantiles and the associated distribution parameters. Quantiles and parameters are separately interpolated to the unknown location, where they are ultimately reconverted to the actual variable of precipitation. The distribution parameters implicitly transfer information over time to the interpolation at a particular time step. The resulting cross-validation displays an overall improvement for the estimator by Quantile Kriging and exhibits a more appropriate description of the associated distribution of the estimation errors. Quantile Kriging further relates the magnitude of the estimator with the associated uncertainty, which is a major advancement compared to Ordinary Kriging and External Drift Kriging. Furthermore, the traditional methods are theoretically optimized with regard to the spatial bias, while Quantile Kriging improves the temporal bias. Therefore, Quantile Kriging offers an alternative interpolation methodology with regard to some practical applications. The principle of the decomposition into quantiles and parameters, prior to the regionalization, is further extended to Turning Bands Simulations. The proposed simulation of quantiles and parameters enables the simultaneous quantification of a random and a systematic error from the regionalization of precipitation. The random error bears a higher variability, but its accumulation over time does not diverge from zero. The systematic error is relatively small for one given time step, but exhibits a constant (systematic) trend over time. Therefore, the systematic error eventually surpasses the random error in magnitude. The separate simulation or the combined simulation of quantiles and parameters is, thus, serving as inputs to the hydrological modeling. The different precipitation simulations serve as input to the hydrological modeling of a selected catchment basin with mesoscale size. The ROPE algorithm calibrates the eight parameters of the conceptual HBV-IWS model and the propagation of the input uncertainties are hereby examined. The simultaneous quantification of two input uncertainties revealed that mainly one parameter of the HBV-IWS model closes the overall water balance during the calibration period, while another parameter is suspected to adapt the different variabilities to the observed discharge. The remaining six parameters of the HBV-IWS model show a relatively inert behavior on the different inputs and, therefore, indicate an overparameterization of the model.Item Open Access Adsorptive removal of phosphonates and orthophosphate from membrane concentrate using granular ferric hydroxide(Stuttgart : Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart ISWA, 2022) Reinhardt, Tobias David; Schönberger, Harald (PD Dr.-Ing. habil.)Phosphonate werden als Komplexbildner in diversen Industriezweigen, in Kühlwassersystemen und auch in der Trinkwasseraufbereitung eingesetzt. Sie sind Additive mit Thresholdeffekt, d. h. bereits im unterstöchiometrischen Bereich verhindern sie effizient die Bildung von Ausfällungen oder verzögern diese zumindest. Sie sind gut wasserlöslich, aber auch über einen weiten pH- und Temperaturbereich stabil. Durch ihre C-P Bindung sind sie im Vergleich zu Molekülen mit N-P, S-P oder O-P Bindung relativ persistent gegenüber chemischem und biologischem Abbau. Der Verbrauch der als Komplexbildner eingesetzten Phosphonate stieg in den letzten Jahrzehnten weltweit deutlich an; im Zeitraum von 1998 bis 2012 beispielsweise um fast 70 % von 56.000 t auf 94.000 t. In der Regel werden Phosphonate über den Abwasserstrom entsorgt. Eine Bilanzierung für das Jahr 2012 zeigte, dass in Europa etwa 7.800-13.700 Tonnen der in der Industrie eingesetzten Phosphonate durch Direkteinleiter in Gewässer eingetragen wurden. Davon entfielen etwa 65 %-90 % auf Kühlwässer und Membrankonzentrate, für die eine innerbetriebliche Abwasserbehandlung vor der Einleitung oft unüblich ist. In Deutschland ist die Einleitung von Membrankonzentraten aus der Trinkwasseraufbereitung, die häufig Konzentrationen > 1 mg/L P aufweisen, genehmigungsfähig, wohingegen die Anforderungen an die Phosphorelimination in kommunalen Kläranlagen stetig steigen. Phosphonate stehen im Verdacht zur Eutrophierung von Gewässern beizutragen, da sie teilweise in der aquatischen Umwelt durch katalytische Oxidation, Photolyse, Hydrolyse sowie mikrobielle Prozesse langfristig zu ortho-Phosphat abgebaut werden können. Darüber hinaus haben Phosphonate eine hohe Adsorptionsaffinität, welche zu einer starken Akkumulation der Phosphonate in den Gewässersedimenten führt. Das Erreichen der Adsorptionskapazität der Sedimente könnte zukünftig zu einem deutlichen Anstieg der Phosphonatkonzentrationen in Gewässern führen. Infolgedessen sind ökotoxische Effekte mit unbekannten Umweltwirkungen zu erwarten, wie zum Beispiel die Rücklösung von Schwermetallen. Um die Ziele der Europäischen Wasserrahmenrichtlinie zu erreichen, sollten daher neben Verfahren zur Elimination von ortho-Phosphat auch Behandlungsverfahren für die Gruppe der Phosphonate entwickelt und untersucht werden. Eine Möglichkeit zur Behandlung des Membrankonzentrats aus der Trinkwasseraufbereitung stellt die Adsorption an geeignete Filtermaterialien wie beispielsweise‚ Eisen(hydr)oxid dar, welche die hohe Adsorptionsaffinität der Phosphonate nutzen. In den publizierten Studien zur Adsorption von Phosphonaten an granuliertem Eisenhydroxid (GEH) fehlen u. a. Untersuchungen der Materialstabilität, der Regenerierbarkeit und der Anwendung auf reale Abwässer in Festbettsäulen. Außerdem können die in der (Abwasser-)Matrix vorhandenen Ionen einen großen Einfluss auf die Adsorption von Phosphorverbindungen haben. In einigen Studien zur Adsorption von Phosphat sowie dem Phosphonat Nitrilotris(methylenphosphonsäure) (NTMP) an GEH wurde zwar der Einfluss einzelner Ionen untersucht, in realen Abwässern liegen jedoch verschiedene Ionen zugleich vor und können interagieren. Die publizierten Studien zur Festbettadsorption beschränken sich auf synthetische Lösungen mit dem Phosphonat NTMP und betrachten maximal drei Adsorptions-/Desorptionszyklen, so dass eine Vorhersage über die langfristige Anwendbarkeit von GEH unsicher ist. Ziel dieser Arbeit war es, die Adsorption von ortho-Phosphat und insbesondere Phosphonaten an GEH zu untersuchen. Dies sollte dem übergeordneten Ziel dienen, den Adsorptionsprozess näher zu verstehen, um diesen auf die Behandlung von ortho-Phosphat- und DTPMP-haltigem Membrankonzentrat anzuwenden und somit dazu beizutragen, den Phosphor-Eintrag in die Gewässer zu vermindern. Hierfür wurden zunächst Batchversuche mit Phosphonat-aufgestocktem Reinstwasser durchgeführt, um den Adsorptionsprozess detailliert zu untersuchen und weitergehende Experimente in Festbettsäulen mit dem Membrankonzentrat einer Trinkwasseraufbereitungsanlage vorzubereiten. In den Batchversuchen kamen die hinsichtlich ihrer Verwendungsmenge relevantesten Phosphonate 2-Phosphonobutan-1,2,4-tricarbonsäure (PBTC), 1-Hydroxyethan-(1,1-diphosphonsäure) (HEDP), NTMP, Ethylendiamintetra(methylenphosphonsäure) (EDTMP) und Diethylentriaminpenta(methylenphosphonsäure) (DTPMP) sowie Hydroxy(phosphono)essigsäure (HPAA) zum Einsatz. In dieser Arbeit wurden dazu in einem ersten Schritt vier verschiedene GEH in Batchversuchen eingesetzt, um deren Adsorptionskapazitäten miteinander zu vergleichen. Die maximale Beladung bei einer Ausgangskonzentration von 1 mg/L NTMP-P, einer Kontaktzeit von 7 d und bei Raumtemperatur (20 °C) betrug ~12 mg P/g GEH. Eine Erhöhung der Ausgangskonzentration auf 5 mg/L NTMP-P resultierte in einer maximalen Beladung von ~18 mg P/g. Mit dem GEH mit der größten Adsorptionskapazität wurden daraufhin weitere Untersuchungen zum Einfluss der Temperatur, des pH-Wertes sowie der Phosphonateigenschaften auf die Adsorptionskapazität und zu einer anschließenden Regeneration durchgeführt. Es zeigte sich, dass die maximale Beladung bei einer Ausgangskonzentration von 1 mg/L NTMP-P und bei einer Temperatur von 5 °C im Vergleich zur Beladung bei 20 °C um > 40 % auf lediglich ~7 mg P/g abfiel. Niedrige Abwassertemperaturen sollten daher bei einem Einsatz von GEH zur Phosphonat-Adsorption vermieden werden. Die Adsorptionskapazität des GEH ließ bei allen sechs untersuchten Phosphonaten mit steigendem pH-Wert nach (z. B. 80 % NTMP Elimination bei pH 4 und 25 % bei pH 12). Mit steigender Molekülgröße und Anzahl an Phosphonatgruppen der untersuchten Polyphosphonate sank die Adsorptionskapazität des GEH. In fünf Adsorptions-/Desorptionszyklen konnte nachgewiesen werden, dass eine Regeneration des GEH mit 1 M Natronlauge (NaOH) möglich ist. In weiteren Batchversuchen wurde der Einfluss zusätzlich anwesender Ionen in An- und Abwesenheit von GEH auf die Elimination von Phosphonaten und ortho-Phosphat untersucht. Hierbei lag der Fokus insbesondere auf Calcium (CaII) und der möglichen Ausfällung von Calciumverbindungen. In Untersuchungen mit verschiedenen Calcium-Phosphonat-Verhältnissen (0:1 bis 60:1) wurde festgestellt, dass der Calciumanteil im GEH eine wesentliche Rolle im Adsorptionsprozess einnimmt, da sich dieser rücklösen und dadurch das Calcium-Phosphonat-Verhältnis erhöhen kann. Bei pH > 8 kam es auch in Abwesenheit von GEH zur Elimination von Phosphonaten, wenn bestimmte Calcium-Phosphonat-Verhältnisse überschritten wurden. Dies ist auf die Ausfällung von Calcium-Phosphonat-Komplexen zurückzuführen. Weitere Untersuchungen mit DTPMP-haltigem Membrankonzentrat und dessen synthetischen Replikas zeigten, dass der Einfluss von Nitrat- und Sulfationen auf die Adsorptionsvorgänge vernachlässigbar war, (Hydrogen-)Carbonationen jedoch in Konkurrenz zur Adsorption von Phosphonaten und des ortho-Phosphats standen. Die Gegenwart von CaII hatte bis pH 8 einen positiven Einfluss auf die Adsorption der Phosphonate und ortho-Phosphat, wahrscheinlich durch die Bildung ternärer Komplexe. Unter Anwesenheit von CaII bei pH > 8 und von MgII bei pH > 10 kam es zu Ausfällungen. Die softwaregestützte Modellierung (PHREEQC Interactive 3) zur Berechnung von Speziation und Lösungsgleichgewichten zeigte, dass es sich dabei neben Calcium-DTPMP-Komplexen auch um anorganische Ausfällungen von Calcium, Magnesium und Phosphat handeln kann. Bei zusätzlicher Anwesenheit von (Hydrogen-)Carbonat kann es zu Ausfällungen von Calciumcarbonat und/oder Dolomit (CaMg(CO3)2) kommen. All diese Ausfällungen können die Phosphonat- sowie ortho-Phosphatkonzentrationen entweder durch direkte Fällung oder durch deren Adsorption an den Ausfällungen vermindern. Es ist davon auszugehen, dass sich das Membrankonzentrat aus Trinkwasseraufbereitungsanlagen durch seinen hohen Gehalt an CaII und MgII für die Adsorption an GEH anbietet, sofern potenzielle Ausfällungen den Adsorptions-/Desorptionsprozess nicht stören. In Experimenten mit Festbettsäulen wurde anschließend die Anwendbarkeit des GEH zur Behandlung von Membrankonzentrat aus der Trinkwasseraufbereitung über bis zu 24 Zyklen hinweg untersucht. Hierfür wurden zunächst Untersuchungen mit Phosphonat-aufgestocktem Reinstwasser durchgeführt, bevor in weiteren Experimenten mit Membrankonzentrat der Einfluss des pH-Wertes sowie verschiedener Regenerationsmethoden untersucht wurde. Experimente mit einer synthetischen Lösung bestehend aus Reinstwasser, DTPMP und einem Puffer zeigten, dass das GEH erfolgreich mit 1 M NaOH nahezu vollständig regeneriert werden konnte. Obwohl die Verwendung frischer NaOH in jedem Zyklus eine geringfügig bessere Regenerationseffizienz zeigte, wird aufgrund wirtschaftlicher und ökonomischer Vorteile die Wiederverwendung der NaOH empfohlen. Bei Untersuchungen mit Membrankonzentrat mit seinem Ausgangs-pH-Wert (pH ≅ 8) sank die Adsorptionseffizienz von ≥ 92 % in den ersten beiden Adsorptions-/Desorptionszyklen auf 29 % im achten Zyklus deutlich ab. Dies ist auf Ausfällungen von Calciumverbindungen an der Oberfläche des GEH zurückzuführen, die die Adsorptions-/Desorptionsprozesse stören. Um diese Störungen zu vermeiden, sollten die Ausfällungen entweder vermieden oder wieder entfernt werden. Um die Ausfällungen zu vermeiden, wurde der pH-Wert des Membrankonzentrats auf pH 6 abgesenkt. Hierdurch konnte zwar über 20 Zyklen hinweg stabil eine Adsorptionseffizienz von ≥ 90 % pro Zyklus erreicht werden, aufgrund der hohen Pufferkapazität des Membrankonzentrats ist jedoch von einer derart starken pH-Absenkung abzuraten. Experimente ohne pH-Absenkung, aber mit einem zusätzlichen sauren Regenerationsschritt zur Entfernung von Ausfällungen, zeigten eine kumulative Adsorptionseffizienz von > 95 % über 20 Adsorptions-/Desorptionszyklen. Die verwendete Salzsäure konnte dabei über den gesamten Zeitraum wiederverwendet werden, wenn deren pH-Wert durch eine Regelung stabil bei pH 2,5 gehalten wurde. Die Natronlauge des alkalischen Regenerationsschrittes konnte ebenfalls über alle Zyklen hinweg verwendet werden. Ein Austausch der Natronlauge konnte die Desorptionseffizienz jedoch erhöhen, die elektrische Leitfähigkeit konnte als Parameter für den Zeitpunkt ihres Austausches dienen. Während Calcium nur durch die saure Regeneration entfernt wurde, fanden sich DTPMP und ortho-Phosphat nahezu ausschließlich in der alkalischen Regenerationslösung. Demzufolge handelte es sich bei den Ausfällungen nicht um phosphorhaltige Calciumverbindungen, sondern um Calciumcarbonat. Die Rücklösung von Eisen aus dem GEH während der sauren und alkalischen Regeneration war vernachlässigbar. Die Ergebnisse dieser Arbeit zeigen, dass GEH ein geeignetes Adsorbens zur Elimination von Phosphonaten und ortho-Phosphat aus Membrankonzentrat aus der Trinkwasseraufbereitung ist. Durch die gezielte Behandlung von Membrankonzentrat kann der Phosphonateintrag in die Gewässer reduziert werden und somit ein Beitrag zum Umweltschutz und zum Erreichen der Ziele der Europäischen Wasserrahmenrichtlinie geleistet werden. Ein überschlägiger Kostenvergleich zeigt, dass die Adsorption an GEH in Bezug auf Kosten mit Fällung-/Flockungsprozessen konkurrenzfähig ist, obwohl beim Adsorptionsprozess eine bessere Eliminationsseffizienz erreicht werden kann.Item Open Access Advanced experimental methods for investigating flow-biofilm-sediment interactions(Stuttgart : Eigenverlag des Instituts für Wasser- und Umweltsystemmodellierung der Universität Stuttgart, 2022) Koca, Kaan; Wieprecht, Silke (Prof. Dr.-Ing.)Item Open Access Advancing XRCT techniques : from enhanced segmentation to improved temporal resolution and advanced micromodel fabrication for pore-scale studies(Stuttgart : Institute of Applied Mechanics, 2024) Lee, Dongwon; Steeb, Holger (Prof. Dr.-Ing)This study explores innovative strategies to overcome spatial and temporal constraints inherent in lab-based X-ray computed tomography (XRCT) for pore-scale studies of porous media. The research focuses on three main aspects: enhancement of segmentation techniques, improvement of temporal resolution, and integration of advanced micromodel fabrication with XRCT imaging. Firstly, an exploration is conducted into the refinement of segmentation workflows tailored for micro-fracture networks within Carrara marble XRCT datasets, which are often characterized by low-contrast imaging and ambiguous boundaries due to apertures below the spatial resolution limit. Through a meticulous examination of various methodologies, including machine learning-based algorithms, significant advancements in computation time and accuracy are demonstrated compared to conventional segmentation workflows. Notably, machine learning methods exhibit superior performance, even in scenarios where images are contaminated with noise, showcasing their potential for enhancing segmentation outcomes. Secondly, the challenge of temporal limitations in XRCT imaging, especially during the study of dynamic processes within porous media, is addressed. Conventional XRCT technologies often encounter a trade-off between image quality, including spatial resolution, and scanning time. To mitigate this constraint, innovative workflows leveraging machine learning algorithms are proposed to augment temporal resolution. By capturing pore space alterations during phenomena such as Enzyme Induced Calcite Precipitation (EICP) with heightened fidelity, these approaches offer invaluable insights into the dynamic fluid flow dynamics that govern porous media behavior. Thirdly, an integrated methodology that combines 3D micromodel fabrication with XRCT imaging techniques is introduced. This comprehensive approach enables the design, fabrication, and validation of 3D micromodels that faithfully replicate the pore-scale characteristics of natural porous media. Leveraging stochastic reconstruction algorithms and advanced 3D printing technologies, highly detailed micromodels with unprecedented spatial resolutions are created. These micromodels serve as invaluable tools for validating numerical simulations, elucidating pore-scale phenomena, and advancing the understanding of fluid dynamics in complex yet well-controlled porous media systems. The outlook suggests further advancements through the integration of multi-modal techniques, machine learning, and expansion of training datasets to overcome current limitations, offering unprecedented insights into complex fluid flow phenomena within porous media.Item Open Access Algorithmen zur nichtlinearen Stabilitätsanalyse dünnwandiger Strukturen(Stuttgart : Institut für Baustatik und Baudynamik, Universität Stuttgart, 2020) Roth, Steffen; Bischoff, Manfred (Prof. Dr.-Ing. habil.)Diese Arbeit befasst sich mit der direkten Berechnung kritischer Punkte dünnwandiger Strukturen, die durch eine von außen aufgebrachte Knotenverschiebung belastet sind. Hierfür werden die für Kraftlastfälle bereits verfügbaren Algorithmen zur direkten Berechnung von Durchschlags- und Verzweigungspunkten erweitert und ergänzt. Die bei dieser Methode notwendige Richtungsableitung der Tangentensteifigkeitsmatrix in Richtung des kritischen Eigenvektors wird in dieser Arbeit mit numerischen Ableitungsalgorithmen ermittelt, die auf hyperkomplexen Zahlenformaten beruhen. Hierfür wird ein ausführlicher Überblick über die in der Literatur vorhandenen Varianten mit ihren Vor- und Nachteilen gegeben. Im Gegensatz zu den klassischen Differenzenverfahren ermöglichen diese Methoden eine exakte und zuverlässige Ermittlung der Richtungsableitung. Um den Einfluss von Imperfektionen auf die Tragfähigkeit dünnwandiger Strukturen zu analysieren, werden die im ersten Teil der Arbeit vorgestellten Algorithmen erweitert. Hierbei werden zwei grundlegend verschiedene Ansätze verfolgt. In der ersten Variante stellen die Imperfektionen eine gegebene Größe dar. Durch eine effiziente, sich wiederholende Berechnung kritischer Punkte für eine Vielzahl an Imperfektionsformen oder- amplituden lassen sich damit kritische Pfade zuverlässig ermitteln. Bei der zweiten Methode werden die Imperfektionen als Unbekannte in das Gleichungssystem eingebracht. Durch eine Erweiterung des Gleichungssystems um eine zusätzliche Bedingung, die sich aus der Variation des Potentials nach den Imperfektionen ergibt, können ungünstigste geometrische Imperfektionsformen berechnet werden.Item Open Access Alkoholinjektion zur In-situ-Sanierung von CKW-Schadensherden in Grundwasserleitern : Charakterisierung der relevanten Prozesse auf unterschiedlichen Skalen(2014) Greiner, Philipp; Helmig, Rainer (Prof. Dr.-Ing.)Seit Beginn des 20. Jahrhunderts wurden chlorierte Kohlenwasserstoffe für industrielle Zwecke eingesetzt. CKW gelangten an vielen Orten durch unsachgemäßen Umgang, durch undichte Behälter oder durch Unfälle in den Untergrund. Aufgrund ihrer hohen Dichte und geringen Viskosität können sie durch die ungesättigte Bodenzone fließen und auch in die gesättigte Zone eindringen. Dort können sich diese DNAPL ausbreiten und in residualer Sättigung oder auf schlecht durchlässigen Schichten als Pools für viele Jahrzehnte im Untergrund verbleiben. Das Risiko, welches von CKW ausgeht, war früher noch nicht ausreichend bekannt bzw. wurde vielfach unterschätzt. Einige dieser Stoffe sind giftig und stehen in Verdacht, krebserregend und erbgutverändernd zu sein. Obwohl die Wasserlöslichkeit von DNAPL sehr gering ist, ist die Löslichkeit höher als die zulässigen gesetzlichen Grenzwerte in der Trinkwasserverordnung. Aufgrund ihrer Persistenz stellen CKW eine lang andauernde Gefährdung für das Grundwasser und somit auch für unser Trinkwasser dar. Die In-situ Sanierung von DNAPL Schadensfällen ist eine große Herausforderung. Herkömmliche einfache Spülverfahren können DNAPL aufgrund ihrer hohen Dichte und geringen Wasserlöslichkeit nicht effektiv aus einem Grundwasserleiter entfernen. Durch Alkohole kann die Löslichkeit von CKW in der wässrigen Phase erhöht werden. Alkohole verringern aber auch die Grenzflächenspannung zwischen der wässrigen Phase und der Schadstoffphase. Schon geringe Alkoholmengen können ausreichend sein, um eine unkontrollierte Mobilisierung des DNAPL in tieferliegende, nicht kontaminierte Bereiche eines Grundwasserleiters auszulösen. In der vorliegenden Arbeit wurde eine Strategie zur In-situ Sanierung von CKW verunreinigten Grundwasserleitern mittels Alkoholspülung entwickelt. Dazu wurde ein Alkoholcocktail hergestellt, der aus einem lipophilen Alkohol, einem amphiphilen Alkohol und Wasser bestand. Der lipophile Alkohol kann in die Schadstoffphase eindringen, dabei das Volumen des DNAPL vergrößern und somit dessen Dichte herabsetzen. Dadurch wird die Gefahr einer unkontrollierten, abwärts gerichteten Verlagerung des Schadstoffes verringert, die unter allen Umständen zu vermeiden ist. Der amphiphile Alkohol ist notwendig, um eine wasserlösliche Mischung zu erzeugen und damit das DNAPL-Alkohol-Wasser-Gemisch hydraulisch kontrollierbar zu machen. Als lipophiler Bestandteil für den Alkoholcocktail kamen mehrere Alkohole und Biodiesel in die engere Auswahl. Methanol, Ethanol und 2-Propanol kamen in einer Vorauswahl als mögliche amphiphile Komponente. Zur endgültigen Auswahl wurden die Mischungseigenschaften, weitere physikalische Eigenschaften wie Dichte und Viskosität, die Wassergefährdungsklasse, der Preis sowie die Sanierungseffizienz untersucht, diskutiert und bewertet. Als repräsentative Schadstoffe wurden die beiden chlorierten Kohlenwasserstoffe TCE und PCE ausgewählt. Zusätzlich zur Dichteverringerung der Schadstoffphase durch den Alkoholcocktail wurde der Einfluss der Strömung als zusätzliche Sicherung untersucht und ausgewertet. Dazu wurde die minimale, aufwärts gerichtete Geschwindigkeit, die einem Absinken des DNAPL entgegenwirkt, für verschiedene Bodenmaterialien und Schadstoffe in Säulenversuchen ermittelt. Neben der experimentellen Bestimmung wurde diese Mindestgeschwindigkeit auch anhand von dimensionslosen Kennzahlen abgeschätzt. Zur Verbesserung des Prozessverständnisses und der Steigerung der Sanierungseffizienz der Alkoholspülung wurde eine systematische Untersuchung der Einflussparameter wie Dichte und Volumenkontraktion, Viskosität, Grenzflächenspannung und Phasenaufteilung der Alkoholspülung anhand von klein- und mittelskaligen Versuchen durchgeführt. Die Messreihen der Einflussparameter bildeten die Datengrundlage für die Aufstellung und Verifizierung der konstitutiven Beziehungen. Dazu wurden bereits bestehende Ansätze optimiert und auf Grundlage der durchgeführten Versuche neue Gleichungen entwickelt. Nach der Erstellung eines konzeptionellen und mathematischen Modells konnten die konstitutiven Beziehungen in das numerische Modell MUFTE-UG implementiert werden. Die Validierung des Moduls erfolgte durch den Vergleich von Simulationsergebnissen mit durchgeführten Säulenversuchen. Die entwickelte Technologie wurde in einem Großbehälter der Versuchseinrichtung zur Grundwasser- und Altlastensanierung unter realitätsnahen Bedingungen und unter Feldskala erprobt. Zur Zugabe des Alkoholcocktails wurde ein Grundwasserzirkulationsbrunnen in den künstlichen Grundwasserleiter gerammt. Der injizierte Alkoholcocktail durchströmte den kontaminierten Bereich und löste den Schadstoff. Über den Grundwasserzirkulationsbrunnen konnten ca. 90% des Schadstoffes als Alkohol-Wasser-Schadstoffmischung wieder entnommen werden. Dieser Großversuch hat gezeigt, dass diese In-situ Sanierungstechnologie für eine effektive, schnelle und sichere Entfernung von DNAPL Schadensherden geeignet ist.Item Open Access Alternative Korrosionsschutzsysteme für Verbindungsmittel in der Befestigungstechnik bei Anwendung im Außenbereich(2019) Köse, Cenk; Nürnberger, Ulf (Prof. Dr.-Ing. habil. Prof. h.c.)In der Bautechnik werden Verbindungsmittel für eine Anwendung im Außenbereich aus optischen und/oder sicherheitstechnischen Gründen bevorzugt aus nichtrostendem Stahl eingesetzt. Diese bisherige nahezu ausschließliche Verwendung von nichtrostendem Stahl ist jedoch aus korrosionstechnischer Sicht nicht immer nachvollziehbar und eine Verwendung ist häufig auch unwirtschaftlich. Die Aufgabe der hier durchgeführten Forschung bestand deshalb darin, in den letzten Jahrzehnten neu entwickelte Überzüge wie galvanische ZnNi-Überzüge und ZnAl-Lamellenüberzüge auch unter Berücksichtigung von zusätzlichen Passivierungen und Deckbeschichtungen (Topcoats) im Hinblick auf eine Anwendung als Holzschraube im Holzbau, Selbstbohrschraube im Metallbau sowie Spreiz- und Kunststoffrahmendübel im Betonbau, unter Berücksichtigung von möglichen mechanischen Beeinflussungen beim Einbau und korrosiven Beeinflussungen während der Nutzung zu untersuchen. Verbindungsmittel aus nichtrostendem Stahl sowie feuerverzinktem und galvanisch verzinktem Stahl wurden zum Vergleich ebenfalls untersucht. Denn letztlich war es auch Ziel der Untersuchungen festzustellen, ob und wenn ja, unter welchen Außenanwendungen ein Schutz durch Zinküberzüge und die derzeit offerierten ZnNi-Überzüge und ZnAl-Lamellenüberzüge die erheblich teureren nichtrostenden Stähle ersetzen können. Anderseits galt es zu klären, ob bei den „legierten“ metallischen Überzügen auch unter baupraktischen Umgebungsbedingungen eine deutliche Verbesserung der Schutzwirkung gegenüber den herkömmlichen Verzinkungen (galvanische Verzinkung, Feuerverzinkung) besteht. Kleinteile wie Verbindungsmittel sind wirtschaftlich nur in Trommeln mit den genannten Überzügen zu schützen. Deshalb stand die sog. „Trommelware“ im Vordergrund der Untersuchungen. Seitens der Beanspruchung wurde die Korrosionsschutzwirkung der genannten Schutzsysteme unter bautechnisch relevanten Bedingungen wie Konstantklima (20 °C und etwa 84 bzw. 100 % relative Luftfeuchte), bei Auslagerung unter atmosphärischen Bedingungen (Stadtatmosphäre, Meeresatmosphäre) sowie in einem Kurzbewitterungstest (Salzsprühtest) vergleichend festgestellt. Der Salzsprühtest deshalb, weil in der Korrosionsschutztechnik Aussagen zum langzeitigen Korrosionsschutzverhalten der vorgenannten metallischen Überzüge, einschließlich zusätzlicher Passivierungen und Deckbeschichtungen, nahezu ausschließlich aus Ergebnissen von labormäßig durchgeführten Schnelltests, meist aus dem Salzsprühtest, abgeleitet werden. Unter den Korrosionsbedingungen Konstantklima und Naturversuche wurden die Verbindungsmittel stets im eingebauten Zustand ausgelagert. Im Salzsprühtest wurden „nackte“ Proben geprüft, wobei auch mechanische Beanspruchungen, wie sie typisch für den Einbau sind, berücksichtigt wurden. Ergänzend wurden auch die korrosiven Randbedingungen in der umgebenden Außen- und Bohrlochatmosphäre (bei Dübeln) sowie in den verwendeten Baustoffen Holz (Fichte ohne und mit Imprägnierung, Eiche) und Normalbeton untersucht und in die Bewertung einbezogen. Die Ergebnisse der Naturversuche zeigen, dass die Feuerverzinkung insgesamt gesehen im Vergleich zu den anderen Korrosionsschutzüberzügen den besten Korrosionsschutz aufweist. Die Ergebnisse der Untersuchungen haben weiterhin gezeigt, dass bei geeigneter Konzeption galvanischer Zink- und Zink-Nickel-Überzüge sowie ZnAl-Lamellenüberzüge ein langzeitiger Schutz gegenüber Stahlkorrosion erreicht werden kann. Insbesondere in Stadtatmosphäre sind sinnvoll konzipierte Überzüge (siehe unten) im Regelfall ausreichend und können auch nichtrostende Stähle ersetzen. Folgende Anforderungen sind an die genannten Überzüge zu stellen: Beide galvanischen Überzüge müssen eine ausreichende Schichtdicke vorweisen (je nach Umgebungsverhältnisse Schichtdicken um etwa i.M. 10 bis 15 µm), wobei bereits Reinzinküberzüge aus hiesiger Sicht einen langzeitigen Korrosionsschutz bieten. Als Trommelware hergestellte ZnNi-Überzüge sind wegen vorhandener Risse, Abplatzungen und Nullstellen nicht grundsätzlich besser als Zinküberzüge. Für einen langzeitigen Korrosionsschutz bedürfen ZnAl-Lamellenüberzüge, die im Trommelverfahren auf Verbindungsmitteln appliziert werden (hohe Schichtdickenschwankungen, Nullstellen), einen Haftvermittler (galvanische Unterzinkung und/oder Phosphatierung). Weiterhin müssen ZnAl-Lamellenüberzüge eine ausreichende Schichtdicke von etwa i.M. 10 µm vorweisen. Passivierungen und Deckbeschichtungen für galvanische Überzüge sowie Deckbeschichtungen für ZnAl-Lamellenüberzüge führen bei Trommelware zu keiner wesentlichen systematischen Verbesserung des Korrosionsschutzes. Bei den vergleichenden Untersuchungen im Salzsprühtest und im Naturversuch (Stadt- und Meeresatmosphäre) wurde festgestellt, dass die im Salzsprühtest ermittelten Ergebnisse bezüglich der Qualität und Quantität der Schutzwirkung nicht mit dem Korrosionsverhalten unter realistischen Bedingungen (der Baupraxis) übereinstimmen. Die Ursache dieses Verhaltens liegt darin begründet, dass im Salzsprühtest wegen Dauerbefeuchtung und hoher Chloridbelastung der Korrosionsmechanismus gegenüber dem Verhalten in der Baupraxis verändert wird. Das betrifft sowohl den Metallabtrag (Möglichkeit der Bildung von korrosionsschützenden Deckschichten) als auch die Möglichkeit eines kathodischen Korrosionsschutzes (dieser funktioniert nur im Salzsprühtest). Außerdem werden bei Verbindungsmitteln der Bautechnik baustoffseitige und verarbeitungsbedingte Einflüsse (Beschädigungen des Überzuges) im Salzsprühtest nicht ausreichend erfasst. Deshalb ist nach hiesigen Untersuchungen der Salzsprühtest weder geeignet Materialien oder unterschiedliche metallische Überzüge miteinander zu vergleichen, noch hieraus Aussagen für deren Langzeitverhalten unter natürlichen Umgebungsbedingungen abzuleiten. Aus dem Salzsprühtest kann bei als Trommelware hergestellten Überzügen von Verbindungsmitteln u. U. sogar ein falsches Verhalten im Hinblick auf den Langzeitschutz unter natürlichen Umgebungsbedingungen abgeleitet werden.Item Open Access Ammoniumrückgewinnung aus Schlammwasser mittels Ionenaustausch an Klinoptilolith(Stuttgart : Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart ISWA, 2021) Wasielewski, Stephan; Steinmetz, Heidrun (Prof. Dr.-Ing.)Da es eine große Gefahr für Gewässer darstellt, wird im Abwasser enthaltenes Ammonium unter hohem Energieaufwand entfernt. In Kläranlagen mit anaerober Schlammstabilisierung wird die biologische Stickstoffelimination durch hochkonzentriertes Schlammwasser, das bei der Entwässerung von Faulschlamm anfällt, zusätzlich belastet. Die Produktion von Ammoniak, der ungeladenen Form des Ammoniums, der für die Düngemittelproduktion benötigt wird, ist sehr energieintensiv. Eine mögliche Lösung sowohl für die sichere Behandlung des ammoniumreichen Schlammwassers als auch für die energieintensive Herstellung (stickstoffbasierter) Düngemittel ist die Rückgewinnung von Ammonium aus dem Schlammwasser. In dieser Arbeit werden verfahrenstechnische Parameter zur Entfernung von Ammonium aus Schlammwasser mittels Ionenaustausch an dem natürlichen Zeolith Klinoptilolith (CLI) und dessen anschließende Regeneration ermittelt, mit dem Ziel eine stöchiometrische Ammoniumsulfatlösung (ASL) zu gewinnen. Die Verwendung des ammoniumhaltigen Eluats als Düngemittellösung im Agrarsektor, etwa durch gezielte Ausbringung auf Ackerflächen oder als flüssige Düngemittellösung in Hydroponik-Kulturen, ist denkbar. CLI war bereits Gegenstand vieler Untersuchungen, da es sehr selektiv gegenüber Ammonium ist und eine hohe Aufnahmekapazität besitzt. Um einen schnellen Sorptionsprozess zu erreichen, wurden daher pulverförmige CLI mit einer Partikelgröße von 0-200 µm verwendet. Es wurden drei aus der Slowakei stammende CLI, EcoZeo 20, Micro 200 und CCP 20, auf ihre Eignung als Sorbens untersucht. Aufgrund seiner Eigenschaften (hohe Kationenaustauschkapazität, hohe Ammoniumaufnahmekapazität, schnelle Sorption) wurde das Sorbens CCP 20 für die weiteren Untersuchungen ausgewählt. Bei isothermen Adsorptionsversuchen von Ammonium an CCP 20 aus zwei Schlammwässern (718-967 mg/L NH4 N) wurde eine um 13 % (16,1 mg/g aus SW1) bzw. 18 % (15,3 mg/g aus SW2) geringere Beladung im Vergleich zu matrixfreier Sorptivlösung (18,8 mg/g aus NH4Cl) erreicht. Nach 30 min Kontaktzeit (bei einer Temperatur von 34 °C) waren zwischen 81 % (SW1), 89 % (SW2) und 91 % (NH4Cl) der maximal möglichen Beladung erreicht. Am besten wurde die Sorptionskinetik für beide Matrices durch das Modell der intrapartikulären Diffusion beschrieben. Zur Regeneration des beladenen Sorbens wurde Na2SO4-Lösung mit unterschiedlichen Stoffmengen an NaOH eingesetzt. Um eine möglichst hohe Ammoniumkonzentration im Eluat zu erreichen wurde ein hoher Massenanteil (ω = 284 g/kg), d. h. der Anteil der Sorbensmasse in der Mischung von Sorbens und der Regenerationslösung, gewählt. Unter Einhaltung einer Kontaktzeit von 10 min konnte aus (bis zu 13,5 mg/g) beladenem Sorbens, mit 0,25 n(Na2SO4)/n(NH4+ads) zusammen mit 0,75 n(NaOH)/n(NH4+ads) eine ASL eluiert werden. Für zehn Zyklen wurde das Sorbens mit Ammonium aus matrixfreier NH4Cl-Lösung bzw. SW2 beladen und anschließend regeneriert. Dabei konnte eine ASL mit einer Ammoniumkonzentration von 1780 mg/L (NH4Cl) bzw. 1500 mg/L (SW2) eluiert werden. Da keine biologischen Vorgänge in dem Verfahren eingebunden sind, ist die Behandlung industrieller Abwässer mit hohen Ammoniumkonzentrationen in Kombination mit hemmenden Stoffen denkbar.