Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
83 results
Search Results
Item Open Access Climate sensitivity of a large lake(2013) Eder, Maria Magdalena; Bárdossy, András (Prof. Dr. rer. nat. Dr.-Ing.)Lakes are complex ecosystems that are on the one hand more or less enclosed by defined borders, but are on the other hand connected to their environment, especially to their catchment and the atmosphere. This study is examinig the climate sensitivity of large lakes using Lake Constance as an example. The lake is situated in Central Europe at the northern edge of the Alps, at the boundary of Austria, Germany and Switzerland. The maximum depth is 235 m, the total surface area is 535 km³ and the total volume 48.45 km². The numerical simulations in this study have been performed with the lake model system ELCOM-CAEDYM. The model system was validated using three different data sets: Observations of a turbid underflow after a flood flow in the main tributary, a lake-wide field campaign of temperature and phytoplankton, and long term monitoring data of temperature and oxygen in the hypolimion. The model system proved to be able to reproduce the effects of a flood flow in the largest tributary,. A huge turbid underflow was observed flowing into the main basin after an intense rain event in the Alps in August 2005. A numerical experiment showed the influence of the earth’s rotation on the flow path of the riverine water within the lake. The model also reproduced the temperature evolution and distribution and to some extent the phytoplankton patchiness measured in spring 2007 during an intensive field campaign. The model reproduced the measured time series of temperature and oxygen in the deep hypolimnion measured in the years 1980-2000. This indicates, that the vertical mixing and the lake’s cycle of mixing and stratification was reproduced correctly. Based on the model set-up validated with long term monitoring data, climate scenario simulations were run. The main focus was on temperature and oxygen concentrations in the hypolimnion, the cycle of stratification and mixing, and the heat budget of the lake. The meteorological boundary conditions for the climate scenario simulations were generated using a weather generator instead of downscaling climate projections from Global Climate Models. This approach gives the possibility to change different characteristics of the climate independently. The resulting lake model simulations are ”what-if”-scenarios rather than predictions, helping to obtain a deeper understanding of the processes in the lake. The main results can be summarized as follows: An increase in air temperature leads to an increase in water temperature, especially in the upper layers. The deep water temperature increases as well, but not to the same extent as the temperature of the epilimnion. This results in an increased vertical temperature difference. Due to the non-linear shape of the temperature-density curve, the difference in density grows even stronger than the temperature difference. This results in enhanced stratification stability, and consequently in less mixing. Complete mixing of the lake becomes more seldom in a warmer climate, but even in the scenario simulations with air temperature increased by 5 °C, full circulation took place every 3-4 years. Less complete mixing events lead to less oxygen in the hypolimnion. Additionally, as many biogeochemical processes are temperature dependant, the oxygen consumption rate is larger in warmer water. In the context of this study, climate variability is defined as episodes with daily average air temperatures deviating from the long-term average for this day of year. The episodes can be described by their duration in days and their amplitude in °C. Changes in climate variability can have very different effects, depending on the average air and water temperatures. The effects are stronger in lakes with higher water temperatures: For the hypolimnetic conditions, the seasonality in warming is important: Increasing winter air temperatures have a much stronger effect on the water temperatures in the lake than increasing summer temperatures. The combined effects of a warmer climate and higher nutrient concentrations enhances oxygen depletion in the hypolimnion. Finally, it is discussed, to what extent the results of this study are transferrable to other lakes. The reactions of Lake Constance to climate change are determined by the physical, geographical and ecological characteristics of the lake. Hydrodynamic reactions are defined by the mixing type, water temperatures and the residence time of the water in the lake. Furthermore it is important that the lake is almost never completely ice-covered, and that there are only minor salinity differences. The reactions of the ecosystem are determined also by the oligotrophic state of the lake. Results of this study thus can be transferred to other deep, monomictic, oligotrophic fresh water lakes, as for example the other large perialpine lakes of glacial origin.Item Open Access Die Quellstärke in der Sickerwasserprognose : Möglichkeiten und Grenzen von Labor- und Freilanduntersuchungen(2010) Mackenberg, Sylvia; Metzger, Jörg W. (Prof. Dr. rer. nat. habil.)Den Umgang mit kontaminierten Böden und Standorten im Rahmen des Boden- und Grundwasserschutzes regeln in Deutschland das Bundes-Bodenschutzgesetz und die Bundes-Bodenschutz- und Altlastenverordnung (BBodSchV). Die Durchführung einer Sickerwasserprognose dient der Gefährdungsabschätzung einer Grundwasserkontamination durch Bodenbelastungen. Gemäß der BBodSchV umfasst sie Untersuchungen zur Mobilisierbarkeit von Stoffen durch das Bodensickerwasser sowie eine Transportbetrachtung der gelösten Stoffe bis zum Ort der Beurteilung, die Grenze zwischen der ungesättigten und der gesättigten Bodenzone. Neben dieser bundesweit geltenden Verordnung existieren landesinterne Regelungen sowie Verfahrensvorschläge in der Baustoffbranche zum Umgang mit Baustoff und Recyclingprodukten. Allen Fragestellungen gemein ist die Abschätzung der im Sickerwasser gelösten Stoffkomponenten sowie ihrer Konzentrationen nach dem Passieren eines kontaminierten Materials, was als Quellstärke bezeichnet wird. Ziel der vorliegenden Arbeit war es, Aussagen über die Vergleichbarkeit der in diesen Testverfahren erzielbaren Ergebnisse abzuleiten. Weiterhin stand die potenzielle Übertragbarkeit von Ergebnissen, die in Laborversuchen zur Bestimmung der Quellstärke im Rahmen einer Sickerwasserprognose ermittelt werden, auf reale Verhältnisse im Fokus der Untersuchungen. Basierend auf einer Beurteilung der Praxisrelevanz der einzelnen Laborverfahren sollte abschließend ein Verfahrensvorschlag zur Bestimmung der Quellstärke erarbeitet werden: In Batchversuchen wurden der Einfluss des Wasser-Feststoffverhältnisses (WFV) auf die qualitative und quantitative stoffliche Zusammensetzung des Eluats sowie die potenzielle Mobilisierbarkeit von Schadstoffe untersucht. Die Erhöhung des WFV bei anorganischen Stoffkomponenten führte in der Regel zu einer Verringerung der Stoffkonzentration. Im Gegensatz dazu wurden bei Materialien, die mit polycyclischen aromatischen Kohlenwasserstoffen (PAK) kontaminiert waren, unabhängig vom jeweiligen WFV immer konstante PAK-Konzentrationen gemessen. Vergleichbare Ergebnisse wurden in Laborsäulenversuchen bei voller Wassersättigung erzielt. Aufgetragen über das WFV nehmen die Konzentrationen der meisten anorganischen Stoffkomponenten bei stationären Versuchsbedingungen mit zunehmender Versuchsdauer ab. Die PAK-Konzentrationen wiesen konstante Werte auf. Im Rahmen der Untersuchungen zum Einfluss der Schichthöhe wurde die absolute Kontaktzeit zwischen dem Eluat und dem Untersuchungsmaterial (Aufenthaltsdauer des Eluats in der Säule) variiert. Bei gleichem WFV entstanden keine Konzentrationsunterschiede aufgrund einer größeren Schichthöhe. Auch die Verringerung der Flussrate und damit eine Erhöhung der spezifischen Kontaktzeit (direkter Kontakt zwischen Eluat und Bodenmatrix pro Wegstrecke) führte bei anorganischen Schadstoffen nur in wenigen Fällen zu einer Konzentrationsänderung. Für PAK wurden unterschiedliche Ergebnisse in Abhängigkeit des pH-Werts erzielt. Bei einem pH-Wert von 8 wurde eine Konzentrationsabnahme um mehrere Größenordnungen registriert, bei einem pH-Wert von 12 zeigte sich keine Änderung der Konzentration. Diese Unterschiede wurden auf mikrobiologische Aktivität bei einem pH-Wert von 8 zurückgeführt, die in einem basischen Milieu weitestgehend unterbunden wird. Um die Übertragbarkeit der Ergebnisse von Laboruntersuchungen auf Feldsituationen beurteilen zu können, wurden Versuche mit Laborlysimetern und Freilandsäulen unter Teilsättigung durchgeführt. Für PAK führen Laborversuche häufig zu einer Überschätzung des Gefährdungspotenzials, da ein biologischer Abbau bei vollständiger Wassersättigung stark gehemmt wird. Die im Labor ermittelten Konzentrationen anorganischer Stoffkomponenten stimmten größenordnungsmäßig mit den Konzentrationen der Freilandversuche überein. Infolge natürlich wechselnder Niederschläge und Temperaturschwankungen wichen die im Freiland gemessenen Konzentrationen bei gleichem WFV immer wieder von den Konzentrationen der Laborversuche unter stationären Bedingungen ab. Basierend auf den Ergebnissen der Untersuchungen wurde ein Vorschlag für ein praktisches Verfahren zur Bestimmung der Quellstärke ausgearbeitet, der die Aspekte Wirtschaftlichkeit und Praktikabilität der Durchführung, insbesondere im Hinblick auf eine akzeptable Versuchsdauer, vereint. Das stufenweise Vorgehen unterscheidet zwischen Materialien die mit anorganischen Schadstoffen bzw. Materialien die mit PAK belastet sind. Zu Beginn der Quellstärkebestimmung von Materialien mit anorganischen Schadstoffen stehen einfache Batchversuche. In Abhängigkeit der daraus erzielbaren Ergebnisse folgen gegebenenfalls Laborsäulenuntersuchungen mit variierbaren Fließbedingungen. Die Quellstärke PAK-haltiger Materialien wird in Abhängigkeit ihres jeweiligen pH-Werts ebenfalls anhand einfacher Batchversuche oder anhand von aufwändigeren Laborsäulenuntersuchungen mit einer Wasserteilsättigung der eingebauten Materialschicht ermittelt.Item Open Access Statistical downscaling of extremes of precipitation in mesoscale catchments from different RCMs and their effects on local hydrology(2011) Alam, Muhammad Mahboob; Bardossy, Andras (Prof. Dr. rer. nat. Dr. -Ing.)Global climate models are the only available comprehensive tools for studying the affects of climate change on our earth in terms of changes in different meteorological and hydrological variables in future. Precipitation and temperature are two of the most important meteorological variables with regards to their affects on other meteorological (e.g. humidity, evaporation etc.) and hydrological (e.g. river runoff) variables and on human life (e.g. food fibre production, economy etc.). Among other important local and large scale phenomenon that affects the occurrence and amount of precipitation (and severity of temperature), geographical and topographical conditions perhaps play most important role in the behaviour of these variables in certain area. This makes the two variables more or less local phenomenons that need to be specifically studied for each area of interest individually. Unfortunately the scale at which global climate models (GCMs) operate is too large for any meaningful study to be performed related to future patterns of these two variables on local scale. Different methodologies have thus been developed to downscale (i.e. to increase the resolution of) GCM data to the local scale. The two broad categories of downscaling methodologies are statistical and dynamical downscaling. In statistical downscaling methodology, an attempt is made to develop a relationship between large scale GCM modelled variable (called predictor) and local scale observed/measured variable (called predictant). Assuming that in future this relationship will hold, the relationship is used to predict local scale predictand for future simulated scenarios of predictor. In dynamical downscaling (the so called regional climate models (RCMs)) on the other hand, an attempt is made to embed a complete physical model of more or less the same complexity as GCM, in a GCM and upon receiving values from GCM at its boundaries, recalculate all possible physical formulations at a much finer scale. The local conditions are thus taken in to account and the results are believed to be more suitable for local scale studies. Both downscaling methodologies have been extensively applied in climate change and impact studies around the world with varying degree of success and new techniques are consistently being developed to improve upon them. Both methodologies have associated advantages and disadvantages. While statistical downscaling is computationally much cheaper than RCMs, statistical downscaling is based on basic assumption of stationarity which is sometimes hard to justify. RCMs on the other hand although attempt to solve physical equations at local scale, does also inherit bias from the parent GCM. This thesis presents statistical downscaling methodology which attempts to correct for the biases that are inherited by different RCMs. Three different RCMs are considered for German part of Rhine basin and using bias correction methodology based on correction of quantiles of precipitation (and temperature for some studies), new scenarios of precipitation are developed. Further, a distributed version of conceptual hydrological model HBV is calibrated and validated for German part of Rhine basin and raw and downscaled RCM scenarios of precipitation are fed into the model to ascertain the future hydrological regime in face of climate change for this important river. The downscaling procedure briefly discussed above was applied in two ways. In the first case the statistical downscaling methodology was performed on RCM data without considering any constraint during quantile-quantile exchange between RCM control and scenario runs. In the second case, the quantile-quantile exchange was conditioned on occurrence of certain circulation pattern. It was briefly discussed above how precipitation (occurrence and amount) is conditioned by certain phenomenon. In addition to geographical and topographical location, precipitation also depends upon large scale circulation patterns. Thus it was assumed that conditioning the downscaling methodology also on circulation patterns would bring about better results. To realize above concept, classification of circulation patterns is performed. Fuzzy rule based classification methodology is used to classify circulation patterns. Two new methodologies of classification of circulation patterns are presented in this thesis. One is based on low flow conditions in rivers in the study area and the other is based on clustering of precipitation stations. The new classification methodology is believed to provide better classification of circulation patterns in that the difference between the individual classes is enhanced and similarity among the same class intensified. A classification analysis measure called wetness index was developed and used to identify critical circulation patterns among the classified circulation patterns. Critical circulation patterns were identified for extreme wet and dry conditions and it was shown that all extreme cases of floods and droughts are caused by identified critical CPs. This thesis also presents and applies another statistical downscaling methodology based on multivariate autoregressive model of order 1 (one). The methodology makes use of the classification of circulation patterns described above. The parameters of the autoregressive model depend upon the circulation patterns. The methodology is used for number of head catchments in southern and eastern Germany. Head catchments by definition have very quick response time to any significant precipitation event. They contribute quickly to the surface runoff and if they are head catchments of larger rivers, may also result in bigger flood events. Downscaling of precipitation was performed for these catchments by using mean sea level pressure (MSLP) as predictor and local station precipitation as predictant. The model was developed such that ensemble of daily precipitation could be produced. Thereby enabling one to estimate associated uncertainty. Finally drought analysis are performed for German part of Rhine basin using Palmer drought severity index. A FORTRAN routine is developed which can calculate different kind of drought indices such as Palmer drought severity index, Palmer hydrological drought index, and monthly moisture anomaly index for certain catchment. The program developed is also capable of simultaneously mapping the results. The mapping of results makes it possible to ascertain the severity of drought over the larger area. The analysis of drought is performed for observational gridded data set and for control and A1B scenarios of three different RCMs.Item Open Access Large-scale high head pico hydropower potential assessment(Stuttgart : Eigenverlag des Instituts für Wasser- und Umweltsystemmodellierung der Universität Stuttgart, 2018) Schröder, Hans Christoph; Wieprecht, Silke (Prof. Dr.-Ing.)Due to a lack of site-related information, Pico hydropower (PHP) has hardly been a projectable resource so far. This is particularly true for large area PHP potential information that could open a perspective to increase the size of development projects by aggregating individual PHP installations. The present work is extending the capabilities of GIS based hydropower potential assessment into the PHP domain through a GIS based PHP potential assessment procedure that facilitates the discrimination of areas without high head PHP potential against areas with PHP potential and against areas with so called “favorable PHP potential”. The basic unit of the spatial output is determined by the underlying PHP potential definition of this work: a standardized PHP installation and the required hydraulic source, together called standard unit, are located on an area of one square kilometer. The gradation of the output is a consequence of the verification techniques. Several large area PHP potential field assessment methods, based on contemplative analysis techniques, are developed in this work. Field assessments were conducted in Yunnan Province/China, Costa Rica, Ecuador and Sri Lanka. The aim for all field assessments is to get a comprehensive view on the PHP potential distribution of the entire country/province. Application of the GIS based PHP potential assessment procedure is aimed at the global tropical and subtropical regions.Item Open Access Multi-objective automatic calibration of hydrodynamic models - development of the concept and an application in the Mekong Delta(2011) Nguyen, Viet-Dung; Bárdossy, András (Prof. Dr. rer.nat. Dr.-Ing. habil.)Automatic and multi-objective calibration of hydrodynamic models is still underdeveloped, in particular, in comparison with other fields such as hydrological modeling. This is for several reasons: lack of appropriate data, the high degree of computational time demanded, and a suitable framework. These aspects are aggravated in large-scale applications. There are recent developments, however, that improve both the data and the computing constraints. Remote sensing, especially radar-based techniques, provide highly valuable information on flood extents, and in case high precision Digital Elevation Models (DEMs) are present, also on spatially distributed inundation depths. With regards to computation, the use of parallelization techniques brings significant performance gains. In the presented study, we build on these developments by calibrating a large-scale one-dimensional hydrodynamic model of the whole Mekong Delta downstream of Kratie in Cambodia: We combine in-situ data from a network of river gauging stations, i.e. data with high-temporal but low-spatial resolution, with a series of inundation maps derived from ENVISAT Advanced Synthetic Aperture Radar (ASAR) satellite images, i.e. data with low-temporal but high-spatial resolution, in a multi-objective automatic calibration process. It is shown that this kind of calibration of hydrodynamic models is possible, even in an area as large-scale and complex as the Mekong Delta. Furthermore, the calibration process reveals deficiencies in the model structure, i.e. the representation of the dike system in Vietnam, which would be difficult to detect by a standard manual calibration procedure. In the last part of the dissertation the established hydrodynamic model is combined with flood frequency analysis in order to assess the flood hazard in the Mekong Delta. It is now common to state that climate change can lead to a change in flood hazard. Starting from this assumption, this study develops a novel approach for flood hazard mapping in the Mekong Delta. Typically, flood frequency analysis assumes stationarity and is limited to extreme value statistics of flood peaks. Both, the stationarity assumption and the limitation to univariate frequency analysis remain doubtful in the case of the Mekong Delta, because of changes in hydrologic variability and because of the large relevance of the flood volume for the impact of flooding. Thus, besides the use of the traditional approach for flood frequency analysis, this study takes non-stationarity and bivariate behavior into account. Copula-based bivariate analysis is used to model the dependence and to generate pairs of maximum discharge and volume, by coupling their marginal distributions to gain a bivariate distribution. In addition, based on cluster analysis, groups of characteristic hydrographs are identified and synthetic flood hydrographs are generated. These hydrographs are the input for the calibrated large-scale hydrodynamic model of the Mekong Delta, resulting in flood hazard maps for the whole Mekong Delta. To account for uncertainty within the hazard assessment, a Monte Carlo framework is applied yielding probabilistic hazard maps.Item Open Access Study of topographic effects on hydrological patterns and the implication on hydrological modeling and data interpolation(2011) Liu, Min; Bárdossy, András (Prof. Dr. rer. nat. Dr.-Ing.)Hydrological patterns demonstrate the spatial and temporal variability and organization of hydrological responses, and contain rich information of underlying hydrological processes. Observed patterns, or patterns interpolated properly from point data are ideal sources for distributed model input and perfect references for model calibration and validation, whereas simulated patterns can reflect the spatial land use and climate change effects and provide insight into the underlying hydrological processes. Investigation of these patterns can deepen our understanding of catchment hydrology, so that we can improve our interpolation methods and hydrological models to produce more realistic patterns for decision making in water resources management. Hydrological patterns may appear to be random, but in many cases they are highly organized and exhibit deterministic structures, which are superimposed with some random variation, because the patterns of the fundamental driving forces for the catchment evolvement - solar radiation, wind, and precipitation, are strongly related to topographic features - elevation, aspect and slope. Topographic variation exists at different scales: at large scale, earth surface features are caused mainly by geological movements and glacial carving, and referred as macro-topography in this monograph, whereas at small scale, micro-topography caused by gully incision and other secondary processes dominates. The effects of topography on catchment process may change with the scale, depending on the process. In this monograph, the direct topographic dependence of catchment processes, such as radiation, wind, drainage network, and precipitation, are referred as primary topographic effects, based on which the secondary topographic effects governing the spatial patterns of evapotranspiration (ET), soil moisture content (SMC), snow melting, soil properties, vegetation etc., can be derived. The main objective of the study is to illustrate how the topography affects these hydrological patterns at different scales through its primary and secondary effects, and how the understanding of spatial processes can advance hydrological modeling concept and practice as well as improve spatial data interpolation. To assure the generality of the research, this study applies globally available data wherever possible. The work has also exploited the three main general research methodologies in hydrology: physically-based modeling, conceptual models, and statistical analysis. Through the study of the 6 topographic dependent patterns - radiation, wind, precipitation, ET, soil moisture, and snow melting, this study delivers two important messages: first, among all the elements within a catchment, topography is the major source of variability, and this variability can be quantified to a large extent; second, pattern investigation may reveal the hidden principles of hydrological processes, is therefore key to the iterative loop of observation-understanding-modeling in hydrological study. Because for part of the study, physically justified modeling approach and globally available data are used, the methods are applicable to other areas, thus it also contributes the PUB initiation.Item Open Access Analyse des Zuppinger-Wasserrades : hydraulische Optimierungen unter Berücksichtigung ökologischer Aspekte(Stuttgart : Eigenverlag des Instituts für Wasser- und Umweltsystemmodellierung der Universität Stuttgart, 2018) Harten, Matthias von; Wieprecht, Silke (Prof. Dr.-Ing.)Das Zuppinger-Wasserrad stammt in seiner Form aus der Mitte des 19. Jahrhunderts und stellt für Standorte mit großem Durchfluss und niedriger Fallhöhe weiterhin den Stand der Technik dar. Seine Bauart ermöglicht zudem einen Einsatz an Standorten mit stark veränderlichen Durchflüssen und Unterwasserständen. Charakteristisch für diesen Typ Wasserrad ist die Schaufelform: die Form der weit ins Radinnere gezogene Wasserradschaufel entspricht einer Evolvente mit anschließender Geraden. In der Literatur werden Wirkungsgrade von Zuppinger-Wasserrädern von ca. 80% erwähnt. Im Zentrum der vorliegenden Arbeit stehen Optimierungspotentiale, um den Wirkungsgrad erhöhen und damit die Leistungsausbeute steigern sowie Optimierungspotentiale, um die Durchgängigkeit für Fische zu verbessen. Zunächst werden die Entwicklung sowie die Konstruktion und Dimensionierung des Zuppinger-Wasserrades beschrieben. Im Anschluss daran warden Optimierungspotentiale einerseits durch neue Forschungsansätze und andererseits durch einen Technologietransfer aus anderen Energiewandlern abgeleitet. Die Durchführung und Analyse der Optimierungspotentiale erfolgte an einem Versuchsstand an der Hochschule Darmstadt mit einem maßstabsgetreuen Wasserradmodell, welches im Rahmen der vorliegenden Arbeit entwickelt und aufgebaut wurde. Die systematischen hydraulischen Versuche zeigen, dass der Wirkungsgrad durch Änderungen im Betrieb des Wasserrades und dessen Bauweise auf über 85% und die Leistung um bis zu 30% zu steigern sind. Besonders hervorzuheben sind die Schaufelteilung sowie ein Radboden, da diese die größten Zuwächse generieren. Eine Veränderung der Drehzahl kann ebenfalls die Leistungsausbeute steigern und möglicherweise die Durchgängigkeit verbessern. Ein Betrieb über einen Drehzahlbereich würde den Wirkungsgrad über ein breiteres Durchflussspektrum auf einem höheren Niveau halten. Aus den ökologischen Optimierungen werden hinsichtlich der Leistungsausbeute folgende Erkenntnisse gezogen: geringe Auswirkungen auf die Leistungsausbeute durch ein erhöhtes Spaltmaß; Leistungseinbußen durch die Demontage von äußeren Latten und die Reduzierung der Schaufelanzahl.Item Open Access Risk quantification and management in water production and supply systems(2014) Enzenhöfer, Rainer; Nowak, Wolfgang (Jun.-Prof. Dr.-Ing.)97% percent of the world’s usable freshwater is stored as groundwater, which is a limited resource. Thus, its protection and management is a world-wide major societal, health-related, ecologic and economic concern. The constant demand for clean and safe drinking water is in direct conflict with social and economic land-use claims. Therefore, water managers are challenged to know (1) what kind of hazards exist within the water catchment, (2) how these hazards can be controlled and (3) knowing that they are controlled. Thus, water management shifts from fixed and thus passive wellhead delineation zones to active risk management. Despite this desired change, a clear definition on dealing with uncertainties in risk assessment and management for drinking water supply systems is still missing. Nevertheless, uncertainty analysis is an integral part of risk assessment. Also, national guidelines in the US promulgates cumulative probability distribution functions to assess confidence bounds, regarding the risk prediction. These uncertainties are, for example, a result of measurement error, model conceptualization and parameterization. Therefore, it is necessary to quantify uncertainty as part of risk assessment. Risk assessment addresses three questions (1) What can happen?, (2) What is the probability that it happens? and (3) What is the damage after it happens? Thus, in general risk is a combination of uncertainty and damage. Unfortunately, only few comprehensive risk concepts exist for drinking water supply systems that address risk from source to receptor, while considering uncertainty and physically-based modeling aspects. Modularized, transport-based and probabilistic risk quantification models coupled with a rational, and stakeholder-objective decision analysis framework for groundwater supply systems do not yet exist. Only with this type of comprehensive risk model, stakeholders are able to estimate risk at the receptor level most accurately. This supports stakeholders to take risk-informed, implementable, transparent, and evidence-based decisions in an uncertain environmental framework and pushes water governance to the next higher level. Therefore, this work presents a new methodological risk concept within a Bayesian framework to quantify and manage risk within groundwater resources for drinking water supply, utilizing smart decision analysis concepts based on multiple stakeholder-objectives. The risk concept is quantitative, flexible, probabilistic and physically-based. This quantitative risk assessment approach is superior to qualitative ones. For example, it allows the aggregation of hazard impacts, provide transparency due objectivity, and enable risk-informed management that is based on cardinal scale and economic concepts. Furthermore, the risk modeling framework is flexible that allows stakeholders to easily exchange single modules (compare fault-tree: nodes or events) with ready available software and modeling techniques in a plug and play mode. The probabilistic approach quantifies uncertainty and provides a prediction space of many possible outcomes, such that stakeholders can better evaluate the current risk situation. Especially in case of the present subsurface heterogeneity and the lack of knowledge about the structural distribution, it is indispensable to quantify uncertainty. In addition, uncertainty is reduced by Bayesian-based conditioning techniques (e.g., Bayesian GLUE), moving risk estimates closer to reality. Furthermore, the state-of-the-art transport-based model is able to calculate the cumulative hazard impact at the target objective as required by European Commission. The physically-based transport model allows aggregation of mass discharges across space, time and frequency. This enables risk managers to evaluate hazards more precisely as individual hazards are often deemed to be no risk, although contributing to the overall expected impact at the well. Therefore, hazard ranking across the catchment is available in a cumulative environmental setting. Thus, the risk quantification concept is able to provide valuable and indispensable information for water stakeholders that are quantitative, flexible, probabilistic and physically-based. Second, by admitting uncertainty and utilizing this type of risk framework stakeholders are able to take transparent, robust, rational, and risk-informed decisions. The risk framework is her applied to two test cases, one being of synthetic nature, the other being a well catchment that is located in southern Germany.Item Open Access High order interactions among environmental variables : diagnostics and initial steps towards modeling(2013) Rodríguez Fernández, Jhan Ignacio; Bárdossy, András (Prof. Dr. rer. nat. Dr.-Ing.)In the field of geostatistics and spatial statistics, variogram based models have proved a very flexible and useful tool. However, such spatial models take into account only interdependencies between pairs of variables, mostly in the form of covariances. In the present work, we point out to the necessity to extend the interdependence models beyond covariance modeling; we summarize some of the difficulties arising when attempting such extensions; and propose an approach to address these difficulties.Item Open Access Alkoholinjektion zur In-situ-Sanierung von CKW-Schadensherden in Grundwasserleitern : Charakterisierung der relevanten Prozesse auf unterschiedlichen Skalen(2014) Greiner, Philipp; Helmig, Rainer (Prof. Dr.-Ing.)Seit Beginn des 20. Jahrhunderts wurden chlorierte Kohlenwasserstoffe für industrielle Zwecke eingesetzt. CKW gelangten an vielen Orten durch unsachgemäßen Umgang, durch undichte Behälter oder durch Unfälle in den Untergrund. Aufgrund ihrer hohen Dichte und geringen Viskosität können sie durch die ungesättigte Bodenzone fließen und auch in die gesättigte Zone eindringen. Dort können sich diese DNAPL ausbreiten und in residualer Sättigung oder auf schlecht durchlässigen Schichten als Pools für viele Jahrzehnte im Untergrund verbleiben. Das Risiko, welches von CKW ausgeht, war früher noch nicht ausreichend bekannt bzw. wurde vielfach unterschätzt. Einige dieser Stoffe sind giftig und stehen in Verdacht, krebserregend und erbgutverändernd zu sein. Obwohl die Wasserlöslichkeit von DNAPL sehr gering ist, ist die Löslichkeit höher als die zulässigen gesetzlichen Grenzwerte in der Trinkwasserverordnung. Aufgrund ihrer Persistenz stellen CKW eine lang andauernde Gefährdung für das Grundwasser und somit auch für unser Trinkwasser dar. Die In-situ Sanierung von DNAPL Schadensfällen ist eine große Herausforderung. Herkömmliche einfache Spülverfahren können DNAPL aufgrund ihrer hohen Dichte und geringen Wasserlöslichkeit nicht effektiv aus einem Grundwasserleiter entfernen. Durch Alkohole kann die Löslichkeit von CKW in der wässrigen Phase erhöht werden. Alkohole verringern aber auch die Grenzflächenspannung zwischen der wässrigen Phase und der Schadstoffphase. Schon geringe Alkoholmengen können ausreichend sein, um eine unkontrollierte Mobilisierung des DNAPL in tieferliegende, nicht kontaminierte Bereiche eines Grundwasserleiters auszulösen. In der vorliegenden Arbeit wurde eine Strategie zur In-situ Sanierung von CKW verunreinigten Grundwasserleitern mittels Alkoholspülung entwickelt. Dazu wurde ein Alkoholcocktail hergestellt, der aus einem lipophilen Alkohol, einem amphiphilen Alkohol und Wasser bestand. Der lipophile Alkohol kann in die Schadstoffphase eindringen, dabei das Volumen des DNAPL vergrößern und somit dessen Dichte herabsetzen. Dadurch wird die Gefahr einer unkontrollierten, abwärts gerichteten Verlagerung des Schadstoffes verringert, die unter allen Umständen zu vermeiden ist. Der amphiphile Alkohol ist notwendig, um eine wasserlösliche Mischung zu erzeugen und damit das DNAPL-Alkohol-Wasser-Gemisch hydraulisch kontrollierbar zu machen. Als lipophiler Bestandteil für den Alkoholcocktail kamen mehrere Alkohole und Biodiesel in die engere Auswahl. Methanol, Ethanol und 2-Propanol kamen in einer Vorauswahl als mögliche amphiphile Komponente. Zur endgültigen Auswahl wurden die Mischungseigenschaften, weitere physikalische Eigenschaften wie Dichte und Viskosität, die Wassergefährdungsklasse, der Preis sowie die Sanierungseffizienz untersucht, diskutiert und bewertet. Als repräsentative Schadstoffe wurden die beiden chlorierten Kohlenwasserstoffe TCE und PCE ausgewählt. Zusätzlich zur Dichteverringerung der Schadstoffphase durch den Alkoholcocktail wurde der Einfluss der Strömung als zusätzliche Sicherung untersucht und ausgewertet. Dazu wurde die minimale, aufwärts gerichtete Geschwindigkeit, die einem Absinken des DNAPL entgegenwirkt, für verschiedene Bodenmaterialien und Schadstoffe in Säulenversuchen ermittelt. Neben der experimentellen Bestimmung wurde diese Mindestgeschwindigkeit auch anhand von dimensionslosen Kennzahlen abgeschätzt. Zur Verbesserung des Prozessverständnisses und der Steigerung der Sanierungseffizienz der Alkoholspülung wurde eine systematische Untersuchung der Einflussparameter wie Dichte und Volumenkontraktion, Viskosität, Grenzflächenspannung und Phasenaufteilung der Alkoholspülung anhand von klein- und mittelskaligen Versuchen durchgeführt. Die Messreihen der Einflussparameter bildeten die Datengrundlage für die Aufstellung und Verifizierung der konstitutiven Beziehungen. Dazu wurden bereits bestehende Ansätze optimiert und auf Grundlage der durchgeführten Versuche neue Gleichungen entwickelt. Nach der Erstellung eines konzeptionellen und mathematischen Modells konnten die konstitutiven Beziehungen in das numerische Modell MUFTE-UG implementiert werden. Die Validierung des Moduls erfolgte durch den Vergleich von Simulationsergebnissen mit durchgeführten Säulenversuchen. Die entwickelte Technologie wurde in einem Großbehälter der Versuchseinrichtung zur Grundwasser- und Altlastensanierung unter realitätsnahen Bedingungen und unter Feldskala erprobt. Zur Zugabe des Alkoholcocktails wurde ein Grundwasserzirkulationsbrunnen in den künstlichen Grundwasserleiter gerammt. Der injizierte Alkoholcocktail durchströmte den kontaminierten Bereich und löste den Schadstoff. Über den Grundwasserzirkulationsbrunnen konnten ca. 90% des Schadstoffes als Alkohol-Wasser-Schadstoffmischung wieder entnommen werden. Dieser Großversuch hat gezeigt, dass diese In-situ Sanierungstechnologie für eine effektive, schnelle und sichere Entfernung von DNAPL Schadensherden geeignet ist.