Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-1867
Autor(en): Nicklaß, Daniel
Titel: Kurzzeit-Prognose von PM10-Konzentrationen in der Luft unter Verwendung maschineller Lernverfahren
Sonstige Titel: Short term prediction of PM10-concentrations in ambient air using machine learning techniques
Erscheinungsdatum: 2010
Dokumentart: Dissertation
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-51791
http://elib.uni-stuttgart.de/handle/11682/1884
http://dx.doi.org/10.18419/opus-1867
Zusammenfassung: Galten die mit der Staubbelastung der Luft verbundenen Gefahren und Beeinträchtigungen durch nationale und europäische Umweltrichtlinien Ende der 80er und Anfang der 90er als weitgehend gebannt, so werden nach heutigem Kenntnisstand bereits im Vergleich zu früher relativ geringen Konzentrationen feiner Stäube negative gesundheitliche Auswirkungen zugeschrieben. Erneut in den Blick der Öffentlichkeit geriet die Feinstaubproblematik im Jahre 2005 als nach der Einführung des EU–Grenzwerts für PM10 dieser Grenzwert in deutschen Städten häufig überschritten wurde. Um die zuständigen Behörden und die Bevölkerung über die Luftqualität informieren und gegebenenfallsMaßnahmen zur Vermeidung von Gesundheitsschäden veranlassen zu können, ist es notwendig ein System aufzubauen, das in der Lage ist, PM10-Konzentrationen für den folgenden Tag zu prognostizieren. Hierzu sollen etablierten Prognosemethoden verschiedene innovative maschinelle Lernverfahren (Multilayer-Perzeptron, Support-Vektor-Maschine, Instanzbasiertes Lernen mit den k-nächsten-Nachbarn) gegenübergestellt und die jeweiligen, auf gleicher Datenbasis erzielten Prognoseleistungen miteinander verglichen werden. Da die größte Belastung für die menschliche Gesundheit durch Konzentrationsspitzen mit besonders hohen PM10-Werten ausgehen, liegt hier das besondere Augenmerk der Prognose. In die PM10-Prognose gehen auch meteorologische Vorhersagen ein, die mit großen Unsicherheiten behaftet sind. Durch eine Sensitivitätsanalyse wird untersucht, wie robust die Modelle gegenüber Abweichungen in der Meteorologie sind.
Fine particulate matter (PM10) in ambient air once again became an important issue of clean air policy from the beginning of the 1990s when it became apparent that even relatively low concentrations of PM10 can cause serious health problems. In order to inform the competent authorities and the general public about air quality and to assist them in taking measures to avoid health problems, it is necessary to establish a system which predicts the PM10-concentration for the following day. For that purpose some established forcasting models such as the multiple linear regression are compared to innovative machine-learning techniques: the support-vector-machine, the multilayer-perceptron and the k-nearest-neighbour method. The respective performance of all models is compared, based on the same pool of data which contains measurements from four stations in Baden-Württemberg. As the principle contribution on human health problems caused by high air pollution levels, this study puts it's main focus on the correct prediction of high PM10-concentrations. The basic concept of machine-learning techniques is to extract information from data automatically, by computational and statistical methods. For the present study this means that these machine-learning algorithms automatically extract the relationships between the PM10-concentrations and influencing factors such as meteorological parameters (windspeed, precipitation, ...) or the emission situation from historical measurement data. The information derived on relationships is integrated into a model which can now be applied to predict PM10-concentrations using meteorological forecasts. The use of meteorological forecasts for PM10-modelling is associated with major uncertainties. Therefore the performances of all applied models are analysed using forecasted meteorological parameters of different quality. This sensitivity analysis shows how well the models perform under real world conditions. The implementation of machine-learning techniques always necessitates some optimization steps. As well as the fine tuning of the model parameters, the input dataset also has to be optimized. The use of all available (more or less important) influencing factors does not result in the best model performance. In fact an optimized set of factors leads to the best results. These very complex optimization steps are realised using genetic algorithms, evolutionary strategies and raster optimization to minimise the effort and computing time.
Enthalten in den Sammlungen:04 Fakultät Energie-, Verfahrens- und Biotechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
Diss_Nicklass.pdf3,1 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.