Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
Search Results
Item Open Access Interacting with large high-resolution display workplaces(2018) Lischke, Lars; Schmidt, Albrecht (Prof.)Large visual spaces provide a unique opportunity to communicate large and complex pieces of information; hence, they have been used for hundreds of years for varied content including maps, public notifications and artwork. Understanding and evaluating complex information will become a fundamental part of any office work. Large high-resolution displays (LHRDs) have the potential to further enhance the traditional advantages of large visual spaces and combine them with modern computing technology, thus becoming an essential tool for understanding and communicating data in future office environments. For successful deployment of LHRDs in office environments, well-suited interaction concepts are required. In this thesis, we build an understanding of how concepts for interaction with LHRDs in office environments could be designed. From the human-computer interaction (HCI) perspective three aspects are fundamental: (1) The way humans perceive and react to large visual spaces is essential for interaction with content displayed on LHRDs. (2) LHRDs require adequate input techniques. (3) The actual content requires well-designed graphical user interfaces (GUIs) and suitable input techniques. Perceptions influence how users can perform input on LHRD setups, which sets boundaries for the design of GUIs for LHRDs. Furthermore, the input technique has to be reflected in the design of the GUI. To understand how humans perceive and react to large visual information on LHRDs, we have focused on the influence of visual resolution and physical space. We show that increased visual resolution has an effect on the perceived media quality and the perceived effort and that humans can overview large visual spaces without being overwhelmed. When the display is wider than 2 m users perceive higher physical effort. When multiple users share an LHRD, they change their movement behavior depending whether a task is collaborative or competitive. For building LHRDs consideration must be given to the increased complexity of higher resolutions and physically large displays. Lower screen resolutions provide enough display quality to work efficiently, while larger physical spaces enable users to overview more content without being overwhelmed. To enhance user input on LHRDs in order to interact with large information pieces, we built working prototypes and analyzed their performance in controlled lab studies. We showed that eye-tracking based manual and gaze input cascaded (MAGIC) pointing can enhance target pointing to distant targets. MAGIC pointing is particularly beneficial when the interaction involves visual searches between pointing to targets. We contributed two gesture sets for mid-air interaction with window managers on LHRDs and found that gesture elicitation for an LHRD was not affected by legacy bias. We compared shared user input on an LHRD with personal tablets, which also functioned as a private working space, to collaborative data exploration using one input device together for interacting with an LHRD. The results showed that input with personal tablets lowered the perceived workload. Finally, we showed that variable movement resistance feedback enhanced one-dimensional data input when no visual input feedback was provided. We concluded that context-aware input techniques enhance the interaction with content displayed on an LHRD so it is essential to provide focus for the visual content and guidance for the user while performing input. To understand user expectations of working with LHRDs we prototyped with potential users how an LHRD work environment could be designed focusing on the physical screen alignment and the placement of content on the display. Based on previous work, we implemented novel alignment techniques for window management on LHRDs and compared them in a user study. The results show that users prefer techniques, that enhance the interaction without breaking well-known desktop GUI concepts. Finally, we provided the example of how an application for browsing scientific publications can benefit from extended display space. Overall, we show that GUIs for LHRDs should support the user more strongly than GUIs for smaller displays to arrange content meaningful or manage and understand large data sets, without breaking well-known GUI-metaphors. In conclusion, this thesis adopts a holistic approach to interaction with LHRDs in office environments. Based on enhanced knowledge about user perception of large visual spaces, we discuss novel input techniques for advanced user input on LHRDs. Furthermore, we present guidelines for designing future GUIs for LHRDs. Our work creates the design space of LHRD workplaces and identifies challenges and opportunities for the development of future office environments.Item Open Access Adaptive higher order discontinuous Galerkin methods for porous-media multi-phase flow with strong heterogeneities(2018) Kane, Birane; Siebert, Kunibert (Prof. Dr.)In this thesis, we develop, analyze, and implement adaptive discontinuous Galerkin (DG) finite element solvers for the efficient simulation of porous-media flow problems. We consider 2d and 3d incompressible, immiscible, two-phase flow in a possibly strongly heterogeneous and anisotropic porous medium. Discontinuous capillarypressure functions and gravity effects are taken into account. The system is written in terms of a phase-pressure/phase-saturation formulation. First and second order Adams-Moulton time discretization methods are combined with various interior penalty DG discretizations in space, such as the symmetric interior penalty Galerkin (SIPG), the nonsymmetric interior penalty Galerkin (NIPG) and the incomplete interior penalty Galerkin (IIPG). These fully implicit space time discretizations lead to fully coupled nonlinear systems requiring to build a Jacobian matrix at each time step and in each iteration of a Newton-Raphson method. We provide a stability estimate of the saturation and the pressure with respect to initial and boundary data. We also derive a-priori error estimates with respect to the L2(H1) norm for the pressure and the L∞(L2)∩L2(H1) norm for the saturation. Moving on to adaptivity, we implement different strategies allowing for a simultaneous variation of the element sizes, the local polynomial degrees and the time step size. These approaches allow to increase the local polynomial degree when the solution is estimated to be smooth and refine locally the mesh otherwise. They also grant more flexibility with respect to the time step size without impeding the convergence of the method. The aforementioned adaptive algorithms are applied in series of homogeneous, heterogeneous and anisotropic test cases. To our knowledge, this is the first time the concept of local hp-adaptivity is incorporated in the study of 2d and 3d incompressible, immiscible, two-phase flow problems. Delving into the issue of efficient linear solvers for the fully-coupled fully-implicit formulations, we implement a constrained pressure residual (CPR) two-stage preconditioner that exploits the algebraic properties of the Jacobian matrices of the systems. Furthermore, we provide an open-source DG two-phase flow simulator, based on the software framework DUNE, accompanied by a set of programs including instructions on how to compile and run them.Item Open Access Numerical and experimental study of concrete structures exposed to impact and fire(2018) Ruta, Daniela; Ožbolt, Joško (Prof. Dr.-Ing. habil.)During their service life concrete and reinforced concrete structures may be exposed to extreme loading conditions such as fire, explosions, impact, earthquakes and terroristic attacks. In particular situations, as in case of chemical industries where the probabilities of explosions are relatively high, combination of extreme loadings represents a major risk. To assure safety conditions in terms of cost and lives losses for the involved structure as well as for the surrounding buildings, it is important to take into account the effect of multi-hazard phenomena. The aim of this work is to study the dynamic concrete behaviour after thermal exposure analyzing the change of the material state and structural response, by means of experimental tests and numerical analysis. In the literature, few studies can be found on the behaviour of concrete and RC structures subjected to coupled thermal and dynamic loads. The results of the study are also useful to extend the experimental and numerical database available in the literature. Experimental and numerical investigations on fire exposed plain concrete (compact tension specimen) and full scale reinforced concrete structures (slabs and frames) under high loading rates are presented and discussed.Item Open Access Adjektive zwischen Syntax, Semantik und Kognition : eine sprachvergleichende kognitive Analyse anhand des Deutschen und Türkischen(2018) Sauereisen, Britta; Pafel, Jürgen (Prof. Dr.)Item Open Access Efficient fault tolerance for selected scientific computing algorithms on heterogeneous and approximate computer architectures(2018) Schöll, Alexander; Wunderlich, Hans-Joachim (Prof. Dr.)Scientific computing and simulation technology play an essential role to solve central challenges in science and engineering. The high computational power of heterogeneous computer architectures allows to accelerate applications in these domains, which are often dominated by compute-intensive mathematical tasks. Scientific, economic and political decision processes increasingly rely on such applications and therefore induce a strong demand to compute correct and trustworthy results. However, the continued semiconductor technology scaling increasingly imposes serious threats to the reliability and efficiency of upcoming devices. Different reliability threats can cause crashes or erroneous results without indication. Software-based fault tolerance techniques can protect algorithmic tasks by adding appropriate operations to detect and correct errors at runtime. Major challenges are induced by the runtime overhead of such operations and by rounding errors in floating-point arithmetic that can cause false positives. The end of Dennard scaling induces central challenges to further increase the compute efficiency between semiconductor technology generations. Approximate computing exploits the inherent error resilience of different applications to achieve efficiency gains with respect to, for instance, power, energy, and execution times. However, scientific applications often induce strict accuracy requirements which require careful utilization of approximation techniques. This thesis provides fault tolerance and approximate computing methods that enable the reliable and efficient execution of linear algebra operations and Conjugate Gradient solvers using heterogeneous and approximate computer architectures. The presented fault tolerance techniques detect and correct errors at runtime with low runtime overhead and high error coverage. At the same time, these fault tolerance techniques are exploited to enable the execution of the Conjugate Gradient solvers on approximate hardware by monitoring the underlying error resilience while adjusting the approximation error accordingly. Besides, parameter evaluation and estimation methods are presented that determine the computational efficiency of application executions on approximate hardware. An extensive experimental evaluation shows the efficiency and efficacy of the presented methods with respect to the runtime overhead to detect and correct errors, the error coverage as well as the achieved energy reduction in executing the Conjugate Gradient solvers on approximate hardware.Item Open Access Modellierung der Zuverlässigkeit technischer Systeme mit stochastischen Netzverfahren(Stuttgart : Institut für Maschinenelemente, 2018) Rieker, Timo; Bertsche, Bernd (Prof. Dr.-Ing.)Durch den Einsatz von mechatronischen Systemen mit den Wissensdomänen Mechanik, Elektronik und Software kommt es zu einer weitaus höheren technischen Komplexität in den Systemen. Darüber hinaus ist es aufgrund von wirtschaftlichen Aspekten und zur Förderung des Systemverständnisses wichtig die Zuverlässigkeit dieser Systeme zu verstehen und berechnen zu können. Die komplexen Zusammenhänge können mit gewöhnlichen Zuverlässigkeitsmethoden nicht mehr beschrieben werden. Hier setzen die dynamischen Modellierungsmethoden an, wobei diese häufig aufgrund der aufwendigen Modellierung noch keine hinreichende Beachtung finden. Ziel dieser Arbeit war es, mit der Entwicklung einer methodischen Vorgehensweise die Motivation zur Anwendung einer geeigneten dynamischen Modellierungsmethode zu fördern. Diese wird durch eine Reduzierung des Modellierungsaufwands und einer realitätsnahen, strukturierten und nachvollziehbaren Modellierung erreicht. Die methodische Vorgehensweise soll dabei als ein Leitfaden für mögliche Anwender dienen. Zu Beginn der Arbeit wurden der Stand der Technik und Forschung zur prinzipiellen Modellierung der Zuverlässigkeit und deren Aspekte in Bezug auf den Modellierungsprozess von mechatronischen Systemen betrachtet. Anschließend wurden die bekanntesten und am verbreitetsten dynamischen Modellierungsmethoden beschrieben. Diese wurden bezüglich ihrer Leistungsfähigkeit untersucht. Aufgrund dieser Untersuchung wurde gezeigt, weshalb die erweiterten farbigen stochastischen Petrinetze (ECSPN) und speziell die verbundene Modellierung (CSM) für die Modellierung der Zuverlässigkeit von komplexen technischen Systemen geeignet sind. Den Kern dieser Arbeit bildet die Entwicklung einer methodischen Vorgehensweise zur Modellierung der Zuverlässigkeit von technischen Systemen. Dieser Inhalt teilt sich auf drei Kapitel auf. Zunächst wurden die Anforderungen an die methodische Vorgehensweise formuliert. Es wurden allgemeine Anforderungen, die sich aus der generellen Entwicklung einer Methode ergaben, ausgearbeitet. Die Anforderungen aufgrund des Entwicklungsprozesses ergaben sich aus den speziellen Problemstellungen bei der Entwicklung mechatronischer Systeme. Weiterhin wurden Anforderungen aufgrund der gewählten Modellierungsmethode und zuverlässigkeitsspezifische Anforderungen formuliert. Für die Entwicklung der methodischen Vorgehensweise wurde ein Ebenenansatz gewählt, wobei die jeweiligen Ebenen mehrere Arbeitsschritte beinhalten. Vorteil dieses Ansatzes ist die hohe gesamtheitliche Durchgängigkeit in jeder Modellierungsphase. Weiterhin wird eine starre unidirektionale Modellierung vermieden. Die methodische Vorgehensweise gliedert sich dabei in eine funktionale Ebene, in eine Komponenten-, Betriebs- und Systemebene und in eine Ebene für das Zuverlässigkeitsmodell und die Zuverlässigkeitsanalyse. Auf der funktionalen Ebene wurden Zuverlässigkeitsnetze der relevanten Komponenten auf Basis der bereitzustellenden Funktionen erstellt. Diese wurden auf der Komponentenebene zu Zuverlässigkeitsmodellen erweitert. Wechselwirkungen, die zwischen den Komponenten entstehen können, fanden ebenfalls Berücksichtigung. Auf der Betriebsebene wurden die zeitabhängigen Belastungen der Komponenten bestimmt. Maßgeblichen Einfluss darauf haben die Lastkollektive und die Betriebsstrategie, für die die Vorgehensweise bei deren Modellierung beschrieben wurde. Auf der Systemebene wurden die vervollständigten Zuverlässigkeitsmodelle zu einem Gesamtmodell zusammengefügt und schließlich auf der untersten Ebene berechnet und analysiert. Der Einfluss der Alterung der Komponenten wurde gezeigt und deren Modellierung beschrieben. Anhand den zuvor formulierten Anforderungen wurde die methodische Vorgehensweise reflektiert. Durch den Ebenenansatz wurde eine für den Anwender transparente und nachvollziehbare Vorgehensweise erreicht. Die Modellierung in den Ebenen kann unabhängig voneinander durchgeführt und zu einem späteren Zeitpunkt verknüpft werden. Die wesentlichen Herausforderungen, die bei der Modellierung von komplexen technischen Systemen entstehen, konnten erfüllt werden. Die Modellierung von Betriebsstrategien, zeitabhängigen Lastkollektiven, Alterungseinflüssen und Wechselwirkungen zwischen den Komponenten, die die Zuverlässigkeit maßgeblich beeinflussen, wurden gezeigt. Anhand eines Hybridantriebsstrangs eines Parallel-PlugIn-Hybridfahrzeugs wurde die methodische Vorgehensweise angewendet. Hier wurde der Einfluss von verschiedenen Fahrzyklen auf die Zuverlässigkeit der relevanten Komponenten und des Systems gezeigt.Item Open Access Turbulence flow mechanisms to cause high-cycle thermal fatigue near a horizontal T-junction(Stuttgart : Institut für Kernenergetik und Energiesysteme, 2018) Zhou, Mi; Laurien, Eckart (Prof. Dr.-Ing. habil.)Item Open Access Large-scale high head pico hydropower potential assessment(Stuttgart : Eigenverlag des Instituts für Wasser- und Umweltsystemmodellierung der Universität Stuttgart, 2018) Schröder, Hans Christoph; Wieprecht, Silke (Prof. Dr.-Ing.)Due to a lack of site-related information, Pico hydropower (PHP) has hardly been a projectable resource so far. This is particularly true for large area PHP potential information that could open a perspective to increase the size of development projects by aggregating individual PHP installations. The present work is extending the capabilities of GIS based hydropower potential assessment into the PHP domain through a GIS based PHP potential assessment procedure that facilitates the discrimination of areas without high head PHP potential against areas with PHP potential and against areas with so called “favorable PHP potential”. The basic unit of the spatial output is determined by the underlying PHP potential definition of this work: a standardized PHP installation and the required hydraulic source, together called standard unit, are located on an area of one square kilometer. The gradation of the output is a consequence of the verification techniques. Several large area PHP potential field assessment methods, based on contemplative analysis techniques, are developed in this work. Field assessments were conducted in Yunnan Province/China, Costa Rica, Ecuador and Sri Lanka. The aim for all field assessments is to get a comprehensive view on the PHP potential distribution of the entire country/province. Application of the GIS based PHP potential assessment procedure is aimed at the global tropical and subtropical regions.Item Open Access Fluoreszenzdetektiertes Schalten im optischen Nahfeld(2018) Heilig, Mark; Wrachtrup, Jörg (Prof. Dr.)In dieser Abhandlung wird ein neuer Ansatz für hochdichte optische Speichersysteme auf Basis isolierter, dicht gepackter, photochromer Nanostrukturen (Dots) überprüft und weiterentwickelt. Zum Nachweis der dicht gepackten Fulgid-Nanostrukturen mit Strukturabständen weit unterhalb des Beugungslimits über deren Fluoreszenemission wurde ein multifunktionales Raster-Mikroskopiesystem (Konfokal, AFM, SNOM) entwickelt und aufgebaut. Als Sonde werden geätzte Glasfaserspitzen verwendet. Die Fluoreszenzeigenschaften der verwendeten Fulgide bei Raumtemperatur werden bestimmt. Die Korrelation zwischen Schaltzustand und Fluoreszenzemission des C-Isomer der Fulgide wird nachgewiesen. Schaltexperimente an unregelmäßig strukturierten Fulgid-Schichten zeigen die prinzipielle Eignung des Konzepts. An regelmäßig angeordneten Strukturen werde in programmgesteuerten Speicherversuchen Informationen reversibel in die einzelnen Speicherzellen geschrieben, gelesen und gelöscht. Für kleinste Fulgid-Strukturen in hexagonaler Anordnung mit einem Strukturabstand von 0.100µm ergibt sich eine Speicherdichte von 173GBit=in². Aufgrund der Anordnung treten in hochauflösenden SNOM-Messungen Überlagerungseffekte auf. Diese werden mit Hilfe der FEM in der Simulation untersucht, analysiert und erklärt. Eine Alternative zu Apertur-Sitzen im SNOM stellen lokal emittierende Lichtquellen dar. Ein Nanodiamant mit Stickstoff-Defekt-Zelle eignet sich als Emitter. Die Wechselwirkung mit einer Gold-Struktur wird in der FEM simuliert und experimentell bestätigt.Item Open Access Energieeffizienz von Prozessoren in High Performance Computinganwendungen der Ingenieurwissenschaften(Stuttgart : Höchstleistungsrechenzentrum, Universität Stuttgart, 2018) Khabi, Dmitry; Resch, Michael M. (Prof. Dr.-Ing. Dr. h.c. Dr. h.c. Prof. E.h.)Im Mittelpunkt dieser Arbeit steht die Frage nach Energieeffizienz im Hochleistungsrechnen (HPC) mit Schwerpunkt auf Zusammenhänge zwischen der elektrischen Leistung der Prozessoren und deren Rechenleistung. In Kapitel 1, Einleitung der folgenden Abhandlungen, werden die Motivation und der Stand der Technik auf dem Gebiet der Strommessung und der Energieeffizienz im HPC und dessen Komponenten erläutert. In den Folgenden Kapiteln 2 und 3 wird eine am Höchstleistungsrechenzentrum Stuttgart (HLRS) entwickelte Messtechnik detailliert diskutiert, die für die Strommessungen im Testcluster angewendet wird. Das Messverfahren der unterschiedlichen Hardwarekomponenten und die Abhängigkeit zwischen deren Stromversorgung, Messgenauigkeit und Messfrequenz werden dargelegt. Im Kapitel 4 der Arbeit beschreibe ich, welchen Zusammenhang es zwischen dem Stromverbrauch eines Prozessors, dessen Konfiguration und darauf ausgeführten Algorithmen gibt. Der Fokus liegt dabei auf den Zusammenhängen zwischen CPU-Frequenz, Grad der Parallelisierung, Rechenleistung und elektrischer Leistung. Für den Effizienzvergleich zwischen den Prozessoren und Algorithmen benutze ich ein Verfahren, das auf eine Approximation in der analytischen Form der Rechen- und der elektrischen Leistung der Prozessoren basiert. In diesem Kapitel wird außerdem gezeigt, dass die Koeffizienten der Approximation, die mehrere Hinweise auf Software und Hardware-Eigenschaften geben, als Basis für die Ausarbeitung eines erweiterten Modells dienen können. Wie im weiteren Verlauf gezeigt wird, berücksichtigen die existierenden Modelle der Rechen- und der elektrischen Leistung nur zum Teil die unterschiedlichen Frequenz-Domains der Hardwarekomponenten. Im Kapitel 5 wird eine Erweiterung des existierenden Modells der Rechenleistung erläutert, mit dessen Hilfe die entsprechenden neuen Eigenschaften der CPU-Architektur teilweise erklärt werden könnten. Die daraus gewonnenen Erkenntnisse sollen helfen, ein Modell zu entwickeln, das sowohl die Rechen- als auch die elektrische Leistung beschreibt. In Kapitel 6 beschreibe ich die Problemstellung der Energieeffizienz eines Hochleistungsrechners. Unter anderem werden die in dieser Arbeit entwickelten Methoden auf eine HPC-Platform evaluiert.