05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
437 results
Search Results
Item Open Access Evaluating mobile monitoring strategies for native iOS applications(2018) Sassano, MatteoThe success of a company is often influenced by the service and by a product they offer. If the supplied service or the offered product is a software system, a good performance will be essential to achieve desired goals such as high product sales. Slow applications and server responses due to performance issues, may cause a negative chain reaction. The amount of actual and potential users will probably decrease, and so does the users’ satisfaction and the number of product sales. Application Performance Management (APM) is necessary to avoid these cases. The usage of APM could help detecting eventual software problems and to remediate performance issues afterwards. Meanwhile, the usage of mobile devices, e.g., smartphones and tablets, for accessing enterprise systems is increasing in every application category. This expands the space where a potential software problem might be located in. Performance of mobile applications is more influenced by external circumstances, e.g., user location and access from bandwidth limited networks. APM tools not supporting mobile monitoring, are not able to recognize the mentioned performance issues. There are different implementation strategies for application monitoring agents such as call stack sampling and full source code instrumentation. The goal of this thesis is to research agent strategies for mobile devices, to develop an own version of each agent type, to analyze and evaluate the different agent approaches in combination of various mobile application types. The evaluation will be done with a series of experiments, by measuring the outcoming overhead of the developed agents, integrated into previously selected representative iOS open-source applications.Item Open Access Benutzerinteraktion in Virtual Reality mittels Eye Tracking(2018) Groß, AnjaIn den vergangenen Jahren nahmen VR und AR eine immer bedeutendere Rolle sowohl im wirtschaftlichen, als auch forschungsorientierten Bereich ein. Die verfügbare Hardware wurde zunehmend erschwinglicher und leistungsfähiger. Im Hinblick auf den Bereich der Immersive Analytics und der auftretenden Ermüdungserscheinungen bei herkömmlichen VR Systemen, beschäftigt sich diese Arbeit mit Eye Tracking als Eingabemechanismus für VR Anwendungen. Es werden zuerst allgemeine Probleme bei System, welche Eye Tracking als Eingabemedium verwenden, dargestellt, sowie bereits entwickelte Formen der Interaktion mithilfe von Eye Tracking vorgestellt. Mithilfe des FOVE VR HMD, welches über integriertes Eye Tracking verfügt, wird ein im Rahmen dieser Arbeit entwickelte Prototyp zur Manipulation von Objekten im virtuellen Raum vorgestellt. Die Interaktionen bestehen dabei aus einer Kombination aus Eye Tracking Input und einfachen Eingaben in Form eines Knopfdruckes eines Controllers statt. Mithilfe einer Benutzerstudie werden die entwickelten Konzepte evaluiert und anschließend die Ergebnisse präsentiert und diskutiert. Auf dieser Basis werden mögliche Verbesserungen der Konzepte und Erweiterungen der Anwendung vorgestellt. Die aus dieser Arbeit gewonnenen Erkenntnisse können ebenfalls für AR Anwendungen verwendet werden.Item Open Access Interaktive und inkrementelle Visualisierung im Kontext von Big Data(2017) Ast, BirgitStetig wachsende Datenmengen eröffnen Datenanalysten viele neue Chancen zur Gewinnung bislang unbekannten Wissens. Allerdings stellen sie Mensch und Technik auch vor neue Herausforderungen. Auf Grund der Größe der Datenmengen werden Analysen zu langwierigen, unflexiblen Prozessen. Ein Ansatz, um dem entgegenzuwirken, sind inkrementelle Verfahren. Dabei werden während des Analyseprozesses nach und nach Zwischenergebnisse generiert, welche sich letztlich dem Endergebnis annähern. Bei einer inkrementellen, visuellen Datenanalyse können anhand der Entwicklung der Teilergebnisse früh Schlussfolgerungen im Hinblick auf die Gesamtmenge gezogen und entsprechend schnell reagiert werden. Für eine zielführende inkrementelle Analyse ist es wichtig, repräsentative Teilergebnisse zu erhalten sowie deren Aussagekraft richtig einschätzen zu können. Auch eine aktive Einbindung des Analysten in den Visualisierungsprozess ist von Bedeutung. In der vorliegenden Arbeit wird ein Konzept für eine interaktive Webanwendung zur inkrementellen, visuellen Datenanalyse entwickelt. Die Notwendigkeit der genannten Anforderungen wird erläutert und Möglichkeiten zur praktischen Umsetzung beschrieben. Basierend darauf wird ein Prototyp entwickelt, welcher dieses Konzept realisiert.Item Open Access Privatheit im Gesundheitsspiel Candy Castle(2016) Giebler, CorinnaDie zunehmende Verwendung elektronischer Endgeräte stellt die heutige Gesellschaft vor das große Problem der Datenprivatheit. Die digitalen Helfer verwalten verschiedenste persönliche Daten, auf die wiederum eine Vielzahl von Anwendungen Zugriff hat. Selten ist es dem Benutzer möglich, direkten Einfluss oder auch nur Einblick in die Verwendung seiner Daten zu erlangen. Besonders in der Kritik stehen hierbei mobile Plattformen, wie Smartphones oder Tablets. Die Applikationen, oder kurz Apps, für diese Plattformen verfügen nur selten über Datenschutzerklärungen oder Maßnahmen zum Datenschutz. Auch ist es auf bestimmten Betriebssystemen nicht möglich, die Berechtigungen einer App einzuschränken. Dabei werden gerade diese mobilen Endgeräte mehr und mehr zur Verwaltung sensibler Daten verwendet. Hierzu gehören inzwischen auch medizinische Daten, die mithilfe diverser Gesundheits-Apps aufgezeichnet und verarbeitet werden können. Da es sich bei diesen medizinischen Werten um sehr private Daten handelt, sind diese besonders schützenswert. Zudem sollte der Nutzer einer solchen Gesundheits-App stets wissen, was mit seinen Daten geschieht und die Kontrolle über ihre Verwendung innehaben. In dieser Arbeit soll darum erörtert werden, wie sich die persönlichen Daten mithilfe eines Berechtigungssystems schützen lassen. Zunächst wird hierfür ein Anforderungskatalog ermittelt, der neben Anforderungen an Funktionalität und Bedienbarkeit auch Forderungen an Privatheit und Nutzerbestimmung stellt. Mithilfe dieses Katalogs wird anschließend ein Gesundheitsspiel für Kinder mit Diabetes weiterentwickelt und um Privatheitsaspekte erweitert. So entsteht ein Prototyp für ein Spiel, dessen Privatheitsgrad vom Benutzer einstellbar ist. Zuletzt wird gezeigt werden, dass die zuvor gestellten Anforderungen erfüllt sind und dass verarbeitete Daten auch vor unerlaubtem Zugriff geschützt werden können.Item Open Access Analyse poröser Medien auf Basis von Kristalliten(2013) Straub, AlexanderEine Möglichkeit zur Simulation poröser Medien sind Modelle. Diese haben den Vorteil, dass sie computergestützt erstellt werden können und somit auch größere, aussagekräftigere Datensätze hervorbringen. In dieser Bachelor-Arbeit wird ein neuer Ansatz zur Bestimmung des Volumens und der Porösität vorgestellt, basierend auf einem Modell für Sandsteine. Dies war mit bisherigen Algorithmen nur unzureichend möglich, da durch Annäherung große Fehler entstehen. Der neue hier vorgestellte Ansatz wird direkt auf der Geometrie des Modells ausgeführt, somit werden fast keine Rechenfehler begangen. Dieser Ansatz lässt sich zudem durch Aufteilen in Unterprobleme und durch die Benutzung von Heuristiken effizient auf große Datensätze anwenden. Die Messergebnisse und die Folgerungen für Effizienz und Effektivität des Algorithmus werden anschließend aufgeführt und erläutert.Item Open Access Control-plane consistency in software-defined networking: distributed controller synchronization using the ISIS² toolkit(2015) Strauß, JanSoftware-defined Networking (SDN) is a recent approach in computer networks to ease the network administration by separating the control-plane and the data-plane. The data-plane only forwards packets according to certain rules specified by the control-plane. The control-plane, implemented by a software called controller, determines the forwarding rules based on a global view of the network. In order to increase fault tolerance and to eliminate a possible performance bottleneck, the controller can be distributed. The synchronization of the data that holds the global view is conventionally realized using distributed key-value stores offering a fixed consistency semantic, not respecting the heterogeneous consistency requirements of the data items in controller state. The virtual synchrony model, an alternative approach to the commonly used state machine replication method, offers a more flexible solution that can result in higher performance when certain assumptions on the data kept in controller state can be made. In this thesis a distributed controller based on OpenDaylight, a state-of-the-art SDN controller and the ISIS² library, that implements the virtual synchrony model, is proposed. The modular architecture of the proposed controller and the usage of a platform independent data model allows to extend or replace parts of the system. The implementation of the distributed controller is described and the macro and micro performance is evaluated with benchmarks.Item Open Access Fault emulation for reconfigurable scan networks(2018) Schwachhofer, DenisAt around their standardization by the IEEE the interest on Reconfigurable Scan Networks (RSNs) by research and industry sparked. The testing of RSNs also raises new challenges. To analyze and cope with these challenges researchers are required to perform fault simulation. And the industry incorporated RSNs into their designs and need to test them to which also requires fault simulation. But the runtime of it is significantly high due to the RSNs’ structure. This thesis introduces a platform for fault emulation of RSNs and analyzes its feasibility. The speedup compared to fault simulation is presented and advantages, limitations and possible optimizations are evaluated and discussed.Item Open Access Subspace-optimal data mining on spatially adaptive sparse grids(2017) Luz, MaximilianContinued improvements in technology lead to an ever-growing amount of data generated, for example, by scientific measurements and simulations. Data-mining is required to gain useful knowledge from this data, however, can be challenging especially due to the size and dimensionality of these problems. The use of regular grids for such applications is often limited by the curse of dimensionality, a phrase used to describe an exponential dependency of the computational complexity of a problem on the dimensionality of this problem. For many higher-dimensional problems, e.g. with 28 dimensions, regular grids cannot be used to compute results with the desired accuracy in a reasonable amount of time, even if the memory required to store and process them is available. With spatially adaptive sparse grids, this problem can be overcome, as they lessen the influence of the dimensionality on the size of the grid, furthermore, they have been successfully applied for many tasks, including regression on large data sets. However, the currently preferred and in practice highly performant streaming-algorithm for regression on spatially adaptive sparse grids employs many unnecessary operations to effectively utilize modern parallel computer architectures, such as graphics processing units (GPUs). In this thesis, we show that the implementation of a by computational complexity more promising subspace-linear algorithm on the GPU is able to out-perform the currently preferred streaming-algorithm on many scenarios, even though the this algorithm does not utilize modern architectures as well as the streaming-algorithm. Furthermore, we explore the construction of a new algorithm by combining both, streaming- and subspace-linear algorithm, which aims to process each subgrid of the grid with the algorithm deemed most efficient for its structure. We evaluated both of our algorithms against the highly optimized implementation of the streaming-algorithm provided in the SG++ framework, and could indeed show speed-ups for both algorithms, depending on the experiments.Item Open Access Einsatz von Machine-Learning-Methoden zur adaptiven Darstellung von Software-Metriken(2017) Hermann, MatthiasAuf manchen SonarQube-Instanzen wird die verfügbare Fläche der Webseite nicht effizient genutzt und große Teile der Seite enthalten Leerflächen. Damit diese Flächen genutzt werden können, um genau die Informationen darzustellen, weswegen der Benutzer die Webseite aufgerufen hat, wurde im Rahmen dieser Arbeit mit DeepSonar eine adaptive Benutzeroberfläche für die Codeanalyse-Plattform SonarQube entwickelt. Diese erlernt mittels Machine-Learning die für den aktuellen Benutzer und Nutzungskontext relevantesten Informationen, d. h. die aus einer Programmcodeanalyse resultierenden Software-Metriken. Anhand der Ergebnisse des Machine-Learnings wird die Weboberfläche von SonarQube angepasst, sodass diese Metriken in der davor ungenutzten Fläche auf der Startseite angezeigt werden.Item Open Access Scalable hypergraph partitioning(2017) Geppert, HeikoThe interest in graph partitioning has become quite huge due to growing problem sizes. Therefore more abstract solutions are desirable. In this thesis, hypergraph partitioning is investigated since hypergraphs provide a better level of abstraction than normal graphs. Further, restreaming approaches are examined because the partitioning results of real time strategies are often not satisfiable. It will be shown that they can perform up to 15\% better than real time approaches and can sometimes even hold up to polynomial approaches. By putting more thought into the restreaming, the partitioning results become even better. This is shown empirical when proposing Fractional Restreaming a novel "Partial Forgetting" strategy. Meanwhile, the additional runtime needed is negligible compared to polynomial strategies. Finally SHP, a novel graph partitioning and evaluation framework is introduced.