05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 74
  • Thumbnail Image
    ItemOpen Access
    Privatheit im Gesundheitsspiel Candy Castle
    (2016) Giebler, Corinna
    Die zunehmende Verwendung elektronischer Endgeräte stellt die heutige Gesellschaft vor das große Problem der Datenprivatheit. Die digitalen Helfer verwalten verschiedenste persönliche Daten, auf die wiederum eine Vielzahl von Anwendungen Zugriff hat. Selten ist es dem Benutzer möglich, direkten Einfluss oder auch nur Einblick in die Verwendung seiner Daten zu erlangen. Besonders in der Kritik stehen hierbei mobile Plattformen, wie Smartphones oder Tablets. Die Applikationen, oder kurz Apps, für diese Plattformen verfügen nur selten über Datenschutzerklärungen oder Maßnahmen zum Datenschutz. Auch ist es auf bestimmten Betriebssystemen nicht möglich, die Berechtigungen einer App einzuschränken. Dabei werden gerade diese mobilen Endgeräte mehr und mehr zur Verwaltung sensibler Daten verwendet. Hierzu gehören inzwischen auch medizinische Daten, die mithilfe diverser Gesundheits-Apps aufgezeichnet und verarbeitet werden können. Da es sich bei diesen medizinischen Werten um sehr private Daten handelt, sind diese besonders schützenswert. Zudem sollte der Nutzer einer solchen Gesundheits-App stets wissen, was mit seinen Daten geschieht und die Kontrolle über ihre Verwendung innehaben. In dieser Arbeit soll darum erörtert werden, wie sich die persönlichen Daten mithilfe eines Berechtigungssystems schützen lassen. Zunächst wird hierfür ein Anforderungskatalog ermittelt, der neben Anforderungen an Funktionalität und Bedienbarkeit auch Forderungen an Privatheit und Nutzerbestimmung stellt. Mithilfe dieses Katalogs wird anschließend ein Gesundheitsspiel für Kinder mit Diabetes weiterentwickelt und um Privatheitsaspekte erweitert. So entsteht ein Prototyp für ein Spiel, dessen Privatheitsgrad vom Benutzer einstellbar ist. Zuletzt wird gezeigt werden, dass die zuvor gestellten Anforderungen erfüllt sind und dass verarbeitete Daten auch vor unerlaubtem Zugriff geschützt werden können.
  • Thumbnail Image
    ItemOpen Access
    Rendering of densely recorded light fields
    (2016) Zahn, Sebastian
    Light fields present an alternate approach for producing images of a high degree of realism, by capturing real world data in the form of images, or by traditional techniques like raytracing a synthetic scene. In both cases, the produced data can be utilized to render images from positions which were previously not recorded or with different camera parameters and configurations. The resolution and spatial density, at which such light fields are recorded, influence the mass of produced data that has to be handled. This work focuses on densely recorded light fields and attempts to produce synthesized images computed from the available data, defined by a camera moving through space. Synthesized cameras are also able to change their aperture size and focus setting. Rendered cameras behave according to the thin lens model. A method for extraction of relevant light field images is proposed. For rendering of the data, two different approaches are evaluated. The first approach collects rays which are present in the light field in synthetic sensor plates. In an alternative approach, rays are collected in a standard hash map, and rendered by constructing and querying a kd-tree. Both approaches yield a set of properties which make them useful in different scenarios, and can also be combined to an hybrid renderer. The proposed system is intended to run on several machines in parallel.
  • Thumbnail Image
    ItemOpen Access
    Regularizing gradient properties on deep neural networks
    (2016) Wallkötter, Sebastian
    This bachelor thesis presents a novel approach to training deep neural networks. While back propagating on these deep architectures, it is often found that the gradient vanishes. Further, layers with logistic activation functions will saturate from top to bottom, which is slowing down convergence as the gradient can't propagate well past these saturated layers. Both observations awaken the wish to have the ability to regularize the gradient and directly force its properties. This thesis enables such regularization by modifying the network's cost function. Such changes modify the classic back propagation equations and therefore, the new extended back propagation equations are computed. Finally, two methods of regularization and their combination are presented and tested on a binary and a multi-class (MNIST) classification problem to show the benefits of training with these methods. A result of this thesis is the finding that this setup massively improves training on logistic networks, on the one hand enabling otherwise impossible classification in the multi-class case, while on the other speeding up training on a single class.
  • Thumbnail Image
    ItemOpen Access
    Distributed graph partitioning for large-scale graph analytics
    (2016) Rieger, Lukas
    Through constant technical progress the amount of available data about almost anything is growing steadily. Since hardware has become very cheap in the last decades, it is also possible to store and process huge amounts of data. Moreover companies like Google have sprung up that generate a large part of their revenues by extracting valuable information from collected data. A common approach to compute large inputs efficiently is to use a distributed system and concurrent algorithms. Therefore it is necessary to distribute the data to be processed intelligently among the cores or machines. Thereby the distribution of the input has strong effects on the efficiency of algorithms processing it. Furthermore data which can be represented as graph is ubiquitous, Facebook and the world wide web are well known examples of it. In this case, graph partitioning algorithms are used to distribute the input data in the best possible way. Since graph partitioning is a NP-hard problem, heuristic methods have to be used to keep execution time within reasonable bounds. This thesis presents and analyses a divide-and-conquer based framework for graph partitioning which aims to approximate linear runtime with better partitioning results than linear time algorithms.
  • Thumbnail Image
    ItemOpen Access
    Automatische Kategorisierung von Autoren in Bezug auf Arzneimittel in Twitter
    (2016) Xu, MIn
    Mit der rasch wachsenden Popularität von Twitter werden auch immer mehr unterschiedliche Themen diskutiert. Dies lässt sich auch im Bezug auf die Wirkung von Arzneimitteln beobachten. Es ist daher sehr interessant herauszufinden, welche sozialen Gruppen dazu neigen, bestimmte Arzneimittel in Twitter zu diskutieren und welche Arzneimittel am meisten in Twitter diskutiert werden. Deshalb bietet es sich an, mit Verwendung der Technologie der Textklassifikation, die große Anzahl von Tweets zu kategorisieren. In dieser Arbeit wird das hauptsächlich mit dem Maximum Entropy Klassifikator realisiert, mit den sich die Autoren der Tweets erkennen lassen. Da das Maximum Entropy Modell eine Vielzahl der relevanten oder irrelevanten Kenntnis der Wahrscheinlichkeiten umfassend beobachten kann, erzielt der Maximum Entropy Klassifikator im Vergleich zum naiven Bayes-Klassifikator in dieser Arbeit ein besseres Ergebnis bei der Multi-Klassen-Klassifikation. Die Beeinflussung auf die Leistungen des Maximum Entropy Klassifikator unter der Verwendungen von verschiedenen Methoden, wie Information Gain & Mutual Information und LDA-Topic Model, zur Auswahl der Merkmale und unterschiedlicher Anzahl an Merkmalen wird verglichen und analysiert. Die Ergebnissen zeigen, dass die Methoden Information Gain & Mutual Information und LDA-Topic-Model gute praktische Ansätze sind, mit denen die Merkmale kurzer Texte erkannt werden können. Mit dem Maximum Entropy Klassifikator wird eine durchschnittliche Testgenauigkeit von 79.8% erreicht.
  • Thumbnail Image
    ItemOpen Access
    Experimental analysis of randomized calculations of average rankings
    (2016) Zeiß, Tim
    Listing a set of points, such that a point gets a higher rank, if none of its coordinates is smaller, creates a partial order. It is possible to get a ranking without randomly favoring certain points, by averaging all valid rankings. However, this brute force algorithm is too slow for more than ten points. To handle more points, we will give a randomized, approximative approach to solve this problem and analyze the convergence rates of different strategies.
  • Thumbnail Image
    ItemOpen Access
    Improved approximation schemes for the restricted shortest path problem
    (2016) Holzmüller, David
    In this thesis we present several variants of an approximation scheme for the restricted shortest path problem. This problem concerns finding a shortest path with respect to one criterion while not exceeding a length bound with respect to another criterion. After formally introducing the problem, we describe the approximation scheme by Lorenz and Raz. Our algorithm then introduces additional steps to reduce the runtime complexity from O(|E|n(1/epsilon + log log n)) to O(|E|n(1/epsilon + \log \log \log n)). A variant of this algorithm yields a complexity of O(|E|n(1/epsilon + (n log n) / m)), which is a further improvement for sufficiently dense graphs. Furthermore, a slight modification leads to an O(|E|n(1/epsilon + 1))-algorithm for directed acyclic graphs, providing an arguably easier algorithm than the algorithm proposed by Ergun et al.
  • Thumbnail Image
    ItemOpen Access
    Routinen zur Auswertung von Simulationen mit ESPResSo zur virtuellen Weiterentwicklung von Innenraumfiltern
    (2016) Lekar, Dominik
    Innenraumfilter dienen dazu, die Insassen und das Lüftungsgerät vor Staub, Pollen und anderen Partikeln zu schützen. Die derzeitige Entwicklung von solchen Filtermedien erfolgt meist nach der Trial-and-Error-Methode und erfordert daher einen hohen Versuchsaufwand. Um die Entwicklung der Filtermedien voranzubringen, wird in dieser Arbeit ein Skript für die Software für Molekulardynamik „ESPResSo“ erweitert. Ziel ist die kontinuierliche Beladung einzelner Fasern mit unterschiedlichen Partikeltypen. Die Evaluierung des Skripts geschieht durch die Auswertung von gewonnenen Simulationsergebnissen. Aus diesen wird ersichtlich, dass der Abscheidegrad eines Partikeltyps von seiner Trägheit abhängt und dieser durch die Wahl unterschiedlicher Parameter beeinflusst werden kann.
  • Thumbnail Image
    ItemOpen Access
    Implementation of a parallel multigrid solver for the solution of higher-dimensional PDEs on anisotropic grids in DUNE
    (2016) Pfister, Daniel
    In this bachelor thesis a parallel geometric multigrid solver is extended to be used with the sparse grid combination technique. To test this method the stationary advection-diffusion equation is used, which is discretized by the finite volume element method. Suitable multigrid components are chosen and their convergence and parallel efficiency is tested in numerical experiments. The implementation uses the Distributed and Unified Numerics Environment (DUNE) for the solver and discretization. The SG++ Distributed Combigrid module is employed for the combination technique. A small weak scaling study is conducted to measure the influence of the aspect ratio of the grids.
  • Thumbnail Image
    ItemOpen Access
    The sparse grid combination technique for quantities of interest
    (2016) Huber, Felix
    The curse of dimensionality is a major problem for large scale simulations. One way to tackle this problem is the sparse grid combination technique. While a full grid requires O{h_n^{-d}} grid points the sparse grid combination technique needs significantly less points. In contrast to the traditional combination technique, which combines solution functions themselves, this work puts its focus on the combination technique with quantities of interest and their surpluses. After introducing the concept of surpluses that describe how much the solution changes if the grids are refined, we defined the combination technique as a sum of these surpluses. We show how the concept of surpluses can be utilized to deduce error bounds for the quantity of interest and helps to adapt the combination technique to problems with different error models. To improve the error bound we introduce a new extrapolated version of the combination technique and see how the surpluses are affected. To evaluate our theoretical results we perform numerical experiments where we consider integration problems and the gyrokinetic plasma turbulence simulation GENE. The experimental results for the integration problems nicely confirm our derived theoretical results.