05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 4 of 4
  • Thumbnail Image
    ItemOpen Access
    Systemanalyse und Workflowverwaltung eines Frameworks für Cache-effiziente adaptive Simulation
    (2011) Greis, Miriam; Hackländer, Jessica; Hirmer, Pascal
    Dieses Dokument stellt die Ausarbeitung der Fachstudie "Systemanalyse und Workflowverwaltung eines Frameworks für cache-effiziente adaptive Simulation" dar, welche von Mai bis Oktober 2011 stattfand. Die Abteilung "Simulation großer Systeme" des Instituts für Parallele und Verteilte Systeme forscht derzeit an der Entwicklung eines Frameworks für eine effiziente Berechnung von fluiden Strömungen durch poröse Medien. Dabei wurde der Ansatz der Gitterberechnung nach Sierpinski gewählt und das Framework soweit funktionsfähig implementiert. Dieses System enthält jedoch noch Schwachstellen die mit Hilfe dieser Fachstudie behoben werden sollten. Die Fachstudie ist in zwei Teile gegliedert. Der erste Teil umfasst die Analyse des gegebenen Frameworks mitsamt allen Hilfsmitteln, den eingesetzten Programmiersprachen und Werkzeugen. Des Weiteren sollte dabei der angewandte Simulationsprozess selbst mit den im gegebenen System verwendeten Konzepten und Methoden beschrieben werden, um die Problematik des Systems vollständig erfassen zu können. Hierbei sollte ein Nachbau des Systems in einer beliebigen Programmiersprache erfolgen. Der zweite Teil der Fachstudie umfasst Lösungsansätze für die Problematiken des Systems anhand selbst entworfener Prototypen. Mögliche Lösungsansätze sind Präprozessor-Anweisungen, ein Python-Skript und die Erstellung einer Workflow-GUI. Dabei soll das bestehende System nicht ersetzt, sondern dessen Bedienung erleichtert werden. Diese Lösungsansätze sollten untersucht, beschrieben und anschließend mit dem bestehenden System bzw. mit den anderen Lösungsansätzen verglichen werden. Das Ergebnis ist eine Empfehlung des bestmöglichen Lösungsansatzes. Dieses Dokument ist in 5 Kapitel gegliedert. Nach dem Einleitungskapitel befasst sich das darauffolgende zweite Kapitel mit der Analyse des gegebenen Systems. Hierbei werden die Methoden des Simulationsprozesses, die Einsatzgebiete und die eingesetzten Werkzeuge beschrieben. Am Ende dieses Kapitels wird die Problematik des bestehenden Systems geschildert und der Nachbau beschrieben. Das dritte Kapitel beschreibt die verschiedenen Ansätze zur Lösung der beschriebenen Problematik. Die drei Lösungsansätze sind Präprozessor-Anweisungen, ein Python-Skript zur Codegenerierung und eine Workflow-GUI. Anschließend werden diese Lösungsansätze bezüglich verschiedener Qualitäten wie Wartbarkeit, Einfachheit, Erlernbarkeit usw. verglichen. Aus diesen Informationen folgt im letzten Kapitel das Fazit, welches eine Empfehlung über die zu wählende Methode gibt.
  • Thumbnail Image
    ItemOpen Access
    Models for internet of things environments : a survey
    (2020) Franco da Silva, Ana Cristina; Hirmer, Pascal
    Today, the Internet of Things (IoT) is an emerging topic in research and industry. Famous examples of IoT applications are smart homes, smart cities, and smart factories. Through highly interconnected devices, equipped with sensors and actuators, context-aware approaches can be developed to enable, e.g., monitoring and self-organization. To achieve context-awareness, a large amount of environment models have been developed for the IoT that contain information about the devices of an environment, their attached sensors and actuators, as well as their interconnection. However, these models highly differ in their content, the format being used, for example ontologies or relational models, and the domain to which they are applied. In this article, we present a comparative survey of models for IoT environments. By doing so, we describe and compare the selected models based on a deep literature research. The result is a comparative overview of existing state-of-the-art IoT environment models.
  • Thumbnail Image
    ItemOpen Access
    Anforderungsbasierte Modellierung und Ausführung von Datenflussmodellen
    (2018) Hirmer, Pascal; Mitschang, Bernhard (Prof. Dr.)
    Heutzutage steigen die Menge an Daten sowie deren Heterogenität, Änderungshäufigkeit und Komplexität stark an. Dies wird häufig als das "Big-Data-Problem" bezeichnet. Durch das Aufkommen neuer Paradigmen, wie dem Internet der Dinge oder Industrie 4.0, nimmt dieser Trend zukünftig noch weiter zu. Die Verarbeitung, Analyse und Visualisierung von Daten kann einen hohen Mehrwert darstellen, beispielsweise durch die Erkennung bisher unbekannter Muster oder durch das Vorhersagen von Ereignissen. Jedoch stellen die Charakteristiken von Big-Data, insbesondere die große Datenmenge und deren schnelle Änderung, eine große Herausforderung für die Verarbeitung der Daten dar. Herkömmliche, bisher angewandte Techniken, wie zum Beispiel Analysen basierend auf relationalen Datenbanken, kommen hierbei oft an ihre Grenzen. Des Weiteren ändert sich auch die Art der Anwender der Datenverarbeitung, insbesondere in Unternehmen. Anstatt die Datenverarbeitung ausschließlich von Programmierexperten durchzuführen, wächst die Anwendergruppe auch um Domänennutzer, die starkes Interesse an Datenanalyseergebnissen haben, jedoch diese nicht technisch umsetzen können. Um die Unterstützung von Domänennutzern zu ermöglichen, entstand ca. im Jahr 2007, im Rahmen der Web-2.0-Bewegung, das Konzept der Mashups, die es auf einfachem Wege erlauben sollen, Anwender aus unterschiedlichen Domänen beim Zusammenführen von Programmen, grafischen Oberflächen, und auch Daten zu unterstützen. Hierbei lag der Fokus vor allem auf Webdatenquellen wie RSS-Feeds, HTML-Seiten, oder weiteren XML-basierten Formaten. Auch wenn die entstandenen Konzepte gute Ansätze liefern, um geringe Datenmengen schnell und explorativ durch Domänennutzer zu verarbeiten, können sie mit den oben genannten Herausforderungen von Big-Data nicht umgehen. Die Grundidee der Mashups dient als Inspiration dieser Dissertation und wird dahingehend erweitert, moderne, komplexe und datenintensive Datenverarbeitungs- und Analyseszenarien zu realisieren. Hierfür wird im Rahmen dieser Dissertation ein umfassendes Konzept entwickelt, das sowohl eine einfache Modellierung von Datenanalysen durch Domänenexperten ermöglicht - und somit den Nutzer in den Mittelpunkt stellt - als auch eine individualisierte, effiziente Ausführung von Datenanalysen und -verarbeitung ermöglicht. Unter einer Individualisierung wird dabei verstanden, dass die funktionalen und nichtfunktionalen Anforderungen, die je nach Anwendungsfall variieren können, bei der Ausführung berücksichtigt werden. Dies erfordert einen dynamischen Aufbau der Ausführungsumgebung. Hierbei wird dem beschriebenen Problem durch mehrere Ebenen begegnet: 1) Die Modellierungsebene, die als Schnittstelle zu den Domänennutzern dient und die es erlaubt Datenverarbeitungsszenarien abstrakt zu modellieren. 2) Die Modelltransformationsebene, auf der das abstrakte Modell auf verschiedene ausführbare Repräsentationen abgebildet werden kann. 3) Die Datenverarbeitungsebene, mit der die Daten effizient in einer verteilten Umgebung verarbeitet werden, und 4) die Datenhaltungsebene, in der Daten heterogener Quellen extrahiert sowie Datenverarbeitungs- oder Analyseergebnisse persistiert werden. Die Konzepte der Dissertation werden durch zugehörige Publikationen in Konferenzbeiträgen und Fachmagazinen gestützt und durch eine prototypische Implementierung validiert.
  • Thumbnail Image
    ItemOpen Access
    Enhancing data trustworthiness in explorative analysis : an interactive approach for data quality monitoring
    (2024) Behringer, Michael; Hirmer, Pascal; Villanueva, Alejandro; Rapp, Jannis; Mitschang, Bernhard
    The volume of data to be analyzed has increased tremendously in recent years. In order to extract knowledge from this data, domain experts gain new insights with the help of graphical analysis tools for explorative analyses. Here, the reliability and trustworthiness of an exploratory analysis is determined by the quality of the underlying data. Existing approaches require manual testing to ensure data quality which is often neglected. This research aims to introduce a novel interactive approach for seamlessly integrating data quality considerations into the process of explorative data analysis conducted by domain experts. We derive requirements, conduct an extensive literature review, and develop an approach that efficiently combines stakeholders’ strengths, allowing unobtrusive data quality integration in interactive analysis. Our approach enhances trustworthiness due to unobtrusive monitoring of data quality within the context of explorative data analysis. Domain experts gain insights more reliably, bridging the gap between technical requirements and domain expertise. In conclusion, our research presents a promising solution for improving the reliability and trustworthiness of explorative data analysis, especially for domain experts who may lack technical knowledge. By seamlessly integrating data quality into the analytical process, we empower domain experts to extract valuable insights from the ever-increasing volume of data, thereby advancing the field of data-driven decision-making.