05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
4 results
Search Results
Item Open Access Eine Methode zum Verteilen, Adaptieren und Deployment partnerübergreifender Anwendungen(2022) Wild, Karoline; Leymann, Frank (Prof. Dr. Dr. h. c.)Ein wesentlicher Aspekt einer effektiven Kollaboration innerhalb von Organisationen, aber vor allem organisationsübergreifend, ist die Integration und Automatisierung der Prozesse. Dazu zählt auch die Bereitstellung von Anwendungssystemen, deren Komponenten von unterschiedlichen Partnern, das heißt Abteilungen oder Unternehmen, bereitgestellt und verwaltet werden. Die dadurch entstehende verteilte, dezentral verwaltete Umgebung bedarf neuer Konzepte zur Bereitstellung. Die Autonomie der Partner und die Verteilung der Komponenten führen dabei zu neuen Herausforderungen. Zum einen müssen partnerübergreifende Kommunikationsbeziehungen realisiert und zum anderen muss das automatisierte dezentrale Deployment ermöglicht werden. Eine Vielzahl von Technologien wurde in den letzten Jahren entwickelt, die alle Schritte von der Modellierung bis zur Bereitstellung und dem Management zur Laufzeit einer Anwendung abdecken. Diese Technologien basieren jedoch auf einer zentralisierten Koordination des Deployments, wodurch die Autonomie der Partner eingeschränkt ist. Auch fehlen Konzepte zur Identifikation von Problemen, die aus der Verteilung von Anwendungskomponenten resultieren und die Funktionsfähigkeit der Anwendung einschränken. Dies betrifft speziell die partnerübergreifenden Kommunikationsbeziehungen. Um diese Herausforderungen zu lösen, stellt diese Arbeit die DivA-Methode zum Verteilen, Adaptieren und Deployment partnerübergreifender Anwendungen vor. Die Methode vereinigt die globalen und lokalen Partneraktivitäten, die zur Bereitstellung partnerübergreifender Anwendungen benötigt werden. Dabei setzt die Methode auf dem deklarativen Essential Deployment Meta Model (EDMM) auf und ermöglicht damit die Einführung deploymenttechnologieunabhängiger Modellierungskonzepte zur Verteilung von Anwendungskomponenten sowie zur Modellanalyse und -adaption. Das Split-and-Match-Verfahren wird für die Verteilung von Anwendungskomponenten basierend auf festgelegten Zielumgebungen und zur Selektion kompatibler Cloud-Dienste vorgestellt. Für die Ausführung des Deployments können EDMM-Modelle in unterschiedliche Technologien transformiert werden. Um die Bereitstellung komplett dezentral durchzuführen, werden deklarative und imperative Technologien kombiniert und basierend auf den deklarativen EDMM-Modellen Workflows generiert, die die Aktivitäten zur Bereitstellung und zum Datenaustausch mit anderen Partnern zur Realisierung partnerübergreifender Kommunikationsbeziehungen orchestrieren. Diese Workflows formen implizit eine Deployment-Choreographie. Für die Modellanalyse und -adaption wird als Kern dieser Arbeit ein zweistufiges musterbasiertes Verfahren zur Problemerkennung und Modelladaption eingeführt. Dafür werden aus den textuellen Musterbeschreibungen die Problem- und Kontextdefinition analysiert und formalisiert, um die automatisierte Identifikation von Problemen in EDMM-Modellen zu ermöglichen. Besonderer Fokus liegt dabei auf Problemen, die durch die Verteilung der Komponenten entstehen und die Realisierung von Kommunikationsbeziehungen verhindern. Das gleiche Verfahren wird auch für die Selektion geeigneter konkreter Lösungsimplementierungen zur Behebung der Probleme angewendet. Zusätzlich wird ein Ansatz zur Selektion von Kommunikationstreibern abhängig von der verwendeten Integrations-Middleware vorgestellt, wodurch die Portabilität von Anwendungskomponenten verbessert werden kann. Die in dieser Arbeit vorgestellten Konzepte werden durch das DivA-Werkzeug automatisiert. Zur Validierung wird das Werkzeug prototypisch implementiert und in bestehende Systeme zur Modellierung und Ausführung des Deployments von Anwendungssystemen integriert.Item Open Access Elastic parallel systems for high performance cloud computing(2020) Kehrer, Stefan; Blochinger, Wolfgang (Prof. Dr.)High Performance Computing (HPC) enables significant progress in both science and industry. Whereas traditionally parallel applications have been developed to address the grand challenges in science, as of today, they are also heavily used to speed up the time-to-result in the context of product design, production planning, financial risk management, medical diagnosis, as well as research and development efforts. However, purchasing and operating HPC clusters to run these applications requires huge capital expenditures as well as operational knowledge and thus is reserved to large organizations that benefit from economies of scale. More recently, the cloud evolved into an alternative execution environment for parallel applications, which comes with novel characteristics such as on-demand access to compute resources, pay-per-use, and elasticity. Whereas the cloud has been mainly used to operate interactive multi-tier applications, HPC users are also interested in the benefits offered. These include full control of the resource configuration based on virtualization, fast setup times by using on-demand accessible compute resources, and eliminated upfront capital expenditures due to the pay-per-use billing model. Additionally, elasticity allows compute resources to be provisioned and decommissioned at runtime, which allows fine-grained control of an application's performance in terms of its execution time and efficiency as well as the related monetary costs of the computation. Whereas HPC-optimized cloud environments have been introduced by cloud providers such as Amazon Web Services (AWS) and Microsoft Azure, existing parallel architectures are not designed to make use of elasticity. This thesis addresses several challenges in the emergent field of High Performance Cloud Computing. In particular, the presented contributions focus on the novel opportunities and challenges related to elasticity. First, the principles of elastic parallel systems as well as related design considerations are discussed in detail. On this basis, two exemplary elastic parallel system architectures are presented, each of which includes (1) an elasticity controller that controls the number of processing units based on user-defined goals, (2) a cloud-aware parallel execution model that handles coordination and synchronization requirements in an automated manner, and (3) a programming abstraction to ease the implementation of elastic parallel applications. To automate application delivery and deployment, novel approaches are presented that generate the required deployment artifacts from developer-provided source code in an automated manner while considering application-specific non-functional requirements. Throughout this thesis, a broad spectrum of design decisions related to the construction of elastic parallel system architectures is discussed, including proactive and reactive elasticity control mechanisms as well as cloud-based parallel processing with virtual machines (Infrastructure as a Service) and functions (Function as a Service). To evaluate these contributions, extensive experimental evaluations are presented.Item Open Access Choreographiebasierte Konsolidierung von interagierenden BPEL-Prozessmodellen(2022) Wagner, Sebastian; Leymann, Frank (Prof. Dr. Dr. h.c.)An der Herstellung eines Guts oder bei der Erbringung einer Dienstleistung sind heutzutage verschiedene Unternehmen beteiligt, wobei jedes mit seinen eigenen Prozessen zur Gesamtwertschöpfungskette beiträgt. Um den Arbeitsablauf zu koordinieren, interagieren die Prozesse über Nachrichtenaustausch miteinander. Die beteiligten Unternehmen und die Reihenfolge der Interaktionen werden dabei mittels Choreographien festgelegt. Die Corona-Pandemie hat vielen Unternehmen die Anfälligkeit ihrer global verteilten Just-in-time-Wertschöpfungsketten vor Augen geführt. Daher geht in jüngster Zeit der Trend zum Insourcing, bei dem die Unternehmen ausgelagerten Prozesse wieder in die eigenen Prozesse eingliedern. Die Komplexität von Choreographien und Prozessen macht manuelles Insourcing aufwändig, besonders wenn viele Organisationen beteiligt sind. Daher wird in dieser Dissertation eine Methode vorgestellt, mit der das Insourcing von Prozessen, deren Interaktionsverhalten über eine Choreographie spezifiziert ist, automatisiert werden kann. Die Methode hat zum Ziel, aus einer Choreographie einen einzelnen konsolidierten Prozess zu erstellen, der das Verhalten der an der Choreographie beteiligten Prozesse und die Interaktionen zwischen ihnen emuliert. In dieser Arbeit wird das Verhalten von Choreographien bzw. Prozessen über die erlaubten Zustandstransitionen zwischen deren Aktivitäten definiert. Um das Verhalten einer Choreographie zu beschreiben und mit dem konsolidierten Prozessmodell zu vergleichen, wird ein auf der operationalen Semantik der Choreographiesprache BPEL4Chor und der Prozessmodellierungssprache BPEL basierendes Zustandstransitionsmodell definiert. Darauf aufbauend wird diskutiert, inwieweit die Konsolidierungsmethode Prozesse wiederherstellen kann, die zuvor durch Outsourcing fragmentiert wurden. Dazu wird untersucht, ob die konsolidierten Prozesse dasselbe Verhalten haben wie die originalen fragmentierten Prozesse. Die Interaktionsmöglichkeiten von Organisationen und Prozessen in Choreographien können in eine Menge von Interaktionsmustern kategorisiert werden. Es wird gezeigt, dass die Methode, bis auf zwei Ausnahmen, alle Muster konsolidieren kann. Die praktische Umsetzung der Methode erfolgt mittels der Anwendung Curveé, die Choreographien, die mit BPEL4Chor erstellt wurden, einliest und daraus Prozesse generiert, die in BPEL modelliert sind.Item Open Access An Internet of Things and data-driven approach to data centers(2022) Setz, Brian; Aiello, Marco (Prof. Dr.)Data centers are a fundamental part of modern society, as they ensure that today's ICT services are available and responsive. The current trends show that data centers are increasing in size, which corresponds with an increase in their already significant energy footprint. As governments around the globe struggle to achieve their desired sustainability goals, the need for efficient and sustainable data centers is urgent. The Internet of Things (IoT) paradigm plays an important role in increasing the efficiency and sustainability of buildings. The smart home and office domains demonstrate the successful application of IoT in order to achieve energy savings through continuous monitoring and optimization of the building environment. Extending these techniques to the data center domain promises to bring the smartness previously seen in homes and offices to the data center. However, there are challenges that need to be overcome before the concept of a smart and optimized data center becomes a reality. In this thesis, a number of these challenges are addressed from a data-driven and IoT point of view.