05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
Item Open Access Abschlussbericht des Verbundprojekts Tools4BPEL(2009) Iron, Rolf; Kopp, Oliver; Leiner, Andreas; Leymann, Frank; Massuthe, PeterUnternehmensübergreifende Geschäftsprozesse werden zunehmend nach dem Paradigma der Services organisiert. Dabei stellen sich Fragen nach der Komponierbarkeit, Fehlerbehandlung, sowie der Rücksetzbarkeit (Kompensation) im Fehlerfall. In diesem Vorhaben werden Methoden und Werkzeuge zum Umgang mit solchen Fragen entwickelt und am Beispiel der Geschäftsprozess-Modellierungssprache BPEL und im Modellierungswerkzeug der Firma MEGA international erprobt. Es wurde zum einen der Übersetzer BPEL2oWFN entwickelt, der anhand einer Petrinetzsemantik für BPEL einen BPEL-Prozess in ein (offenes) Petrinetz transformiert. Zum anderen wurden Korrektheitskriterien (wie Bedienbarkeit und Verhaltenskompatibilität) für Services erarbeitet, Algorithmen zu ihrer Überprüfung entworfen und in Fiona implementiert. Die Algorithmen sind Petrinetz-basiert. Damit spielen Übersetzung und Analyse eng zusammen und ein vorhandener BPEL-Prozess kann auf bspw. Bedienbarkeit hin untersucht werden. In diesem Vorhaben wurden die Modellierungssprache BPEL4Chor, Choreographie-Erweiterungen für BPMN entwickelt, sowie die Transformation von BPMN nach BPEL angepasst, um den Weg von BPMN nach BPEL4Chor zu unterstützen. Weiterhin wurden Konzepte entwickelt, wie sich partner-übergreifende Fehlerbehandlung, Rücksetzbarkeit, sowie die Autonomie der Partner mittels BPEL4Chor darstellen lassen. BPEL4Chor kann als Standardsprache zur Spezifikation von Protokollen, die zwischen mehreren Partnern ablaufen, verwendet werden. Durch seine enge Verbindung mit BPEL kann BPEL4Chor sehr gut als Startpunkt für eine Webservice-Lösung verwendet werden.Item Open Access Abstract business process monitoring(2011) Lie, SumadiBusiness process monitoring provides the means to monitor the executing activities of process instance and it allows checking the resulting state of each activity. This information provides users knowledge about which activities have successfully been performed and which ones need to be fixed by an administrator or technical operator. However, modeling and executing of business processes are carried out on different levels of abstraction, i.e., the process model that is designed on high-level by the business users might not be directly executed, but it needs to be either decomposed into several small additional steps or translated into low-level executable codes for example Business Process Execution Language (BPEL) by the technical users, so that the process engine can understand how to execute the business processes. In the end the business users who are interested in viewing the resulting business process instance can only have a low-level view, i.e., the status of the high-level view is unknown. In this student thesis business processes based on the language BPEL will be used in the low-level view, while the high-level process model is proposed and realized as Chevron-like processes (used in Microsoft PowerPoint). The Chevron process model might be defined by tagging some useful information such as name and picture to each activity to reflect the business purposes, and also small indicator for the activity status. The problem described above can be dealt with the assistance of process views [Schumm2] and state propagation patterns [Schumm3]. Process views allow given process model to be customized, e.g., by removing a particular activity or by augmenting additional information to activities which can be used during visualization. In business process monitoring, process views enable the mapping between activities on different levels of abstraction and they also visualize the current state of running activity instances. State propagation patterns [Schumm3] define how states of low-level view can be projected into the high-level view. The resulting states of activities from the BPEL business process should be propagated back into the activities of Chevron process. Some basic patterns will be presented and each of them contributes a solution to a particular case. At the end an example scenario is introduced and a test of the projection from low-level model into high-level model will be conducted.Item Open Access Abstract syntax of WS-BPEL 2.0(2008) Kopp, Oliver; Mietzner, Ralph; Leymann, FrankWS-BPEL 2.0 is the current version of the "Business Process Execution Language for Web Services". Until now, no formal definition of its syntax exists. We present a complete syntax of WS-BPEL 2.0 of both abstract and executable processes.Item Open Access Accelerated computation using runtime partial reconfiguration(2013) Nayak, Naresh GaneshRuntime reconfigurable architectures, which integrate a hard processor core along with a reconfigurable fabric on a single device, allow to accelerate a computation by means of hardware accelerators implemented in the reconfigurable fabric. Runtime partial reconfiguration provides the flexibility to dynamically change these hardware accelerators to adapt the computing capacity of the system. This thesis presents the evaluation of design paradigms which exploit partial reconfiguration to implement compute intensive applications on such runtime reconfigurable architectures. For this purpose, image processing applications are implemented on Zynq-7000, a System on a Chip (SoC) from Xilinx Inc. which integrates an ARM Cortex A9 with a reconfigurable fabric. This thesis studies different image processing applications to select suitable candidates that benefit if implemented on the above mentioned class of reconfigurable architectures using runtime partial reconfiguration. Different Intellectual Property (IP) cores for executing basic image operations are generated using high level synthesis for the implementation. A software based scheduler, executed in the Linux environment running on the ARM core, is responsible for implementing the image processing application by means of loading appropriate IP cores into the reconfigurable fabric. The implementation is evaluated to measure the application speed up, resource savings, power savings and the delay on account of partial reconfiguration. The results of the thesis suggest that the use of partial reconfiguration to implement an application provides FPGA resource savings. The extent of resource savings depend on the granularity of the operations into which the application is decomposed. The thesis could also establish that runtime partial reconfiguration can be used to accelerate the computations in reconfigurable architectures with processor core like the Zynq-7000 platform. The achieved computational speed-up depends on factors like the number of hardware accelerators used for the computation and the used reconfiguration schedule. The thesis also highlights the power savings that may be achieved by executing computations in the reconfigurable fabric instead of the processor core.Item Open Access Adaptation of the data access layer to enable cloud data access(2012) Reza, S. M. MohsinIn the current era of technology, Cloud computing has become significantly popular within enterprise IT community, as it brings a large number of opportunities and provides solutions for user’s data, software, and computations. As part of the Cloud computing the service model Database-as-a-Service (DBaaS) has been recognized, where application can access highly available, scaled, and elastic data store services on demand with the possibility of paying only for the resources are actually consumed. While enterprise IT becoming larger these days, the current challenges are to manage the traditional database with entire enterprise data. One possible solution is to move the application data to the Cloud and then accessing Cloud data from the traditional application on local server. Thus, ensuring the use of economies of scale and reducing the capital expenditure of enterprise IT. Moving data layer to the Cloud introduces an issue how an application can access data from the Cloud data store services with full functionality of accessing like traditional database service. To ensure this possibility, the application needs to be implemented a Data Access Layer (DAL) separately in order to enable access to Cloud data, where DAL is responsible for encapsulating the data access functionalities and interacts with business logic within the application system. Thus reduces the application complexity and brings the solutions for managing entire enterprise, data. However, accessing heterogeneous data store services the DAL requires implementing necessary adaptations. This master’s thesis focuses on investigating the adaptations of SQL statements required for accessing Relational Database Management Systems (RDMS) in the Cloud. In this scope, we perform testing on several RDMS (i.e. MySQL, Oracle, PostgreSQL) in different Cloud services in order to determine the required adaptations. However, the adaptations are to be implemented in DAL for enable accessing Cloud data. Evaluating the adaptations of SQL statements, a software application called SQL Evaluation tool has been developed in this master’s thesis, where the application has implemented a DAL explicitly and is capable to execute the SQL statements simultaneously in different Cloud data store services. The purpose of developing this application is verifying the concept of adaptation of DAL.Item Open Access Adaptive Prozessmodellierung mittels mehrerer Abstraktionsschichten(2011) Alvi, Modood AhmadGeschäftsprozesse werden typischerweise von verschiedenen Prozessverantwortlichen modelliert. Das führt zu Modellen, die sich inhaltlich unterscheiden und auf verschiedenen Abstraktionsschichten liegen. Insbesondere existieren je nach Prozessperspektive mehrere Modelle eines einzelnen Geschäftsprozesses. Daraus ergeben sich drei Anforderungen: Erstens, die Zuordnung der Prozesselemente in den Abstraktionsschichten. Zweitens, Änderungen in einem Prozessmodell müssen an alle anderen verwandten Modelle weitergereicht werden. Drittens, die Einführung einer Notation für Konsistenz zwischen Prozessmodellen. In dieser Arbeit wird ein Konzept zur adaptiven Modellierung von Geschäftsprozessen mittels mehrerer Abstraktionsschichten entwickelt. Dazu werden Änderungen an einem Prozessmodell in Änderungsoperationen ausgedrückt, die wiederum auf einer Modellzuordnung operieren. Diese Änderungsoperationen werden in einem Änderungsprotokoll abgelegt und bei Bedarf den verwandten Modellen weitergereicht. Jede Operation definiert dabei Bedingungen, die erfüllt sein müssen, um die Änderung zu übernehmen. Zwei Prozessmodelle sind demnach konsistent, nachdem alle Änderungsoperationen übernommen wurden. Die Übernahme einer Änderung kann wiederum eine Änderungsoperation des adaptierenden Prozessmodells generieren. Die entwickelten Konzepte werden für den webbasierten Editor Oryx umgesetzt.Item Open Access AI planning for improved ventilation management in buildings(2021) Stanullo, ClaudioOffice buildings in particular have high energy consumption followed by high operational costs and emissions. In addition, regulated air exchange is becoming increasingly necessary due to the COVID-19 pandemic. While current building management systems work with primitive rules and basic scheduling functions, Demand-Side Management (DSM) allows smart solutions by using Internet of Things (IoT) devices. Artificial Intelligence (AI) planning can be used to plan the energy demand of buildings intelligently. It provides powerful techniques for the automated and dynamic selection and organization of actions that, when carried out, achieve a specific goal. In this thesis a Demand-Side Management system with AI planning has been developed, which adjusts the temperature and CO2 values of an office room to a comfortable and healthy level. The company SPIRIT/21 equipped 12 office rooms with sensors and wants to test the developed system with real data gathered by them. The system, running with the OPTIC planner, uses the data to calculate an efficient solution, resulting in a comfortable indoor climate, regular air exchange, increased energy efficiency and in lower operating costs.Item Open Access AI planning for poker player(2022) Ashi, MikeThroughout the history of computer science, games have always been a major driving factor in the development of the artificial intelligence field. The pioneers of computer science have identified the importance of games like chess, checkers, and other similar games and have spent years working on solving them. These games offered a great research framework with well-defined rules, distinct objectives, and a means of measuring performance. However, it was also recognized that perfect information games do not reflect the decision-making process in real life, where agents must embrace uncertainty and often deal with misinformation and deception. The game of poker successfully models these aspects of decision-making and can be used to study the behavior of intelligent agents in real-life domains. Poker has recently regained the attention of researchers, leading to significant breakthroughs elevating AI agents to the level of professional players. Several approaches have been used to solve poker, such as knowledge-based agents, enhanced simulation systems, theoretic equilibrium solutions, and exploitative counter-strategies. Nevertheless, to the best of our knowledge, HTN planning techniques have never been used before. In this thesis, we will explore the use of risk-aware HTN planning for playing no limit Texas Hold’em, the most strategically demanding variation of poker, which will allow us to investigate the potential of this approach.Item Open Access Air cooling vs. liquid immersion cooling: can liquid immersion cooling improve the energy and space efficiency of data centres?(2021) Blosch, YannisThe demand for cloud services is rising continuously, inflating the energy demand for data centres exponentially. The purpose of this literature review is to discover the positive impact liquid immersion cooling can have on data centre efficiency and density. Utilizing a systematic literature review, this paper illustrates the research already conducted on immersion cooling. The calculated results, using the available data, shows that by switching from air to liquid immersion cooling, about half the energy used by a data centre and two thirds of the space occupied by a data centre can be freed for additional hardware. This review succeeds in showing the capabilities of liquid immersion cooling in data centres. Further research can be conducted on the actual improvement when a data centre is converted to immersion cooling.Item Open Access Aktualisierung und Änderungsweitergabe in Workflow-Choreographien(2017) Nemet, MarkusDas Forschungsfeld e-Science beschäftigt sich unter anderem mit Simulationen in der Wissenschaft. Eine Strategie besteht darin, die etablierten Standards, aus der Geschäftswelt, auf die Anforderungen von Wissenschaftlern, für Scientific-Workflows, zu übertragen. Die angebotene Werkzeuge für Wissenschaftler sollten das Modellieren mit der Trial and Error Methode unterstützen, da dies eine natürliche Vorgehensweise bei der Erstellung von Experimenten darstellt. Die Experimente werden als Workflow-Choreographien beschrieben. Diese Arbeit beschäftigt sich damit, wie Aktualisierungen von Workflow-Choreographien an die beteiligten Partner propagiert und gleichzeitig diese Aktualisierungen automatisch in das bestehende Modell des Partners übernommen werden können. Dazu wird ein Model-Integration-Konzept erarbeitet und anschließend in einem Proof of Concept die Funktionalität innerhalb eines wissenschaftlichen Prototyps bereitgestellt.Item Open Access Algorithmic planning, simulation and validation of smart, shared parking services using a last mile hardware(2021) Thulasi Raman, MuralikrishnaA major problem due to increased usage of vehicles is parking. In the work, we address the problem of parking by the use of a model called ’Smart Shared Private Parking’. In an urban area mixed with commercial and residential buildings, a household owner i.e. a resident keeps their parking lots not utilized during their office hours, long duration of shopping and vacations. An important question is how to make the residents provide their parking spaces. This can be made possible by hardware and efficient communication about the services offered. The work explains the conceptual deployment of such hardware and communication mechanism. This in turn helps to achieve the involvement of common residents to benefit from renting out their space and also help the drivers to utilize such services and reduce their expenses due to possibly competitive pricing scheme. For effective analysis of the model, we propose an infrastructure setup required to analyze various aspects of the model. To start with, the work highlights how a communication strategy could effectively reduce the number of times a vehicle is rerouted in search of a parking spot. Apart from reducing the commute time of a driver, this reduces the CO2 emissions. The beneficial aspects of the proposed solution for a vehicle (i.e. a car driver) are obtained by estimating and comparing vehicular emission in scenarios with and without such shared parking lots provisioned. The work proposed also highlights the beneficial aspects from a parking lot owner’s point of view. The first one among the beneficial aspects is how the parking lots are utilized in the time frame considered. This is achieved by comparing the utilization of commercial parking lots and shared parking lots with and without the proposed parking model in place. The next beneficial aspect is how the model helps the parking lot owners to earn money by lending their parking spaces. Finally, the work proposed presents a correlation analysis. This helps to conclude how the change in the number of such shared private parking lots affects the vehicles and the model itself through some metrics.Item Open Access An Internet of Things and data-driven approach to data centers(2022) Setz, Brian; Aiello, Marco (Prof. Dr.)Data centers are a fundamental part of modern society, as they ensure that today's ICT services are available and responsive. The current trends show that data centers are increasing in size, which corresponds with an increase in their already significant energy footprint. As governments around the globe struggle to achieve their desired sustainability goals, the need for efficient and sustainable data centers is urgent. The Internet of Things (IoT) paradigm plays an important role in increasing the efficiency and sustainability of buildings. The smart home and office domains demonstrate the successful application of IoT in order to achieve energy savings through continuous monitoring and optimization of the building environment. Extending these techniques to the data center domain promises to bring the smartness previously seen in homes and offices to the data center. However, there are challenges that need to be overcome before the concept of a smart and optimized data center becomes a reality. In this thesis, a number of these challenges are addressed from a data-driven and IoT point of view.Item Open Access Analyse existierender Arbeiten zur Realisierung situationsabhängiger Workflows(2015) Berhe, SenaitUnternehmen stehen gegenwärtig vor der Herausforderung, ihre Geschäftsprozesse dynamisch und automatisiert auf neue Gegebenheiten anzupassen. Um wettbewerbsfähig zu bleiben, ist es von signifikanter Relevanz, situations- und kontextbewusste Workflows zu entwickeln, die ihr Verhalten an die Benutzer und die jeweils vorherrschenden Situationen anpassen. Das bedeutet, dass ein Workflow in der Lage sein muss, seine Umwelt zu interpretieren und passend auf diese zu reagieren. Um dies zu ermöglichen, benötigen Workflows Kontext- und Situationsinformationen über die Umgebung, z.B.: plötzliche Ausfälle einer Maschine eines Produktionsprozesses. Die Entwicklung solcher Workflows, insbesondere deren Modellierung und Ausführung, ist jedoch eine komplexe Herausforderung. In dieser Bachelorarbeit werden wissenschaftliche Veröffentlichungen, die sich mit kontextbewussten Workflow-Systemen auseinander setzen, analysiert. Daraufhin werden sie anhand aufgestellter Kriterien verglichen, die eingeführt werden, um als Grundlage für den Vergleich der verschiedenen Ansätze zu dienen. Die Arbeit gibt abschließend eine Übersicht, welche Arbeiten welche Kriterien erfüllen. Somit dient die Arbeit der Orientierung, welche Ansätze für ein bestimmtes Szenario geeignet sind und welche Forschungsfragen gegenwärtig in diesem Bereich offen sind.Item Open Access Analyse existierender visueller Notationen zur Modellierung von Anwendungstopologien und deren Integration mit Prozessnotationen(2013) Albrecht, Lars-Alexander; Trefft, Rene; Zimmermann, MichaelDie Modellierung von Topologien, bestehend aus vielen einzelnen Komponenten und deren Beziehungen zueinander, sowie deren Management ist ein großes Problem im Bereich von komplexen Cloud-Anwendungen. Die Topology and Orchestration Specification for Cloud Applications (TOSCA) hat sich diesem Problem angenommen und einen Standard zur Beschreibung von Cloud-Anwendungen geschaffen. Mit Vino4TOSCA wurde eine wohldefinierte und auf etablierten Usability-Forschungen basierende visuelle Notation für TOSCA entworfen. Allerdings ermöglicht Vino4TOSCA bisher lediglich die Darstellung von Topologien. Aus diesem Grund wird in dieser Arbeit eine auf Vino4TOSCA aufbauende visuelle Notation erarbeitet, welche sowohl die Modellierung von Topologien als auch der dazugehörigen Managementplänen in einem Diagramm ermöglicht.Item Open Access Analyse und Erweiterung eines bestehenden Choreographiewerkzeugs(2014) Schilling, JoasDiese Arbeit befasst sich mit dem, von Oliver Sonnauer im Rahmen seiner Diplomarbeit entwickelten, BPEL4Chor Designer, zum Modellieren von Choreographien. Im ersten Schritt soll der Designer analysiert werden sowie fehlende Feature und andere Fehler aufgezeigt werden. Im weiteren Verlauf der Arbeit wird der Designer um fehlende Punkte erweitert. Dabei liegt der Fokus der Arbeit speziell auf dem Modellieren der Choreographie und weniger auf der Transformation zum Erstellen der BPEL4Chor Prozesse.Item Open Access Analyse und Prognose von Umweltdaten in Geschäftsprozessen(2013) Davidkov, LazarDie Mehrzahl der Geschäftsprozessen, die in den heutigen Unternehmen laufen, werden von der IT unterstützt. Diese Prozesse werden in den Rechenzentren der Unternehmen ausgeführt und dadurch entstehen hohe Kosten für den verbrauchten Strom. Eine der Aufgaben, mit denen das Management dabei konfrontiert wird, ist die Senkung dieser Kosten. Davon profitiert die Green IT, die sich in den letzten Jahren von einem Trend hin zu einer neuen Denkweise entwickelt hat. Große IT-Unternehmen setzen auf den Ideen, die Green IT mit sich bringt, weil damit eine große Reduktion der Energiekosten entsteht. Solche Ansätze sind bei Google und Facebook schon vor langer Zeit eine wichtiges Teil der IT-Strategie geworden. Diese neue Ansätze finden man nicht nur beim Bau von neuen Rechenzentren, sondern auch bei Wahl der Software, die darauf läuft. Die Geschäftsprozesse lassen sich optimieren und mit einer besseren Ökobilanz betreiben. Wie das gemacht wird, zeigt das KEI Framework. Es überwacht laufende Prozesse, simuliert neue und sammelt Informationen über den Energieverbrauch der einzelnen Aktivitäten. Damit diese Informationen von den Interessierten ausgewertet werden können, müssen sie graphisch dargestellt werden. Zur Vereinfachung dieser Aufgabe wurde das KEI Dashboard entwickelt. Es setzt auf Ideen aus dem Business Intelligence und stellt die Information, die sich im Data Warehouse befindet, in einer geeigneten und leicht verständlichen Form dem Benutzer zur Verfügung. Der Benutzer ist dann in der Lage, schnell nachvollzuziehen, wo die Problemstellen im Prozess sind. Falls Alternativen vorhanden sind, die sich mit den bestehenden Aktivitäten des Prozesses austauschen lassen, kann der Benutzer die neuen Werte einsetzen und sofort die Verbesserung/Verschlechterung der Ökobilanz des Prozesses zu sehen. Diese Studienarbeit gibt einen Überblick über die Ideen, Konzepte und die Umsetzung, die hinter dem KEI Dashboards stehen.Item Open Access Analyse und Vergleich von Open-Source Lizenzprüfwerkzeugen(2021) Wójcik, PawelDie Lizenzierung von Software konstruiert Rahmenbedingungen für die Benutzung, die Weitergabe und die Wiederverwendung dieser. Mit der steigenden Wiederverwendung von Software in deren Entwicklung, begünstigt durch die zunehmende Anzahl an frei zugänglichen Projekten, ist die korrekte Lizenzierung von Open-Source Projekten ein bestehendes Problem. Diese Arbeit beschreibt die grundlegenden Unterschiede zwischen freien und nicht-freien Softwarelizenzen und geht zusätzlich auf die verschiedenen Vorstellungen von freier Software, am Beispiel von der Open-Source Foundation und der Free Software Foundation, ein. Ausgewählte Open-Source Lizenzprüfwerkzeuge wie FOSSology oder Quickscan, welche primär als Unterstützung zur Lizenzierung und Lizenzidentifkation während des Softwareentwicklungsprozesses fungieren, werden mit Fokus auf die Funktionalität, Performanz und Benutzerfreundlichkeit vorgestellt. Abschließend werden ausgewählte Tools in einer ausführlichen Analyse nach vorher defnierten Kriterien, wie der Anzahl an gefundenen Lizenzen oder der Geschwindigkeit der Untersuchung, untereinander verglichen und die Ergebnisse kritisch diskutiert.Item Open Access Analyse, Konzept und Realisierung eines multimodalen B2B-Verkehrsplanungsdienstes auf Basis von Webserviceaggregation(2014) Biesinger, StanislausDie vorliegende Arbeit befasst sich mit der Konzeption und Entwicklung eines multimodalen B2B-Verkehrsplanungsdienstes auf der Basis von Webserviceaggregation. Es wird ein kurzer Überblick über das Thema "multimodale Verkehrsplanung" und die bisher entstandenen Ar-beiten auf Basis von gewichteten Graphen geboten. Die Nachteile bestehender Lösungen werden diskutiert und ein neuer Ansatz vorgestellt. Im Folgenden wird eine Beispielimple-mentierung dieses Ansatzes mithilfe von WS-BPEL beschrieben. Daraufhin werden die Ergebnisse, welche von dieser Beispielimplementierung geliefert werden, mit den Ergebnissen bestehender Planungsdienste verglichen. Schlussendlich werden Vor- und Nachteile des neu-en webservicebasierten Ansatzes erörtert und denkbare Erweiterungsmöglichkeiten besprochen.Item Open Access Analysis and development of a digital picking system using IoT and Logistic 4.0(2022) Jahagirdar, AniruddhaOrder picking is a crucial step in nearly all distribution networks and has a significant impact on how well warehouses run. Even though the majority of businesses still use manual order picking, development into diverse options for optimizing order picking operations or providing technological support for human order pickers is advancing quickly. A development in the logistics industry known as Logistics 4.0, or Industry 4.0 in logistics sector is taking place; it addresses new goals and the use of technology to handle impending issues in logistics and warehouse operations. More than half of a warehouse’s operational expenses are largely linked to order picking, which is the process of collecting material from the warehouse and delivering it to the packing station. Order picking procedures still primarily rely on manual labour, which notably contributes to the relatively high process costs, despite the prospect of digitising these procedures growing. In this study, a new way is proposed to optimise the manual operations of the paper-based order picking system by integrating the warehouse routing problem with an interactive webpage to give routes for pickers and order data in order to improve productivity and lower picking error rates. To evaluate the current level of knowledge in this area, a thorough literature study is conducted, and potential research areas in order picking are identified. Along with this, various Travelling Salesman Problem (TSP) heuristics are also examined, and thorough cost and performance analyses are done for various TSP heuristics. Additionally, an economic analysis is performed where several factors are taken into account for both the current paper-based system and the recently built digital system. In the end, this thesis work discovers that the digital picking method performs better in terms of worker ergonomics and efficiency than the traditional paper-based approach. Under the general conditions set, this is the only order picking solution that requires no modification of the warehouse’s environment and a minimum of initial investment in infrastructure.Item Open Access Analysis and evaluation of composition languages and orchestration engines for microservices(2019) Hamidehkhan, PedramMicroservices architecture (MSA) is an approach which fosters using granular services formed around business capabilities. Although this brings many advantages regarding scalability and makes the application more flexible, the orchestration and communication of these services become more challenging. Having granular microservices means that end-to-end business processes generally span several microservices and the logic and the order of execution of these microservices must be specified. The industry has foreseen this challenge and companies such as Uber and Netflix have developed their orchestration engines. Moreover, composition languages have emerged which emphasize the need for new programming languages with special constructs particularly designed for MSA. In this work, we evaluate and analyze the tools, driven by both industry and academia, which are suitable for microservices composition and orchestration in order to find a reference architecture. To determine the current state of research as well as industry with regards to microservices composition and orchestration, a systematic literature review (SLR) is conducted which discovers the existing tools and enable performing an unbiased evaluation. Then the discovered tools are evaluated and analyzed to find a reference architecture. Based on the results of the evaluation, a prototype is implemented which proposes a reference architecture for the orchestration engines.