Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
23 results
Search Results
Item Open Access Partnerübergreifende Geschäftsprozesse und ihre Realisierung in BPEL(2016) Kopp, Oliver; Leymann, Frank (Prof. Dr. Dr. h. c.)Diese Arbeit beschäftigt sich mit Geschäftsprozessen, die die Grenzen von Organisationen überspannen. Solche Geschäftsprozesse werden Choreographien genannt. In der Arbeit wird die CREAM-Methode vorgestellt, die zeigt, wie Choreographien modelliert werden können. Im Gegensatz zu Choreographien bezeichnen Orchestrierungen ausführbare Geschäftsprozesse einer einzelnen Organisation, die Dienste nutzen, um ein Geschäftsziel zu erreichen. Eine Variante der CREAM-Methode erlaubt, von einer Orchestrierung durch Aufteilung der Orchestrierung eine Choreographie zu erhalten. Um hierbei die impliziten orchestrierungsinternen Datenabhängigkeiten in Nachrichtenaustausche zu transformieren, wird der explizite Datenfluss der Orchestrierung benötigt. Die Web Services Business Process Execution Language (BPEL) ist eine verbreitete Sprache zur Modellierung von Geschäftsprozessen. In ihr wird der Datenfluss implizit modelliert und somit wird ein Verfahren benötigt, das den expliziten Datenfluss bestimmt. In dieser Arbeit wird ein solches Verfahren vorgestellt. Um eine Choreographie zu modellieren, wird eine Choreographiesprache benötigt. Zur Identifikation einer geeigneten Sprache werden in dieser Arbeit Kriterien zur Evaluation von Choreographiesprachen vorgestellt und damit Choreographiesprachen im Web-Service-Umfeld bewertet. Da keine der betrachteten Sprachen alle Kriterien erfüllt, wird die Sprache BPEL4Chor vorgestellt, die alle Kriterien erfüllt. Um die wohldefinierte Ausführungssemantik von BPEL wiederzuverwenden, verwendet BPEL4Chor die Sprache BPEL als Beschreibungssprache des Verhaltens jedes Teilnehmers in der Choreographie. BPEL4Chor verwendet analog zu BPEL XML als Serialisierungsformat und spezifiziert keine eigene graphische Repräsentation. Die Business Process Modeling Notation (BPMN) ist der de-facto Standard, um Geschäftsprozesse graphisch darzustellen. Deshalb wird in dieser Arbeit BPMN so erweitert, dass alle in BPEL4Chor verfügbaren Konstrukte mittels BPMN modelliert werden können.Item Open Access Prozessbausteine(2014) Eberle, Hanna; Leymann, Frank (Prof. Dr.)Gegenwärtig existierenden Modellierungssprachen und Werkzeugen zur Umsetzung prozessbasierter Anwendungen liegt im Allgemeinen die Annahme eines zur Entwicklungszeit bekannten und in seiner Struktur vollständig ausmodellierten Prozessmodells zugrunde. Für Szenarien, in welchen eine prozessbasierte Anwendung neben stabilen, d.h. zur Modellierungszeit des Prozesses bekannten, auch durch dynamische, d.h. erst zur Anwendungslaufzeit geltende, Rahmenbedingungen beeinflusst wird, ist eine derartige statische Prozessmodellierung nur bedingt geeignet. In diesen Szenarien ist es vielmehr wünschenswert, (i) zur Entwicklungszeit bereits bekannte Prozessteile der Anwendung detailliert ausmodellieren zu können, und diese (ii) zur Laufzeit der Anwendung unter Berücksichtigung der zum Ausführungszeitpunkt geltenden dynamischen Rahmenbedingungen zum vollständigen Prozess der Anwendung zu integrieren. Das im Verlauf dieser Arbeit vorgestellte Konzept der Prozessbausteine setzt an diesem Punkt an und schafft ein Rahmenwerk für die Modellierung und Ausführung prozessbasierter Anwendungen unter Berücksichtigung sowohl stabiler als auch dynamischer Rahmenbedingungen. Kerngedanke des Konzepts ist die Abbildung stabiler Rahmenbedingungen zur Entwicklungszeit in Form teilweise unvollständiger Prozessmodelle, sogenannter Prozessbausteine. Zu einem späteren Zeitpunkt im Lebenszyklus der Anwendung werden diese Prozessbausteine dann, motiviert durch die jeweils geltenden dynamischen Rahmenbedingungen, mit weiteren Prozessbausteinen zum vollständigen Prozessmodell der Anwendung integriert. Zur vollständigen Unterstützung der Entwicklung von Anwendungen auf Grundlage dieses Konzepts umfasst die vorliegende Arbeit die Definition eines Metamodells für sowohl die Modellierung einzelner als auch die Repräsentation integrierter Prozessbausteine, die Beschreibung der Ausführung integrierter Prozessbausteine, sowie die Vorstellung einer Architektur für die Ausführung integrierter Prozessbausteine.Item Open Access Green Business Process Management : Methode und Realisierung(2014) Nowak, Alexander; Leymann, Frank (Prof. Dr.)Die Veränderung des weltweiten Klimas macht deutlich, dass die Entwicklungen der globalen Märkte neben ökonomischen Aspekten zunehmend auch die Erhaltung und Verbesserung der Umweltzustände anstreben müssen. Für die Definition von Umweltzielen und -regularien wurden durch verschiedene nationale und internationale Gremien Kriterien und Ansätze beschrieben, welche häufig als Vorgaben an Unternehmen auf nationaler Ebene weitergegeben werden. Ein Beispiel hierfür ist der Handel mit CO2-Zertifikaten, bei dem Unternehmen den von ihnen ausgestoßenen Anteil von CO2 durch Zertifikate abdecken müssen. Damit Unternehmen diese gesetzlichen Auflagen einhalten und die damit verbundenen monetären Belastungen reduzieren können, müssen geeignete Maßnahmen zur Reduktion des negativen Umwelteinflusses aller unternehmerischen Aktivitäten entwickelt werden. Für die Ermittlung des Umwelteinflusses eines Unternehmens wurden bereits verschiedene Methoden entwickelt, wie beispielsweise der ISO Standard 14000 und das Life Cycle Assessment. Diese Methoden zielen jedoch häufig nur auf die Erfassung des Umwelteinflusses von Produkten ab und reichen nicht aus, eine ganzheitliche Optimierung des Umwelteinflusses eines Unternehmens und seiner Abläufe zu erreichen. Umweltaspekte müssen direkt in das Management und die strategische Entwicklung von Unternehmen integriert werden. Sie müssen in der Lage sein, den Umwelteinfluss des unternehmerischen Handelns abzubilden, zu analysieren und hinsichtlich der konventionellen Optimierungskriterien Kosten, Qualität, Zeit und Flexibilität abzuwägen, ohne dabei auf eine schnelle und flexible Anpassung an sich verändernde Marktsituationen zu verzichten. In dieser Dissertation wird eine Erweiterung des existierenden Geschäftsprozessmanagements unter Einbeziehung zugehöriger Methoden und Werkzeuge eingeführt, welche es Entscheidungsträgern ermöglicht, die strategische Entwicklung eines Unternehmens durch ökologische Aspekte zu ergänzen. Die entwickelten Konzepte zeigen, wie Key Performance Indicators, unterstützende IT-Infrastrukturen und die strategische Unternehmensgestaltung für die Integration dieser Aspekte erweitert werden müssen. Zur Unterstützung der vorgestellten Erweiterungen des Geschäfts¬prozess-managements wurde ein allgemeines Vorgehens¬modell definiert, welches aus ökologischer Sicht die Definition von Key Ecological Indicators, die Abbildung von Ressourcen auf Prozessmodelle und -aktivitäten, die Definition spezifischer Monitoringmodelle und die ökologische Analyse von Geschäftsprozessen abdeckt. Die Umsetzung dieser Aspekte wird jeweils exemplarisch durch spezifisch entwickelte Methoden aufgezeigt. Für das Management von Geschäftsprozessen auf Basis der analysierten Informationen definiert die vorliegende Arbeit einen auf Patterns basierenden Ansatz. Hierzu wurde eine Menge von Green Business Process Patterns identifiziert und dokumentiert. Die Entwicklung eines Pattern Support Frameworks hilft Entscheidungsträgern anschließend, diese Patterns für eine zielorientierte Optimierung von Geschäftsprozessen einzusetzen. Ausgehend von konkreten Problemstellungen begleitet das Pattern Support Framework damit die Identifikation geeigneter Patterns, welche im Anschluss auf konkrete Lösungsimplementierungen übertragen werden können. Die in der vorliegenden Arbeit eingeführten Konzepte erlauben es Entscheidungsträgern, neben ökonomischen auch ökologische Entscheidungsaspekte in der Entwicklung von Geschäftsprozessen zu berücksichtigen. Die Verbesserung des Umwelteinflusses zielt damit nicht nur direkt auf den ökologischen Fußabdruck eines Produktes oder Services ab, sondern ermöglicht eine durchgängige Restrukturierung aller an der Erzeugung oder Bereitstellung beteiligten Abläufe. Die entwickelten Prototypen zeigen exemplarisch die Implementierung der verschiedenen Konzepte und unterstützen sowohl Entscheidungsträger als auch Optimierungsteams bei der Verbesserung des Umwelteinflusses. Die Anwendbarkeit der Konzepte und Werkzeuge wird zudem in einer Fallstudie validiert.Item Open Access Workload mix definition for benchmarking BPMN 2.0 Workflow Management Systems(2017) Skouradaki, Marigianna; Leymann, Frank (Prof. Dr. Dr. h. c.)Nowadays, enterprises broadly use Workflow Management Systems (WfMSs) to design, deploy, execute, monitor and analyse their automated business processes. Through the years, WfMSs evolved into platforms that deliver complex service oriented applications. In this regard, they need to satisfy enterprise-grade performance requirements, such as dependability and scalability. With the ever-growing number of WfMSs that are currently available in the market, companies are called to choose which product is optimal for their requirements and business models. Benchmarking is an established practice used to compare alternative products and leverages the continuous improvement of technology by setting a clear target in measuring and assessing performance. In particular, for service oriented WfMSs there is not yet a widely accepted standard benchmark available, even if workflow modelling languages such as Web Services Business Process Execution Language (WS-BPEL) and Business Process Model and Notation 2.0 (BPMN 2.0) have been adopted as the de-facto standards. A possible explanation on this deficiency can be given by the inherent architectural complexity of WfMSs and the very large number of parameters affecting their performance. However, the need for a standard benchmark for WfMSs is frequently affirmed by the literature. The goal of the BenchFlow approach is to propose a framework towards the first standard benchmark forassessing and comparing the performance of BPMN 2.0 WfMSs. To this end, the approach addresses a set of challenges spanning from logistic challenges, that are related to the collection of a representative set of usage scenarios,to technical challenges, that concern the specific characteristics of a WfMS. This work focuses on a subset of these challenges dealing with the definition of a representative set of process models and corresponding data that will be given as an input to the benchmark. This set of representative process models and corresponding data are referred to as the workload mix of the benchmark. More particularly, we first prepare the theoretical background for defining a representative workload mix. This is accomplished through identification of the basic components of a workload model for WfMS benchmarks, as well as the investigation of the impact of the BPMN 2.0 language constructs to the WfMS’s performance, by means of introducing the first BPMN 2.0 micro-benchmark. We proceed by collecting real-world process models for the identification of a representative workload mix. Therefore, the collection is analysed with respect to its statistical characteristics and also with a novel algorithm that detects and extracts the reoccurring structural patterns of the collection.The extracted reoccurring structures are then used for generating synthetic process models that reflect the essence of the original collection.The introduced methods are brought together in a tool chain that supports the workload mix generation. As a final step, we applied the proposed methods on a real-world case study, that bases on a collection of thousands of real-world process models and generates a representative workload mix to be used in a benchmark. The results show that the generated workload mix is successful in its application for stressing the WfMSs under test.Item Open Access Throughput improvements for BPEL engines : implementation techniques and measurements applied to SWoM(2013) Roller, Dieter; Leymann, Frank (Prof. Dr.)Workflow Technology has become over the last two decades the cornerstone of modern application systems, in particular those built upon Service Oriented Architecture (SOA). It helps implement business processes that can be easily adapted to the changing needs of a dynamic environment and provides the base for the two-level application development paradigm. Workflow Management Systems (WfMS) deliver the functions of workflow technology; they have become a critical middleware component whose performance characteristics are significantly impacting the overall performance of the applications that have been built. In the thesis, a set of optimization techniques for a state-of-the-art WfMS have been developed that delivers the required robustness with the best achievable performance. This WfMS has been labeled Stuttgarter Workflow Maschine (SWoM) to emphasize its birth place. Several novel approaches have been developed to achieve the desired goal : (1) the concept of transaction flows has been developed as the base for a flow optimizer that significantly improves the performance of the workflow engine, (2) the notion of caching is driven into virtually all areas of the different components that make up the SWoM, (3) the exploitation and tie-in into the underlying infrastructure for optimal resource exploitation, where the infrastructure, IBM WebSphere for the application server and IBM DB2 as the database environment, provides for the necessary robustness, and (4) a flow optimizer optimizes the execution of the transaction flows with respect to cache, database, and CPU cycle usage based on user recommendations and statistical information that the SWoM collects during execution. These optimization techniques, that maintain middleware robustness, are complemented by a set of optimization techniques that improve performance by relaxing some of the stringent robustness requirements. All techniques have been validated using a simple, yet expressive benchmark that focuses on high-speed, message-based interactions, synchronous invocation, message transformation, and parallel execution. The benchmark results show that the SWoM scales almost linearly with respect to CPU load and the parallelism of requests. The maximum number of requests that the SWoM could obtain on a quad core CPU running Windows 7 64bit was more than 100 process instances per second.Item Open Access Eine musterbasierte Methode zur Automatisierung des Anwendungsmanagements(2016) Breitenbücher, Uwe; Leymann, Frank (Prof. Dr. Dr. h. c.)Das Management laufender Geschäftsanwendungen gehört zu den kritischen Vorgängen des IT-Betriebs, da Unachtsamkeiten zu fehlerhaften Anwendungszuständen und zum Ausfall ganzer Anwendungslandschaften führen können. Speziell die manuelle Managementdurchführung birgt aufgrund zunehmend unüberschaubarer Anwendungsstrukturen, unbekannter Abhängigkeiten zwischen Komponenten, unzureichender Dokumentation sowie komplexer Managementwerkzeuge ein stetig größer werdendes wirtschaftliches Risiko. Aus diesem Grund wurden in den vergangenen Jahren neue Paradigmen und eine große Anzahl an Technologien zur Automatisierung des Anwendungsmanagements entwickelt. Die zunehmende Komplexität von Architekturen durch verteilte Systeme, Virtualisierung von Komponenten, Cloud Computing und dem aufkommenden Internet der Dinge erfordert jedoch immer häufiger die Kombination mehrerer dieser Managementtechnologien, um übergeordnete Managementziele bezüglich eines komplexen IT-Systems umzusetzen. Dabei treten sowohl (i) konzeptionelle als auch (ii) technische Fragestellungen auf, die von unterschiedlichen Expertengruppen in Kollaboration analysiert und gelöst werden müssen. Die Integration dieser beiden Abstraktionsebenen stellt dabei eine grundlegende Herausforderung dar, die im gegenwärtigen Anwendungsmanagement aufgrund fehlender durchgängiger Automatisierungsmöglichkeiten zumeist unter hohem Aufwand individuell angenommen werden muss. Um diese Automatisierungslücke zwischen den beiden Abstraktionsebenen zu schließen, stellt diese Arbeit eine hybride, musterbasierte Managementmethode namens PALMA vor. Die Methode kombiniert das deklarative mit dem imperativen Managementparadigma und ermöglicht dadurch die automatisierte Anwendung generischer Managementmuster. Häufig auftretende Managementprobleme, wie beispielsweise die Migration einer Anwendungskomponente in eine Cloud-Umgebung unter Wahrung deren Verfügbarkeit, können mittels automatisierten Managementmustern effizient für individuelle Anwendungen gelöst und die zugehörigen Prozesse automatisiert ausgeführt werden. Die Methode unterstützt die Kollaboration von Experten und kann manuell, semi-automatisiert sowie vollständig automatisiert angewendet werden. Zur Umsetzung der Methode wird eine deklarative Sprache namens DMMN vorgestellt, welche die Modellierung von Managementaufgaben auf hoher deklarativer Abstraktionsebene unter Ausblendung technischer Ausführungsdetails ermöglicht. Bei der automatisierten Ausführung von Managementmustern werden deklarative Managementmodelle in dieser Sprache generiert, welche die jeweilige Musterlösung für die betroffene Anwendung in Form der auszuführenden Managementaufgaben abstrakt spezifizieren. Zu deren Ausführung wird ein Transformationsverfahren vorgestellt, das deklarative Managementmodelle in ausführbare, imperative Prozessmodelle übersetzt. Die Generierung dieser Prozessmodelle basiert dabei auf der Orchestrierung wiederverwendbarer Managementbausteine, die in Form von Subprozessen modelliert sind und als Management-Planlets bezeichnet werden. Durch diese Transformation werden die Stärken beider Paradigmen vereint und umfangreiches Management komplexer IT-Systeme ermöglicht. Zudem wird ein musterbasiertes Verfahren vorgestellt, mithilfe dessen Managementaufgaben in deklarativen Managementmodellen automatisch auf Probleme analysiert und diesbezüglich korrigiert werden können. Dadurch wird die Korrektheit der Durchführung gewährleistet und der Systemadministrator bei der Modellierung der Modelle unterstützt. Die in dieser Arbeit vorgestellten Konzepte werden im Rahmen des sogenannten PALMA-Frameworks prototypisch implementiert, um die praktische Umsetzbarkeit der theoretischen Konzepte und Ansätze zu validieren.Item Open Access Design support for performance- and cost-efficient (re)distribution of cloud applications(2019) Gómez Sáez, Santiago; Leymann, Frank (Prof. Dr. Dr. h. c.)In the last decade the IT landscape has experienced a revolutionary change in both the research and industry domains due to the strong emergence and adoption of cloud providers and services. The increase of available cloud services together with the materialization of DevOps methodologies have forced a change in how software is engineered and operated. Nowadays, organizations can leverage a wide spectrum of cloud services to build, migrate, distribute, and even replace their application components in the cloud. In summary, the transformation of capital into operational expenditures when using private or public clouds has become a reality. The emergence of cloud services, however, brought with it a substantial complexity when designing and running cloud applications. More specifically, cloud environments are intrinsically multi-tenant, where different tenants (or cloud consumers) consume computational, network, and storage resources on an on-demand basis. This type of virtualized environment causes performance to be variable and heterogeneous, therefore having consequences on application costs. When migrating applications to the cloud, this heterogeneity causes architectural decision making to be more complex, mainly due to the limited amount of knowledge about cloud services. This work tackles the aforementioned decision making challenge, by defining and realizing a design decision support framework called SCARF to assist IT organizations to efficiently migrate their applications to the cloud, with a focus on optimizing their cost and performance. In summary, SCARF is a design and decision support framework for \textit{systematically (re)distributing applications in the cloud}. SCARF equips application architects with a design process and tools (i) to model their application architectures, (ii) to automatically discover potential cloud services to (re-)deploy their application components, (iii) to evaluate them with respect to cost and performance, and (iv) to monitor and analyze application costs and performance evolution during runtime. SCARF builds upon existing concepts and techniques in the domain of cloud application topologies, case base reasoning, similarity analysis, and utility theory, in order to simplify the steps for re-engineering and migrating traditional applications to the cloud. The technological support for SCARF, SCARF-T, comprises an integrated tool chain built upon prior standards and reusing existing technologies and tools. The evaluation of SCARF and SCARF-T show a more efficient and simplified decision making process for migrating applications to the cloud, as also shown by the publications supporting this thesis. Overall, SCARF can be considered as a starting point for enabling IT organizations with architectural decision support for migrating their applications to the cloud, with a focus on optimizing the complete spectrum of application non-functional aspects.Item Open Access A method and implementation to define and provision variable composite applications, and its usage in cloud computing(2010) Mietzner, Ralph; Leymann, Frank (Prof. Dr.)The trend to outsource applications not critical to an enterprise's core business has driven the emergence of a new type of IT service providers. These service providers run and maintain applications for enterprises having outsourced them. The business model of the providers is thus based on the exploitation of economies of scale by offering the same infrastructure, platforms and applications to multiple customers. Since different customers have different requirements regarding functional and nonfunctional aspects of an application, the infrastructure, platforms and applications must be customizable to different customer's needs. This also enables the providers to increase the customer base for one offering. To further increase the customer base, providers do not only host and provide software they have developed in house, but also want to offer applications offered by third-party application vendors. In this thesis, a metamodel, algorithms and tools are introduced allowing application vendors to describe and package applications in a way that they can automatically be set up (provisioned) at a provider either with minimal or no human intervention. Furthermore, a metamodel is introduced allowing application vendors to describe the variability of an application. This variability metamodel enables the generation of customization workflows used by customers to adapt an application to their needs. The combination of the application metamodel and variability metamodel enables a self-service model in which customers can subscribe to and unsubscribe from applications as they wish. Customers thus select the application they want to use in an application portal and a guided through the customization. Having customized the application, the application is set up automatically with the required quality of services and functionality. The concepts introduced in this thesis enable application vendors to describe customizable applications without knowing the exact infrastructure they are later provisioned on. Providers can extend their customer base by offering customizable applications developed by application vendors, and customers can follow a best-of-breed strategy in choosing from arbitrary combinations of providers and applications. Corresponding prototypes for all three roles, application vendors, providers and customers to build, provide, provision and customize applications have been built and are introduced in this thesis. These serve as a proof-of-concept implementation for the proposed concepts. Different case studies are given to show the general applicability of the approach.Item Open Access A tuplespace based execution model for decentralized workflow enactment : applied for BPEL(2010) Martin, Daniel; Leymann, Frank (Prof. Dr. rer. nat.)The ability to cope with change is one of the biggest challenges companies are facing today [JLN08]. Methods to increase business agility, such as outsourcing or off-shoring of non-core parts of the business are practiced already and will continue to play an important role in the future. A change in business however always means to also change the underlying IT infrastructure, which therefore needs to be designed in a way to be able to support flexible re-arrangement of its support for business operations. IT systems today are integrated using so called workflow management systems, that execute a business process in the form of “orchestrations” of the individual applications used for carrying out business functions. These processes today are enacted centrally, i.e. the workflow engine acts as a central point of control governing the lifecycle of all activities of a process. This way of enacting processes has certain drawbacks, revealed when executing change such as outsourcing parts of a process. Using state-of-the-art workflow engines, this results in development of process partitions that need to be maintained separately and were not created because the original business goal has changed, but because the used workflow engine does not allow for flexible deployment of a single process model to multiple process engines. This thesis proposes a fundamentally new execution model for decentralized workflow enactment that does not have these drawbacks. It allows for flexible deployment of arbitrary partitions of the original workflow graph, thus supporting change at the level of business processes avoiding the need to change a process solely because the underlying IT infrastructure has changed. The contributions of this thesis are: an in-depth analysis of differences between tuplespace-based and message-oriented middleware systems, a Petri net based formalization of tuplespace interactions called Executable Workflow Nets (EWFN), a fully-fledged Petri net formalization of WS-BPEL 2.0, a method and algorithm to execute Petri nets using tuplespaces and an architecture and implementation of the “coordination kernel” of a decentralized workflow engine that executes Petri net based workflows.Item Open Access Crawling von Enterprise Topologien zur automatisierten Migration von Anwendungen : eine Cloud-Perspektive(2015) Binz, Tobias; Leymann, Frank (Prof. Dr.)Eine schnelle Anpassung der IT an sich ändernde Anforderungen bei gleichzeitiger Reduktion der Kosten bestimmt heute die Konkurrenzfähigkeit einer Organisation. Voraussetzung dafür ist ein technisch detaillierter Einblick in die gesamte IT, also ein Instanzmodell aller Komponenten und deren Beziehungen zueinander. Da Organisationen diese Art der Dokumentation meist nicht durchführen, sind diese IT-Instanzmodelle typischerweise nicht vorhanden, unvollständig oder veraltet. Eine Ursache dafür ist, dass die manuelle Identifikation von Komponenten und deren Beziehungen eine sehr zeitaufwändige, fehleranfällige und somit kostenintensive Aufgabe ist. Neben der Adaption der IT im Allgemeinen erschwert dies auch die Migration von Anwendungen, welche durch den Trend zum Auslagern der IT in die Cloud stark nachgefragt wird. Die Vision dieser Arbeit ist es, einen technisch detaillierten, vollständigen und aktuellen Einblick in die IT zu erlauben und diesen zu nutzen, um die automatisierte Migration von Anwendungen zu ermöglichen. Dafür stellt die vorliegende Arbeit eine Methode zum automatisierten Crawling eines Instanzmodells der gesamten IT einer Organisation vor. Zu dessen Repräsentation, Verwaltung und Verarbeitung wird mit dem Enterprise Topologie Graph (ETG) ein Metamodell eingeführt, das alle Anwendungen, der für deren Betrieb nötigen Komponenten und deren Beziehungen untereinander repräsentiert. ETGs und ihr automatisiertes Crawling erlauben einen umfassenden und vollständigen Einblick in die IT einer Organisation und bilden somit eine solide Grundlage für deren Analyse, Adaption und Optimierung. Darauf aufbauend wird eine Methode zur Migration von Anwendungen (AROMA) entwickelt, die es ermöglicht, von den Vorteilen fortschrittlicher IT-Umgebungen zu profitieren, ohne diese Anwendungen neu entwickeln zu müssen. Nach dem Crawling des ETGs der Ursprungsumgebung wird in der AROMA-Methode die zu migrierende Anwendung extrahiert, transformiert, evaluiert, adaptiert und in der Zielumgebung, zum Beispiel einer Cloud, bereitgestellt. Die Umsetzung der AROMA-Methode mithilfe des OASIS-Standards TOSCA trägt zur Automatisierung der Migration bei und erhält die Funktionalität der Anwendung. Die Forschungsbeiträge und Prototypen werden durch verschiedene Fallstudien validiert und anhand der Aspekte Automatisierung, Korrektheit, Anwendbarkeit, Erweiterbarkeit sowie der Verbesserung der Cloud-Eigenschaften und Portabilität der Anwendung evaluiert.
- «
- 1 (current)
- 2
- 3
- »