Universität Stuttgart

Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1

Browse

Search Results

Now showing 1 - 10 of 103
  • Thumbnail Image
    ItemOpen Access
    Automated composition of adaptive pervasive applications in heterogeneous environments
    (2012) Schuhmann, Stephan Andreas; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c.)
    Distributed applications for Pervasive Computing represent a research area of high interest. Configuration processes are needed before the application execution to find a composition of components that provides the required functionality. As dynamic pervasive environments and device failures may yield unavailability of arbitrary components and devices at any time, finding and maintaining such a composition represents a nontrivial task. Obviously, many degrees of decentralization and even completely centralized approaches are possible in the calculation of valid configurations, spanning a wide spectrum of possible solutions. As configuration processes produce latencies which are noticed by the application user as undesired waiting times, configurations have to be calculated as fast as possible. While completely distributed configuration is inevitable in infrastructure-less Ad Hoc scenarios, many realistic Pervasive Computing environments are located in heterogeneous environments, where additional computation power of resource-rich devices can be utilized by centralized approaches. However, in case of strongly heterogeneous pervasive environments including several resource-rich and resource-weak devices, both centralized and decentralized approaches may lead to suboptimal results concerning configuration latencies: While the resource-weak devices may be bottlenecks for decentralized configuration, the centralized approach faces the problem of not utilizing parallelism. Most of the conducted projects in Pervasive Computing only focus on one specific type of environment: Either they concentrate on heterogeneous environments, which rely on additional infrastructure devices, leading to inapplicability in infrastructure-less environments. Or they address homogeneous Ad Hoc environments and treat all involved devices as equal, which leads to suboptimal results in case of present resource-rich devices, as their additional computation power is not exploited. Therefore, in this work we propose an advanced comprehensive adaptive approach that particularly focuses on the efficient support of heterogeneous environments, but is also applicable in infrastructure-less homogeneous scenarios. We provide multiple configuration schemes with different degrees of decentralization for distributed applications, optimized for specific scenarios. Our solution is adaptive in a way that the actual scheme is chosen based on the current system environment and calculates application compositions in a resource-aware efficient manner. This ensures high efficiency even in dynamically changing environments. Beyond this, many typical pervasive environments contain a fixed set of applications and devices that are frequently used. In such scenarios, identical resources are part of subsequent configuration calculations. Thus, the involved devices undergo a quite similar configuration process whenever an application is launched. However, starting the configuration from scratch every time not only consumes a lot of time, but also increases communication overhead and energy consumption of the involved devices. Therefore, our solution integrates the results from previous configurations to reduce the severity of the configuration problem in dynamic scenarios. We prove in prototypical real-world evaluations as well as by simulation and emulation that our comprehensive approach provides efficient automated configuration in the complete spectrum of possible application scenarios. This extensive functionality has not been achieved by related projects yet. Thus, our work supplies a significant contribution towards seamless application configuration in Pervasive Computing.
  • Thumbnail Image
    ItemOpen Access
    Causal models for decision making via integrative inference
    (2017) Geiger, Philipp; Toussaint, Marc (Prof. Dr.)
    Understanding causes and effects is important in many parts of life, especially when decisions have to be made. The systematic inference of causal models remains a challenge though. In this thesis, we study (1) "approximative" and "integrative" inference of causal models and (2) causal models as a basis for decision making in complex systems. By "integrative" here we mean including and combining settings and knowledge beyond the outcome of perfect randomization or pure observation for causal inference, while "approximative" means that the causal model is only constrained but not uniquely identified. As a basis for the study of topics (1) and (2), which are closely related, we first introduce causal models, discuss the meaning of causation and embed the notion of causation into a broader context of other fundamental concepts. Then we begin our main investigation with a focus on topic (1): we consider the problem of causal inference from a non-experimental multivariate time series X, that is, we integrate temporal knowledge. We take the following approach: We assume that X together with some potential hidden common cause - "confounder" - Z forms a first order vector autoregressive (VAR) process with structural transition matrix A. Then we examine under which conditions the most important parts of A are identifiable or approximately identifiable from only X, in spite of the effects of Z. Essentially, sufficient conditions are (a) non-Gaussian, independent noise or (b) no influence from X to Z. We present two estimation algorithms that are tailored towards conditions (a) and (b), respectively, and evaluate them on synthetic and real-world data. We discuss how to check the model using X. Still focusing on topic (1) but already including elements of topic (2), we consider the problem of approximate inference of the causal effect of a variable X on a variable Y in i.i.d. settings "between" randomized experiments and observational studies. Our approach is to first derive approximations (upper/lower bounds) on the causal effect, in dependence on bounds on (hidden) confounding. Then we discuss several scenarios where knowledge or beliefs can be integrated that in fact imply bounds on confounding. One example is about decision making in advertisement, where knowledge on partial compliance with guidelines can be integrated. Then, concentrating on topic (2), we study decision making problems that arise in cloud computing, a computing paradigm and business model that involves complex technical and economical systems and interactions. More specifically, we consider the following two problems: debugging and control of computing systems with the help of sandbox experiments, and prediction of the cost of "spot" resources for decision making of cloud clients. We first establish two theoretical results on approximate counterfactuals and approximate integration of causal knowledge, which we then apply to the two problems in toy scenarios.
  • Thumbnail Image
    ItemOpen Access
    Verwaltung von zeitbezogenen Daten und Sensordatenströmen
    (2013) Hönle, Nicola Anita Margarete; Mitschang, Bernhard (Prof. Dr.-Ing. habil.)
    Sogenannte ortsbezogene Anwendungen interpretieren die räumliche Position des Benutzers als wichtigste Kontextinformation, um ihr Verhalten darauf abzustimmen. Im Rahmen des Nexus-Projekts (SFB627) werden Konzepte zur Unterstützung ortsbezogener Anwendungen erforschtund die Ergebnisse in der sogenannten Nexus-Plattform integriert. Der Benutzerkontext wird aber auch durch die Zeit beeinflusst, da Zeit ein wesentlicher Bestandteil unseres Lebens ist und so gut wie jede Information einen zeitlichen Bezug hat. Die Integration von Zeit bedeutet eine Erweiterung der Nexus-Plattform von der ortsbezogenen Unterstützung hin zu einem allgemeineren kontextbezogenen System. Da die uneingeschränkte Berücksichtigung von Zeit im allgemeinen Fall ein zu großes Themenfeld ist, wurden im Rahmen einer Use-Case-Analyse Anforderungen identifiziert, die besondere Relevanz für das Nexus-Projekt haben. Diese Anforderungen und ihre Umsetzung werden in der vorliegenden Arbeit beschrieben. Die Speicherung von Zeiträumen und Zeitpunkten basiert auf dem GML-Zeitdatentyp, so dass Zeitwerte im Format des ISO-8601-Standards dargestellt werden. Mit diesem Basisdatentyp sind temporale Attribute im Nexus-Datenmodell definierbar. Für die Formulierung von Anfragen wird das neue Prädikat temporalIntersects eingeführt, mit dem eine beliebige Überschneidung eines temporalen Attributs zu einem vorgegebenen Zeitraum angegeben werden kann. Da jedoch die Anfragekriterien nicht im Vorfeld eingeschränkt werden sollen, werden außerdem die minimal notwendigen temporalen Basisprädikate beschrieben, mit denen alle Relationen der Allen-Intervallalgebra formuliert werden können. Die Gültigkeitszeit gibt an, zu welchen Zeiten ein bestimmter Wert den tatsächlichen Realweltzustand korrekt modelliert. Zur Annotation von Daten mit Gültigkeitszeiten, aber auch mit anderen Metadaten, wird ein allgemeines Metadatenkonzept für das Nexus-Datenmodell beschrieben. Mit Metadaten können dann Gültigkeitszeiten von Objekten und Attributen angegeben und so auf einfache Weise Historien von beliebigen Attributen modelliert werden. Interpolationsfunktionen ermöglichen eine genauere und komprimierte Darstellung von sich häufig ändernden Daten mit kontinuierlichen Werteverläufen wie z.B. Sensordatenhistorien. Deshalb werden die Basisdatentypen für Gleitkommazahlen und räumliche Werte so geändert, dass lineare Interpolationsfunktionen für die kontinuierliche Änderung von Werten über die Zeit modellierbar sind. Zur Speicherung wird die Implementierung eines Historienservers beschrieben, der interpolierbare Basisdatentypen verarbeiten kann. Messwerte von Sensoren bestehen meist aus diskreten (Wert, Zeitpunkt)-Tupeln. Da bei der dauerhaften Speicherung von Sensordaten schnell eine große Menge an Daten anfallen kann, ist es sinnvoll, die Daten vorher zu komprimieren. In dieser Arbeit werden sowohl strombasierte als auch konventionell arbeitende Ansätze für eine Komprimierung von Sensordatenströmen vorgestellt: Einfache Approximationsverfahren und die Approximation durch lineare Ausgleichsrechnung sowie Verfahren zur Polygonzugvereinfachung, aber auch ein kartenbasierter Ansatz speziell für Positionsdaten. Zur Klassifikation der Ansätze werden verschiedene Eigenschaften von Komprimierungsalgorithmen vorgestellt. Für die Alterung von komprimierten Sensordaten wird das neue Konzept der Fehlerbeschränktheit bei Alterung eingeführt. Die Algorithmen werden entsprechend klassifiziert und mit GPS-Testdatensätzen von PKW-Fahrten evaluiert. Die gelungene Integration der Zeitaspekte wird anhand dem Messetagebuch, einer Beispielanwendung zur Aufzeichnung und Auswertung von Benutzeraktivitäten, gezeigt. Ein weiteres Anwendungsbeispiel ist der Einsatz des NexusDS-Datenstrommanagementsystems zur Erfassung, Integration und Historisierung von Datenströmen unterschiedlicher Herkunft in einer sogenannten Smart Factory.
  • Thumbnail Image
    ItemOpen Access
    Distributed stream processing in a global sensor grid for scientific simulations
    (2015) Benzing, Andreas; Rothermel, Kurt (Prof. Dr. rer. nat)
    With today's large number of sensors available all around the globe, an enormous amount of measurements has become available for integration into applications. Especially scientific simulations of environmental phenomena can greatly benefit from detailed information about the physical world. The problem with integrating data from sensors to simulations is to automate the monitoring of geographical regions for interesting data and the provision of continuous data streams from identified regions. Current simulation setups use hard coded information about sensors or even manual data transfer using external memory to bring data from sensors to simulations. This solution is very robust, but adding new sensors to a simulation requires manual setup of the sensor interaction and changing the source code of the simulation, therefore incurring extremely high cost. Manual transmission allows an operator to drop obvious outliers but prohibits real-time operation due to the long delay between measurement and simulation. For more generic applications that operate on sensor data, these problems have been partially solved by approaches that decouple the sensing from the application, thereby allowing for the automation of the sensing process. However, these solutions focus on small scale wireless sensor networks rather than the global scale and therefore optimize for the lifetime of these networks instead of providing high-resolution data streams. In order to provide sensor data for scientific simulations, two tasks are required: i) continuous monitoring of sensors to trigger simulations and ii) high-resolution measurement streams of the simulated area during the simulation. Since a simulation is not aware of the deployed sensors, the sensing interface must work without an explicit specification of individual sensors. Instead, the interface must work only on the geographical region, sensor type, and the resolution used by the simulation. The challenges in these tasks are to efficiently identify relevant sensors from the large number of sources around the globe, to detect when the current measurements are of relevance, and to scale data stream distribution to a potentially large number of simulations. Furthermore, the process must adapt to complex network structures and dynamic network conditions as found in the Internet. The Global Sensor Grid (GSG) presented in this thesis attempts to close this gap by approaching three core problems: First, a distributed aggregation scheme has been developed which allows for the monitoring of geographic areas for sensor data of interest. The reuse of partial aggregates thereby ensures highly efficient operation and alleviates the sensor sources from individually providing numerous clients with measurements. Second, the distribution of data streams at different resolutions is achieved by using a network of brokers which preprocess raw measurements to provide the requested data. The load of high-resolution streams is thereby spread across all brokers in the GSG to achieve scalability. Third, the network usage is actively minimized by adapting to the structure of the underlying network. This optimization enables the reduction of redundant data transfers on physical links and a dynamic modification of the data streams to react to changing load situations.
  • Thumbnail Image
    ItemOpen Access
    Supporting multi-tenancy in Relational Database Management Systems for OLTP-style software as a service applications
    (2015) Schiller, Oliver; Mitschang, Bernhard (Prof. Dr.-Ing. habil.)
    The consolidation of multiple tenants onto a single relational database management system (RDBMS) instance, commonly referred to as multi-tenancy, turned out being beneficial since it supports improving the profit margin of the provider and allows lowering service fees, by what the service attracts more tenants. So far, existing solutions create the required multi-tenancy support on top of a traditional RDBMS implementation, i. e., they implement data isolation between tenants, per-tenant customization and further tenant-centric data management features in application logic. This is complex, error-prone and often reimplements efforts the RDBMS already offers. Moreover, this approach disables some optimization opportunities in the RDBMS and represents a conceptual misstep with Separation of Concerns in mind. For the points mentioned, an RDBMS that provides support for the development and operation of a multi-tenant software as a service (SaaS) offering is compelling. In this thesis, we contribute to a multi-tenant RDBMS for OLTP-style SaaS applications by extending a traditional disk-oriented RDBMS architecture with multi-tenancy support. For this purpose, we primarily extend an RDBMS by introducing tenants as first-class database objects and establishing tenant contexts to isolate tenants logically. Using these extensions, we address tenant-aware schema management, for which we present a schema inheritance concept that is tailored to the needs of multi-tenant SaaS applications. Thereafter, we evaluate different storage concepts to store a tenant’s tuples with respect to their scalability. Next, we contribute an architecture of a multi-tenant RDBMS cluster for OLTP-style SaaS applications. At that, we focus on a partitioning solution which is aligned to tenants and allows obtaining independently manageable pieces. To balance load in the proposed cluster architecture, we present a live database migration approach, whose design favors low migration overhead and provides minimal interruption of service.
  • Thumbnail Image
    ItemOpen Access
    Emulation von Rechnernetzen zur Leistungsanalyse von verteilten Anwendungen und Netzprotokollen
    (2005) Herrscher, Daniel J.; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c)
    Um die Leistung von verteilten Anwendungen und Netzprotokollen in Abhängigkeit von den Eigenschaften der verwendeten Rechnernetze zu analysieren, wird eine Testumgebung benötigt, die Netzeigenschaften zuverlässig nachbilden ("emulieren") kann. Eine solche Testumgebung wird Emulationssystem genannt. Bisher existierende Emulationssysteme sind aufgrund ihrer Architektur entweder nur für sehr kleine Szenarien geeignet, oder sie können nur unabhängige Netzverbindungen nachbilden, und schließen damit alle Netztechnologien mit gemeinsamen Medien aus. In dieser Arbeit werden zunächst verschiedene Architekturvarianten für die Realisierung eines Emulationssystems vorgestellt und bewertet. Für die Variante mit zentraler Steuerung und verteilten Emulationswerkzeugen wird dann detailliert die Funktionalität eines Emulationssystems mit seinen wesentlichen Komponenten beschrieben. Das in dieser Arbeit entwickelte Emulationsverfahren greift auf der logischen Ebene der Sicherungsschicht in den Kommunikationsstapel ein. Auf dieser Ebene werden die beiden Basiseffekte Rahmenverlust und Verzögerung durch verteilte Emulationswerkzeuge nachgebildet. Alle anderen Netzeigenschaften können auf diese Basiseffekte zurückgeführt werden. Um Netztechnologien mit gemeinsamen Medien durch verteilte Werkzeuge nachbilden zu können, wird zusätzlich das Konzept des virtuellen Trägersignals eingeführt. Hierbei werden die Eigenschaften eines Rundsendemediums nachgebildet, indem kooperative Emulationswerkzeuge Rundsendungen zur Signalisierung eines Trägersignals benutzen. Somit kann jedeWerkzeuginstanz lokal ein aktuelles Modell des emulierten gemeinsamen Mediums halten. Auf dieser Basis kann auch das Verhalten von Medienzugriffsprotokollen nachgebildet werden. Die Arbeit deckt auch die wesentlichen Realisierungsaspekte eines Emulationssytems ab. Mit ausführlichen Messungen wird gezeigt, dass das entwickelte System für die Nachbildung von Netzszenarien sehr gut geeignet ist, selbst wenn die nachzubildenden Parameter sich dynamisch ändern. Die entwickelten Werkzeuge sind in der Lage, Netzeigenschaften in einem weiten Parameterbereich realistisch nachzubilden. Mit diesem System steht nun eine ideale Testumgebung für Leistungsmessungen von verteilten Anwendungen und Netzprotokollen in Abhängigkeit von Netzeigenschaften zur Verfügung.
  • Thumbnail Image
    ItemOpen Access
    Das ASCEND-Modell zur Unterstützung kooperativer Prozesse
    (2002) Frank, Aiko; Mitschang, Bernhard (Prof. Dr.)
    Es wird eine neue Klasse von kooperativen Prozessen bestimmt und durch Beispiele betrachtet, deren Unterstützung durch das ASCEND Designflow Model(ADM) erfolgen soll. Diesen Prozessen ist der Bedarf nach Interaktion, Kooperation, kooperativer Nutzung gemeinsamer Ressourcen, Delegation von Teilar-beiten, strukturierten und weniger strukturierten Teilprozessen, Integration von Arbeitsergebnissen und Abstimmung von Aktionen gemein. Daraus wird die Forderung an eine geeignete Benutzerunterstützung abgeleitet, die den Nutzern die geeignete Unterstützung in Form entsprechend konfigurierbarer Dienste zur Verfügung stellt. Es werden Technologien vorgestellt und bewertet, die Teile der aufgestellten Forderungen erfüllen können. Der Schwerpunkt dieser Untersuchung betrifft CSCW und Workflow-Management. Eine weitere Klasse von Systemen zur Durchführung von Arbeiten sind CAD-Frameworks, die spezialisierte Dienste für den technischen Entwurf anbieten. Für die Realisierung der von uns gewünschten flexiblen Zugriffsregelung werden außerdem einige Aspekte der Agententechnologie betrachtet, insbesondere Verhandlungsprotokolle. Aufgrund der so gewonnenen Erkenntnisse wird ein Lösungsansatz präsentiert, der auf einer geeigneten Integration dieser Technologien basiert. Dieser Lösungsansatz wird durch das ASCEND Designflow Model umgesetzt. Dieses Modell verwendet drei wesentliche Aspekte: ein Aktivitätenmodell, einen Informationsraum und Interaktionsprotokolle. Workflow-Management stellt eine ideale Technologie für die Automatisierung der Steuerung von strukturierten Teilprozessen dar. Das Aktivitätenkonzept ist eine geeignete Basis zur Repräsentation von abhängigen Arbeitsschritten. Daher werden diese Konzepte weitgehend in das ADM integriert. Das Aktivitätenkonzept zur Modellierung und Durchführung abgegrenzter Arbeitsschritte hilft die Aufgabenverteilung und Vorgehensweise von Entwurfsprozessen, soweit möglich, zu strukturieren. Bspw. nutzt die Delegations-Beziehung des ADM Aktivitäten zur Spezifikation verschiedener Unteraufträge. Außerdem werden sogenannte Workflow-Aktivitäten eingeführt, die alle Eigenschaften eines Workflows übernehmen und innerhalb eines Entwurfsprozesses ausgeführt werden können. Dadurch wird eine geeignete Unterstützung gut strukturierter Teilprozesse erreicht. Weiterhin werden primitive Aktivitäten zum Kapseln von Werkzeuganwendungen und Groupware-Aktivitäten zur Durchführung von wenig strukturierten Teilarbeiten eingeführt. Eine Besonderheit stellen die Designflow-Aktivitäten dar, die durch sogenannte Design-Primitive eine erweiterte Funktionalität realisieren. So können anpaßbare Constraints angewendet werden, welche die Abhängigkeiten zwischen den in einer Designflow-Aktivität enthaltenen Ressourcen und Aktivitäten beschreiben. Durch die weitgehende Definierbarkeit solcher Constraints, besteht die Möglichkeit anwendungsspezifische Abhängigkeiten einzuführen und eine flexible Ablaufunterstützung zu erreichen. Aufgrund der Forderung nach frühem Austausch von gemeinsamen Ergebnissen, der Bearbeitung gemeinsamer Daten und der Abhängigkeiten bezüglich Daten und Ergebnissen, die in verschiedenen Teilprozessen erarbeitet werden, ist eine Abstimmung zwischen den am Prozeß teilnehmenden Personen notwendig. Dafür wird die gemeinsame Nutzung von Ressourcen im Rahmen eines gemeinsamen Informationsraums eingeführt. Dadurch können unvorherbestimmte Abläufe über die Objektzugriffe koordiniert werden. Zur Durchführung und Abstimmung der Nutzung gemeinsamer Objekte werden Protokolle in Konversationsmustern angewendet, die zum einen eine gewisse Weise des Zugriffs vorschreiben, aber auch die Möglichkeit zur Verhandlung anbieten. Diese Verhandlung, wie sie bei konkurrierenden Zugriffen oder bei der Durchführung des sogenannten Delegationsprotokolls auftreten, stellen ein mächtiges Werkzeug zur Interaktion zwischen allen Entitäten des ADM dar, d.h. zwischen Akteuren, Objekten und Aktivitäten. Die Effekte der Interaktionen werden komplett durch das zugrunde liegende System unterstützt, womit eine konsistente Behandlung ermöglicht ist. Die flexible Einsetzbarkeit, die Anpaßbarkeit und die Erweiterbarkeit der Protokolle ermöglicht einen hohen Grad der Anpassung des ADM an verschiedenste kooperative Prozesse. Damit unterstützt das ADM zum einen Entwurfsprozesse, die teilweise gut strukturiert sind. Zum anderen erlauben die eingeführten Entwurfskonstrukte (bspw. Delegation, Objektzugriffe und Constraints), auch schwächer strukturierte Teilprozesse und damit ein wesentliches Merkmal des Entwurfs bzw. der in dieser Arbeit anvisierten kooperativen Prozesse zu unterstützen. Somit wird erreicht, daß die passendste, unterstützende Technologie für den jeweiligen Teilprozeß verwendet werden kann. Dadurch werden die verschiedenen Anforderungen bezüglich koordinativer, wie auch kooperativer Zusammenarbeit erfüllt.
  • Thumbnail Image
    ItemOpen Access
    Flexible processing of streamed context data in a distributed environment
    (2014) Cipriani, Nazario; Mitschang, Bernhard (Prof. Dr.-Ing. habil.)
    Nowadays, stream-based data processing occurs in many context-aware application scenarios, such as in context-aware facility management applications or in location-aware visualization applications. In order to process stream-based data in an application-independent manner, Data Stream Processing Systems (DSPSs) emerged. They typically translate a declarative query to an operator graph, place the operators on stream processing nodes and execute the operators to process the streamed data. Context-aware stream processing applications often have different requirements although relying on the same processing principle, i.e. data stream processing. These requirements exist because context-aware stream processing applications differ in functional and operational behavior as well as their processing requirements. These facts are challenging on their own. As a key enabler for the effcient processing of streamed data the DSPS must be able to integrate this speciVc functionality seamlessly. Since processing of data streams usually is subject to temporal aspects, i.e. they are time critical, custom functionality should be integrated seamlessly in the processing task of a DSPS to prevent the formation of isolated solutions and to support exploitation of synergies. Depending on the domain of interest, data processing often depends on highly domain-specific functionalities, e.g. for the application of a location-aware visualization pipeline displaying a three-dimensional map of its surroundings. The application runs on a mobile device and consists of many interconnected operations that form a network of operators called stream processing graph (SP graph). First, the friends’ locations must be collected and connected to their public profile. However, to enable the application to run smoothly for some parts of data processing the presence of a Graphics Processing Unit (GPU) is mandatory. To solve that challenge, we have developed concepts for a flexible DSPS that allows the integration of specific functionality to enable a seamless integration of applications into the DSPS. Therefore, an architecture is proposed. A DSPS based on this architecture can be extended by integrating additional operators responsible for data processing and services realizing additional interaction patterns with context-aware applications. However, this specific functionality is often subject to deployment and run time constraints. Therefore, an SP graph model has been developed which reWects these constraints by allowing to annotate the graph by constraints, e.g. to constrain the execution of operators to only certain processing nodes or specify that the operator necessitates a GPU. The data involved in the processing steps is often subject to restrictions w.r.t the way it is accessed and processed. Users participating in the process might not want to expose their current location to potentially unknown parties, restricting e.g. data access to known ones only. Therefore, in addition to the Wexible integration of specialized operators security aspects must also be considered, limiting the access of data as well as the granularity of which data is made available. We have developed a security framework that defines three different types of security policies: Access Control (AC) policies controlling data access, Process Control (PC) policies influencing how data is processed, and Granularity Control (GC) policies defining the Level of Detail (LOD) at which the data is made available. The security policies are interpreted as constraints which are supported by augmenting the SP graph by the relevant security policies. The operator placement in a DSPS is very important, as it deeply influences SP graph execution. Every stream-based application requires a different placement of SP graphs according to its specific objectives, e.g. bandwidth should not fall below 500 MBit/s and is more important than latency. This fact constrains operator placement. As objectives might conflict among each other, operator placement is subject to trade-offs. Knowing the bandwidth requirements of a certain application, an application developer can clearly identify the specific Quality of Service (QoS) requirements for the correct distribution of the SP graph. These requirements are a good indicator for the DSPS to decide how to distribute the SP graph to meet the application requirements. Two applications within the same DSPS might have different requirements. E.g. if interactivity is an issue, a stream-based game application might in a first place need a minimization of latency to get a fast and reactive application. We have developed a multi-target operator placement (M-TOP) algorithm which allows the DSPS to find a suitable deployment, i.e. a distribution of the operators in an SP graph which satisfies a set of predefined QoS requirements. Thereby, the M-TOP approach considers operator-specific deployment constraints as well as QoS targets.
  • Thumbnail Image
    ItemOpen Access
    Optimized information discovery in structured peer-to-peer overlay networks
    (2011) Memon, Faraz; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c.)
    Peer-to-peer (P2P) overlay networks allow for efficient information discovery in large-scale distributed systems. Although point queries are well supported by current P2P systems - in particular systems based on distributed hash tables (DHTs) -, providing efficient support for more complex queries remains a challenge. Therefore, the goal of this research is to develop methodologies that enable efficient processing of complex queries, in particular processing of multi-attribute range queries, over DHTs. Generally, the support for multi-attribute range queries over DHTs has been provided either by creating an individual index for each data attribute or by creating a single index using the combination of all data attributes. In contrast to these approaches, we propose to create and modify indices using the attribute combinations that dynamically appear in multi-attribute range queries in the system. In order to limit the overhead induced by index maintenance, the total number of created indices has to be limited. Thus, one of the major problems is to create a limited number of indices such that the overall system performance is optimal for multi-attribute range queries. We propose several index recommendation algorithms that implement heuristic solutions to this NP-hard problem. Our evaluations show that these heuristics lead to a close-to-optimal system performance for multi-attribute range queries. The final outcome of this research is an adaptive DHT-based information discovery system that adapts its set of indices according to the dynamic load of multi-attribute range queries in the system. The index adaptation is carried out using a four-phase index adaptation process. Our evaluations show that the adaptive information discovery system continuously optimizes the overall system performance for multi-attribute range queries. Moreover, compared to a non-adaptive system, our system achieves several orders of a magnitude improved performance.
  • Thumbnail Image
    ItemOpen Access
    Simulation and optimized scheduling of pedestrian traffic : from geometric modeling to pedestrian navigation
    (2007) Narasimhan, Srihari; Bungartz, Hans-Joachim (Prof. Dr. rer. nat.)
    Today, more and more simulation tasks with a traditionally non-geometric background need to be embedded into some geometric context, in order to provide spatial context to non-spatial data. This holds especially true for graph-based applications in some location-aware context. As an example, one might think of a theme park or a large commercial center, where the customers shall be provided with some navigation and scheduling information such as where to go and when - either a priori or even in real time via some mobile device. This can be done by analyzing the pedestrian traffic and waiting time situation by simulating the pedestrian movement and using the simulation data to optimally navigate and schedule the tasks that are to be executed by the customer. The main issues addressed in this thesis are as follows. Initially, a flexible simulation framework is built to simulate the pedestrian movement in a 3D scenario, for example, a commercial building. Since the pedestrians strongly interact with the environment surrounding them, the geometry is taken into account. Architectural data such as paths, type and capacity of the paths, destinations and its properties, etc., is extracted from the CAD-model and are organized in a graph structure. The movement of the pedestrians and the waiting queues at the destinations are modeled as queuing systems using the discrete event simulation technique. These queuing systems are then embedded into the geometry model. The necessary input modeling parameters are also defined. The resulting scenario, when simulated, gives an overview of congestions and waiting times across the scenario for different time stages. Apart from the simulation, the geometry data - or here the graph - is hierarchically organized in an octree structure. An octree-based model is chosen since octrees have the natural property of hierarchically storing 3D data. The octree data is used to identify the position of the pedestrian within the scenario. The potential destinations in the neighborhood that can be visited by the customer are also identified using neighbor search algorithms. Combining the simulation data with the octree modeling, the customer is navigated to the optimal destination. Furthermore, when visiting several destinations, combinatorial optimization methods are used to optimally schedule the set of tasks to be executed by the customer. The optimization methods take into account the congestion information obtained from the simulation data, and the octree structure for navigation. This approach results in an effective pedestrian navigation system.