Universität Stuttgart

Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1

Browse

Search Results

Now showing 1 - 10 of 38
  • Thumbnail Image
    ItemOpen Access
    Emulation von Rechnernetzen zur Leistungsanalyse von verteilten Anwendungen und Netzprotokollen
    (2005) Herrscher, Daniel J.; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c)
    Um die Leistung von verteilten Anwendungen und Netzprotokollen in Abhängigkeit von den Eigenschaften der verwendeten Rechnernetze zu analysieren, wird eine Testumgebung benötigt, die Netzeigenschaften zuverlässig nachbilden ("emulieren") kann. Eine solche Testumgebung wird Emulationssystem genannt. Bisher existierende Emulationssysteme sind aufgrund ihrer Architektur entweder nur für sehr kleine Szenarien geeignet, oder sie können nur unabhängige Netzverbindungen nachbilden, und schließen damit alle Netztechnologien mit gemeinsamen Medien aus. In dieser Arbeit werden zunächst verschiedene Architekturvarianten für die Realisierung eines Emulationssystems vorgestellt und bewertet. Für die Variante mit zentraler Steuerung und verteilten Emulationswerkzeugen wird dann detailliert die Funktionalität eines Emulationssystems mit seinen wesentlichen Komponenten beschrieben. Das in dieser Arbeit entwickelte Emulationsverfahren greift auf der logischen Ebene der Sicherungsschicht in den Kommunikationsstapel ein. Auf dieser Ebene werden die beiden Basiseffekte Rahmenverlust und Verzögerung durch verteilte Emulationswerkzeuge nachgebildet. Alle anderen Netzeigenschaften können auf diese Basiseffekte zurückgeführt werden. Um Netztechnologien mit gemeinsamen Medien durch verteilte Werkzeuge nachbilden zu können, wird zusätzlich das Konzept des virtuellen Trägersignals eingeführt. Hierbei werden die Eigenschaften eines Rundsendemediums nachgebildet, indem kooperative Emulationswerkzeuge Rundsendungen zur Signalisierung eines Trägersignals benutzen. Somit kann jedeWerkzeuginstanz lokal ein aktuelles Modell des emulierten gemeinsamen Mediums halten. Auf dieser Basis kann auch das Verhalten von Medienzugriffsprotokollen nachgebildet werden. Die Arbeit deckt auch die wesentlichen Realisierungsaspekte eines Emulationssytems ab. Mit ausführlichen Messungen wird gezeigt, dass das entwickelte System für die Nachbildung von Netzszenarien sehr gut geeignet ist, selbst wenn die nachzubildenden Parameter sich dynamisch ändern. Die entwickelten Werkzeuge sind in der Lage, Netzeigenschaften in einem weiten Parameterbereich realistisch nachzubilden. Mit diesem System steht nun eine ideale Testumgebung für Leistungsmessungen von verteilten Anwendungen und Netzprotokollen in Abhängigkeit von Netzeigenschaften zur Verfügung.
  • Thumbnail Image
    ItemOpen Access
    Das ASCEND-Modell zur Unterstützung kooperativer Prozesse
    (2002) Frank, Aiko; Mitschang, Bernhard (Prof. Dr.)
    Es wird eine neue Klasse von kooperativen Prozessen bestimmt und durch Beispiele betrachtet, deren Unterstützung durch das ASCEND Designflow Model(ADM) erfolgen soll. Diesen Prozessen ist der Bedarf nach Interaktion, Kooperation, kooperativer Nutzung gemeinsamer Ressourcen, Delegation von Teilar-beiten, strukturierten und weniger strukturierten Teilprozessen, Integration von Arbeitsergebnissen und Abstimmung von Aktionen gemein. Daraus wird die Forderung an eine geeignete Benutzerunterstützung abgeleitet, die den Nutzern die geeignete Unterstützung in Form entsprechend konfigurierbarer Dienste zur Verfügung stellt. Es werden Technologien vorgestellt und bewertet, die Teile der aufgestellten Forderungen erfüllen können. Der Schwerpunkt dieser Untersuchung betrifft CSCW und Workflow-Management. Eine weitere Klasse von Systemen zur Durchführung von Arbeiten sind CAD-Frameworks, die spezialisierte Dienste für den technischen Entwurf anbieten. Für die Realisierung der von uns gewünschten flexiblen Zugriffsregelung werden außerdem einige Aspekte der Agententechnologie betrachtet, insbesondere Verhandlungsprotokolle. Aufgrund der so gewonnenen Erkenntnisse wird ein Lösungsansatz präsentiert, der auf einer geeigneten Integration dieser Technologien basiert. Dieser Lösungsansatz wird durch das ASCEND Designflow Model umgesetzt. Dieses Modell verwendet drei wesentliche Aspekte: ein Aktivitätenmodell, einen Informationsraum und Interaktionsprotokolle. Workflow-Management stellt eine ideale Technologie für die Automatisierung der Steuerung von strukturierten Teilprozessen dar. Das Aktivitätenkonzept ist eine geeignete Basis zur Repräsentation von abhängigen Arbeitsschritten. Daher werden diese Konzepte weitgehend in das ADM integriert. Das Aktivitätenkonzept zur Modellierung und Durchführung abgegrenzter Arbeitsschritte hilft die Aufgabenverteilung und Vorgehensweise von Entwurfsprozessen, soweit möglich, zu strukturieren. Bspw. nutzt die Delegations-Beziehung des ADM Aktivitäten zur Spezifikation verschiedener Unteraufträge. Außerdem werden sogenannte Workflow-Aktivitäten eingeführt, die alle Eigenschaften eines Workflows übernehmen und innerhalb eines Entwurfsprozesses ausgeführt werden können. Dadurch wird eine geeignete Unterstützung gut strukturierter Teilprozesse erreicht. Weiterhin werden primitive Aktivitäten zum Kapseln von Werkzeuganwendungen und Groupware-Aktivitäten zur Durchführung von wenig strukturierten Teilarbeiten eingeführt. Eine Besonderheit stellen die Designflow-Aktivitäten dar, die durch sogenannte Design-Primitive eine erweiterte Funktionalität realisieren. So können anpaßbare Constraints angewendet werden, welche die Abhängigkeiten zwischen den in einer Designflow-Aktivität enthaltenen Ressourcen und Aktivitäten beschreiben. Durch die weitgehende Definierbarkeit solcher Constraints, besteht die Möglichkeit anwendungsspezifische Abhängigkeiten einzuführen und eine flexible Ablaufunterstützung zu erreichen. Aufgrund der Forderung nach frühem Austausch von gemeinsamen Ergebnissen, der Bearbeitung gemeinsamer Daten und der Abhängigkeiten bezüglich Daten und Ergebnissen, die in verschiedenen Teilprozessen erarbeitet werden, ist eine Abstimmung zwischen den am Prozeß teilnehmenden Personen notwendig. Dafür wird die gemeinsame Nutzung von Ressourcen im Rahmen eines gemeinsamen Informationsraums eingeführt. Dadurch können unvorherbestimmte Abläufe über die Objektzugriffe koordiniert werden. Zur Durchführung und Abstimmung der Nutzung gemeinsamer Objekte werden Protokolle in Konversationsmustern angewendet, die zum einen eine gewisse Weise des Zugriffs vorschreiben, aber auch die Möglichkeit zur Verhandlung anbieten. Diese Verhandlung, wie sie bei konkurrierenden Zugriffen oder bei der Durchführung des sogenannten Delegationsprotokolls auftreten, stellen ein mächtiges Werkzeug zur Interaktion zwischen allen Entitäten des ADM dar, d.h. zwischen Akteuren, Objekten und Aktivitäten. Die Effekte der Interaktionen werden komplett durch das zugrunde liegende System unterstützt, womit eine konsistente Behandlung ermöglicht ist. Die flexible Einsetzbarkeit, die Anpaßbarkeit und die Erweiterbarkeit der Protokolle ermöglicht einen hohen Grad der Anpassung des ADM an verschiedenste kooperative Prozesse. Damit unterstützt das ADM zum einen Entwurfsprozesse, die teilweise gut strukturiert sind. Zum anderen erlauben die eingeführten Entwurfskonstrukte (bspw. Delegation, Objektzugriffe und Constraints), auch schwächer strukturierte Teilprozesse und damit ein wesentliches Merkmal des Entwurfs bzw. der in dieser Arbeit anvisierten kooperativen Prozesse zu unterstützen. Somit wird erreicht, daß die passendste, unterstützende Technologie für den jeweiligen Teilprozeß verwendet werden kann. Dadurch werden die verschiedenen Anforderungen bezüglich koordinativer, wie auch kooperativer Zusammenarbeit erfüllt.
  • Thumbnail Image
    ItemOpen Access
    Simulation and optimized scheduling of pedestrian traffic : from geometric modeling to pedestrian navigation
    (2007) Narasimhan, Srihari; Bungartz, Hans-Joachim (Prof. Dr. rer. nat.)
    Today, more and more simulation tasks with a traditionally non-geometric background need to be embedded into some geometric context, in order to provide spatial context to non-spatial data. This holds especially true for graph-based applications in some location-aware context. As an example, one might think of a theme park or a large commercial center, where the customers shall be provided with some navigation and scheduling information such as where to go and when - either a priori or even in real time via some mobile device. This can be done by analyzing the pedestrian traffic and waiting time situation by simulating the pedestrian movement and using the simulation data to optimally navigate and schedule the tasks that are to be executed by the customer. The main issues addressed in this thesis are as follows. Initially, a flexible simulation framework is built to simulate the pedestrian movement in a 3D scenario, for example, a commercial building. Since the pedestrians strongly interact with the environment surrounding them, the geometry is taken into account. Architectural data such as paths, type and capacity of the paths, destinations and its properties, etc., is extracted from the CAD-model and are organized in a graph structure. The movement of the pedestrians and the waiting queues at the destinations are modeled as queuing systems using the discrete event simulation technique. These queuing systems are then embedded into the geometry model. The necessary input modeling parameters are also defined. The resulting scenario, when simulated, gives an overview of congestions and waiting times across the scenario for different time stages. Apart from the simulation, the geometry data - or here the graph - is hierarchically organized in an octree structure. An octree-based model is chosen since octrees have the natural property of hierarchically storing 3D data. The octree data is used to identify the position of the pedestrian within the scenario. The potential destinations in the neighborhood that can be visited by the customer are also identified using neighbor search algorithms. Combining the simulation data with the octree modeling, the customer is navigated to the optimal destination. Furthermore, when visiting several destinations, combinatorial optimization methods are used to optimally schedule the set of tasks to be executed by the customer. The optimization methods take into account the congestion information obtained from the simulation data, and the octree structure for navigation. This approach results in an effective pedestrian navigation system.
  • Thumbnail Image
    ItemOpen Access
    Consistent data replication in mobile ad hoc networks
    (2007) Hähner, Jörg; Rothermel, Kurt (Prof. Dr.)
    Mobile ad-hoc networks (MANETs) are used in situations where networks need to be deployed immediately but no network infrastructure is available. If MANET nodes have sensing capabilities, they can capture and communicate the state of their surroundings, including environmental conditions or objects in their proximity. If the sensed state information is propagated to a database to build a consistent model of the real world, a variety of promising context aware applications becomes possible. The models and concepts proposed in this dissertation can be applied to cooperatively maintain a model of the state of physical world objects on devices in MANETs. State information may be updated by independent observers either sequentially or concurrently. Applications that read the state of any object from the model multiple times can rely on the guarantee that every successive read operation will read either the same state information or newer state information that has been reported by an observer after the previously read information. The first contribution of this dissertation formalizes these requirements and defines a novel consistency model called update-linearizability. Secondly, it introduces a new class of data replication algorithms that provably guarantees update-linearizability in MANETs without using synchronized clocks on any pair of nodes in the system. The presented algorithms allow executing read and write operations at any time, which provides high availability of data. These properties are even maintained in networks that are temporarily partitioned and where nodes are highly mobile. Finally the dissertation provides a proof that all replicas held in the system eventually converge towards the most recent state information of the physical world objects which they represent.
  • Thumbnail Image
    ItemOpen Access
    System support for adaptive pervasive applications
    (2009) Handte, Marcus; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c.)
    Driven by the ongoing miniaturization of computer technology as well as the proliferation of wireless communication technology, Pervasive Computing envisions seamless and distraction-free task support by distributed applications that are executed on computers embedded in everyday objects. As such, this vision is equally appealing to the computer industry and the user. Induced by various factors such as invisible integration, user mobility and computer failures, the resulting computer systems are heterogeneous, highly dynamic and evolving. As a consequence, applications that are executed in these systems need to adapt continuously to their ever-changing execution environment. Without further precautions, the need for adaptation can complicate application development and utilization which hinders the realization of the basic vision. As solution to this dilemma, this dissertation describes the design of system software for Pervasive Computing that simplifies the development of adaptive applications. As opposed to shifting the responsibility for adapting an application to the user or the application developer, the system software introduces a component-based application model that can be configured and adapted automatically. To enable automation at the system level, the application developer specifies the dependencies on components and resources in an abstract manner using contracts. Upon application startup, the system uses the contractual descriptions to compute and execute valid configurations. At runtime, it detects changes to the configuration that require adaptation and it reconfigures the application. To compute valid configurations upon application startup, the dissertation identifies the requirements for configuration algorithms. Based on an analysis of the problem complexity, the dissertation classifies possible algorithmic solutions and it presents an integrated approach for configuration based on a parallel backtracking algorithm. Besides from scenario specific modifications, retrofitting the backtracking algorithm requires a problem mapping from configuration to constraint satisfaction which can be computed on-the-fly at runtime. The resulting approach for configuration is then extended to support the optimization of a cost function that captures the most relevant cost factors during adaptation. This enables the use of the approach for configuration upon startup and reconfiguration during runtime adaptation. As basis for the evaluation of the system software and the algorithm, the dissertation outlines a prototypical implementation. The prototypical implementation is used for a thorough evaluation of the presented concepts and algorithms by means of real world measurements and a number of simulations. The evaluation results suggest that the presented system software can indeed simplify the development of distributed applications that compensate the heterogeneity, dynamics and evolution of the underlying system. Furthermore, they indicate that the algorithm for configuration and the extensions for adaptation provide a sufficiently high performance in typical applications scenarios. Moreover, the results also suggest that they are preferable over of alternative solutions. To position the presented solution within the space of possible and existing solutions, the dissertation discusses major representatives of existing systems and it proposes a classification of the relevant aspects. The relevant aspects are the underlying conceptual model of the system and the distribution of the responsibility for configuration and adaptation. The classification underlines that in contrast to other solutions, the presented solution provides a higher degree of automation without relying on the availability of a powerful computer. Thus, it simplifies the task of the application developer without distracting the user while being applicable to a broader range of scenarios. After discussing the related approaches and clarifying similarities and differences, the dissertation concludes with a short summary and an outlook on future work.
  • Thumbnail Image
    ItemOpen Access
    Integration von Data Mining und Online Analytical Processing : eine Analyse von Datenschemata, Systemarchitekturen und Optimierungsstrategien
    (2003) Schwarz, Holger; Mitschang, Bernhard (Prof. Dr.-Ing. habil.)
    Die technischen Möglichkeiten, Daten zu erfassen und dauerhaft zu speichern, sind heute so ausgereift, dass insbesondere in Unternehmen und anderen Organisationen große Datenbestände verfügbar sind. In diesen Datenbeständen, häufig als Data Warehouse bezeichnet, sind alle relevanten Informationen zu den Organisationen selbst, den in ihnen ablaufenden Prozessen sowie deren Interaktion mit anderen Organisationen enthalten. Vielfach stellt die zielgerichtete Analyse der Datenbestände den entscheidenden Erfolgsfaktor für Organisationen dar. Zur Analyse der Daten in einem Data Warehouse sind verschiedenste Ansätze verfügbar und erprobt. Zwei der wichtigsten Vertreter sind das Online Analytical Processing (OLAP) und das Data Mining. Beide setzen unterschiedliche Schwerpunkte und werden bisher in der Regel weitgehend isoliert eingesetzt. In dieser Arbeit wird zunächst gezeigt, dass eine umfassende Analyse der Datenbestände in einem Data Warehouse nur durch den integrierten Einsatz beider Analyseansätze erzielt werden kann. Einzelne Fragestellungen, die sich aus diesem Integrationsbedarf ergeben werden ausführlich diskutiert. Zu den betrachteten Fragestellungen gehört die geeignete Modellierung der Daten in einem Data Warehouse. Bei der Bewertung gängiger Modellierungsansätze fließen insbesondere die Anforderungen ein, die sich durch den beschriebenen Integrationsansatz ergeben. Als Ergebnis wird ein konzeptuelles Datenmodell vorgestellt, das Informationen in einer Weise strukturiert, die für OLAP und Data Mining gleichermaßen geeignet ist. Im Bereich der logischen Modellierung werden schließlich diejenigen Schematypen identifiziert, die die Integration der Analyseansätze geeignet unterstützen. Im nächsten Schritt sind die für Data Mining und OLAP unterschiedlichen Systemarchitekturen Gegenstand dieser Arbeit. Deren umfassende Diskussion ergibt eine Reihe von Defiziten. Dies führt schließlich zu einer erweiterten Systemarchitektur, die die Schwachstellen beseitigt und die angestrebte Integration geeignet unterstützt. Die erweiterte Systemarchitektur weist eine Komponente zur anwendungsunabhängigen Optimierung unterschiedlicher Analyseanwendungen auf. Ein dritter Schwerpunkt dieser Arbeit besteht in der Identifikation geeigneter Optimierungsansätze hierfür. Die Bewertung der Ansätze wird einerseits qualitativ durchgeführt. Andererseits wird das Optimierungspotenzial der einzelnen Ansätze auch auf der Grundlage umfangreicher Messreihen gezeigt.
  • Thumbnail Image
    ItemOpen Access
    Investigating dynamics by multilevel phase space discretization
    (2006) Fundinger, Danny Georg; Levi, Paul (Prof. Dr.)
    The subject of the thesis is the numerical investigation of dynamical systems. The aim is to provide approaches for the localization of several topological structures which are of vital importance for the global analysis of dynamical systems, namely, periodic orbits, the chain recurrent set, repellers, attractors and their domains of attraction as well as stable, unstable and connecting manifolds. The techniques introduced do not require any a priori knowledge about a system, and are also not restricted by the stability of the solution. Furthermore, they can generally be applied to a wide range of dynamical systems. Two theoretical concepts are considered to be at the center of the research - symbolic analysis and the RIM method. The underlying basic approach for both of them is multilevel phase space discretization. This means that a part of the phase space, the area of investigation, is subdivided in a finite number of sets. Then, instead of each point of the phase space, only these sets are subject of further analysis. The main target of every method proposed is to find those sets which contain parts of the solution and subdivide them into smaller parts until a desired accuracy is reached. In case of symbolic analysis, a directed graph is constructed which represents the structure of the state space for the investigated dynamical system. This graph is called the symbolic image of the focused system and can be seen as an approximation of the system flow. The theoretical background regarding the symbolic image graph as well as the constructive methods applied on it were already described in a series of works by G. Osipenko. In this work, strategies are introduced for a practical application. This requires the extension of the theoretical concepts and the development of appropriate algorithms and data structures. In practice, it turned out that these aspects are essential cornerstones for the usability of the discussed methods. Also some sophisticated tunings of the basic methods are proposed in order to extent the field of practical investigation. Although symbolic analysis can be seen as the main stimulation of this work, the investigation was not limited to it. Indeed, several shortcomings regarding the solution of some problems can be observed if the method is applied in practice. This led to the development of the RIM method. The core intention of the method is to solve the root finding problem. The standard approach toward this task is the application of an iteration scheme based on the Newton method. However, it has shown that such Newton schemes have several structural disadvantages which are especially crucial in the context of the fields of investigation which are relevant to this work. The RIM method proposes an alternative approach which does not require the application of any Newton-like method. Numerical case studies revealed that in several nontrivial scenarios the RIM method provides better results than both, symbolic analysis as well as Newton-based methods. Two applications of the RIM method for the investigation of dynamical systems are provided. One of them is the detection of periodic points. The other is the computation of stable manifolds. The proposed methods contribute not only to the direct investigation and simulation of specific dynamical processes but also to the research in the field of dynamical system theory in general. This is due to the fact that progress in theory depends to a large extent on the observation and investigation of phenomenons. These phenomenons can often only be revealed, analyzed and verified by numerical experiments. The presented numerical case studies give some concrete examples for the application of the methods. Hereby, the dynamical models are taken from different fields of scientific research, like geography, biology, meteorology, or physics.
  • Thumbnail Image
    ItemOpen Access
    Reduktion von Verzögerungsunterschieden bei der Gruppenkommunikation im Internet
    (2007) Klöcking, Jens-Uwe; Rothermel, Kurt (Prof. Dr.)
    Eine Vielzahl neuer Anwendungsgebiete des Internets basiert auf der effizienten Übertragung einer Nachricht an eine Gruppe von Empfängern, der so genannten Gruppenkommunikation. Beispiele für derartige Anwendungen sind Nachrichten- und Softwareverteilung, verteilte Berechnungen, Videokonferenzen, Fernunterricht sowie Spiele. Die Netzwerkressourcen werden durch Gruppenkommunikation sehr effizient genutzt, denn das einmalige Senden einer Nachricht reicht aus, um von allen Teilnehmern einer Gruppe empfangen zu werden. Einige Einschränkungen der Dienstqualität derzeitiger Gruppenkommunikationslösungen im Internet behindern jedoch ihre generelle Nutzung. Hiervon betroffen ist unter anderem die Fairness bezüglich der Verzögerung der Nachrichtenauslieferung. Dieser spezielle Parameter der Gruppenkommunikation bezeichnet die Zeitspanne zwischen dem ersten und letzten Eintreffen einer Nachricht bei einer Gruppe von Empfängern. Messungen mittels eines dafür entwickelten passiven Verfahrens zeigen für einige Anwendungen nicht tolerierbare Verzögerungsunterschiede auf. Das Ziel der Arbeit besteht darin, die Verzögerungsunterschiede zu minimieren, um einen fairen Dienst für nicht kooperative Anwendungen der Gruppenkommunikation im Internet, wie z. B. Informationsdienste und elektronische Märkte bereitzustellen. Zur Lösung des Problems wurden drei Ansätze erarbeitet. Durch den Einsatz von Servern konnten Verzögerungsunterschiede der Nachrichten ausgeglichen werden. Die in der Anwendungsschicht angesiedelten Ansätze stellen keine besonderen Anforderungen an die Netzkomponenten und können daher schrittweise eingeführt werden. Darüber hinaus berücksichtigen sie die aktuelle Netzwerklast und sind so in der Lage, die Gesamtverzögerung der Nachrichtenauslieferung gering zu halten. In einem der Ansätze überwacht sichere Hardware in Form von Smart Cards direkt bei den Empfängern den Auslieferungszeitpunkt der Nachrichten. Hierfür wurden drei Protokolle entwickelt, die die Synchronisation der Smart-Card-Uhren, die Auslieferung der Daten und eine Rückmeldung der tatsächlichen Verzögerung ermöglichen. Mittels Analyse und Simulationen wurde eine signifikante Reduktion der Verzögerungsunterschiede der Nachrichten zwischen den Empfängern nachgewiesen. Ein Prototyp wurde implementiert, um die mit gegenwärtiger Smart-Card-Hardware erreichbare Reduktion von Verzögerungsunterschieden zu ermitteln und die Tragfähigkeit des Ansatzes zu demonstrieren.
  • Thumbnail Image
    ItemOpen Access
    Sicherheit in Mobile-Agenten-Systemen
    (2001) Hohl, Fritz; Rothermel, Kurt (Prof. Dr.)
    Mobile Agenten sind Programminstanzen, die in der Lage sind, sich selbstständig zwischen verschiedenen, eventuell fremden, Ausführungsumgebungen zu bewegen und, unter Ausnutzung lokaler Ressourcen, Aufgaben zu erfüllen. Die vorliegende Arbeit beschäftigt sich mit der Frage der Sicherheit zwischen mobilen Agenten und deren Ausführungsumgebungen. Die Aufgabenstellung umfasst zwei Teilbereiche. Im Bereich des Schutzes der Ausführungsumgebung vor Angriffen durch mobile Agenten werden die möglichen Angriffe und die existierenden Lösungsansätze vorgestellt. Der zweite Teilbereich umfasst den Schutz mobiler Agenten vor Angriffen durch ihre Ausführungsumgebung. Hier werden ebenfalls zunächst die möglichen Angriffe geschildert. Weiter wird ein Modell der Wirtsmaschine und des Angreifers erarbeitet, das es erlaubt, die möglichen Angriffe zu illustrieren. Unter Benutzung einer neuen Kategorisierung werden dann verwandte Arbeiten erläutert. Im Bereich des Schutzes vor einzelnen Angriffen werden existierende Verfahren untersucht, die bestimmte Angriffe gegen einen mobilen Agenten durch Vergleich mit Referenzzuständen entdecken können. Durch eine Kombination dieser Verfahren wird dann ein neues Verfahren entwickelt sowie diskutiert. Um mobile Agenten vor allen Angriffen zu schützen, wird danach das Gesamtproblem des Schutzes mobiler Agenten auf ein kleineres Problem reduziert indem die sog. Blackbox-Eigenschaft mobiler Agenten angenommen wird. Darauf folgend werden zwei Verfahrensklassen beschrieben, die diese Eigenschaft gewährleisten sollen. Für die Klasse der nicht-interaktiven Auswertung von verschlüsselten Funktionen werden drei existierende Mechanismen beschrieben. Um einen Nachteil der existierenden Verfahrensklasse zu überwinden, wird dann eine neue Verfahrensklasse vorgestellt, die aber eine Zeitbeschränkung des erzielten Schutzes aufweist. Abschließend wird ein neues Protokoll beschrieben, das den sog. Blackbox-Test verhindert.
  • Thumbnail Image
    ItemOpen Access
    Skalierbare und zuverlässige Gruppenkommunikation im Internet
    (2002) Maihöfer, Christian; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h.c.)
    Multicast erlaubt die bandbreitenschonende Auslieferung einer Nachricht an eine Gruppe von Empfängern. Anwendungen wie Informations- und Softwareverteilung an große Empfängergruppen, Audio- und Videokonferenzen, verteiltes Rechnen und verteilte Spiele lassen sich mit einem Multicast-Dienst effizient realisieren. Eine Reihe von Anwendungen erfordert dabei eine zuverlässige Nachrichtenauslieferung, die über den im Internet verfügbaren unzuverlässigen IP-Multicast-Dienst hinausgeht. Aufbauend auf IP-Multicast wird eine zuverlässige Nachrichtenauslieferung mittels Empfangsbestätigungen und Übertragungswiederholungen durch nicht-hierarchische oder hierarchische Transportprotokolle erreicht. Wie sich im Verlauf der Arbeit zeigen wird, erlauben lediglich hierarchische Transportprotokolle die skalierbare Realisierung eines zuverlässigen Multicast-Diensts zur Gruppenkommunikation. Diese ordnen alle Gruppenmitglieder in eine Hierarchie ein, die Kontrollbaum genannt wird. Durch den Kontrollbaum können notwendige Übertragungswiederholungen lokal begrenzt werden und müssen nicht mehr notwendigerweise vom ursprünglichen Sender durchgeführt werden. Die Verteilung dieser Last auf andere Gruppenmitglieder ermöglicht einen mit der Mitgliederzahl skalierbaren Dienst. Die Voraussetzung für den praktischen Einsatz ist ein skalierbares Verfahren zum Aufbau der Kontrollbäume. Mit dem Token-Repository-Service (TRS) wird in dieser Arbeit ein effizientes Verfahren zum Aufbau der Kontrollbäume vorgestellt. Drei Realisierungsvarianten des TRS-Diensts, TRS-R, TRS-K und TRS-M, erlauben unterschiedlichste Anforderungen zu berücksichtigen. Das wesentliche Entwurfskriterium aller Varianten ist eine skalierbare und effiziente Realisierung. Vergleichende Berechnungen und Simulationen mit alternativen Ansätzen unterstreichen nicht nur die Tragfähigkeit des TRS-Diensts. Dieser stellt momentan die einzige skalierbare Lösung zum Aufbau von Kontrollbäumen dar. Aufgrund der Unabhängigkeit des TRS-Diensts von einem Multicast-Routing-Protokoll ist es zudem die einzige Lösung, die durchgängig im gesamten Internet eingesetzt werden kann. Zur Erleichterung der Auswahl eines geeigneten zuverlässigen Multicast-Transportprotokolls und zur optimalen Konfiguration eines ausgewählten Transportprotokolls mit dem TRS-Dienst wird eine ausführliche probabilistische Analyse durchgeführt. Ausgangspunkt der Analyse ist nicht die Untersuchung konkreter Protokolle, sondern die Identifizierung wichtiger generischer Protokollklassen und deren anschließende Beurteilung. Dabei ergeben sich bedeutende Unterschiede bezogen auf den Bandbreitenbedarf, den Durchsatz und die Nachrichtenverzögerungen. Die Evaluation zeigt vielfache Vorteile für hierarchische Verfahren. Diese bieten nicht nur Skalierbarkeit, auch bezüglich des verursachten Nachrichtenaufwands, des Durchsatzes und der erzielbaren Nachrichtenverzögerung sind sie durch eine Verteilung der Last und kürzere Kommunikationswege gegenüber nicht-hierarchischen Protokollen im Vorteil. Als ein wesentlicher Parameter zur Konfiguration hierarchischer Transportprotokolle wird der Verzweigungsgrad des Kontrollbaums identifiziert werden. Im Gegensatz zu bisherigen Verfahren ermöglicht es der TRS-Dienst den Verzweigungsgrad flexibel zu konfigurieren. Die Analysen und Simulationen zeigen, dass bei einer geeigneten Wahl des Verzweigungsgrads der Durchsatz und die Verzögerung des zuverlässigen Transportprotokolls beträchtlich verbessert werden kann. Zusammenfassend erlaubt es der vorgestellte Token-Repository-Service durch seinen skalierbaren Kontrollbaumaufbau erstmals, zuverlässige Multicast-Kommunikation auch für große Gruppen zu etablieren. Durch die flexible Wahl des Verzweigungsgrads der entstehenden Kontrollbäume ist zudem eine beträchtliche Leistungsoptimierung des zuverlässigen Transportprotokolls sowie eine entscheidende Verringerung der Netzbelastung mit dem TRS-Dienst möglich.