Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
2238 results
Search Results
Item Open Access Security Tools 7: Paßwörter - ein ewiges Problem?(1997) Lehle, Bernd; Reutter, OliverUnsere bisherigen Artikel beschäftigten sich hauptsächlich mit Dingen, über die sich ein Systembetreuer Gedanken machen muß. Nun kommen wir zu einem Thema, das wirklich alle Benutzer angeht und bei dem jeder Benutzer durch leichtfertiges Verhalten Sicherheitslücken schaffen kann. Es ist daher nötig, daß diese Informationen an alle Benutzer weitergegeben werden.Item Open Access Analyse der Echtzeitfähigkeit und des Ressourcenverbrauchs von OpenGL ES 2.0(2011) Cont, ArminOpenGL ES 2.0 (Open Graphics Library for Embedded Systems 2.0) ist eine Schnittstelle zur Entwicklung von 2D- und 3D-Computergrafik-Anwendungen. Die Spezifikation von OpenGL ES 2.0 definiert eine Reihe von Befehlen, mit denen Daten zum und vom OpenGL ES-System übermittelt werden können, mit denen das Zeichnen von Grafiken angestoßen werden kann (Rendering) und Einstellungen für das Rendering durchgeführt werden können. Üblicherweise verwenden OpenGL ES-Systeme für das Rendering physische Grafikkarten (GPUs). Keines der heute verfügbaren OpenGL ES-Systeme mit physischer GPU unterstützt aber die Priorisierung von Anwendungen hinsichtlich der Ausführung von OpenGL ES-Befehlen oder Einschränkungen von Anwendungen hinsichtlich der Nutzung von GPU-Ressourcen. Insbesondere bietet OpenGL ES weder einen konfigurierbaren Scheduler noch die Möglichkeit, Echtzeitgarantien für die Ausführung von OpenGL ES-Befehlen zu erfüllen. Ziel dieser Arbeit ist es, zu untersuchen, inwieweit dennoch sichergestellt werden kann, dass Befehle sicherheitskritischer Anwendungen rechtzeitig ausgeführt werden können. Dazu werden relevante Befehle bestimmt, deren Laufzeitverhalten und Ressourcenverbrauch analysiert wird. Außerdem werden spezielle Szenarien untersucht, um festzustellen, inwiefern das Verhalten von OpenGL ES-Systemen die rechtzeitige Ausführung kritischer Befehle verhindern kann. Schließlich werden Untersuchungsmethoden und Metriken für die Prognose des Ressourcenverbrauchs von OpenGL ES-Befehlen und die Ermittlung der dafür notwendigen systemspezifischen Kennzahlen entwickelt. Die Untersuchung werden auf einigen realen OpenGL ES-Systeme durchgeführt. Dabei wird gezeigt, dass insbesondere das Speicherbelegungsverhalten und die Nutzung der Renderpipeline mit Problemen verbunden sind, die der Erfüllung von Echtzeitgarantien im Wege stehen und nicht auf der Ebene von OpenGL ES gelöst werden können.Item Open Access Practical methods and tools for specification(1987) Ludewig, JochenThis is a course on specification. Since it is based on experiences in the field of software engineering. It applies primarily to software specifications. Many observations and reports indicate, however, that, from specification aspects, there is not much difference between information processing systems in general and software in particular. Therefore, most of this course applies also to system specification. In the first chapter, some fundamentals are discussed. These include the life cycle model and the distribution of costs over the various activities, some definitions, and a rationale for semi-formal specification. The second chapter provides a general outline of a specification system, whose desirable properties are deduced from the qualities of good specifications. In the third chapter, we present some typical specification systems. The primary goal is to show some typical features of such systems rather than to describe them in detail. The fourth chapter addresses management aspects. In chapter 5, some general conclusions are drawn. The appendix (chapter 6) contains a bibliography on specification, and a list of suppliers.Item Open Access Eine OSLC-Plattform zur Unterstützung der Situationserkennung in Workflows(2015) Jansa, PaulDas Internet der Dinge gewinnt immer mehr an Bedeutung durch eine starke Vernetzung von Rechnern, Produktionsanlagen, mobilen Endgeräten und weiteren technischen Geräten. Derartige vernetzte Umgebungen werden auch als SMART Environments bezeichnet. Auf Basis von Sensordaten können in solchen Umgebungen höherwertige Situationen (Zustandsänderungen) erkannt und auf diese meist automatisch reagiert werden. Dadurch werden neuartige Technologien wie zum Beispiel "Industrie 4.0", "SMART Homes" oder "SMART Cities" ermöglicht. Komplexe Vernetzungen und Arbeitsabläufe in derartigen Umgebungen werden oftmals mit Workflows realisiert. Um eine robuste Ausführung dieser Workflows zu gewährleisten, müssen Situationsänderungen beachtet und auf diese entsprechend reagiert werden, zum Beispiel durch Workflow-Adaption. Das heißt, erst durch die Erkennung höherwertiger Situationen können solche Workflows robust modelliert und ausgeführt werden. Jedoch stellen die für die Erkennung von Situationen notwendige Anbindung und Bereitstellung von Sensordaten eine große Herausforderung dar. Oft handelt es sich bei den Sensordaten um Rohdaten. Sie sind schwer extrahierbar, liegen oftmals nur lokal vor, sind ungenau und lassen sich dementsprechend schwer verarbeiten. Um die Sensordaten zu extrahieren, müssen für jeden Sensor individuelle Adapter programmiert werden, die wiederum ein einheitliches Datenformat der Sensordaten bereitstellen müssen und anschließend mit sehr viel Aufwand untereinander verbunden werden. Im Rahmen dieser Diplomarbeit wird ein Konzept erarbeitet und entwickelt, mit dessen Hilfe eine einfache Integration von Sensordaten ermöglicht wird. Dazu werden die Sensoren über eine webbasierte Benutzeroberfläche oder über eine programmatische Schnittstelle in einer gemeinsamen Datenbank registriert. Die Sensordaten werden durch REST-Ressourcen abstrahiert, in RDF-basierte Repräsentationen umgewandelt und mit dem Linked-Data Prinzip miteinander verbunden. Durch die standardisierte Schnittstelle können Endbenutzer oder Anwendungen über das Internet auf die Sensordaten zugreifen, neue Sensoren anmelden oder entfernen.Item Open Access Technisch-Wissenschaftliches Rechnen mit modernen PCs(1996) Helf, Clemens; Küster, Uwe; Zürn, ManuelaIntel hat im vergangenen Jahr mit dem Pentium Pro den ersten PC-Prozessor auf den Markt gebracht, der hohe Leistung, PC-Funktionalität und -Kosten miteinander vereinigen soll. Er wird in Home Computern, Workstations, Servern und Supercomputern stecken. Seine nominelle Leistung ist so hoch wie die einer CRAY-1, das Memory wenigstens das Achtfache. In der Vergangenheit waren aufwendige numerische Berechnungen an Supercomputer gebunden, danach eine Domäne der Workstations. Wird der PC in Zukunft die Alternative im Technisch-Wissenschaftlichen Rechnen?Item Open Access Automated composition of adaptive pervasive applications in heterogeneous environments(2012) Schuhmann, Stephan Andreas; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c.)Distributed applications for Pervasive Computing represent a research area of high interest. Configuration processes are needed before the application execution to find a composition of components that provides the required functionality. As dynamic pervasive environments and device failures may yield unavailability of arbitrary components and devices at any time, finding and maintaining such a composition represents a nontrivial task. Obviously, many degrees of decentralization and even completely centralized approaches are possible in the calculation of valid configurations, spanning a wide spectrum of possible solutions. As configuration processes produce latencies which are noticed by the application user as undesired waiting times, configurations have to be calculated as fast as possible. While completely distributed configuration is inevitable in infrastructure-less Ad Hoc scenarios, many realistic Pervasive Computing environments are located in heterogeneous environments, where additional computation power of resource-rich devices can be utilized by centralized approaches. However, in case of strongly heterogeneous pervasive environments including several resource-rich and resource-weak devices, both centralized and decentralized approaches may lead to suboptimal results concerning configuration latencies: While the resource-weak devices may be bottlenecks for decentralized configuration, the centralized approach faces the problem of not utilizing parallelism. Most of the conducted projects in Pervasive Computing only focus on one specific type of environment: Either they concentrate on heterogeneous environments, which rely on additional infrastructure devices, leading to inapplicability in infrastructure-less environments. Or they address homogeneous Ad Hoc environments and treat all involved devices as equal, which leads to suboptimal results in case of present resource-rich devices, as their additional computation power is not exploited. Therefore, in this work we propose an advanced comprehensive adaptive approach that particularly focuses on the efficient support of heterogeneous environments, but is also applicable in infrastructure-less homogeneous scenarios. We provide multiple configuration schemes with different degrees of decentralization for distributed applications, optimized for specific scenarios. Our solution is adaptive in a way that the actual scheme is chosen based on the current system environment and calculates application compositions in a resource-aware efficient manner. This ensures high efficiency even in dynamically changing environments. Beyond this, many typical pervasive environments contain a fixed set of applications and devices that are frequently used. In such scenarios, identical resources are part of subsequent configuration calculations. Thus, the involved devices undergo a quite similar configuration process whenever an application is launched. However, starting the configuration from scratch every time not only consumes a lot of time, but also increases communication overhead and energy consumption of the involved devices. Therefore, our solution integrates the results from previous configurations to reduce the severity of the configuration problem in dynamic scenarios. We prove in prototypical real-world evaluations as well as by simulation and emulation that our comprehensive approach provides efficient automated configuration in the complete spectrum of possible application scenarios. This extensive functionality has not been achieved by related projects yet. Thus, our work supplies a significant contribution towards seamless application configuration in Pervasive Computing.Item Open Access Comparison and analysis of web vulnerability scanners(2019) Lis, AlexanderWithin the last years the commercial relevance of web applications increased steadily. They developed from simple information sharing platforms to serious business applications like online-banking, e-commerce and social media platforms. Unlike most other technologies, web-based applications are accessible from around the world continuously. Additionally, they are very susceptible for vulnerabilities as there are various technologies interacting. These factors render web applications to very attractive targets for criminals because they are often easy to attack, globally accessible and yield valuable exploits. As a consequence, much effort was put into research to prevent, detect and eliminate web application vulnerabilities. However manual security audits are time-consuming, costly and demand expertknowledge. Web vulnerability scanners tackle this problem. They are programs that test web applications for the existence of vulnerabilities. Additionally they categorize and report them. Because these tools work automatically, faster as humans and reduce the necessary knowledge in network security, they became an interesting supplementation to traditional security audits. On the other side web vulnerability scanners also have their limits. They can not test for the absence of vulnerabilities and thus produce false positives or miss weaknesses. Furthermore previous research has shown that there are also vulnerability classes that are especially intricate to detect like stored SQL injections or stored cross-site scripting vulnerabilities. Nonetheless web vulnerability scanners show very much potential and there is a growing interest into automatic web application testing. This is reflected in the increasing diversity of commercial web vulnerability scanners that can be found online. Thus this thesis compares and examines three web vulnerability scanners, namely Acunetix, Arachni and w3af. Focus is set on delineating the current capabilities and limits of state-of-the-art vulnerability scanners.Item Open Access Konzeption und Realisierung eines Sicherheitskonzepts zur sicheren Datenstromverarbeitung in einer verteilten Ausfürhungsumgebung(2011) Dörler, OliverVorliegende Diplomarbeit entwickelt ein Sicherheitskonzept für NexusDS. Das Konzept definiert Sicherheitsmechanismen um den Zugriff und die Verarbeitung von sensiblen und geschützten Daten zu kontrollieren. Die Mechanismen beinhalten Funktionen um Daten zu Anonymisieren und zu Verschleiern. Die Entwicklung des Konzeptes beinhaltet die Abgrenzung von Sicherheit im Kontext von NexusDS, Erhebung von Anforderungen aus Anwendungsszenarien und NexusDS selbst, die Entwicklung entsprechend dienlicher Maßnahmen, deren Umsetzung in eine Sicherheitsarchitektur und eine prototypische Implementierung in NexusDS.Item Open Access REST Testbed(2013) Eisenbraun, NickWeb Services, die gemäß dem Architekturstil REST entworfen werden, zeichnen sich durch Eigenschaften wie Interoperabilität, lose Kopplung, Wiederverwendbarkeit, Leistung und Skalierbarkeit aus. In verteilten Systemen werden deswegen oft REST-basierteWeb Services eingesetzt. Verteilte Systeme haben höhere Fehleranfälligkeit als Standalone-Anwendungen und diese Erkenntnis sollte beim Entwicklungsprozess durch ausreichende Testszenarien berücksichtigt werden. Bei der Entwicklung von REST-basierten Client-Anwendungen wird ein REST-basierter Web Service benötigt, um die Funktionalitäten der Client-Anwendung zu testen. In dieser Diplomarbeit werden Anforderungen an ein Testbed zum Testen von REST-basierten Client-Anwendungen gestellt. Es wird eine Architektur zu diesem Testbed entworfen und anschließend ein Testbed prototypisch implementiert. Bei der Entwicklung des Testbeds werden die Eigenschaften wie Erweiterbarkeit und Konfigurierbarkeit der Funktionalitäten des REST-basiertenWeb Services sichergestellt. Durch die berücksichtigte Erweiterbarkeit kann das Testbed leicht um neue Funktionalitäten ergänzt werden. Die Konfigurierbarkeit erlaubt das Anpassen der funktionalen und nicht-funktionalen Eigenschaften des Testbeds, um die Erfüllbarkeit der an eine Client-Anwendung gestellten funktionalen und nicht-funktionalen Anforderungen zu überprüfen.Item Open Access Visual prediction of quantitative information using social media data(2017) Fatehi Ebrahimzadeh, HamedIn recent years, the availability of a vast amount of user-generated data via social media, has given an opportunity to researchers for analyzing these data sources and discovering meaningful information. However, processing and understanding this immense amount of data is challenging and calls for automated approaches, and involvement of field experts to use their field knowledge and experience to enhance the data analysis. So far, existing approaches only enable the detection of indicative information from the data such as the occurrence of critical incidents, relevant situation reports etc. Consequently, the next step would be to better relate the user provided information to the real-world quantities. In this work, a predictive visual analytics approach is developed that offers semi-automated methods to estimate quantitative information (e.g. number of people who participate in a public event). At first, the approach provides interactive visual tools to explore social media data in time and space and select features required as input for training and prediction interactively. Next, a suitable model can be trained based on these feature sets and applied for prediction. Finally, the approach also allows to visually explore prediction results and measure quality of predictions with respect to the ground truth information obtained from past observations. The result of this work is a generic visual analytics approach, that provides expert user with visual tools for a constant interaction between human and machine, for producing quantitative predictions based on social media data. The results of predictions are promising, especially in cases that the location, time and other related information to public events are considered together with the content of user-generated data.