05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
Item Open Access 2D- und 3D-Gesten-Interaktion mit einem Assistenzsystem am Arbeitsplatz für leistungsgeminderte Arbeiter(2014) Martin, AlexanderArbeitnehmer werden aufgrund des demografischen Wandels immer älter. Dies hat direkte Auswirkungen auf die Wirtschaft. Die Produktivitätsreserven einer Gesellschaft müssen mobilisiert werden, um dieser Entwicklung entgegenzutreten. Leistungsgewandelte und leistungsgeminderte Menschen können mit Hilfe von Assistenzsystemen am Arbeitsplatz ein selbstbestimmtes und produktives Arbeitsleben führen. Dabei stellt die Benutzerinteraktion mit Assistenzsystemen einen Kernpunkt für die Akzeptanz dieser Systeme dar. In der vorliegenden Diplomarbeit werden 2D und 3D Gesteneingaben an einem Assistenzsystem am Arbeitsplatz für leistungsgewandelte und leistungsgeminderte Arbeiter untersucht. 2D und 3D Gesten-Sets werden entwickelt und an einem Gesten-Interaktionssystem evaluiert. Ziel dieser Arbeit ist die Ableitung von Design Richtlinien für die Entwicklung von Gesten und die Feststellung einer geeigneten Gestenform für Assistenzsysteme am Arbeitsplatz im Kontext leistungsgewandelter und leistungsgeminderter Arbeiter.Item Open Access Abbildung von Datenmanagementpatterns auf ausführbare Workflowfragmente(2015) Bohrn, Andreas MichaelDiese Arbeit beschäftigt sich mit der Abbildung von Datenmanagementpatterns auf ausführbare Workflowfragmente. Zunächst werden Gründe und mögliche Szenarien für eine Abbildung von Datenmanagementpatterns während der Laufzeit eines Workflows beschrieben. Dann werden unterschiedliche Technologien für die Umsetzung einer Systemkomponente für eine solche Abbildung zur Laufzeit in Bezug auf die Anforderungen dieser Arbeit untersucht und bewertet. Anschließend wird ein Konzept für eine neue Systemkomponente, die die Abbildung von Datenmanagementpatterns sowohl zur Laufzeit als auch während der Modellierung erlaubt, vorgestellt und die Implementierung dieser Komponente beschrieben. Der Workflow der neuen Patterntransformation zur Laufzeit wird anhand eines Workflows zur biomechanischen Simulation von Strukturänderungen in Knochen gemessen und bewertet. Zuletzt werden Ansätze für die Umsetzung eines Sichtenkonzepts auf die Abstraktionsstufen der Patterns und die Optimierung der Datenbereitstellung durch Datenmanagementpatterns beschrieben.Item Open Access Abdeckung von Verschnittresten unter Konnektivitätsbedingungen(2015) Hildinger, MarkusIn vielen industriellen Anwendungsgebieten sind geometrische Packungsprobleme zu lösen, so möchte man zum Beispiel bei der Verarbeitung von Blech den Verschnitt minimieren: Gegeben ist eine Menge von Blechteilen, von denen möglichst viele auf einem größeren Blech verteilt werden. Die verbleibenden Blechreste sollen dann noch von der Arbeitsfläche entfernt werden. Typischerweise geschieht dies durch "Wegstanzen" der Blechreste. Es stehen hierfür verschieden Stanzköpfe zur Verfügung. Ziel ist es, mit möglichst wenig Stanzvorgängen und möglichst wenig Wechseln des Stanzkopfes alle Blechreste zu entfernen. Hierbei gilt es zwei Dinge zu beachten: - die verbleibende Restfläche sollte aus Stabilitätsgründen zusammenhängend bleiben - beim Stanzvorgang muss mindestens die Hälfte der Stanzkopffläche auch wirklich mit Material unterlegt sein (d.h. ausschließliche Benutzung des größten Stanzkopfes ist nicht immer möglich). Im Rahmen dieser Diplomarbeit wurde von Grund auf ein Verfahren entwickelt, welches dieses Problem zu lösen versucht. Um die Komplexität des Problems zu reduzieren wurden einige Einschränkungen bezügliche der Probleminstanzen vorgenommen. So wurde festgelegt, dass nur polygonale Wertstücke vom Blech entfernt werden dürfen und die Form der zur Auswahl stehenden Stanzköpfe muss rund sein. Der Hauptaugenmerk der Arbeit liegt auf der Beachtung der Nebenbedingungen. Vor allem für die Sicherstellung des Zusammenhangs der Fläche wurden Ideen entwickelt um umgesetzt. Hierbei spielt die mediale Achse eine besondere Rolle, indem sie als Grundlage für einen Großteil der vorgestellten Verfahren eingesetzt wird. Neben dem Einsatz für die Konnektivitätstest dient sie zusätzlich als Struktur für eine vereinfachte Darstellung einer Fläche. Besondere Merkmale des zu überdeckenden Gebiets können so besser erkannt und genutzt werden.Item Open Access Abschätzung des Ressourcenverbrauchs und Analyse der Echtzeitfähigkeit von CUDA- und OpenCL-Befehlen(2011) Römhild, FabianCUDA und OpenCl ermöglichen die Grafikkarte für Berechnungen abseits der Grafikausgabe zu verwenden. Gerade bei parallelisierbaren Berechnungen kann so ein enormer Geschwindigkeitszuwachs erreicht werden. CUDA und OpenCL geben keine Zeitgarantien, d.h. für die Laufzeit von Programmen gibt es keine Beschränkung. Des Weiteren sind einmal gestartete Berechnungen nicht unterbrechbar. Für Echtzeitgarantien ist dies allerdings zwingend erforderlich. In dieser Diplomarbeit wird untersucht, ob die GPU auch für Berechnungen in Echtzeitsystemen verwendet werden kann. Es wird nach Möglichkeiten gesucht den Kontextwechsel zwischen verschiedenen CUDA- und OpenCL-Programmen zu steuern. Ferner wird die Laufzeit und der Speicherverbrauch abgeschätzt und die für Echtzeit wesentlichen Einflussfaktoren ermittelt. Durch Evaluation wird das spezifische Verhalten analysiert und mit Hinblick auf Isolation und Echtzeitgarantien bewertet. Diese Arbeit zeigt auf, dass es in gewissem Umfang möglich ist, bezüglich Laufzeit und Ressourcenverbrauch, Garantien zu gewährleisten.Item Open Access Abstraktionsunterstützung für die Definition des Datenmanagements in Simulationsworkflows(2012) Aristidou, StavrosSeit langem wurden Workflows als ein Mittel zur Unterstützung der Geschäftsprozesse in Unternehmen verwendet. Seit kurzem werden Worklows auch im Bereich der wissenschaftlichen Simulationen eingesetzt. Simulationsanwendungen beinhalten viele komplizierte Berechnungen und Datenverwaltungsaufgaben. Der Zugriff, die Bereitstellung und die Generierung großer Datenmengen in heterogenen und verteilten Umgebungen stellen eine große Herausforderung für die Zukunft dar. Aufgrund dieser Problematiken wäre die Entwicklung einer konsolidierten und integrierten Datenmanagementabstraktion für die Wissenschaftler besonders sinnvoll und hilfreich.Diese Arbeit befasst sich mit dem Aspekt der Definition des Datenmanagements in Simulationsworkflows. Ziel ist es die Definition des Datenmanagements für bestimmte Simulationsanwendungen zu vereinfachen. Im Rahmen dieser Arbeit werden zusätzliche Datenmenagementpatterns, die den Wissenschaftler als Templates für ausführbare Workflow-Fragmente zur Verfügung stehen sollen entwickelt. Dadurch wird die Definition des Datenmanagements für weitere Simulationsanwendungen vereinfacht. Aus konkreten Anwendungsszenarien sollen zunächst geeignete Datenmanagementpatterns herausgearbeitet und identifiziert werden. Die identifizierten Datenmangementpattens sollen definiert und anschließend auf ausführbare Workflow-Fragmente, etwa auf Datenmanagmentaktivitäten oder Service Aufrufe, transformiert werden. Für diese Transformationen, soll ein Rahmenwerk entstehen, welches auf Abbildungsregeln und Metadaten über die während der Ausführung eines Simulationsworkflows involvierten Datenquellen basiert.Item Open Access Acquisition, analysis and visualization of data from physiological sensors for biofeedback applications(2014) Jillich, BenjaminWith the latest advances in technology and the rise of physiological sensors for everyday life, biofeedback is celebrating its revival and is a topic of great interest. The aim of this thesis is a mash-up of biofeedback techniques, modern physiological sensors and 3D technology. It investigates how to create a flexible and reusable biofeedback framework that can be used as extendable platform for future physiological sensors and research projects. It results in a fully operational biofeedback system that can be used to improve body awareness and control. The thesis explains what biofeedback is, investigates physiological sensor modalities and recording techniques, and provides a comprehensive analysis of related work in this domain. Simultaneous acquisition of data from multiple physiological sensors introduces new data management challenges on how to access stored data in an efficient way while still having enough processing power available for data visualization. Rather than just mapping a single value from a sensor like in traditional biofeedback systems, the thesis explains how to create an interactive classification graph, where customizable classifiers combine results from signal processing and map them to one or multiple feedback scores. The thesis extends the traditional biofeedback loop by a control and adjust mechanism and encapsulates analysis and classification from visualization. The two tier architecture allows the creation of state-of-the-art visualizations with any rendering engine. Several sample visualizations are created, including a virtual reality scene using the Oculus Rift in order to investigate the impact of virtual reality in biofeedback. An evaluation with 8 participants, each doing 7 tests, showed that key for successful biofeedback are (1) interaction with a human feedback controller who monitors the session, (2) interaction with a fast responding and simple visualization, and (3) customization of classification. The thesis provides guidelines on how to design useful biofeedback visualizations along with an investigation of the operational capability of physiological sensors and the effect of virtual reality. As a result of this research, a biofeedback framework with a visual and interactive graph-based classification system was created that enables feedback controllers to easily change the classification process and customize it for their users.Item Open Access Adaptive Informationsaufbereitung(1996) Maile, AnnetteAm Institut für Informatik der Universität Stuttgart werden in der Abteilung Graphische Systeme im Rahmen des Projekts POWER (Product modelling in object-oriented Databases with efficient Methods for Retrieval) die Anforderungen an eine integrierte, umfassende Produktdatenmodellierung untersucht und richtungsweisende Konzepte für ganzheitliche, bereichsübergreifende Informationssysteme im CAD/CAM-Bereich entwickelt. In dieser Diplomarbeit wird das Konzept eines Architekturmodells für die adaptive Informationsaufbereitung in bereichsübergreifenden, betrieblichen Informationssystemen entwickelt. Dazu wird zunächst das betriebliche Umfeld untersucht, um die unterschiedlichen Informationsbedürfnisse von Mitarbeitern zu analysieren und Informationsaufbereitungsarten sowohl für verschiedene Funktionsgruppen, als auch innerhalb einer Abteilung zu erarbeiten. Im Anschluß daran werden die Konzepte neuer Informationssysteme - wie Hypermedia, intelligente Agenten und computerunterstützte Lernsysteme - daraufhin untersucht, inwieweit sie für die Realisierung der adaptiven Informationsaufbereitung im betrieblichen Umfeld geeignet sind. Darauf aufbauend wird in Kapitel 4 das Konzept eines Architekturmodells für die adaptive Informationsaufbereitung entwickelt. Das Konzept soll offen sein, so daß es jederzeit um Informationsaufbereitungsarten erweitert werden kann. Anschließend wird das Architekturmodell anhand einiger Bereiche einer Beispielfirma implementiert. Die Implementierung der Arbeit erfolgt in Perl an HP-Workstations der Serie 9000/700.Item Open Access Adaptive Prozessmodellierung mittels mehrerer Abstraktionsschichten(2011) Alvi, Modood AhmadGeschäftsprozesse werden typischerweise von verschiedenen Prozessverantwortlichen modelliert. Das führt zu Modellen, die sich inhaltlich unterscheiden und auf verschiedenen Abstraktionsschichten liegen. Insbesondere existieren je nach Prozessperspektive mehrere Modelle eines einzelnen Geschäftsprozesses. Daraus ergeben sich drei Anforderungen: Erstens, die Zuordnung der Prozesselemente in den Abstraktionsschichten. Zweitens, Änderungen in einem Prozessmodell müssen an alle anderen verwandten Modelle weitergereicht werden. Drittens, die Einführung einer Notation für Konsistenz zwischen Prozessmodellen. In dieser Arbeit wird ein Konzept zur adaptiven Modellierung von Geschäftsprozessen mittels mehrerer Abstraktionsschichten entwickelt. Dazu werden Änderungen an einem Prozessmodell in Änderungsoperationen ausgedrückt, die wiederum auf einer Modellzuordnung operieren. Diese Änderungsoperationen werden in einem Änderungsprotokoll abgelegt und bei Bedarf den verwandten Modellen weitergereicht. Jede Operation definiert dabei Bedingungen, die erfüllt sein müssen, um die Änderung zu übernehmen. Zwei Prozessmodelle sind demnach konsistent, nachdem alle Änderungsoperationen übernommen wurden. Die Übernahme einer Änderung kann wiederum eine Änderungsoperation des adaptierenden Prozessmodells generieren. Die entwickelten Konzepte werden für den webbasierten Editor Oryx umgesetzt.Item Open Access Adaptive simulationsbasierte Diagnose von Verzögerungsfehlern in kombinatorischen Schaltungen(2012) Schneider, EricBei der Chipproduktion können systematische Defekte auftreten, die das Zeitverhalten der Schaltung beeinflussen, sodass die Chips bei Echtzeitbedingungen kleinste Verzögerungsfehler (sog. Small Delays) verursachen. Um fehleranfällige Stellen innerhalb eines Chips ausfindig zu machen und das Layout und die Prozessparameter bei der Herstellung entsprechend anpassen zu können, müssen fehlerhafte Chips diagnostiziert werden. Die genaue logische Diagnose von kleinsten Verzögerungsfehlern ist aufgrund der hohen Komplexität sehr aufwändig, weshalb hierbei typischerweise auf einfache Fehlermodelle, wie z.B. dem Transitionsfehlermodell, zurückgegriffen wird, welche Small Delay Fehler jedoch nur unzureichend abdecken und bei Variationen im Chip irreführend sein können. In dieser Arbeit wird ein neuartiges logisches Diagnoseverfahren vorgestellt, welches mit Hilfe von präziser Zeitsimulation kleinste Verzögerungsfehler in kombinatorischen Schaltkreisen auch unter Variationen effizient und stabil diagnostizieren kann. Hierbei werden die initialen Fehlerkandidaten zunächst mit Hilfe von Effect-Cause Methoden reduziert und anschließend die Defektstelle, sowie die Defektgröße, durch eine selektive Simulation der verbleibenden Kandidaten mit wenigen Simulationsschritten bestimmt. Die Diagnostizierfähigkeit der Methode wird anhand von Experimenten mit gängigen Benchmark Schaltkreisen, sowie industriellen Schaltkreisen gezeigt.Item Open Access Adaptive situation-based learning of a dribbling behavior in RoboCup(2012) Kattmann, ChristophIn order to test and rate any algorithm, test problems, called benchmarks, are needed. Sorting algorithms are evaluated using random or in some way presorted datasets to understand their performance in different scenarios. The same has to be done with algorithms in artificial intelligence. For algorithms which try to simulate human thinking in general, the most famous benchmark is the Turing test, in which the system has to fool a user who is asking questions to think the responding unit is in fact human. To date (2011) no system has come close to passing the test consistently. There are however other domains of AI research which can not be as easily tested as the capability of a system or algorithm to respond to questions like a human. These include cooperation, learning and sensor and actor technology. The RoboCup is a yearly competiton where exactly these domains are benchmarked in soccer games between teams from universities from all around the world. The rules of the contest are very close to the official soccer rules stated by the international soccer federation FIFA. Some adaptations are necessary to make participance in the competition affordable and to rid the game of elements which are unnecessary when robots are playing, like a dedicated referee who is present on the field. There are five different leagues with different rules. The university of Stuttgart takes part in the Middle-Size league with non-humanoid robots of a maximum of 50cm in diameter and a height of approx. 1m. They play in teams of five robots each with standard soccer balls on a field which is scaled to a length 18m, but otherwise nearly identical to the standard soccer field outlined by FIFA regulations. The main focus of this competition is on cooperation and planning. Other leagues have other regulations and a different focus. What makes the RoboCup scenario so valuable for research in Artificial Intelligence is its focus on a dynamic environment and incomplete information accessibility, that means the input of the sensors of the robots is never entirely certain. The principles and methods used to compete in the RoboCup are useful in other domains and scenarios. In this thesis an algorithm to adapt behaviour based on the uncertain sensor input is developed and introduced, as well as tested. The input is provided by an omnidirectional camera on top of the robot and by referee events delivered to all of the robots during the game. The output of the algorithm, that means the behaviour of the robot is (in certain bounds) accessible by parameters, which for example control the shooting mechanism. So the whole system can be represented as a control system where the robot is the control process and our algorithm is the controller. Common controller design methods fail here, the special difficulties of this system lie in the incertainty of the input signal and the highly non-deterministic environment. For the design of a controller for this kind of process, new methods and even controller components have to be developed.Item Open Access Agiles Data Warenhousing am Beispiel von Prozessmonitoring(2012) Sigloch, PhilippHeutige Geschäftsprozesse nehmen ständig an Komplexität zu. Hiermit einhergehend werden die Anpassung und Optimierung einzelner Teilprozesse oder des Gesamtprozesses nötig. Gleichzeitig können über alle Bereiche eines Prozesses hinweg Daten gesammelt werden, welche durch Analyse diese Anpassung und Optimierung ermöglichen. Hierfür müssen die anfallenden Daten dauerhaft gespeichert und bereitgestellt werden. Dies geschieht in Form von Data Warehouses. Da die Erstellung und Wartung dieser Data Warehouse Strukturen teuer und zeitaufwändig ist, werden Versuche unternommen, die hierfür nötigen Arbeiten zu minimieren bzw. zu automatisieren. In dieser Arbeit wird, aufbauend auf Praxisanforderungen und bisherigen Ansät- zen, zur automatisierten Prozessüberwachung ein Konzept für die Erzeugung eines agilen Data Warehouses entwickelt. Dies erfordert die automatisierte Erstellung und Einrichtung der für ein Data Warehouse nötigen Strukturen sowie deren automatische Anpassung bei Veränderung der Umgebungsbedingungen. Zusätzlich müssen Möglichkeiten für das Befüllen dieser Strukturen mit Daten geschaffen werden. Hierfür werden zwei Komponenten entwickelt, welche alle benötigten Data Warehouse Strukturen erzeugen und diese mit Hilfe eines BI-Servers bereitstellen. Hierbei werden Datenbankschemata, OLAP-Schemata sowie ETL-Prozesse automatisiert erzeugt. Das entwickelte Konzept wird in einen Gesamtprozess integriert, welcher eine Business Intelligence Lösung als Software-As-A-Service-Lösung ermöglicht.Item Open Access Aktionen autonomer Systeme als Elemente relationaler nebenläufiger Markov-Entscheidungsprozesse(2016) Böhm, RobinIn der vorliegenden Arbeit wird die Frage behandelt, welche Eigenschaften die Implementierung von Aktionen autonomer Agenten erfüllen muss um als Elemente relationaler Markov-Entscheidungsprozesse nutzbar zu sein. Sie formalisieren ein stochastisches Zustandsmodell als Grundlage des Entscheidungsproblems der Aktionsplanung. Neben der Untersuchung, wie dieses Modell erweiterbar ist um nebenläufige Aktionsausführung zu ermöglichen, werden auch verschiedene Modelle beschrieben die auftretende Ressourcenkonflikte lösen. Anhand der theoretischen Untersuchung dieser Frage wird an der praktischen Umsetzung einer Softwareumgebung zur Implementierung von autonomen Aktionen gearbeitet. Diese bietet dem Programmierer ein Interface, welches die stabile Umsetzung unterschiedlichster Prozesse der Robotik ermöglicht, sodass diese einer Aktionsplanung zur Verfügung stehen. Es wird um eine Ausnahmebehandlung erweitert, sodass an Stellen, die vorher zum Programmabbruch geführt haben nun eine Fehlerbehandlung greift welche eine adäquate Reaktion des Aktionsplaners ermöglicht. Neben der genauen Beschreibung der Architektur und einer Anleitung zur Implementierung neuer Aktionen, werden auch die Möglichkeiten der Software experimentell evaluiert.Item Open Access Algorithmen zur sicheren Verwaltung und Fragmentierung von Benutzertrajektorien(2012) Barocka, JanDurch die zunehmende Verbreitung von mobilen Endgeräten, welche in der Lage sind, ihren Standort zu erfassen, erhöht sich zugleich die Zahl der ortsbasierten Anwendungen (wie z.B. Facebook Places, Foursquare etc.). Die Positionsinformationen, welche von diesen Anwendungen genutzt werden, stellen persönliche Daten dar und müssen geschützt werden, um die Privatheit eines Benutzers sicherzustellen. Viele ortsbasierte Anwendungen benötigen aktuelle und kontinuierliche Positionsinformationen in Form von Benutzertrajektorien, z.B. um Verkehrsinformationen zu berechnen. Im Rahmen dieser Arbeit wird ein Verfahren zur sicheren Verwaltung und Fragmentierung dieser Benutzertrajektorien vorgestellt, mit dem es möglich ist, die Privatheit eines Benutzers bei der Veröffentlichung seiner Bewegungsdaten zu gewährleisten. Hierzu wird eine Trajektorie in mehrere Fragmente geteilt, die hinsichtlich ihres Informationsgehalts bewertet und auf unterschiedlichen Lokationsservern verteilt werden. Ortsbasierten Anwendungen, die entsprechende Berechtigungen vom Benutzer erhalten haben, sind dennoch in der Lage, die Trajektorien zu rekonstruieren. Um die Effektivität des Verfahrens zu prüfen, wurden ein Prototyp entwickelt. Mit dessen Hilfe konnten die Möglichkeiten eines Angreifers betrachtet werden, Informationen aus Daten zu gewinnen, in deren Besitz er durch das Kompromittieren eines Lokationsservers gelangen könnte. Es wird gezeigt, dass es durch das beschriebene Verfahren möglich ist Benutzertrajektorien unabhängig von vertrauenswürdigen Instanzen mit einem garantierten Maß an Privatheit zu schützen.Item Open Access Der Algorithmus von Howgrave-Graham und Joux zur Lösung von Rucksackproblemen(2012) Ludwig, MichaelIn dieser Diplomarbeit werden Algorithmen für schwere Rucksackinstanzen (in diesem Fall Subset Sum) behandelt. Eine Instanz heißt schwer, wenn sie eine Dichtekennzahl nahe 1 hat. Die behandelten Algorithmen bauen aufeinander auf. Beginnend beim Horowitz-Sahni-Algorithmus wurde zunächst der Schroeppel-Shamir-Algorithmus und danach der Algorithmus von Howgrave-Graham und Joux hergeleitet. Letzterer hat einen Speicher-Zeit-Tradeoff, welcher in dieser Arbeit ausgebaut werden konnte. Die neuen Algorithmen verwenden außerdem eine Heuristik, deren Korrektheit ebenso bewiesen wurde.Item Open Access Analyse der Echtzeitfähigkeit und des Ressourcenverbrauchs von OpenGL ES 2.0(2011) Cont, ArminOpenGL ES 2.0 (Open Graphics Library for Embedded Systems 2.0) ist eine Schnittstelle zur Entwicklung von 2D- und 3D-Computergrafik-Anwendungen. Die Spezifikation von OpenGL ES 2.0 definiert eine Reihe von Befehlen, mit denen Daten zum und vom OpenGL ES-System übermittelt werden können, mit denen das Zeichnen von Grafiken angestoßen werden kann (Rendering) und Einstellungen für das Rendering durchgeführt werden können. Üblicherweise verwenden OpenGL ES-Systeme für das Rendering physische Grafikkarten (GPUs). Keines der heute verfügbaren OpenGL ES-Systeme mit physischer GPU unterstützt aber die Priorisierung von Anwendungen hinsichtlich der Ausführung von OpenGL ES-Befehlen oder Einschränkungen von Anwendungen hinsichtlich der Nutzung von GPU-Ressourcen. Insbesondere bietet OpenGL ES weder einen konfigurierbaren Scheduler noch die Möglichkeit, Echtzeitgarantien für die Ausführung von OpenGL ES-Befehlen zu erfüllen. Ziel dieser Arbeit ist es, zu untersuchen, inwieweit dennoch sichergestellt werden kann, dass Befehle sicherheitskritischer Anwendungen rechtzeitig ausgeführt werden können. Dazu werden relevante Befehle bestimmt, deren Laufzeitverhalten und Ressourcenverbrauch analysiert wird. Außerdem werden spezielle Szenarien untersucht, um festzustellen, inwiefern das Verhalten von OpenGL ES-Systemen die rechtzeitige Ausführung kritischer Befehle verhindern kann. Schließlich werden Untersuchungsmethoden und Metriken für die Prognose des Ressourcenverbrauchs von OpenGL ES-Befehlen und die Ermittlung der dafür notwendigen systemspezifischen Kennzahlen entwickelt. Die Untersuchung werden auf einigen realen OpenGL ES-Systeme durchgeführt. Dabei wird gezeigt, dass insbesondere das Speicherbelegungsverhalten und die Nutzung der Renderpipeline mit Problemen verbunden sind, die der Erfüllung von Echtzeitgarantien im Wege stehen und nicht auf der Ebene von OpenGL ES gelöst werden können.Item Open Access Analyse der Eigenschaften von assoziativen Speichern für die Mustererkennung(1998) Bässler, MartinIn dieser Diplomarbeit werden Hopfield - Netzwerke mit bis zu 32 Neuronen und asynchroner Abfrage untersucht. Dabei werden auf empirische Art die stabilen Zustände des assoziativen Speichers mit ihren zugeordneten Einzugsgebiete ermittelt anhand von Beispielnetzen. Besonderer Schwerpunkt sind dabei die Trajektorien, auf denen die stabilen Zustände erreicht werden, ausserdem wird die Eindeutigkeit der Zuordnung eines Anfangszustandes zu einem stabilen Zustand geprüft. Dabei traten Phänomene wie das der residuellen Fehler auf. In einem ersten Teil wird die benötigte Theorie aus der Literatur zusammengestellt. Gleichzeitig wird eine neue Erklärung für residuelle Fehler unter Verwendung derEnergiefunktion vorgeschlagen. Es ergaben sich 3 Typen von Zuständen: (1) Zustände, die einen stabilen Zustand repräsentieren (eingeprägte Muster bzw. durch einen residuellen Fehlerleicht verschobene Muster), (2) Zustände, die unabhängig von der Abfragereihenfolge immer zum gleichen stabilen Zustand streben (Zustände in Attraktionsbecken) und (3) Zustände, die je nach Abfragereihenfolge unterschiedliche stabile Zustände erreichen (nicht-zuordenbare Zustände). Der prozentuale Anteil nicht-zuordenbarer Zustände steigt mit wachsender Zahl der stabilen Zustände. Zustände in Attraktionsbecken können über unterschiedliche Trajektorien den stabilen Zustand erreichen. Die gefundenen Ergebnisse werden anhand größerer Netzwerksbeispiele validiert und im Hinblick auf die Verwendung assoziativer Speicher für die Mustererkennung diskutiert.Item Open Access Analyse der Oberflächenstruktur von Proteinen(2011) Schulz, ChristophDiese Diplomarbeit befasst sich mit dem Thema Analyse der Oberflächenstruktur von Proteinen auf moderner Grafikhardware. Das Ziel der Diplomarbeit war es die technische Machbarkeit des interaktiven Umgangs mit zeitabhängigen Datensätzen aus Molekulardynamik-Simulationen zu zeigen. Es wurde ein Verfahren entwickelt, um aus Volumendaten ein Dreiecksnetz zu extrahieren, Komponenten zu erkennen, diese über Zeit zu korrelieren und Ereignisse mit zeitlichem Bezug, wie Amalgamieren und Aufspalten, zu erkennen. Die Implementierung erfolgte mittels NVIDIAs CUDA-Technologie. Anschließend wurde das Leistungsverhalten des Verfahrens untersucht und so der Beweis erbracht, dass der interaktive Umgang mit zeitabhängigen Proteindaten machbar ist.Item Open Access Analyse und Auswertung von gewichteten Anforderungen in technischen Spezifikationen(2013) Zwirn, FelixDie Erhebung von Anforderungen aus natürlich sprachlichen Texten ist ein wichtiger Aufgabenteil eines jeden technischen Projektes. Die Extraktion von Anforderungen von Hand ist allerdings langwierig und anfällig für Fehler. Für diese Arbeit wurde deswegen ein System entworfen, dass gewichtete Anforderungen analysiert und auswertet. Es werden vom REC System Sätze danach untersucht, ob es sich bei ihnen um Anforderungen handelt. Dafür werden sie mithilfe einer Ontologie in Klassen unterteilt. Die betrachteten Klassen sind Anforderungen, schwache Anforderungen, optionale Anforderungen, Kandidaten für Anforderungen und keine Anforderungen. Die Ontologie nutzt (Subjekt, Verb, Objekt)- Tripel (SVO-Tripel), um Kandidaten zu finden. Anhand bestimmter Schlüsselwörter werden die Kandidaten danach weiter unterschieden. Die Erkennungsontologie hat bei technischen Spezifikationen eine Trefferquote von über 80% bei einer Präzision von 100%. Es werden also keine Sätze fälschlicherweise als Anforderungen klassifiziert. Betrachtungen von anderen Texten ergaben, dass viele optionale Anforderungen tatsächliche keine Anforderungen waren. Dies führte zu einer Präzision von 50% bei Dokumenten, die keine technische Spezifikation sind. Die Qualität der Klassifizierung hängt somit stark von der Struktur des eingehenden Dokumentes ab. Der REC kann auch genutzt werden, um Dokumente mit anderen Ontologien zu klassifizieren. Die Ontologien müssen eine Basisontologie (Abbildung 5.6) erweitern. Ein Dokument lässt sich ohne Wechselwirkung von mehreren Ontologien klassifizieren.Item Open Access Analyse und Optimierung der Farbaufnahme für einen 3D Laser Scanner(2012) Dritschler, TimoDas menschliche Verständnis von Raum und Struktur ist stark an die Wahrnehmung von Farbe gebunden. Aus diesem Grund ist die Farbqualität von Fotoaufnahmen heutzutage von enormer Wichtigkeit. In dieser Arbeit soll der Farbaufnahmeprozess des FARO Laser Scanners Focus 3D dahingehend untersucht und optimiert werden, dass möglichst ideale Farbbilder aufgenommen werden können. Dazu müssen verschiedene Schwierigkeiten, die sich aus dem technischen Hintergrund des Farbaufnahmeprozesses ergeben, berücksichtigt werden. Darüber hinaus müssen verschiedenen Rahmenbedingungen eingehalten werden, die sich aus der späteren Verwendung der erhaltenen Farbaufnahmen ergeben. So wird zum Beispiel nicht nur mit einzelnen Aufnahmen, sondern mit einer ganzen Reihe von Aufnahmen gearbeitet, die anschließend zu einem Gesamtbild zusammengesetzt werden müssen. Auch der Farbeindruck, die empfundene Farbhelligkeit und der erkennbare Detailgehalt der Aufnahmen spielen eine entscheidende Rolle. Zur Optimierung des Farbaufnahmeprozesses wird zuerst der bereits bestehende Prozess auf Mängel untersucht und diese möglichst behoben. Anschließend wird ein Prozess zur weiteren Verbesserung der Bildqualität unter schwierigen Aufnahmebedingungen konzipiert und implementiert.Item Open Access Analyse von FTLE-Feldern(2011) Schilli, TomDie Berechnung des FTLE (finite-time Lyapunov exponent) bietet die Möglichkeit, die Separation von Partikeln in Strömungen zu visualisieren. Dies bedeutet nicht die Trajektorie des einzelnen, masselosen Partikels darzustellen, sondern zu ermitteln, ob eine Teilchengruppe innerhalb eines Betrachtungszeitraumes nahe beieinander bleibt (geringe Separation) oder sich voneinander entfernt (starke Separation). Um diese Separation der Teilchen darzustellen wird zuerst ein Startpunkt vorgegeben. An diesem wird begonnen, die Positionsänderung der Teilchen über einen Zeitraum zu verfolgen. Statt nun nur den Endzustand zu betrachten wird in dieser Arbeit die Veränderung der Werte über den kompletten Integrationszeitraum betrachtet. Hierbei kann zwischen Teilchen unterschieden werden, die sich über den kompletten Zeitraum immer weiter entfernen - andere nähern sich nach einer gewissen Zeit einander wieder an. Diese Phänomene können nur bei Betrachtung über den kompletten Betrachtungszeitraum erkannt werden. In einem einzelnen FTLE-Bild, bei welchem lediglich die Separation der Teilchen zum Endzeitpunkt betrachtet wird, liegt diese Information nicht vor. Teilchen, die sich zuerst entfernen und dann wieder annähern, treten zum Beispiel beim Umströmen von Hindernissen auf. Ebenfalls können solche Effekte in Wirbeln beobachtet werden. Bei Wirbeln können sogar wiederkehrende, periodische Muster im Verlauf des FTLE-Wertes erkannt werden, die Periodendauer gibt Aufschluss über die Drehgeschwindigkeit des Wirbels. Die Analyse des FTLE-Werteverlaufes ist somit ein interessantes Instrument, um noch mehr Informationen über ein Strömungsfeld zu erhalten. In dieser Arbeit werden die zeitlichen Vorgänge in zweidimensionalen FTLE-Feldern untersucht. Hierzu wird eine Programm entworfen, mit welchem die FTLE-Werte der Strömungsdaten angezeigt werden können. Innerhalb gewählter Bildbereiche können Diagramme über die (zeitlichen) Veränderungen der Werte generiert werden. Ebenfalls werden auf Basis dieser Kurvenverläufe Operationen wie Clustering oder Detektion sinkender beziehungsweise steigender Kurven durchgeführt. Um eine für die Durchführung der Arbeiten angenehme Berechnungsgeschwindigkeit zu erreichen werden Berechnungen auf der Grafikkarte durchgeführt. Für die Validierung des entwickelten Algorithmus wurden Datensätze erzeugt.