05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
144 results
Search Results
Item Open Access Strukturelle Eigenschaften von Cu(In,Ga)(Se,S)2 Dünnschichten(2003) Kötschau, Immo Michael; Werner, Jürgen H. (Prof. Dr. rer. nat. habil.)In Cu(In,Ga)(S,Se)2-Dünnfilmen treten, je nach Wachstum, auf natürliche Weise teilweise recht große Zusammensetzungsgradienten auf. Einerseits wurde an In-reichem Material eine Cu-arme Oberflächendefektschicht entdeckt, andererseits sorgt die Dynamik Cu-reicher Wachstumsprozesse für einen über die gesamte Schichtdicke veränderlichen Ga- oder S-Gehalt. Die gezielte Beeinflussung der tiefenabhängigen Konzentration von Ga und S kann unter anderem dazu genutzt werden, Rekombinationsverluste innerhalb der Solarzelle zu minimieren. Solches "Bandgap-Engineering" führte bereits zu entscheidenden Verbesserungen des Wirkungsgrades von Cu(In,Ga)(S,Se)2-Solarzellen. Für die gezielte quantitative Untersuchung der tiefenabhängigen Zusammensetzung in Dünnfilmen standen bisher ausschließlich nicht zerstörungsfreie Methoden zur Verfügung. Insbesondere können die mit Sputtermethoden erzielten Tiefenprofile der Zusammensetzung aufgrund des Sputterprozesses selbst stark fehlerbehaftet sein. Wegen dieser Problematik entwickelt diese Arbeit eine alternative Methode. Es hat sich gezeigt, dass sich Röntgenbeugungsspektren von Cu(In,Ga)(S,Se)2-Dünnfilmen, gemessen unter streifendem Einfall (Grazing Incidence X-Ray Diffraction; GIXRD), korrekt mittels eines Schichtenabsorptionsmodells, in welchem über die Absorption gewichteter Anteile aus unterschiedlich tiefen Schichten das Beugungsspektrum als Summe über alle Schichten berechnet wird, beschreiben lassen. Eine quantitative Auswertung von Strukturdaten, insbesondere die Verfeinerung von Zusammensetzungstiefenprofilen, ist damit möglich. Um die Gültigkeit der Modellierung einzugrenzen, erfolgte die Betrachtung und ausführliche Diskussion aller in der Praxis vorkommender apparate- und probenspezifischer Effekte. Während die Wechselwirkung von Oberflächenrauigkeiten und Brechung durch einfache Transformationen zu kompensieren sind, können beispielsweise tiefenabhängige Unterschiede der bevorzugten Orientierung Probleme aufwerfen, wenn über ihre Tiefenabhängigkeit keine Daten vorliegen. Prinzipiell ist jedoch die Untersuchung der Einflüsse aller Eingangsparamter, seien sie apparatebedingt oder durch die Probe selbst verursacht, möglich, solange alle übrigen Parameter bekannt sind. Eine eindeutige Verfeinerung von Tiefenprofilen muss dabei immer die Voraussetzung erfüllen, dass ein und derselbe Eingangsparametersatz gleichzeitig alle unter verschiedenen Einfallswinkeln gemessenen Spektren hinreichend genau beschreibt. Die Verfeinerung von Zusammensetzungstiefenprofilen erfolgt praktisch durch den Vergleich gemessener und simulierter Spektren, wobei dies in der jetzigen Fassung des dafür entwickelten Simulationsprogrammes (Thin Film X-Ray Diffraction Absorption Utility; TFXDAU) interaktiv geschieht. Die Eindeutigkeit der Anpassung hängt vom Umfang der a priori zur Verfügung stehenden Eingangsparameter ab. Liegen beispielsweise aufgrund des Wachstumsprozesses Informationen über mögliche Tiefenprofile bereits vor, lassen sich geeignete Modellfunktionen (Diffusionsprofile, Stufenfunktionen etc.) schrittweise durch vergleichende Simulationen anpassen. So gelang es, einen mehrstufigen S-Se-Gradienten des Anionen-Untergitters in einer Cu(In,Ga)(S,Se)2-Schicht detailgenau nachzuweisen. Die Veränderungen, die sich dabei gegenüber dem mit Sekundärionen-Massenspektrometrie gemessenen Tiefenprofil ergaben, ließen sich auf Messartefakte zurückführen, die der Sputterprozess selbst verursacht hat. Ebenso war ein In-Ga-Gradient im Kationen-Untergitter einer Cu(In,Ga)Se2-Schicht mit einer Tiefenauflösung von unter 50nm nachzuweisen. Die Gradierungen erstrecken sich dabei immer über die ganze Schichtdicke. In diesem Sinne erreicht diese Arbeit ihr eigentliches Ziel: die Entwicklung einer Methode, mit der die Tiefenabhängigkeiten der strukturellen Eigenschaften, welche auf das Engste mit den elektronischen Eigenschaften (Verlauf der Bandkanten) in Verbindung stehen, zu bestimmen sind. Als "Nebenprodukt" eignet sich diese Modellierung dazu, die integralen Ga- und S-Gehalte an homogenen Proben bis auf 2% genau zu bestimmen. Darüber hinaus hat sich gezeigt, dass die Möglichkeiten des Schichtenabsorptionsmodells noch nicht ausgeschöpft sind. Oberflächennahe Zusammensetzungsgradienten zeigen in Beugungsspektren, die unter kleinsten Einfallswinkeln gemessen werden, noch deutliche Auswirkungen. Die Existenz der immer wieder ins Spiel gebrachten Cu-armen Oberflächendefektschicht war mit Hilfe der Modellierung Cu-armer Oberflächen eindeutig nachzuwiesen. Überdies ließ sich ein Zusammenhang zwischen integralem Cu-Gehalt und der mittleren Dicke der Cu-armen Oberflächendefektschicht belegen.Item Open Access The perfect time span : on the present perfect in German, Swedish and English(2006) Rothstein, Björn Michael; Kamp, Hans (Prof. Dr. h.c. PhD)This study proposes a discourse based approach to the present perfect in German, Swedish and English. It is argued that the present perfect is best analysed by applying an ExtendedNow-approach. It introduces a perfect time span in which the event time expressed by the present perfect is contained. The present perfects in these languages differ with respect to the boundaries of perfect time span. In English, the right boundary is identical to the point of speech, in Swedish it can be either at or after the moment of speech and in German it can also be before the moment of speech. The left boundary is unspecified. The right boundary is set by context.Item Open Access Effiziente Leistungsverstärkerarchitekturen für Mobilfunkbasisstationen(2009) Dettmann, Ingo; Berroth, Manfred (Prof. Dr.-Ing.)Heutige Kommunikationsstandards erfordern Modulationsverfahren, welche die Information sowohl in der Phase als auch in der Amplitude des Trägers modulieren. Die daraus resultierenden Signale weisen hohe Amplitudenschwankungen auf. Die dafür notwendigen linearen Leistungsverstärker zeigen jedoch geringe Effizienzen. In der vorliegenden Arbeit werden zunächst die Anforderungen an Leistungsverstärker diskutiert und der Einfluss der Modulations- und Zugriffsverfahren untersucht. Anschließend werden die Anforderungen an den Transistor definiert und die Anforderungen an die Technologie formuliert. Es folgt eine Untersuchung der Betriebsarten von Verstärkern, welche die Grundlage für effizienzsteigernde Verstärkerarchitekturen bilden. Lineare Verstärker wie Klasse-A-, -AB- und -B-Verstärker zeigen eine hohe Linearität, die Effizienz fällt aber unterhalb der maximalen Ausgangsleistung schnell ab. Schaltverstärker wie Klasse-D- und -E-Verstärker sind zwar sehr effizient, können aber keine amplitudenmodulierten Signale verstärken. Es werden vier Methoden diskutiert, um die Effizienz unterhalb der maximalen Ausgangsleistung zu erhöhen: Der Doherty-Verstärker, der Chireix-Verstärker, die Versorgungsspannungsmodulation und der Bandpass-Klasse-S-Verstärker. Der Doherty-Verstärker bietet eine einfache Möglichkeit, die Effizienz auch unterhalb der maximalen Ausgangsleistung zu erhöhen. Das Prinzip beruht auf der Variation der Lastimpedanzen. Zwei Verstärker - ein Hauptverstärker und ein Spitzenverstärker - treiben dabei den gleichen Lastwiderstand. Der Spitzenverstärker wird nur bei hohen Ausgangsleistungen eingeschaltet und verändert das Kompressionsverhalten des Hauptverstärkers. Beim entworfenen Doherty-Verstärker erhöht sich die Effizienz 7 dB unterhalb der maximalen Ausgangsleistung von 15 % auf etwas über 27 %. Die maximale Ausgangsleistung reduziert sich allerdings von 85 W auf 56 W. Durch eine adaptive Arbeitspunktregelung des Spitzenverstärkers kann die Ausgangsleistung wieder auf 85 W erhöht werden. Die Effizienz steigt dabei nochmals um 5 % auf 32 %. Der Chireix-Verstärker basiert auf dem Prinzip der linearen Verstärkung durch nichtlineare Komponenten. Das zu verstärkende amplituden- und phasenmodulierte Signal wird durch einen Phasenmodulator in zwei gegenphasige Signale mit konstanter Amplitude aufgeteilt. Diese beiden Signale werden über hocheffiziente Verstärker verstärkt. Das ursprüngliche Signal wird durch Summation der beiden Signale wieder demoduliert. Eine Effizienzsteigerung erfolgt unter Verwendung von nichtisolierenden Summierern. Die Effizienzsteigerung beruht dabei auf der Variation der Lastgeraden. Der aufgebaute Chireix-Verstärker basiert auf dem GaAs-Transistor MRFG35010 von Freescale. Die Einzelverstärker werden im Klasse-B-Betrieb betrieben und haben eine maximale Ausgangsleistung von 5 W bei einer Frequenz von 2 GHz. Die Gesamtleistung ergibt sich damit zu 10 W. Die Effizienz beträgt maximal 52 %. Die Effizienz beim Chireix-Verstärker erhöht sich 7 dB unter der maximalen Ausgangsleistung von 25 % auf 32 % und bei 5 dB unter der maximalen Ausgangsleistung von 33 % auf 44 %. Die Versorgungsspannungsmodulation variiert die Drain- bzw. Kollektorspannung eines Verstärkers in Abhängigkeit der Aussteuerung des Transistors. Es ist das einzige untersuchte Verstärkerkonzept, welches mit allen Verstärkerklassen funktioniert. Es ist auch das einzige Konzept, welches die Bandbreite des HF-Verstärkers nicht einschränkt, solange der erforderliche Spannungsmodulator der Einhüllenden des HF-Signals folgen kann. Die Effizienz berechnet sich aus der Verkettung der Effizienzen des HF-Verstärkers und des Spannungsmodulators. Ein Verstärker auf Basis des GaAs-Transistors MRFG350101 wurde aufgebaut, dessen Versorgungsspannung über einen Klasse-AD-Verstärker geregelt wird. Die maximale Ausgangsleistung des Verstärkers beträgt 6.3 W bei einer Effizienz von 67 %. Die Versorgungsspannung wird im Bereich von 6 V - 12 V geregelt. Die Effizienz 7 dB unter der maximalen Ausgangsleistung steigt dabei von 30 % auf 44 %. Die Bandbreite des Modulators ist dabei größer als 3 MHz. Bandpass-Klasse-S-Verstärker verwenden Schaltverstärker, um ein analoges Signal hocheffizient zu verstärken. Das analoge Eingangssignal wird über einen Modulator in eine binäre Pulsfolge gewandelt, welche über einen Schaltverstärker effizient verstärkt wird. Anschließend wird das verstärkte Signal wieder demoduliert. Bandpass-Delta-Sigma-Modulatoren (BPDSM) stellen ein vielversprechendes Modulationsverfahren dar. Als Schaltverstärker können sowohl Klasse-D- Verstärker verwendet werden. Erstmals werden in dieser Arbeit analytische Untersuchungen zur Effizienz von sowohl nichtinvertierten als auch invertierten Klasse-D-Verstärkern bei Ansteuerung mit BPDSM-Signalen durchgeführt. Dies erlaubt eine Abschätzung der Effizienz von Bandpass-Klasse-S-Verstärkern unter Verwendung von Klasse-D-Verstärkern.Item Open Access Entwicklung und Analyse zeitgesteuerter Systeme(2002) Ringler, Thomas Karl; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Zeitgesteuerte Architekturen versprechen aufgrund ihrer deterministischen Eigenschaften die Anforderungen zukünftiger By-Wire-Systeme in Automobilen zu erfüllen. Im Vergleich zu herkömmlichen ereignisgesteuerten Architekturen benötigen sie jedoch einen erheblich höheren Entwicklungsaufwand und erfordern deshalb neue Verfahren und Werkzeugkonzepte. In der vorliegenden Arbeit wird ein Verfahren zur Entwicklung und Analyse zeitgesteuerter Systeme erarbeitet. Aktivitäten zur Entwicklung zeitgesteuerter Systeme werden identifiziert und in den etablierten Entwicklungsprozess der Automobilindustrie eingegliedert. In den frühen Phasen des Entwicklungsprozesses erfolgt die Planung des zeitlichen Ablaufs im verteilten System. In den späten Phasen wird durch die Zeitanalyse nachgewiesen, dass die implementierten Programme geplante Zeitbedingungen stets einhalten. Die Bestimmung der maximalen Ausführungszeit von Programmen durch die Worst-Case-Execution-Time-Analyse (WCET-Analyse) ist hierfür die Grundlage und bildet den Schwerpunkt der Arbeit. Dem aktuellen Trend in der Automobilindustrie Software modellbasiert zu erstellen wird Rechnung getragen, indem ein Konzept der modellbasierten WCET-Analyse entwickelt wird. Die Analyse der erstellten Modelle wird dadurch ohne die Angabe zusätzlicher Informationen durch den Anwender möglich. Dazu werden aus den Modellen heraus Informationen über das Ausführungsverhalten des Codes gewonnen. Die Übertragbarkeit des Konzepts wird aufgezeigt, indem es bei den zwei unterschiedlichen Software-Entwicklungswerkzeugen ViPER und MATLAB/Simulink/Stateflow angewandt wird. Zum praktischen Nachweis des erstellten Konzepts wird eine Werkzeugumgebung entwickelt. Anhand eines Steer-by-Wire-Fallbeispiels wird die Anwendbarkeit des Konzepts aufgezeigt. Durch die grafische Spezifikation des zeitlichen Ablaufs wird die Entwicklung verteilter regelungstechnischer Anwendungen unterstützt. Die integrierte WCET-Analyse für den in der Automobilindustrie weit verbreiteten Siemens 80C167 Mikrocontroller erfolgt voll automatisiert und bietet dem Anwender wichtige Informationen für den modellbasierten Softwareentwurf.Item Open Access Interactive volume rendering in virtual environments(2003) Schulze-Döbold, Jürgen Peter; Ertl, Thomas (Prof. Dr.)This dissertation is about the interactive visualization of volume data in virtual environments. Only data on regular grids will be discussed. Research was conducted on three major topics: visualization algorithms, user interfaces, and parallelization of the visualization algorithms. Because the shear-warp algorithm is a very fast CPU-based volume rendering algorithm, it was investigated how it could be adapted to the characteristics of virtual environments. This required the support of perspective projection, as well as specific developments for interactive work, for instance a variable frame rate or the application of clipping planes. Another issue was the improvement of image quality by the utilization of pre-integration for the compositing. Concerning the user interface, a transfer function editor was created, which was tailored to the conditions of virtual environments. It should be usable as intuitively as possible, even with imprecise input devices or low display resolutions. Further research was done in the field of direct interaction, for instance a detail probe was developed which is useful to look inside of a dataset. In order to run the user interface on a variety of output devices, a device independent menu and widget system was developed. The shear-warp algorithm was accelerated by a parallelization which is based on MPI. For the actual volume rendering, a remote parallel computer can be employed, which needs to be linked to the display computer via a network connection. Because the image transfer turned out to be the bottleneck of this solution, it is compressed before being transferred. Furthermore, it will be described how all the above developments were combined to a volume rendering system, and how they were integrated into an existing visualization toolkit.Item Open Access Universelle Fernservice-Infrastruktur für eingebettete Systeme(2003) Jazdi, Nasser; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Globalisierung ist ein Vorgang, durch den Märkte und Produktionen in verschiedenen Ländern immer mehr kooperieren, aber auch voneinander abhängig werden. Ursache hierfür ist die Dynamik des Handels mit Gütern und Dienstleistungen sowie die Bewegungen von Kapital und Technologie. Die Differenzierung erfolgt nicht mehr nur durch das Produkt selbst, sondern zunehmend durch dazugehörige Dienstleistungen, wie Wartung und Software-Updates. Die globale Bereitstellung solcher Dienstleistungen ist jedoch ein existentielles Problem für kleine und mittelständische Unternehmen. Das Internet als ein weltweiter Verbund von Computernetzwerken bietet eine globale Kommunikationsmöglichkeit für den Menschen. Computer mit Internet-Zugang werden zum festen Bestandteil jedes modernen Arbeitsplatzes, auch infolge der immer geringer werdenden Anschaffungskosten. Die mit dem Internet verbundenen Web-Technologien ermöglichen die weltweite, effektive und kostengünstige Bereitstellung von Dienstleistungen. Der Einsatz der Web-Tech-nologien beim Erbringen von Dienstleistungen für Automatisierungsprodukte und -anlagen verlangt jedoch neue, an die spezifischen Randbedingungen der Automatisierungssysteme zugeschnittene Konzepte. In der vorliegenden Arbeit wird eine flexible und erweiterbare Infrastruktur für den Einsatz von Web-Technologien in eingebetteten Systemen vorgestellt. Sie baut auf der bewährten Drei-Schichten-Architektur, bestehend aus dem eingebetteten System, dem universellen Fernzugriff-Server und dem Client, auf. Dabei wird eine systemübergreifende und allgemeingültige Schnittstelle für die Anbindung unterschiedlicher eingebetteter Systeme und den Zugriff auf deren Prozessdaten geschaffen. Das Verfahren ermöglicht außerdem ein flexibles Weiterverarbeiten der Gerätedaten, sodass sie für unterschiedliche Clients aufbereitet werden können. Um die Flexibilität - sowohl auf der Seite des eingebetteten Systems als auch beim Client - zu gewährleisten, wird eine neue, XML-basierte Beschreibungssprache (SDML) eingeführt. Die SDML-Dokumente beinhalten Informationen über angebundene eingebettete Systeme, abrufbare Gerätedaten und Präsentationsregeln für unterschiedliche Clients. Sie werden gerätespezifisch erstellt. Das vorgeschlagene Verfahren ermöglicht die Anbindung unterschiedlicher eingebetteter Systeme an das Internet bei minimalem Hardware- und Softwareaufwand. Die einmalig entwickelten Software-Komponenten des Fernzugriff-Servers können für unterschiedliche Geräte verwendet werden und tragen damit zur Senkung der Diagnose- und Wartungskosten bei. Der Anwender kann einen gewöhnlichen Browser für die Kommunikation mit seinem Gerät verwenden und braucht somit keine zusätzliche Software auf seinem lokalen Rechner zu installieren.Item Open Access Ionenassistierte Deposition von Siliciumschichten(2001) Oberbeck, Lars; Werner, Jürgen H. (Prof. Dr. rer. nat. habil.)Die vorliegende Arbeit untersucht die Wachstumsvorgänge sowie die strukturellen und elektrischen Eigenschaften von Si-Epitaxieschichten aus der ionenassistierten Deposition (IAD). Bei der IAD werden Si-Atome durch einen Elektronenstrahlverdampfer bereitgestellt und in der Gasphase durch Elektronenemission aus einem Glühdraht teilweise ionisiert; der Ionisationsgrad beträgt ca. 1 %. Eine angelegte Spannung beschleunigt diese Si+ Ionen zum Substrat hin. Die Ko-Evaporation von Bor bzw. Phosphor ermöglicht die in-situ Dotierung der Epitaxieschichten zur Herstellung von pn-Übergängen. Die epitaktische Abscheidung von Si mittels IAD ist auf beliebigen Substratorientierungen möglich. Die Defektdichte und die Minoritätsträgerdiffusionslänge hängen aber stark von der Substratorientierung und der Beschleunigungsspannung ab. Dieses Ergebnis ist auf Unterschiede in der Oberflächenrekonstruktion und in den Aktivierungsenergien für atomare Diffusionsprozesse zurückzuführen. Bei der Betrachtung der Wachstumsmechanismen bei der IAD müssen zwei Temperaturbereiche unterschieden werden: Im Temperaturbereich < 400 °C unterstützen interstitielle Atome das epitaktische Wachstum, bei höheren Temperaturen dominiert die direkte Erhöhung der Adatommobilität durch Ionenbeschuß der Wachstumsoberfläche. Die optimale Ionenenergie liegt im Bereich 8 ... 20 eV für (100)-orientierte Epitaxieschichten. Diese Arbeit vertieft wesentlich das Verständnis der Wachstumsvorgänge bei der ionenassistierten Deposition von Si-Epitaxieschichten bei Depositionstemperaturen unterhalb von 650 °C und bietet erstmals eine grundlegende Evaluierung des Potentials von Si-Niedertemperaturepitaxieschichten. Eine umfassende Untersuchung struktureller und elektrischer Eigenschaften der Epitaxieschichten hat zur Herstellung von Schichten mit sehr guten Majoritäts- und Minoritätsträgereigenschaften bei einer Rekord-Depositionsrate von 0,8 µm/min geführt.Item Open Access Emulation von Rechnernetzen zur Leistungsanalyse von verteilten Anwendungen und Netzprotokollen(2005) Herrscher, Daniel J.; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c)Um die Leistung von verteilten Anwendungen und Netzprotokollen in Abhängigkeit von den Eigenschaften der verwendeten Rechnernetze zu analysieren, wird eine Testumgebung benötigt, die Netzeigenschaften zuverlässig nachbilden ("emulieren") kann. Eine solche Testumgebung wird Emulationssystem genannt. Bisher existierende Emulationssysteme sind aufgrund ihrer Architektur entweder nur für sehr kleine Szenarien geeignet, oder sie können nur unabhängige Netzverbindungen nachbilden, und schließen damit alle Netztechnologien mit gemeinsamen Medien aus. In dieser Arbeit werden zunächst verschiedene Architekturvarianten für die Realisierung eines Emulationssystems vorgestellt und bewertet. Für die Variante mit zentraler Steuerung und verteilten Emulationswerkzeugen wird dann detailliert die Funktionalität eines Emulationssystems mit seinen wesentlichen Komponenten beschrieben. Das in dieser Arbeit entwickelte Emulationsverfahren greift auf der logischen Ebene der Sicherungsschicht in den Kommunikationsstapel ein. Auf dieser Ebene werden die beiden Basiseffekte Rahmenverlust und Verzögerung durch verteilte Emulationswerkzeuge nachgebildet. Alle anderen Netzeigenschaften können auf diese Basiseffekte zurückgeführt werden. Um Netztechnologien mit gemeinsamen Medien durch verteilte Werkzeuge nachbilden zu können, wird zusätzlich das Konzept des virtuellen Trägersignals eingeführt. Hierbei werden die Eigenschaften eines Rundsendemediums nachgebildet, indem kooperative Emulationswerkzeuge Rundsendungen zur Signalisierung eines Trägersignals benutzen. Somit kann jedeWerkzeuginstanz lokal ein aktuelles Modell des emulierten gemeinsamen Mediums halten. Auf dieser Basis kann auch das Verhalten von Medienzugriffsprotokollen nachgebildet werden. Die Arbeit deckt auch die wesentlichen Realisierungsaspekte eines Emulationssytems ab. Mit ausführlichen Messungen wird gezeigt, dass das entwickelte System für die Nachbildung von Netzszenarien sehr gut geeignet ist, selbst wenn die nachzubildenden Parameter sich dynamisch ändern. Die entwickelten Werkzeuge sind in der Lage, Netzeigenschaften in einem weiten Parameterbereich realistisch nachzubilden. Mit diesem System steht nun eine ideale Testumgebung für Leistungsmessungen von verteilten Anwendungen und Netzprotokollen in Abhängigkeit von Netzeigenschaften zur Verfügung.Item Open Access Ganzheitliche modellbasierte Sicherheitsanalyse von Prozessautomatisierungssystemen(2003) Biegert, Uwe; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Der Betrieb von Prozessautomatisierungssystemen ist immer mit einem gewissen Risiko verbunden. Ein Prozessautomatisierungssystem gilt dann als sicher, wenn das vorhandene Risiko zu keiner Zeit ein so genanntes Grenzrisiko überschreitet. Wird das Grenzrisiko überschritten, so droht Menschen und Umwelt unmittelbar ein Schaden. Mit Hilfe von Sicherheitsanalysen kann das vorhandene Risiko untersucht und abgeschätzt werden. Klassische Sicherheitsanalysen betrachten in der Regel nur einzelne Bestandteile eines Prozessautomatisierungssystems, welches aber im Allgemeinen aus drei verschiedenen Bestandteilen besteht: dem technischen System, dem Rechnersystem und dem Bedienpersonal. Was passiert aber, falls im technischen System ein Bauelement ausfällt, die Automatisierungssoftware Fehler enthält und zur gleichen Zeit das Bedienpersonal falsche Bedieneingriffe ausführt? Solche Fragen können mit klassischen Sicherheitsanalysen nur unzureichend beantwortet werden. Hinzu kommt, dass bei den meisten klassischen Sicherheitsanalysen die eigentliche Analyse des Systems in Form von Brainstorming-Prozessen durchgeführt wird. Dabei kann der Mensch niemals alle möglichen Kombinationen des Zusammenspiels zwischen den Bestandteilen überblicken und bewerten. In der vorliegenden Arbeit wird ein modellbasierter Ansatz zur Durchführung einer ganzheitlichen Sicherheitsanalyse vorgestellt, welche alle Bestandteile eines Prozessautomatisierungssystems berücksichtigt. Die Ausführung erfolgt rechnergestützt. Auf Grund der Komplexität von Prozessautomatisierungssystemen wird eine qualitative komponentenorientierte Modellierungsmethode gewählt. Die Systemgrößen werden durch qualitative Intervallvariablen beschrieben, wobei die definierten Intervallbereiche zusätzlich durch qualitative Ausdrücke kommentiert werden. Durch Kombination von Intervallbereichen entstehen kommentierte Situationen, die das Verhalten wiedergeben. Dabei wird sowohl der bestimmungsgemäße als auch der fehlerhafte Betrieb berücksichtigt. Anhand der Systemstruktur werden die Modelle der Bestandteile miteinander kombiniert, um alle möglichen Situationen des gesamten Prozessautomatisierungssystems zu erhalten. Anschließend werden die ermittelten sicherheitskritischen Situationen des Prozessautomatisierungssystems bewertet und es wird entschieden, ob Sicherheitsmaßnahmen notwendig sind. Durch das rechnergestützte Vorgehen lassen sich im Unterschied zu klassischen Methoden beliebig viele Fehlerkombinationen analysieren und damit Sicherheitslücken im Prozessautomatisierungssystem ermitteln. Das komplexe Zusammenspiel der Bestandteile wird mit Hilfe des qualitativen Modells transparent und analysierbar. Das Modell ist auf Grund seines qualitativen Charakters einfach anzuwenden und die Ergebnisse können leicht interpretiert werden.Item Open Access Visualization of uncorrelated point data(2008) Reina, Guido; Ertl, Thomas (Prof. Dr.)Sciences are the most common application context for computer-generated visualization. Researchers in these areas have to work with large datasets of many different types, but the one trait that is common to all is that in their raw form they exceed the cognitive abilities of human beings. Visualization not only aims at enabling users to quickly extract as much information as possible from datasets, but also at allowing the user to work at all with those that are too large and complex to be directly grasped by human cognition. In this work, the focus is on uncorrelated point data, or point clouds, which is sampled from real-world measurements or generated by computer simulations. Such datasets are gridless and exhibit no connectivity, and each point represents an entity of its own. To effectively work with such datasets, two main problems must be solved: on the one hand, a large number of complex primitives with potentially many attributes must be visualized, and on the other hand the interaction with the datasets must be designed in an intuitive way. This dissertation will present novel methods which allow the handling of large, point-based data sets of high dimensionality. The contribution for the rendering of hundreds of thousands of application-specific glyphs is a Graphics-Processing-Unit(GPU)-based solution that allows the exploration of datasets that exhibit a moderate number of dimensions, but an extremely large number of points. These approaches are proven to be working for molecular dynamics(MD) datasets as well as for 3D tensor fields. Factors critical for the performance of these algorithms are thoroughly analyzed, the main focus being on the fast rendering of these complex glyphs in high quality. To improve the visualization of datasets with many attributes and only a moderate number of points, methods for the interactive reduction of dimensionality and analysis of the influences of different dimensions as well as of different metrics will be presented. The rendering of the resulting data in 3D similarity space is also addressed. A GPU-based reduction of dimensions has been implemented that allows interactive tweaking of the reduction parameters while observing the results in real time. With the availability of a fast and responsive visualization, the missing component for a complete system is the human-computer interaction. The user must be able to navigate the information space and interact with a dataset, selecting or filtering the items that are of interest to him, inspecting the attributes of particular data points. Today, one must distinguish between the application context and the modality of different interaction approaches. Current research ranges from keyboard-and-mouse desktop interaction over different haptic interfaces (also including feedback) up to tracked interaction for virtual reality(VR) installations. In the context of this work, the problem of interacting with point-based datasets is tackled for two different situations. The first is the workstation-based analysis of clustering mechanics in thermodynamics simulations, the second a VR immersive navigation and interaction with point cloud datasets.