05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 76
  • Thumbnail Image
    ItemOpen Access
    Strukturelle Eigenschaften von Cu(In,Ga)(Se,S)2 Dünnschichten
    (2003) Kötschau, Immo Michael; Werner, Jürgen H. (Prof. Dr. rer. nat. habil.)
    In Cu(In,Ga)(S,Se)2-Dünnfilmen treten, je nach Wachstum, auf natürliche Weise teilweise recht große Zusammensetzungsgradienten auf. Einerseits wurde an In-reichem Material eine Cu-arme Oberflächendefektschicht entdeckt, andererseits sorgt die Dynamik Cu-reicher Wachstumsprozesse für einen über die gesamte Schichtdicke veränderlichen Ga- oder S-Gehalt. Die gezielte Beeinflussung der tiefenabhängigen Konzentration von Ga und S kann unter anderem dazu genutzt werden, Rekombinationsverluste innerhalb der Solarzelle zu minimieren. Solches "Bandgap-Engineering" führte bereits zu entscheidenden Verbesserungen des Wirkungsgrades von Cu(In,Ga)(S,Se)2-Solarzellen. Für die gezielte quantitative Untersuchung der tiefenabhängigen Zusammensetzung in Dünnfilmen standen bisher ausschließlich nicht zerstörungsfreie Methoden zur Verfügung. Insbesondere können die mit Sputtermethoden erzielten Tiefenprofile der Zusammensetzung aufgrund des Sputterprozesses selbst stark fehlerbehaftet sein. Wegen dieser Problematik entwickelt diese Arbeit eine alternative Methode. Es hat sich gezeigt, dass sich Röntgenbeugungsspektren von Cu(In,Ga)(S,Se)2-Dünnfilmen, gemessen unter streifendem Einfall (Grazing Incidence X-Ray Diffraction; GIXRD), korrekt mittels eines Schichtenabsorptionsmodells, in welchem über die Absorption gewichteter Anteile aus unterschiedlich tiefen Schichten das Beugungsspektrum als Summe über alle Schichten berechnet wird, beschreiben lassen. Eine quantitative Auswertung von Strukturdaten, insbesondere die Verfeinerung von Zusammensetzungstiefenprofilen, ist damit möglich. Um die Gültigkeit der Modellierung einzugrenzen, erfolgte die Betrachtung und ausführliche Diskussion aller in der Praxis vorkommender apparate- und probenspezifischer Effekte. Während die Wechselwirkung von Oberflächenrauigkeiten und Brechung durch einfache Transformationen zu kompensieren sind, können beispielsweise tiefenabhängige Unterschiede der bevorzugten Orientierung Probleme aufwerfen, wenn über ihre Tiefenabhängigkeit keine Daten vorliegen. Prinzipiell ist jedoch die Untersuchung der Einflüsse aller Eingangsparamter, seien sie apparatebedingt oder durch die Probe selbst verursacht, möglich, solange alle übrigen Parameter bekannt sind. Eine eindeutige Verfeinerung von Tiefenprofilen muss dabei immer die Voraussetzung erfüllen, dass ein und derselbe Eingangsparametersatz gleichzeitig alle unter verschiedenen Einfallswinkeln gemessenen Spektren hinreichend genau beschreibt. Die Verfeinerung von Zusammensetzungstiefenprofilen erfolgt praktisch durch den Vergleich gemessener und simulierter Spektren, wobei dies in der jetzigen Fassung des dafür entwickelten Simulationsprogrammes (Thin Film X-Ray Diffraction Absorption Utility; TFXDAU) interaktiv geschieht. Die Eindeutigkeit der Anpassung hängt vom Umfang der a priori zur Verfügung stehenden Eingangsparameter ab. Liegen beispielsweise aufgrund des Wachstumsprozesses Informationen über mögliche Tiefenprofile bereits vor, lassen sich geeignete Modellfunktionen (Diffusionsprofile, Stufenfunktionen etc.) schrittweise durch vergleichende Simulationen anpassen. So gelang es, einen mehrstufigen S-Se-Gradienten des Anionen-Untergitters in einer Cu(In,Ga)(S,Se)2-Schicht detailgenau nachzuweisen. Die Veränderungen, die sich dabei gegenüber dem mit Sekundärionen-Massenspektrometrie gemessenen Tiefenprofil ergaben, ließen sich auf Messartefakte zurückführen, die der Sputterprozess selbst verursacht hat. Ebenso war ein In-Ga-Gradient im Kationen-Untergitter einer Cu(In,Ga)Se2-Schicht mit einer Tiefenauflösung von unter 50nm nachzuweisen. Die Gradierungen erstrecken sich dabei immer über die ganze Schichtdicke. In diesem Sinne erreicht diese Arbeit ihr eigentliches Ziel: die Entwicklung einer Methode, mit der die Tiefenabhängigkeiten der strukturellen Eigenschaften, welche auf das Engste mit den elektronischen Eigenschaften (Verlauf der Bandkanten) in Verbindung stehen, zu bestimmen sind. Als "Nebenprodukt" eignet sich diese Modellierung dazu, die integralen Ga- und S-Gehalte an homogenen Proben bis auf 2% genau zu bestimmen. Darüber hinaus hat sich gezeigt, dass die Möglichkeiten des Schichtenabsorptionsmodells noch nicht ausgeschöpft sind. Oberflächennahe Zusammensetzungsgradienten zeigen in Beugungsspektren, die unter kleinsten Einfallswinkeln gemessen werden, noch deutliche Auswirkungen. Die Existenz der immer wieder ins Spiel gebrachten Cu-armen Oberflächendefektschicht war mit Hilfe der Modellierung Cu-armer Oberflächen eindeutig nachzuwiesen. Überdies ließ sich ein Zusammenhang zwischen integralem Cu-Gehalt und der mittleren Dicke der Cu-armen Oberflächendefektschicht belegen.
  • Thumbnail Image
    ItemOpen Access
    Effiziente Leistungsverstärkerarchitekturen für Mobilfunkbasisstationen
    (2009) Dettmann, Ingo; Berroth, Manfred (Prof. Dr.-Ing.)
    Heutige Kommunikationsstandards erfordern Modulationsverfahren, welche die Information sowohl in der Phase als auch in der Amplitude des Trägers modulieren. Die daraus resultierenden Signale weisen hohe Amplitudenschwankungen auf. Die dafür notwendigen linearen Leistungsverstärker zeigen jedoch geringe Effizienzen. In der vorliegenden Arbeit werden zunächst die Anforderungen an Leistungsverstärker diskutiert und der Einfluss der Modulations- und Zugriffsverfahren untersucht. Anschließend werden die Anforderungen an den Transistor definiert und die Anforderungen an die Technologie formuliert. Es folgt eine Untersuchung der Betriebsarten von Verstärkern, welche die Grundlage für effizienzsteigernde Verstärkerarchitekturen bilden. Lineare Verstärker wie Klasse-A-, -AB- und -B-Verstärker zeigen eine hohe Linearität, die Effizienz fällt aber unterhalb der maximalen Ausgangsleistung schnell ab. Schaltverstärker wie Klasse-D- und -E-Verstärker sind zwar sehr effizient, können aber keine amplitudenmodulierten Signale verstärken. Es werden vier Methoden diskutiert, um die Effizienz unterhalb der maximalen Ausgangsleistung zu erhöhen: Der Doherty-Verstärker, der Chireix-Verstärker, die Versorgungsspannungsmodulation und der Bandpass-Klasse-S-Verstärker. Der Doherty-Verstärker bietet eine einfache Möglichkeit, die Effizienz auch unterhalb der maximalen Ausgangsleistung zu erhöhen. Das Prinzip beruht auf der Variation der Lastimpedanzen. Zwei Verstärker - ein Hauptverstärker und ein Spitzenverstärker - treiben dabei den gleichen Lastwiderstand. Der Spitzenverstärker wird nur bei hohen Ausgangsleistungen eingeschaltet und verändert das Kompressionsverhalten des Hauptverstärkers. Beim entworfenen Doherty-Verstärker erhöht sich die Effizienz 7 dB unterhalb der maximalen Ausgangsleistung von 15 % auf etwas über 27 %. Die maximale Ausgangsleistung reduziert sich allerdings von 85 W auf 56 W. Durch eine adaptive Arbeitspunktregelung des Spitzenverstärkers kann die Ausgangsleistung wieder auf 85 W erhöht werden. Die Effizienz steigt dabei nochmals um 5 % auf 32 %. Der Chireix-Verstärker basiert auf dem Prinzip der linearen Verstärkung durch nichtlineare Komponenten. Das zu verstärkende amplituden- und phasenmodulierte Signal wird durch einen Phasenmodulator in zwei gegenphasige Signale mit konstanter Amplitude aufgeteilt. Diese beiden Signale werden über hocheffiziente Verstärker verstärkt. Das ursprüngliche Signal wird durch Summation der beiden Signale wieder demoduliert. Eine Effizienzsteigerung erfolgt unter Verwendung von nichtisolierenden Summierern. Die Effizienzsteigerung beruht dabei auf der Variation der Lastgeraden. Der aufgebaute Chireix-Verstärker basiert auf dem GaAs-Transistor MRFG35010 von Freescale. Die Einzelverstärker werden im Klasse-B-Betrieb betrieben und haben eine maximale Ausgangsleistung von 5 W bei einer Frequenz von 2 GHz. Die Gesamtleistung ergibt sich damit zu 10 W. Die Effizienz beträgt maximal 52 %. Die Effizienz beim Chireix-Verstärker erhöht sich 7 dB unter der maximalen Ausgangsleistung von 25 % auf 32 % und bei 5 dB unter der maximalen Ausgangsleistung von 33 % auf 44 %. Die Versorgungsspannungsmodulation variiert die Drain- bzw. Kollektorspannung eines Verstärkers in Abhängigkeit der Aussteuerung des Transistors. Es ist das einzige untersuchte Verstärkerkonzept, welches mit allen Verstärkerklassen funktioniert. Es ist auch das einzige Konzept, welches die Bandbreite des HF-Verstärkers nicht einschränkt, solange der erforderliche Spannungsmodulator der Einhüllenden des HF-Signals folgen kann. Die Effizienz berechnet sich aus der Verkettung der Effizienzen des HF-Verstärkers und des Spannungsmodulators. Ein Verstärker auf Basis des GaAs-Transistors MRFG350101 wurde aufgebaut, dessen Versorgungsspannung über einen Klasse-AD-Verstärker geregelt wird. Die maximale Ausgangsleistung des Verstärkers beträgt 6.3 W bei einer Effizienz von 67 %. Die Versorgungsspannung wird im Bereich von 6 V - 12 V geregelt. Die Effizienz 7 dB unter der maximalen Ausgangsleistung steigt dabei von 30 % auf 44 %. Die Bandbreite des Modulators ist dabei größer als 3 MHz. Bandpass-Klasse-S-Verstärker verwenden Schaltverstärker, um ein analoges Signal hocheffizient zu verstärken. Das analoge Eingangssignal wird über einen Modulator in eine binäre Pulsfolge gewandelt, welche über einen Schaltverstärker effizient verstärkt wird. Anschließend wird das verstärkte Signal wieder demoduliert. Bandpass-Delta-Sigma-Modulatoren (BPDSM) stellen ein vielversprechendes Modulationsverfahren dar. Als Schaltverstärker können sowohl Klasse-D- Verstärker verwendet werden. Erstmals werden in dieser Arbeit analytische Untersuchungen zur Effizienz von sowohl nichtinvertierten als auch invertierten Klasse-D-Verstärkern bei Ansteuerung mit BPDSM-Signalen durchgeführt. Dies erlaubt eine Abschätzung der Effizienz von Bandpass-Klasse-S-Verstärkern unter Verwendung von Klasse-D-Verstärkern.
  • Thumbnail Image
    ItemOpen Access
    Entwicklung und Analyse zeitgesteuerter Systeme
    (2002) Ringler, Thomas Karl; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Zeitgesteuerte Architekturen versprechen aufgrund ihrer deterministischen Eigenschaften die Anforderungen zukünftiger By-Wire-Systeme in Automobilen zu erfüllen. Im Vergleich zu herkömmlichen ereignisgesteuerten Architekturen benötigen sie jedoch einen erheblich höheren Entwicklungsaufwand und erfordern deshalb neue Verfahren und Werkzeugkonzepte. In der vorliegenden Arbeit wird ein Verfahren zur Entwicklung und Analyse zeitgesteuerter Systeme erarbeitet. Aktivitäten zur Entwicklung zeitgesteuerter Systeme werden identifiziert und in den etablierten Entwicklungsprozess der Automobilindustrie eingegliedert. In den frühen Phasen des Entwicklungsprozesses erfolgt die Planung des zeitlichen Ablaufs im verteilten System. In den späten Phasen wird durch die Zeitanalyse nachgewiesen, dass die implementierten Programme geplante Zeitbedingungen stets einhalten. Die Bestimmung der maximalen Ausführungszeit von Programmen durch die Worst-Case-Execution-Time-Analyse (WCET-Analyse) ist hierfür die Grundlage und bildet den Schwerpunkt der Arbeit. Dem aktuellen Trend in der Automobilindustrie Software modellbasiert zu erstellen wird Rechnung getragen, indem ein Konzept der modellbasierten WCET-Analyse entwickelt wird. Die Analyse der erstellten Modelle wird dadurch ohne die Angabe zusätzlicher Informationen durch den Anwender möglich. Dazu werden aus den Modellen heraus Informationen über das Ausführungsverhalten des Codes gewonnen. Die Übertragbarkeit des Konzepts wird aufgezeigt, indem es bei den zwei unterschiedlichen Software-Entwicklungswerkzeugen ViPER und MATLAB/Simulink/Stateflow angewandt wird. Zum praktischen Nachweis des erstellten Konzepts wird eine Werkzeugumgebung entwickelt. Anhand eines Steer-by-Wire-Fallbeispiels wird die Anwendbarkeit des Konzepts aufgezeigt. Durch die grafische Spezifikation des zeitlichen Ablaufs wird die Entwicklung verteilter regelungstechnischer Anwendungen unterstützt. Die integrierte WCET-Analyse für den in der Automobilindustrie weit verbreiteten Siemens 80C167 Mikrocontroller erfolgt voll automatisiert und bietet dem Anwender wichtige Informationen für den modellbasierten Softwareentwurf.
  • Thumbnail Image
    ItemOpen Access
    Universelle Fernservice-Infrastruktur für eingebettete Systeme
    (2003) Jazdi, Nasser; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Globalisierung ist ein Vorgang, durch den Märkte und Produktionen in verschiedenen Ländern immer mehr kooperieren, aber auch voneinander abhängig werden. Ursache hierfür ist die Dynamik des Handels mit Gütern und Dienstleistungen sowie die Bewegungen von Kapital und Technologie. Die Differenzierung erfolgt nicht mehr nur durch das Produkt selbst, sondern zunehmend durch dazugehörige Dienstleistungen, wie Wartung und Software-Updates. Die globale Bereitstellung solcher Dienstleistungen ist jedoch ein existentielles Problem für kleine und mittelständische Unternehmen. Das Internet als ein weltweiter Verbund von Computernetzwerken bietet eine globale Kommunikationsmöglichkeit für den Menschen. Computer mit Internet-Zugang werden zum festen Bestandteil jedes modernen Arbeitsplatzes, auch infolge der immer geringer werdenden Anschaffungskosten. Die mit dem Internet verbundenen Web-Technologien ermöglichen die weltweite, effektive und kostengünstige Bereitstellung von Dienstleistungen. Der Einsatz der Web-Tech-nologien beim Erbringen von Dienstleistungen für Automatisierungsprodukte und -anlagen verlangt jedoch neue, an die spezifischen Randbedingungen der Automatisierungssysteme zugeschnittene Konzepte. In der vorliegenden Arbeit wird eine flexible und erweiterbare Infrastruktur für den Einsatz von Web-Technologien in eingebetteten Systemen vorgestellt. Sie baut auf der bewährten Drei-Schichten-Architektur, bestehend aus dem eingebetteten System, dem universellen Fernzugriff-Server und dem Client, auf. Dabei wird eine systemübergreifende und allgemeingültige Schnittstelle für die Anbindung unterschiedlicher eingebetteter Systeme und den Zugriff auf deren Prozessdaten geschaffen. Das Verfahren ermöglicht außerdem ein flexibles Weiterverarbeiten der Gerätedaten, sodass sie für unterschiedliche Clients aufbereitet werden können. Um die Flexibilität - sowohl auf der Seite des eingebetteten Systems als auch beim Client - zu gewährleisten, wird eine neue, XML-basierte Beschreibungssprache (SDML) eingeführt. Die SDML-Dokumente beinhalten Informationen über angebundene eingebettete Systeme, abrufbare Gerätedaten und Präsentationsregeln für unterschiedliche Clients. Sie werden gerätespezifisch erstellt. Das vorgeschlagene Verfahren ermöglicht die Anbindung unterschiedlicher eingebetteter Systeme an das Internet bei minimalem Hardware- und Softwareaufwand. Die einmalig entwickelten Software-Komponenten des Fernzugriff-Servers können für unterschiedliche Geräte verwendet werden und tragen damit zur Senkung der Diagnose- und Wartungskosten bei. Der Anwender kann einen gewöhnlichen Browser für die Kommunikation mit seinem Gerät verwenden und braucht somit keine zusätzliche Software auf seinem lokalen Rechner zu installieren.
  • Thumbnail Image
    ItemOpen Access
    Ionenassistierte Deposition von Siliciumschichten
    (2001) Oberbeck, Lars; Werner, Jürgen H. (Prof. Dr. rer. nat. habil.)
    Die vorliegende Arbeit untersucht die Wachstumsvorgänge sowie die strukturellen und elektrischen Eigenschaften von Si-Epitaxieschichten aus der ionenassistierten Deposition (IAD). Bei der IAD werden Si-Atome durch einen Elektronenstrahlverdampfer bereitgestellt und in der Gasphase durch Elektronenemission aus einem Glühdraht teilweise ionisiert; der Ionisationsgrad beträgt ca. 1 %. Eine angelegte Spannung beschleunigt diese Si+ Ionen zum Substrat hin. Die Ko-Evaporation von Bor bzw. Phosphor ermöglicht die in-situ Dotierung der Epitaxieschichten zur Herstellung von pn-Übergängen. Die epitaktische Abscheidung von Si mittels IAD ist auf beliebigen Substratorientierungen möglich. Die Defektdichte und die Minoritätsträgerdiffusionslänge hängen aber stark von der Substratorientierung und der Beschleunigungsspannung ab. Dieses Ergebnis ist auf Unterschiede in der Oberflächenrekonstruktion und in den Aktivierungsenergien für atomare Diffusionsprozesse zurückzuführen. Bei der Betrachtung der Wachstumsmechanismen bei der IAD müssen zwei Temperaturbereiche unterschieden werden: Im Temperaturbereich < 400 °C unterstützen interstitielle Atome das epitaktische Wachstum, bei höheren Temperaturen dominiert die direkte Erhöhung der Adatommobilität durch Ionenbeschuß der Wachstumsoberfläche. Die optimale Ionenenergie liegt im Bereich 8 ... 20 eV für (100)-orientierte Epitaxieschichten. Diese Arbeit vertieft wesentlich das Verständnis der Wachstumsvorgänge bei der ionenassistierten Deposition von Si-Epitaxieschichten bei Depositionstemperaturen unterhalb von 650 °C und bietet erstmals eine grundlegende Evaluierung des Potentials von Si-Niedertemperaturepitaxieschichten. Eine umfassende Untersuchung struktureller und elektrischer Eigenschaften der Epitaxieschichten hat zur Herstellung von Schichten mit sehr guten Majoritäts- und Minoritätsträgereigenschaften bei einer Rekord-Depositionsrate von 0,8 µm/min geführt.
  • Thumbnail Image
    ItemOpen Access
    Ganzheitliche modellbasierte Sicherheitsanalyse von Prozessautomatisierungssystemen
    (2003) Biegert, Uwe; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Der Betrieb von Prozessautomatisierungssystemen ist immer mit einem gewissen Risiko verbunden. Ein Prozessautomatisierungssystem gilt dann als sicher, wenn das vorhandene Risiko zu keiner Zeit ein so genanntes Grenzrisiko überschreitet. Wird das Grenzrisiko überschritten, so droht Menschen und Umwelt unmittelbar ein Schaden. Mit Hilfe von Sicherheitsanalysen kann das vorhandene Risiko untersucht und abgeschätzt werden. Klassische Sicherheitsanalysen betrachten in der Regel nur einzelne Bestandteile eines Prozessautomatisierungssystems, welches aber im Allgemeinen aus drei verschiedenen Bestandteilen besteht: dem technischen System, dem Rechnersystem und dem Bedienpersonal. Was passiert aber, falls im technischen System ein Bauelement ausfällt, die Automatisierungssoftware Fehler enthält und zur gleichen Zeit das Bedienpersonal falsche Bedieneingriffe ausführt? Solche Fragen können mit klassischen Sicherheitsanalysen nur unzureichend beantwortet werden. Hinzu kommt, dass bei den meisten klassischen Sicherheitsanalysen die eigentliche Analyse des Systems in Form von Brainstorming-Prozessen durchgeführt wird. Dabei kann der Mensch niemals alle möglichen Kombinationen des Zusammenspiels zwischen den Bestandteilen überblicken und bewerten. In der vorliegenden Arbeit wird ein modellbasierter Ansatz zur Durchführung einer ganzheitlichen Sicherheitsanalyse vorgestellt, welche alle Bestandteile eines Prozessautomatisierungssystems berücksichtigt. Die Ausführung erfolgt rechnergestützt. Auf Grund der Komplexität von Prozessautomatisierungssystemen wird eine qualitative komponentenorientierte Modellierungsmethode gewählt. Die Systemgrößen werden durch qualitative Intervallvariablen beschrieben, wobei die definierten Intervallbereiche zusätzlich durch qualitative Ausdrücke kommentiert werden. Durch Kombination von Intervallbereichen entstehen kommentierte Situationen, die das Verhalten wiedergeben. Dabei wird sowohl der bestimmungsgemäße als auch der fehlerhafte Betrieb berücksichtigt. Anhand der Systemstruktur werden die Modelle der Bestandteile miteinander kombiniert, um alle möglichen Situationen des gesamten Prozessautomatisierungssystems zu erhalten. Anschließend werden die ermittelten sicherheitskritischen Situationen des Prozessautomatisierungssystems bewertet und es wird entschieden, ob Sicherheitsmaßnahmen notwendig sind. Durch das rechnergestützte Vorgehen lassen sich im Unterschied zu klassischen Methoden beliebig viele Fehlerkombinationen analysieren und damit Sicherheitslücken im Prozessautomatisierungssystem ermitteln. Das komplexe Zusammenspiel der Bestandteile wird mit Hilfe des qualitativen Modells transparent und analysierbar. Das Modell ist auf Grund seines qualitativen Charakters einfach anzuwenden und die Ergebnisse können leicht interpretiert werden.
  • Thumbnail Image
    ItemOpen Access
    Constraintbasierte Testdatenermittlung für Automatisierungssoftware auf Grundlage von Signalflussplänen
    (2008) Linder, Paul; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Die zunehmende Komplexität von Automatisierungssoftware führt zu einem wachsenden Testaufwand, welcher mittlerweile einen beträchtlichen Anteil der Gesamtentwicklungskosten technischer Systeme ausmachen kann. Benötigt wird ein effizientes Testvorgehen, welches die Gründlichkeit der Softwareprüfung nicht beeinträchtigt. Hierbei spielt die effiziente Ermittlung qualitativ hochwertiger Testdaten, die eine zügige Aufdeckung aller wesentlichen Softwarefehler erlauben, eine wichtige Rolle. Modellbasierte Testverfahren gewinnen dabei aufgrund ihrer präzisen Systematik zunehmend an Bedeutung. Wegen der zeitabhängigen und häufig hybriden, d. h. diskret-kontinuierlichen Dynamik von Prozessautomatisierungssystemen erfordert die modellbasierte Ermittlung von zeitabhängigen Testdaten für Automatisierungssoftware im Allgemeinen die Auswertung hybrider funktionaler Modelle. Dies stellt eine Herausforderung dar, welche bis heute nicht zufriedenstellend gelöst wurde. Zur effizienten modellbasierten Ermittlung qualitativ hochwertiger zeitabhängiger Testdaten für Automatisierungssoftware wurden in dieser Arbeit neue Wege beschritten und ein innovatives Verfahren auf Grundlage hybrider, diskret-kontinuierlicher Signalflusspläne erarbeitet. Signalflusspläne sind eine in der industriellen Praxis eingeführte und verbreitete Beschreibungsform zur mathematisch präzisen Modellbildung dynamischer diskret-kontinuierlicher Automatisierungsanwendungen. Das Verfahren beruht auf zwei orthogonalen Grundkonzepten, nämlich der constraintbasierten Spezifikation und Berechnung von Testdaten mittels numerischer Methoden sowie der systematischen Formulierung des hierzu erforderlichen Constraint-Problems mithilfe eines analytischen mutationsbasierten Formalismus. Der constraintbasierte Formalismus ermöglicht die effiziente Ermittlung von Testdaten einer gleichbleibenden, definierten Qualität auf Grundlage eines gegebenen Signalflussplans als Testbasis. Der mutationsbasierte Formalismus sorgt für die erforderliche aussagekräftige Semantik des Constraint-Problems zur Erzielung aussagekräftiger, qualitativ hochwertiger Testdaten. Das Verfahren lässt sich im Rahmen einer modellgetriebenen Entwicklung von Automatisierungssoftware zur Ermittlung von Testdaten sowohl zum Testen eines ausführbaren Systemmodells der geforderten Automatisierungsfunktionalität gegenüber den Anforderungen als auch zum Testen einer Implementierung gegenüber dem Systemmodell einsetzen. Dabei lassen sich zwei Szenarien unterscheiden, nämlich die modellbasierte Synthese bzw. Generierung neuer Testdaten sowie die modellbasierte Analyse der Testüberdeckung bzw. Qualität gegebener Testdaten. Die mathematische Fundierung des Verfahrens eröffnet eine weitreichende Automatisierung dieser Szenarien im Sinne einer effizienten und praxisgerechten Testdatenermittlung. Hierzu wurde ein entsprechendes Softwarewerkzeug entwickelt. Das Verfahren wurde am Beispiel eines Kfz-Karosserieelektroniksystems evaluiert.
  • Thumbnail Image
    ItemOpen Access
    Deep learning based prediction and visual analytics for temporal environmental data
    (2022) Harbola, Shubhi; Coors, Volker (Prof. Dr.)
    The objective of this thesis is to focus on developing Machine Learning methods and their visualisation for environmental data. The presented approaches primarily focus on devising an accurate Machine Learning framework that supports the user in understanding and comparing the model accuracy in relation to essential aspects of the respective parameter selection, trends, time frame, and correlating together with considered meteorological and pollution parameters. Later, this thesis develops approaches for the interactive visualisation of environmental data that are wrapped over the time series prediction as an application. Moreover, these approaches provide an interactive application that supports: 1. a Visual Analytics platform to interact with the sensors data and enhance the representation of the environmental data visually by identifying patterns that mostly go unnoticed in large temporal datasets, 2. a seasonality deduction platform presenting analyses of the results that clearly demonstrate the relationship between these parameters in a combined temporal activities frame, and 3. air quality analyses that successfully discovers spatio-temporal relationships among complex air quality data interactively in different time frames by harnessing the user’s knowledge of factors influencing the past, present, and future behaviour with Machine Learning models' aid. Some of the above pieces of work contribute to the field of Explainable Artificial Intelligence which is an area concerned with the development of methods that help understand, explain and interpret Machine Learning algorithms. In summary, this thesis describes Machine Learning prediction algorithms together with several visualisation approaches for visually analysing the temporal relationships among complex environmental data in different time frames interactively in a robust web platform. The developed interactive visualisation system for environmental data assimilates visual prediction, sensors’ spatial locations, measurements of the parameters, detailed patterns analyses, and change in conditions over time. This provides a new combined approach to the existing visual analytics research. The algorithms developed in this thesis can be used to infer spatio-temporal environmental data, enabling the interactive exploration processes, thus helping manage the cities smartly.
  • Thumbnail Image
    ItemOpen Access
    Efficient modeling and computation methods for robust AMS system design
    (2018) Gil, Leandro; Radetzki, Martin (Prof. Dr.-Ing.)
    This dissertation copes with the challenge regarding the development of model based design tools that better support the mixed analog and digital parts design of embedded systems. It focuses on the conception of efficient modeling and simulation methods that adequately support emerging system level design methodologies. Starting with a deep analysis of the design activities, many weak points of today’s system level design tools were captured. After considering the modeling and simulation of power electronic circuits for designing low energy embedded systems, a novel signal model that efficiently captures the dynamic behavior of analog and digital circuits is proposed and utilized for the development of computation methods that enable the fast and accurate system level simulation of AMS systems. In order to support a stepwise system design refinement which is based on the essential system properties, behavior computation methods for linear and nonlinear analog circuits based on the novel signal model are presented and compared regarding the performance, accuracy and stability with existing numerical and analytical methods for circuit simulation. The novel signal model in combination with the method proposed to efficiently cope with the interaction of analog and digital circuits as well as the new method for digital circuit simulation are the key contributions of this dissertation because they allow the concurrent state and event based simulation of analog and digital circuits. Using a synchronous data flow model of computation for scheduling the execution of the analog and digital model parts, very fast AMS system simulations are carried out. As the best behavior abstraction for analog and digital circuits may be selected without the need of changing component interfaces, the implementation, validation and verification of AMS systems take advantage of the novel mixed signal representation. Changes on the modeling abstraction level do not affect the experiment setup. The second part of this work deals with the robust design of AMS systems and its verification. After defining a mixed sensitivity based robustness evaluation index for AMS control systems, a general robust design method leading to optimal controller tuning is presented. To avoid over-conservative AMS system designs, the proposed robust design optimization method considers parametric uncertainty and nonlinear model characteristics. The system properties in the frequency domain needed to evaluate the system robustness during parameter optimization are obtained from the proposed signal model. Further advantages of the presented signal model for the computation of control system performance evaluation indexes in the time domain are also investigated in combination with range arithmetic. A novel approach for capturing parameter correlations in range arithmetic based circuit behavior computation is proposed as a step towards a holistic modeling method for the robust design of AMS systems. The several modeling and computation methods proposed to improve the support of design methodologies and tools for AMS system are validated and evaluated in the course of this dissertation considering many aspects of the modeling, simulation, design and verification of a low power embedded system implementing Adaptive Voltage and Frequency Scaling (AVFS) for energy saving.
  • Thumbnail Image
    ItemOpen Access
    Agentenbasierte Konsistenzprüfung heterogener Modelle in der Automatisierungstechnik
    (2015) Rauscher, Michael; Göhner, Peter (Prof. Dr.-Ing. Dr. h.c.)
    Automatisierte bzw. mechatronische Systeme sind aus der heutigen Welt nicht mehr wegzudenken. Sowohl ein Großteil der technischen Produkte als auch die industrielle Produktion enthalten Elemente der Mechatronik. Sie ist eine Disziplin, die die klassischen Disziplinen des Maschinenbaus, der Elektrotechnik und der Informationstechnik in sich vereint. Um die gewinnbringende Zusammenarbeit dieser sehr unterschiedlichen Disziplinen zu gewährleisten, muss verschiedenen Herausforderungen begegnet werden. Die durch die verschiedenen Disziplinen bedingte Verwendung heterogener Modelle ist dabei eine große Fehlerquelle beim Entwurf mechatronischer Systeme. Inkonsistenzen zwischen den einzelnen Modellen, die erst spät im Entwurfsprozess aufgedeckt werden, erfordern großen Aufwand zur Behebung und gefährden die Qualität der entwickelten Produkte. Auf Grund der Heterogenität der Modelle, ist eine automatisierte Prüfung der Modelle auf Inkonsistenzen nicht möglich. Die manuelle Abstimmung zwischen den Disziplinen und Modellen kosten die Entwickler jedoch viel Zeit im Entwicklungsprozess und sie können sich nicht vollständig auf ihre eigentliche, kreative und gewinnbringende Arbeit konzentrieren. Deshalb ist die Unterstützung der Entwickler bei der Prüfung der Modelle notwendig, um die Entwicklungskosten zu reduzieren und die Produktqualität zu steigern. In der vorliegenden Arbeit wird ein Konzept zur automatisierten Konsistenzprüfung für heterogene Modelle vorgestellt, das in der Lage ist, Inkonsistenzen aufzudecken und den Entwicklern alle zu deren Auflösung verfügbaren Informationen bereitzustellen. Das Konzept basiert darauf, die heterogenen Modelle und deren Inhalt auf eine globale, modellübergreifende Ebene zu abstrahieren und dort zu interpretieren und zu prüfen. Dies wird erreicht, indem jedes Modell, genauer jeder Modelltyp, eine (lokale) Beschreibung erhält, in der die Struktur und die Bedeutung der Syntax des Modelltyps enthalten sind. Das zur Prüfung erforderliche Wissen in Form von Fakten, Zusammenhängen und daraus abgeleiteten Regeln ist allgemeingültig verfasst und befindet sich auf der globalen Ebene. Benutzerspezifisch können zu prüfende Regeln ergänzt werden. Die lokalen und die globale Wissensbasen werden in Form von Ontologien realisiert. Die Prüfung selbst wird mit Hilfe eines Softwareagentensystems durchgeführt. Die Grundidee der agentenorientierten Konsistenzprüfung ist es, jedes beteiligte Modell mit einem Modellagenten zu repräsentieren, der als Schnittstelle zwischen lokaler und globaler Ebene fungiert. Ein Ontologieagent leitet die Regeln aus der globalen Wissensbasis ab. Regelagenten führen die Prüfung der Modelle auf die Einhaltung der Regeln aus. Ein Koordinierungsagent stößt die Prüfung an, koordiniert diese und verwaltet die Ergebnisse. Dem Entwickler werden diese Ergebnisse am Ende einer Prüfung präsentiert und alle Informationen, die zu einem positiven oder negativen Ergebnis geführt haben, bereitgestellt. Er kann die aufgedeckten Inkonsistenzen anschließend gezielt beheben und wird so bei seiner Tätigkeit unterstützt. Gleichzeitig wird die Qualität der mechatronischen Systeme gesteigert, indem die möglichen Fehlerquellen reduziert werden.