05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
41 results
Search Results
Item Open Access Effiziente Leistungsverstärkerarchitekturen für Mobilfunkbasisstationen(2009) Dettmann, Ingo; Berroth, Manfred (Prof. Dr.-Ing.)Heutige Kommunikationsstandards erfordern Modulationsverfahren, welche die Information sowohl in der Phase als auch in der Amplitude des Trägers modulieren. Die daraus resultierenden Signale weisen hohe Amplitudenschwankungen auf. Die dafür notwendigen linearen Leistungsverstärker zeigen jedoch geringe Effizienzen. In der vorliegenden Arbeit werden zunächst die Anforderungen an Leistungsverstärker diskutiert und der Einfluss der Modulations- und Zugriffsverfahren untersucht. Anschließend werden die Anforderungen an den Transistor definiert und die Anforderungen an die Technologie formuliert. Es folgt eine Untersuchung der Betriebsarten von Verstärkern, welche die Grundlage für effizienzsteigernde Verstärkerarchitekturen bilden. Lineare Verstärker wie Klasse-A-, -AB- und -B-Verstärker zeigen eine hohe Linearität, die Effizienz fällt aber unterhalb der maximalen Ausgangsleistung schnell ab. Schaltverstärker wie Klasse-D- und -E-Verstärker sind zwar sehr effizient, können aber keine amplitudenmodulierten Signale verstärken. Es werden vier Methoden diskutiert, um die Effizienz unterhalb der maximalen Ausgangsleistung zu erhöhen: Der Doherty-Verstärker, der Chireix-Verstärker, die Versorgungsspannungsmodulation und der Bandpass-Klasse-S-Verstärker. Der Doherty-Verstärker bietet eine einfache Möglichkeit, die Effizienz auch unterhalb der maximalen Ausgangsleistung zu erhöhen. Das Prinzip beruht auf der Variation der Lastimpedanzen. Zwei Verstärker - ein Hauptverstärker und ein Spitzenverstärker - treiben dabei den gleichen Lastwiderstand. Der Spitzenverstärker wird nur bei hohen Ausgangsleistungen eingeschaltet und verändert das Kompressionsverhalten des Hauptverstärkers. Beim entworfenen Doherty-Verstärker erhöht sich die Effizienz 7 dB unterhalb der maximalen Ausgangsleistung von 15 % auf etwas über 27 %. Die maximale Ausgangsleistung reduziert sich allerdings von 85 W auf 56 W. Durch eine adaptive Arbeitspunktregelung des Spitzenverstärkers kann die Ausgangsleistung wieder auf 85 W erhöht werden. Die Effizienz steigt dabei nochmals um 5 % auf 32 %. Der Chireix-Verstärker basiert auf dem Prinzip der linearen Verstärkung durch nichtlineare Komponenten. Das zu verstärkende amplituden- und phasenmodulierte Signal wird durch einen Phasenmodulator in zwei gegenphasige Signale mit konstanter Amplitude aufgeteilt. Diese beiden Signale werden über hocheffiziente Verstärker verstärkt. Das ursprüngliche Signal wird durch Summation der beiden Signale wieder demoduliert. Eine Effizienzsteigerung erfolgt unter Verwendung von nichtisolierenden Summierern. Die Effizienzsteigerung beruht dabei auf der Variation der Lastgeraden. Der aufgebaute Chireix-Verstärker basiert auf dem GaAs-Transistor MRFG35010 von Freescale. Die Einzelverstärker werden im Klasse-B-Betrieb betrieben und haben eine maximale Ausgangsleistung von 5 W bei einer Frequenz von 2 GHz. Die Gesamtleistung ergibt sich damit zu 10 W. Die Effizienz beträgt maximal 52 %. Die Effizienz beim Chireix-Verstärker erhöht sich 7 dB unter der maximalen Ausgangsleistung von 25 % auf 32 % und bei 5 dB unter der maximalen Ausgangsleistung von 33 % auf 44 %. Die Versorgungsspannungsmodulation variiert die Drain- bzw. Kollektorspannung eines Verstärkers in Abhängigkeit der Aussteuerung des Transistors. Es ist das einzige untersuchte Verstärkerkonzept, welches mit allen Verstärkerklassen funktioniert. Es ist auch das einzige Konzept, welches die Bandbreite des HF-Verstärkers nicht einschränkt, solange der erforderliche Spannungsmodulator der Einhüllenden des HF-Signals folgen kann. Die Effizienz berechnet sich aus der Verkettung der Effizienzen des HF-Verstärkers und des Spannungsmodulators. Ein Verstärker auf Basis des GaAs-Transistors MRFG350101 wurde aufgebaut, dessen Versorgungsspannung über einen Klasse-AD-Verstärker geregelt wird. Die maximale Ausgangsleistung des Verstärkers beträgt 6.3 W bei einer Effizienz von 67 %. Die Versorgungsspannung wird im Bereich von 6 V - 12 V geregelt. Die Effizienz 7 dB unter der maximalen Ausgangsleistung steigt dabei von 30 % auf 44 %. Die Bandbreite des Modulators ist dabei größer als 3 MHz. Bandpass-Klasse-S-Verstärker verwenden Schaltverstärker, um ein analoges Signal hocheffizient zu verstärken. Das analoge Eingangssignal wird über einen Modulator in eine binäre Pulsfolge gewandelt, welche über einen Schaltverstärker effizient verstärkt wird. Anschließend wird das verstärkte Signal wieder demoduliert. Bandpass-Delta-Sigma-Modulatoren (BPDSM) stellen ein vielversprechendes Modulationsverfahren dar. Als Schaltverstärker können sowohl Klasse-D- Verstärker verwendet werden. Erstmals werden in dieser Arbeit analytische Untersuchungen zur Effizienz von sowohl nichtinvertierten als auch invertierten Klasse-D-Verstärkern bei Ansteuerung mit BPDSM-Signalen durchgeführt. Dies erlaubt eine Abschätzung der Effizienz von Bandpass-Klasse-S-Verstärkern unter Verwendung von Klasse-D-Verstärkern.Item Open Access Entwicklung und Analyse zeitgesteuerter Systeme(2002) Ringler, Thomas Karl; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Zeitgesteuerte Architekturen versprechen aufgrund ihrer deterministischen Eigenschaften die Anforderungen zukünftiger By-Wire-Systeme in Automobilen zu erfüllen. Im Vergleich zu herkömmlichen ereignisgesteuerten Architekturen benötigen sie jedoch einen erheblich höheren Entwicklungsaufwand und erfordern deshalb neue Verfahren und Werkzeugkonzepte. In der vorliegenden Arbeit wird ein Verfahren zur Entwicklung und Analyse zeitgesteuerter Systeme erarbeitet. Aktivitäten zur Entwicklung zeitgesteuerter Systeme werden identifiziert und in den etablierten Entwicklungsprozess der Automobilindustrie eingegliedert. In den frühen Phasen des Entwicklungsprozesses erfolgt die Planung des zeitlichen Ablaufs im verteilten System. In den späten Phasen wird durch die Zeitanalyse nachgewiesen, dass die implementierten Programme geplante Zeitbedingungen stets einhalten. Die Bestimmung der maximalen Ausführungszeit von Programmen durch die Worst-Case-Execution-Time-Analyse (WCET-Analyse) ist hierfür die Grundlage und bildet den Schwerpunkt der Arbeit. Dem aktuellen Trend in der Automobilindustrie Software modellbasiert zu erstellen wird Rechnung getragen, indem ein Konzept der modellbasierten WCET-Analyse entwickelt wird. Die Analyse der erstellten Modelle wird dadurch ohne die Angabe zusätzlicher Informationen durch den Anwender möglich. Dazu werden aus den Modellen heraus Informationen über das Ausführungsverhalten des Codes gewonnen. Die Übertragbarkeit des Konzepts wird aufgezeigt, indem es bei den zwei unterschiedlichen Software-Entwicklungswerkzeugen ViPER und MATLAB/Simulink/Stateflow angewandt wird. Zum praktischen Nachweis des erstellten Konzepts wird eine Werkzeugumgebung entwickelt. Anhand eines Steer-by-Wire-Fallbeispiels wird die Anwendbarkeit des Konzepts aufgezeigt. Durch die grafische Spezifikation des zeitlichen Ablaufs wird die Entwicklung verteilter regelungstechnischer Anwendungen unterstützt. Die integrierte WCET-Analyse für den in der Automobilindustrie weit verbreiteten Siemens 80C167 Mikrocontroller erfolgt voll automatisiert und bietet dem Anwender wichtige Informationen für den modellbasierten Softwareentwurf.Item Open Access Universelle Fernservice-Infrastruktur für eingebettete Systeme(2003) Jazdi, Nasser; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Globalisierung ist ein Vorgang, durch den Märkte und Produktionen in verschiedenen Ländern immer mehr kooperieren, aber auch voneinander abhängig werden. Ursache hierfür ist die Dynamik des Handels mit Gütern und Dienstleistungen sowie die Bewegungen von Kapital und Technologie. Die Differenzierung erfolgt nicht mehr nur durch das Produkt selbst, sondern zunehmend durch dazugehörige Dienstleistungen, wie Wartung und Software-Updates. Die globale Bereitstellung solcher Dienstleistungen ist jedoch ein existentielles Problem für kleine und mittelständische Unternehmen. Das Internet als ein weltweiter Verbund von Computernetzwerken bietet eine globale Kommunikationsmöglichkeit für den Menschen. Computer mit Internet-Zugang werden zum festen Bestandteil jedes modernen Arbeitsplatzes, auch infolge der immer geringer werdenden Anschaffungskosten. Die mit dem Internet verbundenen Web-Technologien ermöglichen die weltweite, effektive und kostengünstige Bereitstellung von Dienstleistungen. Der Einsatz der Web-Tech-nologien beim Erbringen von Dienstleistungen für Automatisierungsprodukte und -anlagen verlangt jedoch neue, an die spezifischen Randbedingungen der Automatisierungssysteme zugeschnittene Konzepte. In der vorliegenden Arbeit wird eine flexible und erweiterbare Infrastruktur für den Einsatz von Web-Technologien in eingebetteten Systemen vorgestellt. Sie baut auf der bewährten Drei-Schichten-Architektur, bestehend aus dem eingebetteten System, dem universellen Fernzugriff-Server und dem Client, auf. Dabei wird eine systemübergreifende und allgemeingültige Schnittstelle für die Anbindung unterschiedlicher eingebetteter Systeme und den Zugriff auf deren Prozessdaten geschaffen. Das Verfahren ermöglicht außerdem ein flexibles Weiterverarbeiten der Gerätedaten, sodass sie für unterschiedliche Clients aufbereitet werden können. Um die Flexibilität - sowohl auf der Seite des eingebetteten Systems als auch beim Client - zu gewährleisten, wird eine neue, XML-basierte Beschreibungssprache (SDML) eingeführt. Die SDML-Dokumente beinhalten Informationen über angebundene eingebettete Systeme, abrufbare Gerätedaten und Präsentationsregeln für unterschiedliche Clients. Sie werden gerätespezifisch erstellt. Das vorgeschlagene Verfahren ermöglicht die Anbindung unterschiedlicher eingebetteter Systeme an das Internet bei minimalem Hardware- und Softwareaufwand. Die einmalig entwickelten Software-Komponenten des Fernzugriff-Servers können für unterschiedliche Geräte verwendet werden und tragen damit zur Senkung der Diagnose- und Wartungskosten bei. Der Anwender kann einen gewöhnlichen Browser für die Kommunikation mit seinem Gerät verwenden und braucht somit keine zusätzliche Software auf seinem lokalen Rechner zu installieren.Item Open Access Ionenassistierte Deposition von Siliciumschichten(2001) Oberbeck, Lars; Werner, Jürgen H. (Prof. Dr. rer. nat. habil.)Die vorliegende Arbeit untersucht die Wachstumsvorgänge sowie die strukturellen und elektrischen Eigenschaften von Si-Epitaxieschichten aus der ionenassistierten Deposition (IAD). Bei der IAD werden Si-Atome durch einen Elektronenstrahlverdampfer bereitgestellt und in der Gasphase durch Elektronenemission aus einem Glühdraht teilweise ionisiert; der Ionisationsgrad beträgt ca. 1 %. Eine angelegte Spannung beschleunigt diese Si+ Ionen zum Substrat hin. Die Ko-Evaporation von Bor bzw. Phosphor ermöglicht die in-situ Dotierung der Epitaxieschichten zur Herstellung von pn-Übergängen. Die epitaktische Abscheidung von Si mittels IAD ist auf beliebigen Substratorientierungen möglich. Die Defektdichte und die Minoritätsträgerdiffusionslänge hängen aber stark von der Substratorientierung und der Beschleunigungsspannung ab. Dieses Ergebnis ist auf Unterschiede in der Oberflächenrekonstruktion und in den Aktivierungsenergien für atomare Diffusionsprozesse zurückzuführen. Bei der Betrachtung der Wachstumsmechanismen bei der IAD müssen zwei Temperaturbereiche unterschieden werden: Im Temperaturbereich < 400 °C unterstützen interstitielle Atome das epitaktische Wachstum, bei höheren Temperaturen dominiert die direkte Erhöhung der Adatommobilität durch Ionenbeschuß der Wachstumsoberfläche. Die optimale Ionenenergie liegt im Bereich 8 ... 20 eV für (100)-orientierte Epitaxieschichten. Diese Arbeit vertieft wesentlich das Verständnis der Wachstumsvorgänge bei der ionenassistierten Deposition von Si-Epitaxieschichten bei Depositionstemperaturen unterhalb von 650 °C und bietet erstmals eine grundlegende Evaluierung des Potentials von Si-Niedertemperaturepitaxieschichten. Eine umfassende Untersuchung struktureller und elektrischer Eigenschaften der Epitaxieschichten hat zur Herstellung von Schichten mit sehr guten Majoritäts- und Minoritätsträgereigenschaften bei einer Rekord-Depositionsrate von 0,8 µm/min geführt.Item Open Access Ganzheitliche modellbasierte Sicherheitsanalyse von Prozessautomatisierungssystemen(2003) Biegert, Uwe; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Der Betrieb von Prozessautomatisierungssystemen ist immer mit einem gewissen Risiko verbunden. Ein Prozessautomatisierungssystem gilt dann als sicher, wenn das vorhandene Risiko zu keiner Zeit ein so genanntes Grenzrisiko überschreitet. Wird das Grenzrisiko überschritten, so droht Menschen und Umwelt unmittelbar ein Schaden. Mit Hilfe von Sicherheitsanalysen kann das vorhandene Risiko untersucht und abgeschätzt werden. Klassische Sicherheitsanalysen betrachten in der Regel nur einzelne Bestandteile eines Prozessautomatisierungssystems, welches aber im Allgemeinen aus drei verschiedenen Bestandteilen besteht: dem technischen System, dem Rechnersystem und dem Bedienpersonal. Was passiert aber, falls im technischen System ein Bauelement ausfällt, die Automatisierungssoftware Fehler enthält und zur gleichen Zeit das Bedienpersonal falsche Bedieneingriffe ausführt? Solche Fragen können mit klassischen Sicherheitsanalysen nur unzureichend beantwortet werden. Hinzu kommt, dass bei den meisten klassischen Sicherheitsanalysen die eigentliche Analyse des Systems in Form von Brainstorming-Prozessen durchgeführt wird. Dabei kann der Mensch niemals alle möglichen Kombinationen des Zusammenspiels zwischen den Bestandteilen überblicken und bewerten. In der vorliegenden Arbeit wird ein modellbasierter Ansatz zur Durchführung einer ganzheitlichen Sicherheitsanalyse vorgestellt, welche alle Bestandteile eines Prozessautomatisierungssystems berücksichtigt. Die Ausführung erfolgt rechnergestützt. Auf Grund der Komplexität von Prozessautomatisierungssystemen wird eine qualitative komponentenorientierte Modellierungsmethode gewählt. Die Systemgrößen werden durch qualitative Intervallvariablen beschrieben, wobei die definierten Intervallbereiche zusätzlich durch qualitative Ausdrücke kommentiert werden. Durch Kombination von Intervallbereichen entstehen kommentierte Situationen, die das Verhalten wiedergeben. Dabei wird sowohl der bestimmungsgemäße als auch der fehlerhafte Betrieb berücksichtigt. Anhand der Systemstruktur werden die Modelle der Bestandteile miteinander kombiniert, um alle möglichen Situationen des gesamten Prozessautomatisierungssystems zu erhalten. Anschließend werden die ermittelten sicherheitskritischen Situationen des Prozessautomatisierungssystems bewertet und es wird entschieden, ob Sicherheitsmaßnahmen notwendig sind. Durch das rechnergestützte Vorgehen lassen sich im Unterschied zu klassischen Methoden beliebig viele Fehlerkombinationen analysieren und damit Sicherheitslücken im Prozessautomatisierungssystem ermitteln. Das komplexe Zusammenspiel der Bestandteile wird mit Hilfe des qualitativen Modells transparent und analysierbar. Das Modell ist auf Grund seines qualitativen Charakters einfach anzuwenden und die Ergebnisse können leicht interpretiert werden.Item Open Access Constraintbasierte Testdatenermittlung für Automatisierungssoftware auf Grundlage von Signalflussplänen(2008) Linder, Paul; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Die zunehmende Komplexität von Automatisierungssoftware führt zu einem wachsenden Testaufwand, welcher mittlerweile einen beträchtlichen Anteil der Gesamtentwicklungskosten technischer Systeme ausmachen kann. Benötigt wird ein effizientes Testvorgehen, welches die Gründlichkeit der Softwareprüfung nicht beeinträchtigt. Hierbei spielt die effiziente Ermittlung qualitativ hochwertiger Testdaten, die eine zügige Aufdeckung aller wesentlichen Softwarefehler erlauben, eine wichtige Rolle. Modellbasierte Testverfahren gewinnen dabei aufgrund ihrer präzisen Systematik zunehmend an Bedeutung. Wegen der zeitabhängigen und häufig hybriden, d. h. diskret-kontinuierlichen Dynamik von Prozessautomatisierungssystemen erfordert die modellbasierte Ermittlung von zeitabhängigen Testdaten für Automatisierungssoftware im Allgemeinen die Auswertung hybrider funktionaler Modelle. Dies stellt eine Herausforderung dar, welche bis heute nicht zufriedenstellend gelöst wurde. Zur effizienten modellbasierten Ermittlung qualitativ hochwertiger zeitabhängiger Testdaten für Automatisierungssoftware wurden in dieser Arbeit neue Wege beschritten und ein innovatives Verfahren auf Grundlage hybrider, diskret-kontinuierlicher Signalflusspläne erarbeitet. Signalflusspläne sind eine in der industriellen Praxis eingeführte und verbreitete Beschreibungsform zur mathematisch präzisen Modellbildung dynamischer diskret-kontinuierlicher Automatisierungsanwendungen. Das Verfahren beruht auf zwei orthogonalen Grundkonzepten, nämlich der constraintbasierten Spezifikation und Berechnung von Testdaten mittels numerischer Methoden sowie der systematischen Formulierung des hierzu erforderlichen Constraint-Problems mithilfe eines analytischen mutationsbasierten Formalismus. Der constraintbasierte Formalismus ermöglicht die effiziente Ermittlung von Testdaten einer gleichbleibenden, definierten Qualität auf Grundlage eines gegebenen Signalflussplans als Testbasis. Der mutationsbasierte Formalismus sorgt für die erforderliche aussagekräftige Semantik des Constraint-Problems zur Erzielung aussagekräftiger, qualitativ hochwertiger Testdaten. Das Verfahren lässt sich im Rahmen einer modellgetriebenen Entwicklung von Automatisierungssoftware zur Ermittlung von Testdaten sowohl zum Testen eines ausführbaren Systemmodells der geforderten Automatisierungsfunktionalität gegenüber den Anforderungen als auch zum Testen einer Implementierung gegenüber dem Systemmodell einsetzen. Dabei lassen sich zwei Szenarien unterscheiden, nämlich die modellbasierte Synthese bzw. Generierung neuer Testdaten sowie die modellbasierte Analyse der Testüberdeckung bzw. Qualität gegebener Testdaten. Die mathematische Fundierung des Verfahrens eröffnet eine weitreichende Automatisierung dieser Szenarien im Sinne einer effizienten und praxisgerechten Testdatenermittlung. Hierzu wurde ein entsprechendes Softwarewerkzeug entwickelt. Das Verfahren wurde am Beispiel eines Kfz-Karosserieelektroniksystems evaluiert.Item Open Access Novel network architecture for optical burst transport(2006) Gauger, Christoph; Kühn, Paul (Prof. Dr.-Ing. Dr. h. c. mult.)Transport networks form the backbone of communication networks by cost-efficiently offering huge bandwidth and by guaranteeing a high service quality and availability. These requirements can best be met by using optical communication technologies. Currently, wavelength-switching is the most prominent network technology employing optical fiber communication and wavelength division multiplexing. While for years progress in optical networks has been defined by ever increasing transmission bit-rates, higher flexibility and manageability as well as multi-service and multi-layer integration are equally important criteria today. Accounting for these trends, optical burst switching (OBS) has been proposed as highly dynamic optical network architecture. It offers fine-granular transport of different packet-switched services and applies statistical multiplexing directly in the optical layer. This thesis presents the design, modeling, and evaluation of the optical burst transport network architecture (OBTN). The architecture is motivated by the need for flexible, scalable, and cost-efficient transport in next generation networks. In addition, it is stimulated by the research activities towards highly dynamic optical network infrastructures. OBTN defines a network architecture to transport and switch optical burst data in a core network. The design objectives for the OBTN architecture are (i) an overall high quality of service, (ii) a network design allowing for cost-efficiency and scalability, and (iii) a network evolution perspective based on the current wavelength-switched networks. These objectives are achieved by combining selected concepts, architectures, and strategies of optical burst and optical packet switching as well as of multi-layer traffic engineering. The method of event-driven simulation is used to evaluate OBTN regarding its node and network resource requirements and QoS performance. Chapter 2 introduces the general characteristics, requirements, and trends for next generation transport networks in general and optical networks in particular. It describes architectural constraints and classification criteria for highly dynamic optical network architectures. These criteria are used to characterize the fast optical circuit switching, optical burst switching, and optical packet switching architectures as well as hybrid optical network architectures. Chapter 3 discusses the state of research and technology for optical burst switching. It presents the requirements for key functions in an OBS network and classifies the proposed architectures and mechanisms. Particularly, it addresses contention resolution which is necessary to achieve a high QoS in burst-switched networks. This is supported by Appendix A which analyzes the performance of nodes with fiber delay line buffers. Finally, architectures and realization aspects for burst-switched core nodes are presented to explain their resource and scalability constraints. Chapter 4 motivates and introduces the fundamental concepts of OBTN, namely the dense virtual topology, constrained alternative routing, and shared overflow capacity. These components are analyzed regarding their consequences for the overall node and network architecture. Finally, OBTN is compared qualitatively with optical burst switching and hybrid optical networks. Chapter 5 describes a unified resource model which allows dimensioning and evaluating burst-switched architectures with different virtual topologies. Then, it addresses the simulation methodology, the reference evaluation scenario used in Chapter 6 as well as the metrics for node and network resources and QoS performance. Chapter 6 evaluates OBTN and compares it with the two burst-switched reference architectures OBS and Burst-over-Circuit-Switching (BoCS). OBS uses a sparse virtual topology while BoCS employs a full-mesh virtual topology. The evaluations show that for the same high target QoS, suitable OBTN dimensionings require substantially less resources in burst-switched nodes than OBS and slightly less than BoCS. This improvement comes at the cost of higher resource requirements compared to OBS in the underlying wavelength-switched server layer. However, applying the cost relations for lambda grid networks, in which bandwidth is considered a commodity and client layer resources the major cost driver, OBTN yields an overall cost reduction. Concluding, OBTN is shown to offer an overall high QoS, to effectively reduce the node resources of the burst-switched client layer, and to perform well in a wavelength-switched network context.Item Open Access Monolithische Integration von Millimeterwellenbauelementen auf rückseitenstrukturiertem Silizium(2007) Hasch, Jürgen; Kasper, Erich (Prof. Dr.)Die vorliegende Arbeit untersucht die monolithische Integration aktiver und passiver Millimeterwellen-Komponenten auf hochohmigem Silizium in der sogenannten Silicon Millimeter Wave Integrated Circuit (SIMMWIC)-Technologie. Ziel ist es, mit Hilfe von Standard-Prozessen aus der Mikroelektronik und Mikrosystemtechnik, ein Integrationskonzept darzustellen, mit dem sich der Hochfrequenzteil eines Radar-Sensors als monolithisch integrierte Schaltung im Millimeterwellenbereich realisieren lässt. Ein solcher Hochfrequenzteil besteht zumindest aus Sendesignalerzeugung, passiven Strukturen zur Signalverteilung, einem Antennenelement als Schnittstelle zu den elektromagnetischen Wellen im Freiraum und einer Empfängerschaltung, die typischerweise in Form eines Mischers ausgeführt wird. Der Einsatz eines solchen "Radar-ICs" als komplett monolithisch integrierte Schaltung bietet eine Reihe von Vorteilen gegenüber dem bisher verbreiteten Aufbau aus diskreten Komponenten. So kann durch den Wegfall diskreter Hochfrequenz-Komponenten die Anzahl der eingesetzten Bauelemente reduziert und die Baugröße des Sensors verringert werden. Durch die Integration aller Hochfrequenz-Komponenten ist außerdem eine wesentlich vereinfachte elektrische Kontaktierung möglich, da keine Hochfrequenzsignale von der Halbleiterschaltung nach außen geführt werden müssen. Dies ermöglicht auch den Einsatz einer einfachen Leiterplattentechnologie für die umgebenden Schaltungskomponenten. Durch den Einsatz einer Standard-Backend-Technologie aus der Mikroelektronik können Leiterstrukturen im Mikrometerbereich realisiert werden. Dies erlaubt die präzise Herstellung von Schaltungskomponenten mit sehr geringen Abmessungen, eine Voraussetzung für Arbeitsfrequenzen oberhalb von 100 GHz. Zusätzlich zur Strukturierung der Leiterstrukturen auf der Oberseite des Siliziumwafers, wird mit Hilfe eines Verfahrens zum anisotropen Ätzen von Silizium (dem sogenannten Bosch-Prozess) die Rückseite des Siliziumwafers selektiv rückgedünnt, damit dort partiell eine dünne Siliziummembran entsteht. Im Bereich dieser Membran können Mikrostreifenleitungsstrukturen mit sehr günstigen Hochfrequenzeigenschaften und einer Leitungsdämpfung von weniger als 0,3 dB/mm für den Frequenzbereich von 90-140 GHz realisiert werden. Diese günstigen Eigenschaften konnten durch messtechnische Untersuchung nachgewiesen werden. Ein wesentlicher Bestandteil des Integrationskonzeptes ist die Verfügbarkeit eines integrierten Antennenelements. Erst damit ist eine vollständige monolithische Integration der grundlegenden Millimeterwellenkomponenten auf der Siliziumschaltung erreicht. Dazu wurde eine Mikrostreifen-Patchantenne untersucht und charakterisiert. Trotz der hohen Permittivität von Silizium konnte gezeigt werden, dass sich ein Patch-Antennenelement auf Basis von Mikrostreifenleitungen mit einem Wirkungsgrad von mehr als 50% realisieren lässt. Die Integration aktiver Bauelemente wurde anhand einer Impatt-Diode untersucht, die mittels Molecular Beam Epitaxy direkt auf dem Siliziumwafer hergestellt wird. Mit Hilfe dieses Verfahrens können Halbleiterschichten mit einer genau definierten Schichtdicke und Dotierung erzeugt werden. Durch aufeinander folgendes Abscheiden mehrerer dotierter Halbleiterschichten und anschließendem selektiven Ätzen konnten Impatt-Dioden mit Lawinenfrequenzen von bis zu 110 GHz hergestellt und gemessen werden. Die Impatt-Dioden wurden bis 140 GHz messtechnisch in ihren Kleinsignaleigenschaften charakterisiert. Durch Parameterextraktion konnte ein einfaches Ersatzschaltbild für die Impatt-Diode bestimmt und das Hochfrequenzverhalten der Diode in Abhängigkeit vom Arbeitspunkt untersucht werden. Basierend auf einer Impatt-Diode als aktivem Element wurden Oszillatoren auf Basis von Koplanarleitungen entworfen und charakterisiert. Es konnten Oszillatoren mit einer Arbeitsfrequenz von bis zu 124 GHz bei 1dBm Ausgangsleistung realisiert werden. Die maximale Ausgangsleistung wurde für einen 104 GHz-Oszillator mit 11,4dBm erreicht. Abschließend wurde eine Transmitterschaltung entworfen und realisiert, die mikromechanisch strukturierte passive Strukturen und aktive Bauelemente in Form von Impatt-Dioden enthält.Item Open Access Mikrowellenmodellierung von photonischen Kristallen und Metamaterialien für die optische Nachrichtentechnik(2009) Rumberg, Axel; Berroth, Manfred (Prof. Dr.-Ing.)Negativ-Index-Materialien sind ein neues Forschungsgebiet. Das erste Metamaterial mit einem negativen Brechungsindex wurde 2001 vorgestellt. Das theoretische Konzept der Wellenausbreitung in Negativ-Index-Materialien ist aber bereits 1968 von V. Veselago entwickelt worden. Die der Arbeit zugrunde liegende Aufgabe besteht in der Modellierung von negativ brechenden photonischen Kristallen und Metamaterialien im Mikrowellenbereich. Sie werden im Hinblick auf ihre Verwendbarkeit im Bereich der optischen Telekommunikationswellenlängen untersucht. Durch die aufgrund der Skalierung größeren Abmessungen lassen sich die Strukturen einfacher herstellen und vermessen. Die Arbeitsprinzipien der Strukturen sind frequenzunabhängig. Metamaterialien bieten die Möglichkeit, die Permittivität und die Permeabilität maßzuschneidern. In den Einheitszellen dieser meist periodisch aufgebauten metallischen Strukturen werden künstliche magnetische Atome durch resonanzfähige Strukturen generiert. Die Periode des Metamaterials muss klein gegenüber der Wellenlänge sein. Neben den auf dem Resonatorkonzept aufgebauten Metamaterialien werden auch auf anderen Prinzipien beruhende Strukturen untersucht. Hier sind die leitungsgebundenen Metamaterialien zu nennen. Als einbettende Leitungen können z. B. Mikrostreifenleitungen verwendet werden. Im Vergleich zur konventionellen Transmissionsleitung werden Kapazität und Induktivität vertauscht. Auch photonische Kristalle können negativ brechen. In diesen periodischen Strukturen ist die Wellenlänge vergleichbar mit der Gitterkonstanten und die Einzelelemente, z. B. Metallzylinder, können aufgelöst werden. Bei bestimmten Frequenzen kann über das Dispersionsdiagramm ein effektiver negativer Index zugeordnet werden. Die negative Brechung der photonischen Kristalle kann dazu genutzt werden, eine von einer Quelle ausgehende Welle zu fokussieren. Diese Fokussierung wird mit zweidimensionalen photonischen Kristallen, die aus Löchern in einer Schichtwellenleiterstruktur bestehen, im Frequenzbereich um 20 GHz gezeigt. Das verwendete wellenführende Materialsystem TMM10 - Teflon modelliert das in photonischen integrierten Schaltkreisen verwendete Silizium-Siliziumdioxid. Nach erfolgreicher Demonstration der Fokussierung wird gezeigt, dass mittels photonischer Kristalle die Einkoppeleffizienz in einen Wellenleiter verbessert werden kann. In einer Teststrecke, die aus zwei sich gegenüberliegenden Wellenleitern mit dazwischen liegendem Schichtwellenleiter besteht, wird die Kopplung von einem Wellenleiter zum anderen durch Einsatz eines photonischen Kristalls gesteigert. Der photonische Kristall wird in den Schichtwellenleiter eingebracht. Die Kopplung wird im Vergleich zur Kopplung durch den reinen Schichtwellenleiter verbessert. Die in dieser Arbeit untersuchten resonanten Strukturen bieten das Potenzial, einen auf negativer Permittivität und Permeabilität beruhenden negativen Index zu erzeugen. Mit dem Drahtpaar, einer Abwandelung des Spaltring-Resonators, wird ein auch gut in der Optik zu vermessendes magnetisches Atom untersucht. Der negative Index wird im Frequenzbereich um 10 GHz festgestellt. Zur Untersuchung von Volumenmaterialien werden gestapelte Strukturen untersucht. Leitungsgebundene Strukturen bieten ebenfalls das Potenzial eines negativen Indexes. Eine Struktur wird aus hochfrequenztauglichem Material aufgebaut. Das einbettende Medium wird durch einen Parallelplattenhohlleiter gebildet. Die zur Erlangung des negativen Indexes benötigten Induktivitäten und Kapazitäten werden durch kurzgeschlossene Parallelplattenhohlleiter und metallische Durchkontaktierungen realisiert. Bei den Messungen wird ein negativer Index um 10 GHz festgestellt. Der letzte Abschnitt der Arbeit befasst sich mit der Skalierbarkeit der Strukturen. In der Simulation werden die Abmaße eines Drahtpaar soweit skaliert, dass sich eine Arbeitsfrequenz von 100 THz ergibt. Hierbei fällt auf, dass die Abmaße aufgrund der Eigenschaften von Metallen nicht direkt skaliert werden können. Lagen die Arbeitsfrequenzen der Metamaterialien anfangs im Mikrowellenbereich, so sind sie inzwischen durch Skalierung im optischen Frequenzbereich angelangt. Es wird daran gearbeitet, verlustarme Volumenmaterialien zu bauen. Konkrete Anwendungen gibt es bereits im Mikrowellenbereich. Es ist z. B. möglich, kompakte Koppler oder Leckwellenantennen zu bauen. Auch ist eine Tarnkappe realisiert worden. Die weiteren potenziellen Anwendungsgebiete im optischen Frequenzbereich sind weitreichend. Es ist möglich, das Licht auf unkonventionelle Art und Weise zu führen. Als Anwendungsbeispiel zu nennen sind hier die in dieser Arbeit vorgestellten Kopplungen mit photonischen Kristallen, die in photonischen integrierten Schaltkreisen als Schlüsselkomponenten eingesetzt werden können.Item Open Access Internetbasierte Datenintegration für Automatisierungssysteme(2006) Strobel, Thorsten; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)Hersteller von Automatisierungssystemen suchen zunehmend nach neuen Möglichkeiten über den reinen Verkauf der Automatisierungssysteme hinaus Services anzubieten. Solches lässt sich durch Dienstleistungen erreichen, die rund um das verkaufte Automatisierungssystem angeboten werden und die es einem Automatisierungssystemhersteller ermöglichen, sich von seinen Konkurrenten abzuheben. Eine solche Dienstleistung ist das Anbieten von Daten aus dem Umfeld des Automatisierungssystems. Diese Daten können aus der Entwicklung oder dem Betrieb des Systems stammen und dem Kunden den Umgang mit dem Automatisierungssystem erleichtern. Die vorliegende Arbeit stellt ein Konzept für eine Plattform zur internetbasierten Datenintegration für Automatisierungssysteme vor. Die Datenintegrationsplattform für Automatisierungssysteme (DIPAS) realisiert einen einheitlichen Zugriff auf heterogene Datenbestände. Neben verschiedenen Arten von Datenbanksystemen werden auch Automatisierungssysteme als Datenbestände betrachtet. Die zu integrierenden Datenbestände können über das Internet hinweg verteilt sein. Aus der Integration gewonnene Daten sind ohne zusätzlichen Aufwand auf verschiedenartigen Ausgabegeräten darstellbar und auch veränderbar. Das Konzept beruht auf der konsequenten Verwendung von XML-basierten Standards. So kommen zur Kommunikation zwischen den einzelnen Bestandteilen der Plattform Web Services zum Einsatz. Sie ermöglichen die Verteilung der Datenbestände im Internet. Über die Web Service Schnittstellen wird festgelegt, welche Daten aus den einzelnen Datenbeständen für die Integration zur Verfügung stehen. Die vielfältigen Unterschiede zwischen den Datenbeständen werden durch Wrapper gekapselt. Durch die Verwendung generischer Wrapper reduziert sich der Realisierungsaufwand für die Integrationsplattform. Generische Wrapper werden für die Art eines bestimmten Datenbestands konfiguriert und anschließend für die Datenstruktur des Datenbestands parametriert. Auf die Wrapper baut ein Föderierungsdienst auf, der für die logische Verbindung der Daten sorgt. Dadurch ergibt sich für Anwendungen, die auf die Integrationsplattform DIPAS aufsetzen, der Eindruck, nur mit einem einzigen Datenbestand zu arbeiten. Die Informationen über die logische Verbindung der Datenbestände werden in einer XML-basierten Metadatenverwaltung gespeichert.