05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 7 of 7
  • Thumbnail Image
    ItemOpen Access
    Effiziente Leistungsverstärkerarchitekturen für Mobilfunkbasisstationen
    (2009) Dettmann, Ingo; Berroth, Manfred (Prof. Dr.-Ing.)
    Heutige Kommunikationsstandards erfordern Modulationsverfahren, welche die Information sowohl in der Phase als auch in der Amplitude des Trägers modulieren. Die daraus resultierenden Signale weisen hohe Amplitudenschwankungen auf. Die dafür notwendigen linearen Leistungsverstärker zeigen jedoch geringe Effizienzen. In der vorliegenden Arbeit werden zunächst die Anforderungen an Leistungsverstärker diskutiert und der Einfluss der Modulations- und Zugriffsverfahren untersucht. Anschließend werden die Anforderungen an den Transistor definiert und die Anforderungen an die Technologie formuliert. Es folgt eine Untersuchung der Betriebsarten von Verstärkern, welche die Grundlage für effizienzsteigernde Verstärkerarchitekturen bilden. Lineare Verstärker wie Klasse-A-, -AB- und -B-Verstärker zeigen eine hohe Linearität, die Effizienz fällt aber unterhalb der maximalen Ausgangsleistung schnell ab. Schaltverstärker wie Klasse-D- und -E-Verstärker sind zwar sehr effizient, können aber keine amplitudenmodulierten Signale verstärken. Es werden vier Methoden diskutiert, um die Effizienz unterhalb der maximalen Ausgangsleistung zu erhöhen: Der Doherty-Verstärker, der Chireix-Verstärker, die Versorgungsspannungsmodulation und der Bandpass-Klasse-S-Verstärker. Der Doherty-Verstärker bietet eine einfache Möglichkeit, die Effizienz auch unterhalb der maximalen Ausgangsleistung zu erhöhen. Das Prinzip beruht auf der Variation der Lastimpedanzen. Zwei Verstärker - ein Hauptverstärker und ein Spitzenverstärker - treiben dabei den gleichen Lastwiderstand. Der Spitzenverstärker wird nur bei hohen Ausgangsleistungen eingeschaltet und verändert das Kompressionsverhalten des Hauptverstärkers. Beim entworfenen Doherty-Verstärker erhöht sich die Effizienz 7 dB unterhalb der maximalen Ausgangsleistung von 15 % auf etwas über 27 %. Die maximale Ausgangsleistung reduziert sich allerdings von 85 W auf 56 W. Durch eine adaptive Arbeitspunktregelung des Spitzenverstärkers kann die Ausgangsleistung wieder auf 85 W erhöht werden. Die Effizienz steigt dabei nochmals um 5 % auf 32 %. Der Chireix-Verstärker basiert auf dem Prinzip der linearen Verstärkung durch nichtlineare Komponenten. Das zu verstärkende amplituden- und phasenmodulierte Signal wird durch einen Phasenmodulator in zwei gegenphasige Signale mit konstanter Amplitude aufgeteilt. Diese beiden Signale werden über hocheffiziente Verstärker verstärkt. Das ursprüngliche Signal wird durch Summation der beiden Signale wieder demoduliert. Eine Effizienzsteigerung erfolgt unter Verwendung von nichtisolierenden Summierern. Die Effizienzsteigerung beruht dabei auf der Variation der Lastgeraden. Der aufgebaute Chireix-Verstärker basiert auf dem GaAs-Transistor MRFG35010 von Freescale. Die Einzelverstärker werden im Klasse-B-Betrieb betrieben und haben eine maximale Ausgangsleistung von 5 W bei einer Frequenz von 2 GHz. Die Gesamtleistung ergibt sich damit zu 10 W. Die Effizienz beträgt maximal 52 %. Die Effizienz beim Chireix-Verstärker erhöht sich 7 dB unter der maximalen Ausgangsleistung von 25 % auf 32 % und bei 5 dB unter der maximalen Ausgangsleistung von 33 % auf 44 %. Die Versorgungsspannungsmodulation variiert die Drain- bzw. Kollektorspannung eines Verstärkers in Abhängigkeit der Aussteuerung des Transistors. Es ist das einzige untersuchte Verstärkerkonzept, welches mit allen Verstärkerklassen funktioniert. Es ist auch das einzige Konzept, welches die Bandbreite des HF-Verstärkers nicht einschränkt, solange der erforderliche Spannungsmodulator der Einhüllenden des HF-Signals folgen kann. Die Effizienz berechnet sich aus der Verkettung der Effizienzen des HF-Verstärkers und des Spannungsmodulators. Ein Verstärker auf Basis des GaAs-Transistors MRFG350101 wurde aufgebaut, dessen Versorgungsspannung über einen Klasse-AD-Verstärker geregelt wird. Die maximale Ausgangsleistung des Verstärkers beträgt 6.3 W bei einer Effizienz von 67 %. Die Versorgungsspannung wird im Bereich von 6 V - 12 V geregelt. Die Effizienz 7 dB unter der maximalen Ausgangsleistung steigt dabei von 30 % auf 44 %. Die Bandbreite des Modulators ist dabei größer als 3 MHz. Bandpass-Klasse-S-Verstärker verwenden Schaltverstärker, um ein analoges Signal hocheffizient zu verstärken. Das analoge Eingangssignal wird über einen Modulator in eine binäre Pulsfolge gewandelt, welche über einen Schaltverstärker effizient verstärkt wird. Anschließend wird das verstärkte Signal wieder demoduliert. Bandpass-Delta-Sigma-Modulatoren (BPDSM) stellen ein vielversprechendes Modulationsverfahren dar. Als Schaltverstärker können sowohl Klasse-D- Verstärker verwendet werden. Erstmals werden in dieser Arbeit analytische Untersuchungen zur Effizienz von sowohl nichtinvertierten als auch invertierten Klasse-D-Verstärkern bei Ansteuerung mit BPDSM-Signalen durchgeführt. Dies erlaubt eine Abschätzung der Effizienz von Bandpass-Klasse-S-Verstärkern unter Verwendung von Klasse-D-Verstärkern.
  • Thumbnail Image
    ItemOpen Access
    Constraintbasierte Testdatenermittlung für Automatisierungssoftware auf Grundlage von Signalflussplänen
    (2008) Linder, Paul; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Die zunehmende Komplexität von Automatisierungssoftware führt zu einem wachsenden Testaufwand, welcher mittlerweile einen beträchtlichen Anteil der Gesamtentwicklungskosten technischer Systeme ausmachen kann. Benötigt wird ein effizientes Testvorgehen, welches die Gründlichkeit der Softwareprüfung nicht beeinträchtigt. Hierbei spielt die effiziente Ermittlung qualitativ hochwertiger Testdaten, die eine zügige Aufdeckung aller wesentlichen Softwarefehler erlauben, eine wichtige Rolle. Modellbasierte Testverfahren gewinnen dabei aufgrund ihrer präzisen Systematik zunehmend an Bedeutung. Wegen der zeitabhängigen und häufig hybriden, d. h. diskret-kontinuierlichen Dynamik von Prozessautomatisierungssystemen erfordert die modellbasierte Ermittlung von zeitabhängigen Testdaten für Automatisierungssoftware im Allgemeinen die Auswertung hybrider funktionaler Modelle. Dies stellt eine Herausforderung dar, welche bis heute nicht zufriedenstellend gelöst wurde. Zur effizienten modellbasierten Ermittlung qualitativ hochwertiger zeitabhängiger Testdaten für Automatisierungssoftware wurden in dieser Arbeit neue Wege beschritten und ein innovatives Verfahren auf Grundlage hybrider, diskret-kontinuierlicher Signalflusspläne erarbeitet. Signalflusspläne sind eine in der industriellen Praxis eingeführte und verbreitete Beschreibungsform zur mathematisch präzisen Modellbildung dynamischer diskret-kontinuierlicher Automatisierungsanwendungen. Das Verfahren beruht auf zwei orthogonalen Grundkonzepten, nämlich der constraintbasierten Spezifikation und Berechnung von Testdaten mittels numerischer Methoden sowie der systematischen Formulierung des hierzu erforderlichen Constraint-Problems mithilfe eines analytischen mutationsbasierten Formalismus. Der constraintbasierte Formalismus ermöglicht die effiziente Ermittlung von Testdaten einer gleichbleibenden, definierten Qualität auf Grundlage eines gegebenen Signalflussplans als Testbasis. Der mutationsbasierte Formalismus sorgt für die erforderliche aussagekräftige Semantik des Constraint-Problems zur Erzielung aussagekräftiger, qualitativ hochwertiger Testdaten. Das Verfahren lässt sich im Rahmen einer modellgetriebenen Entwicklung von Automatisierungssoftware zur Ermittlung von Testdaten sowohl zum Testen eines ausführbaren Systemmodells der geforderten Automatisierungsfunktionalität gegenüber den Anforderungen als auch zum Testen einer Implementierung gegenüber dem Systemmodell einsetzen. Dabei lassen sich zwei Szenarien unterscheiden, nämlich die modellbasierte Synthese bzw. Generierung neuer Testdaten sowie die modellbasierte Analyse der Testüberdeckung bzw. Qualität gegebener Testdaten. Die mathematische Fundierung des Verfahrens eröffnet eine weitreichende Automatisierung dieser Szenarien im Sinne einer effizienten und praxisgerechten Testdatenermittlung. Hierzu wurde ein entsprechendes Softwarewerkzeug entwickelt. Das Verfahren wurde am Beispiel eines Kfz-Karosserieelektroniksystems evaluiert.
  • Thumbnail Image
    ItemOpen Access
    Mikrowellenmodellierung von photonischen Kristallen und Metamaterialien für die optische Nachrichtentechnik
    (2009) Rumberg, Axel; Berroth, Manfred (Prof. Dr.-Ing.)
    Negativ-Index-Materialien sind ein neues Forschungsgebiet. Das erste Metamaterial mit einem negativen Brechungsindex wurde 2001 vorgestellt. Das theoretische Konzept der Wellenausbreitung in Negativ-Index-Materialien ist aber bereits 1968 von V. Veselago entwickelt worden. Die der Arbeit zugrunde liegende Aufgabe besteht in der Modellierung von negativ brechenden photonischen Kristallen und Metamaterialien im Mikrowellenbereich. Sie werden im Hinblick auf ihre Verwendbarkeit im Bereich der optischen Telekommunikationswellenlängen untersucht. Durch die aufgrund der Skalierung größeren Abmessungen lassen sich die Strukturen einfacher herstellen und vermessen. Die Arbeitsprinzipien der Strukturen sind frequenzunabhängig. Metamaterialien bieten die Möglichkeit, die Permittivität und die Permeabilität maßzuschneidern. In den Einheitszellen dieser meist periodisch aufgebauten metallischen Strukturen werden künstliche magnetische Atome durch resonanzfähige Strukturen generiert. Die Periode des Metamaterials muss klein gegenüber der Wellenlänge sein. Neben den auf dem Resonatorkonzept aufgebauten Metamaterialien werden auch auf anderen Prinzipien beruhende Strukturen untersucht. Hier sind die leitungsgebundenen Metamaterialien zu nennen. Als einbettende Leitungen können z. B. Mikrostreifenleitungen verwendet werden. Im Vergleich zur konventionellen Transmissionsleitung werden Kapazität und Induktivität vertauscht. Auch photonische Kristalle können negativ brechen. In diesen periodischen Strukturen ist die Wellenlänge vergleichbar mit der Gitterkonstanten und die Einzelelemente, z. B. Metallzylinder, können aufgelöst werden. Bei bestimmten Frequenzen kann über das Dispersionsdiagramm ein effektiver negativer Index zugeordnet werden. Die negative Brechung der photonischen Kristalle kann dazu genutzt werden, eine von einer Quelle ausgehende Welle zu fokussieren. Diese Fokussierung wird mit zweidimensionalen photonischen Kristallen, die aus Löchern in einer Schichtwellenleiterstruktur bestehen, im Frequenzbereich um 20 GHz gezeigt. Das verwendete wellenführende Materialsystem TMM10 - Teflon modelliert das in photonischen integrierten Schaltkreisen verwendete Silizium-Siliziumdioxid. Nach erfolgreicher Demonstration der Fokussierung wird gezeigt, dass mittels photonischer Kristalle die Einkoppeleffizienz in einen Wellenleiter verbessert werden kann. In einer Teststrecke, die aus zwei sich gegenüberliegenden Wellenleitern mit dazwischen liegendem Schichtwellenleiter besteht, wird die Kopplung von einem Wellenleiter zum anderen durch Einsatz eines photonischen Kristalls gesteigert. Der photonische Kristall wird in den Schichtwellenleiter eingebracht. Die Kopplung wird im Vergleich zur Kopplung durch den reinen Schichtwellenleiter verbessert. Die in dieser Arbeit untersuchten resonanten Strukturen bieten das Potenzial, einen auf negativer Permittivität und Permeabilität beruhenden negativen Index zu erzeugen. Mit dem Drahtpaar, einer Abwandelung des Spaltring-Resonators, wird ein auch gut in der Optik zu vermessendes magnetisches Atom untersucht. Der negative Index wird im Frequenzbereich um 10 GHz festgestellt. Zur Untersuchung von Volumenmaterialien werden gestapelte Strukturen untersucht. Leitungsgebundene Strukturen bieten ebenfalls das Potenzial eines negativen Indexes. Eine Struktur wird aus hochfrequenztauglichem Material aufgebaut. Das einbettende Medium wird durch einen Parallelplattenhohlleiter gebildet. Die zur Erlangung des negativen Indexes benötigten Induktivitäten und Kapazitäten werden durch kurzgeschlossene Parallelplattenhohlleiter und metallische Durchkontaktierungen realisiert. Bei den Messungen wird ein negativer Index um 10 GHz festgestellt. Der letzte Abschnitt der Arbeit befasst sich mit der Skalierbarkeit der Strukturen. In der Simulation werden die Abmaße eines Drahtpaar soweit skaliert, dass sich eine Arbeitsfrequenz von 100 THz ergibt. Hierbei fällt auf, dass die Abmaße aufgrund der Eigenschaften von Metallen nicht direkt skaliert werden können. Lagen die Arbeitsfrequenzen der Metamaterialien anfangs im Mikrowellenbereich, so sind sie inzwischen durch Skalierung im optischen Frequenzbereich angelangt. Es wird daran gearbeitet, verlustarme Volumenmaterialien zu bauen. Konkrete Anwendungen gibt es bereits im Mikrowellenbereich. Es ist z. B. möglich, kompakte Koppler oder Leckwellenantennen zu bauen. Auch ist eine Tarnkappe realisiert worden. Die weiteren potenziellen Anwendungsgebiete im optischen Frequenzbereich sind weitreichend. Es ist möglich, das Licht auf unkonventionelle Art und Weise zu führen. Als Anwendungsbeispiel zu nennen sind hier die in dieser Arbeit vorgestellten Kopplungen mit photonischen Kristallen, die in photonischen integrierten Schaltkreisen als Schlüsselkomponenten eingesetzt werden können.
  • Thumbnail Image
    ItemOpen Access
    Agentenunterstütztes Engineering von Automatisierungsanlagen
    (2008) Wagner, Thomas; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Im Zuge des fortschreitenden globalen Wettbewerbs kommt dem Standort Deutschland zunehmend die Rolle eines „Engineering“-Standorts denn eines Produktionsstandorts zu. Im Bereich der Anlagenautomatisierung werden unter dem Begriff Engineering die Arbeitsprozesse und Tätigkeiten beim technischen Entwurf und der Auslegung von Automatisierungsanlagen zusammengefasst. Die Kosten für das Engineering hängen wesentlich von der Effizienz und Produktivität der menschlichen Arbeitsprozesse und der Qualität der resultierenden Engineeringinformationen ab. Dabei stellt neben methodischen und technologischen Aspekten die Beachtung der technischen Zusammenhänge zwischen den einzelnen Anlagenkomponenten eine große Herausforderung dar. Diese sind sehr vielfältig und für jede Automatisierungsanlage unterschiedlich ausgeprägt. Sie müssen daher im Zuge des Engineerings vollständig erfasst und aufeinander abgestimmt werden, was heute zum überwiegenden Teil manuell erfolgt und hohe Aufwendungen sowie zusätzliche Fehlermöglichkeiten mit sich bringt. Ausgehend von der modernen komponentenbasierten Vorgehensweise im Engineering und der Beschaffenheit der erstellten Engineeringinformationen wird in der vorliegenden Arbeit ein Ansatz vorgestellt, der zur informationstechnischen Unterstützung des Engineerings von Automatisierungsanlagen dient. Durch geeignete Konzepte wird eine deutliche Reduktion des manuellen Aufwandes und eine vereinfachte Durchführung der menschlichen Tätigkeiten ermöglicht. Dabei wird durch den Einsatz von Softwareagenten eine aktive Form der Unterstützung bereitgestellt, welche sich flexibel an den Ablauf der menschlichen Arbeitsprozesse anpasst. Das Konzept nutzt die vorhandenen Engineeringinformationen und bestehendes Wissen über technische Abhängigkeiten einzelner Komponenten und überträgt diese auf einzelne Softwareagenten. Auf dieser Basis agieren und kooperieren die Softwareagenten parallel zu den Tätigkeiten des Ingenieurs im Hintergrund. Sie sind in der Lage, die beim Engineering entstehenden technischen Zusammenhänge innerhalb der Automatisierungsanlage selbstständig zu erkennen, zu analysieren und geeignete Anpassungen der Engineeringinformationen zu ermitteln. Die Interaktion mit dem Ingenieur erfolgt in Form von entsprechenden Hinweisen und Lösungsvorschlägen, welche auf Wunsch von den Softwareagenten selbstständig umgesetzt werden können. Auf diese Weise werden die individuellen technischen Zusammenhänge einer Automatisierungsanlage bereits auf informationstechnischer Ebene berücksichtigt und ein Großteil der bisher erforderlichen manuellen Tätigkeiten und Überlegungen kann entfallen. Das Konzept wurde darüber hinaus so ausgelegt, dass es zu bisher verwendeten Komponentenmodellen und Werkzeugen kompatibel ist und sich problemlos in bestehende Engineeringprozesse integrieren lässt.
  • Thumbnail Image
    ItemOpen Access
    Using geographic models in the simulation of mobile communication
    (2008) Stepanov, Illya; Rothermel, Kurt (Prof. Dr. rer. nat. Dr. h. c.)
    Network simulation tools are frequently used for the performance analysis of mobile networks. Their common shortcoming lies within the approaches they use for the modeling of user mobility and radio wave propagation. The provided mobility models describe random movements within the area, which is similar to the motion of molecular particles. For the modeling of a radio channel, the tools assume a line of sight between communicating nodes, and thus, a simple dependency of the signal loss to the distance from the transmitter. These models poorly reflect real scenarios, in which the characteristics of the spatial environment have a significant impact on the network performance. In this thesis more realistic mobility and radio propagation models are described and integrated into a network simulation. These models are based on the solutions from related research areas like physics, transportation planning, traffic modeling, and electrical engineering, which have been validated against real-world data. They consider digital maps of the simulation area, which are taken from a geographic information system (GIS). This thesis analyzes common geospatial data standards to provide input to the used mobility and radio propagation models. The evaluations show significant differences between the simulation results obtained with simpler and more realistic models. It is caused by the changes in the distribution of network users due to their mobility in the area and the obstacles of the propagation environment, which simple models cannot reflect.
  • Thumbnail Image
    ItemOpen Access
    3D digital analysis of mammographic composition
    (2009) Lampasona, Constanza; Roller, Dieter (Prof. Dr.)
    Breast cancer represents the most frequent cancer within women. Besides clinical examination and self-examination, breast imaging plays a very important role in detecting breast cancer before tumors turn clinically visible. The mammography, a radiograph of the breast, is the most widespread test for the early detection of breast cancer. The images obtained through mammography are known as mammograms and they visualize the breast structure. The woman breast consists of fibroglandular and fatty tissue. Increased mammographic breast density, an increase of fibroglandular tissue, is a factor that influences the risk of becoming affected with breast cancer. Computer-based image analysis could help to find such abnormal changes in the breast tissues from digital mammograms. Full-field digital mammograms are acquired using an electronic detector and they are stored using the DICOM standard file format. In this thesis we first describe the image acquisition process, the DICOM file format as well as the conventional and digital mammography, together with its advantages for computer-based image processing. Former image processing methods and their application into mammograms were also studied. These methods include the measurement of area and volumetric mammographic breast density, the segmentation and the registration of mammograms and methods that could be applied to visualize the breast density. Based on the knowledge on the acquisition process, the DICOM file format and the former methods, computer-based image analysis methods were developed during this research project. All the methods were implemented in a software prototype to test them. The software architecture of the prototype is also shown in this thesis. The main contribution of this work is a new method for the measurement of volumetric breast density. This measurement of volumetric breast density consists in the interpretation of pixels gray levels from full-field digital mammograms to determine which combinations of tissues they represent. In order to be able to compare many images, after performing the measurements, the images are standardized and registered. From the breast composition and its changes, a conclusion could be reached in relation to a suspected cancer or an elevated breast cancer risk. Additionally, some image processing methods were developed to prepare the images for the analysis. These methods segment the mammogram into background, pectoral muscle and breast tissue. The information obtained from the analysis of the mammograms could also be used for the detection of microcalcifications and the skin line or breast border. The mammograms are then graphically shown using different two and three-dimensional views. The last chapters show the results of the computer-based image analysis of the full-filed digital mammograms using the software prototype, conclusions and future work.
  • Thumbnail Image
    ItemOpen Access
    Porous silicon for thin solar cell fabrication
    (2008) Tobail, Osama; Werner, Jürgen H. (Prof. Dr. rer. nat. habil.)
    The thesis on hand considers the preparation and the characterization of porous silicon for the fabrication of monocrystalline silicon thin layers and solar cells. The reduction of the solar cell thickness decreases the material consumption, offers the fabrication of mechanically flexible cells, and enhances the physical properties of solar cells. Therefore, the goal of this work is to fabricate free-standing thin monocrystalline silicon solar cells. The layer transfer process, which is based on a double layer of porous silicon, provides an economical production of thin film silicon solar cells with thicknesses d between d = 20 and d = 50 µm beneath foreign superstrates. The superstrate complicates both the further processing of the cell back side and the series connection of cells. This work develops a new technique for the integrated series connection from transfer cells. This technique is based on laser machining of the transfer cells after the transfer onto the superstrate. The resulted integrated module produces 0.74 W/g. As the transfer process quality depends mainly on porous silicon structural properties, this work presents a new non-destructive method to estimate the porosity of single as well as multi layer porous silicon systems through its optical properties by means of the white-light-interferometry. This thesis applies the new method in two applications: The first application is the study of the dissolution mechanism of silicon in hydrofluoric acid during anodization. The study shows that heavily doped p+-type wafers consume three holes, while lightly doped p-type wafers consume only two holes during porous silicon formation to dissolve one silicon atom. The number of consumed holes indicates the kind of the electrochemical reaction, by which silicon atoms dissolve during the anodization. The second application is the enhancement of the lateral homogeneity of porous silicon on 6" wafer to increase the yield of the layer transfer process. The measurements agree with the two dimensional conductive medium simulation of the etching cell. The experiments together with the simulation result in a new etching setup for porous silicon production. The new setup enhances the porous silicon lateral homogeneity by about 10 % and also increases the yield Y of the layer transfer process from Y = 30 % to Y = 70 %. This thesis introduces a new technique, which produces free-standing monocrystalline silicon thin-films. This technique uses the selective formation of porous silicon on different doped silicon. Porous silicon forms on p-type regions, while n-type regions on the same wafer act as a masking layer against the electrochemical reaction. Modeling the Si/electrolyte interface shows that n-type doped islands need a higher potential than p-type silicon to flow a certain current, and hence n-type regions act as a mask during porous silicon formation. Laser doping technique enables the simple patterning of different doped regions without the need of masking or high temperature annealing steps. This technique produces patterned buried continuous cavities beneath the epitaxy layer. Separation takes place by cutting the epitaxy layer at the cavity edges. A free-standing 47.6 µm thin solar cell with efficiency \eta = 17.0 % and an area A = 1.1 cm2 is achieved by a simple back side metallization on a back surface field layer. This work deepens the understanding of porous silicon formation mechanisms and offers a new characterization method of its structural properties. A comprehensive study of the well established layer transfer process and its disadvantages leads to a new technique producing free-standing thin monocrystalline silicon layers and solar cells.