05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 39
  • Thumbnail Image
    ItemOpen Access
    Effiziente Leistungsverstärkerarchitekturen für Mobilfunkbasisstationen
    (2009) Dettmann, Ingo; Berroth, Manfred (Prof. Dr.-Ing.)
    Heutige Kommunikationsstandards erfordern Modulationsverfahren, welche die Information sowohl in der Phase als auch in der Amplitude des Trägers modulieren. Die daraus resultierenden Signale weisen hohe Amplitudenschwankungen auf. Die dafür notwendigen linearen Leistungsverstärker zeigen jedoch geringe Effizienzen. In der vorliegenden Arbeit werden zunächst die Anforderungen an Leistungsverstärker diskutiert und der Einfluss der Modulations- und Zugriffsverfahren untersucht. Anschließend werden die Anforderungen an den Transistor definiert und die Anforderungen an die Technologie formuliert. Es folgt eine Untersuchung der Betriebsarten von Verstärkern, welche die Grundlage für effizienzsteigernde Verstärkerarchitekturen bilden. Lineare Verstärker wie Klasse-A-, -AB- und -B-Verstärker zeigen eine hohe Linearität, die Effizienz fällt aber unterhalb der maximalen Ausgangsleistung schnell ab. Schaltverstärker wie Klasse-D- und -E-Verstärker sind zwar sehr effizient, können aber keine amplitudenmodulierten Signale verstärken. Es werden vier Methoden diskutiert, um die Effizienz unterhalb der maximalen Ausgangsleistung zu erhöhen: Der Doherty-Verstärker, der Chireix-Verstärker, die Versorgungsspannungsmodulation und der Bandpass-Klasse-S-Verstärker. Der Doherty-Verstärker bietet eine einfache Möglichkeit, die Effizienz auch unterhalb der maximalen Ausgangsleistung zu erhöhen. Das Prinzip beruht auf der Variation der Lastimpedanzen. Zwei Verstärker - ein Hauptverstärker und ein Spitzenverstärker - treiben dabei den gleichen Lastwiderstand. Der Spitzenverstärker wird nur bei hohen Ausgangsleistungen eingeschaltet und verändert das Kompressionsverhalten des Hauptverstärkers. Beim entworfenen Doherty-Verstärker erhöht sich die Effizienz 7 dB unterhalb der maximalen Ausgangsleistung von 15 % auf etwas über 27 %. Die maximale Ausgangsleistung reduziert sich allerdings von 85 W auf 56 W. Durch eine adaptive Arbeitspunktregelung des Spitzenverstärkers kann die Ausgangsleistung wieder auf 85 W erhöht werden. Die Effizienz steigt dabei nochmals um 5 % auf 32 %. Der Chireix-Verstärker basiert auf dem Prinzip der linearen Verstärkung durch nichtlineare Komponenten. Das zu verstärkende amplituden- und phasenmodulierte Signal wird durch einen Phasenmodulator in zwei gegenphasige Signale mit konstanter Amplitude aufgeteilt. Diese beiden Signale werden über hocheffiziente Verstärker verstärkt. Das ursprüngliche Signal wird durch Summation der beiden Signale wieder demoduliert. Eine Effizienzsteigerung erfolgt unter Verwendung von nichtisolierenden Summierern. Die Effizienzsteigerung beruht dabei auf der Variation der Lastgeraden. Der aufgebaute Chireix-Verstärker basiert auf dem GaAs-Transistor MRFG35010 von Freescale. Die Einzelverstärker werden im Klasse-B-Betrieb betrieben und haben eine maximale Ausgangsleistung von 5 W bei einer Frequenz von 2 GHz. Die Gesamtleistung ergibt sich damit zu 10 W. Die Effizienz beträgt maximal 52 %. Die Effizienz beim Chireix-Verstärker erhöht sich 7 dB unter der maximalen Ausgangsleistung von 25 % auf 32 % und bei 5 dB unter der maximalen Ausgangsleistung von 33 % auf 44 %. Die Versorgungsspannungsmodulation variiert die Drain- bzw. Kollektorspannung eines Verstärkers in Abhängigkeit der Aussteuerung des Transistors. Es ist das einzige untersuchte Verstärkerkonzept, welches mit allen Verstärkerklassen funktioniert. Es ist auch das einzige Konzept, welches die Bandbreite des HF-Verstärkers nicht einschränkt, solange der erforderliche Spannungsmodulator der Einhüllenden des HF-Signals folgen kann. Die Effizienz berechnet sich aus der Verkettung der Effizienzen des HF-Verstärkers und des Spannungsmodulators. Ein Verstärker auf Basis des GaAs-Transistors MRFG350101 wurde aufgebaut, dessen Versorgungsspannung über einen Klasse-AD-Verstärker geregelt wird. Die maximale Ausgangsleistung des Verstärkers beträgt 6.3 W bei einer Effizienz von 67 %. Die Versorgungsspannung wird im Bereich von 6 V - 12 V geregelt. Die Effizienz 7 dB unter der maximalen Ausgangsleistung steigt dabei von 30 % auf 44 %. Die Bandbreite des Modulators ist dabei größer als 3 MHz. Bandpass-Klasse-S-Verstärker verwenden Schaltverstärker, um ein analoges Signal hocheffizient zu verstärken. Das analoge Eingangssignal wird über einen Modulator in eine binäre Pulsfolge gewandelt, welche über einen Schaltverstärker effizient verstärkt wird. Anschließend wird das verstärkte Signal wieder demoduliert. Bandpass-Delta-Sigma-Modulatoren (BPDSM) stellen ein vielversprechendes Modulationsverfahren dar. Als Schaltverstärker können sowohl Klasse-D- Verstärker verwendet werden. Erstmals werden in dieser Arbeit analytische Untersuchungen zur Effizienz von sowohl nichtinvertierten als auch invertierten Klasse-D-Verstärkern bei Ansteuerung mit BPDSM-Signalen durchgeführt. Dies erlaubt eine Abschätzung der Effizienz von Bandpass-Klasse-S-Verstärkern unter Verwendung von Klasse-D-Verstärkern.
  • Thumbnail Image
    ItemOpen Access
    Deep learning based prediction and visual analytics for temporal environmental data
    (2022) Harbola, Shubhi; Coors, Volker (Prof. Dr.)
    The objective of this thesis is to focus on developing Machine Learning methods and their visualisation for environmental data. The presented approaches primarily focus on devising an accurate Machine Learning framework that supports the user in understanding and comparing the model accuracy in relation to essential aspects of the respective parameter selection, trends, time frame, and correlating together with considered meteorological and pollution parameters. Later, this thesis develops approaches for the interactive visualisation of environmental data that are wrapped over the time series prediction as an application. Moreover, these approaches provide an interactive application that supports: 1. a Visual Analytics platform to interact with the sensors data and enhance the representation of the environmental data visually by identifying patterns that mostly go unnoticed in large temporal datasets, 2. a seasonality deduction platform presenting analyses of the results that clearly demonstrate the relationship between these parameters in a combined temporal activities frame, and 3. air quality analyses that successfully discovers spatio-temporal relationships among complex air quality data interactively in different time frames by harnessing the user’s knowledge of factors influencing the past, present, and future behaviour with Machine Learning models' aid. Some of the above pieces of work contribute to the field of Explainable Artificial Intelligence which is an area concerned with the development of methods that help understand, explain and interpret Machine Learning algorithms. In summary, this thesis describes Machine Learning prediction algorithms together with several visualisation approaches for visually analysing the temporal relationships among complex environmental data in different time frames interactively in a robust web platform. The developed interactive visualisation system for environmental data assimilates visual prediction, sensors’ spatial locations, measurements of the parameters, detailed patterns analyses, and change in conditions over time. This provides a new combined approach to the existing visual analytics research. The algorithms developed in this thesis can be used to infer spatio-temporal environmental data, enabling the interactive exploration processes, thus helping manage the cities smartly.
  • Thumbnail Image
    ItemOpen Access
    Efficient modeling and computation methods for robust AMS system design
    (2018) Gil, Leandro; Radetzki, Martin (Prof. Dr.-Ing.)
    This dissertation copes with the challenge regarding the development of model based design tools that better support the mixed analog and digital parts design of embedded systems. It focuses on the conception of efficient modeling and simulation methods that adequately support emerging system level design methodologies. Starting with a deep analysis of the design activities, many weak points of today’s system level design tools were captured. After considering the modeling and simulation of power electronic circuits for designing low energy embedded systems, a novel signal model that efficiently captures the dynamic behavior of analog and digital circuits is proposed and utilized for the development of computation methods that enable the fast and accurate system level simulation of AMS systems. In order to support a stepwise system design refinement which is based on the essential system properties, behavior computation methods for linear and nonlinear analog circuits based on the novel signal model are presented and compared regarding the performance, accuracy and stability with existing numerical and analytical methods for circuit simulation. The novel signal model in combination with the method proposed to efficiently cope with the interaction of analog and digital circuits as well as the new method for digital circuit simulation are the key contributions of this dissertation because they allow the concurrent state and event based simulation of analog and digital circuits. Using a synchronous data flow model of computation for scheduling the execution of the analog and digital model parts, very fast AMS system simulations are carried out. As the best behavior abstraction for analog and digital circuits may be selected without the need of changing component interfaces, the implementation, validation and verification of AMS systems take advantage of the novel mixed signal representation. Changes on the modeling abstraction level do not affect the experiment setup. The second part of this work deals with the robust design of AMS systems and its verification. After defining a mixed sensitivity based robustness evaluation index for AMS control systems, a general robust design method leading to optimal controller tuning is presented. To avoid over-conservative AMS system designs, the proposed robust design optimization method considers parametric uncertainty and nonlinear model characteristics. The system properties in the frequency domain needed to evaluate the system robustness during parameter optimization are obtained from the proposed signal model. Further advantages of the presented signal model for the computation of control system performance evaluation indexes in the time domain are also investigated in combination with range arithmetic. A novel approach for capturing parameter correlations in range arithmetic based circuit behavior computation is proposed as a step towards a holistic modeling method for the robust design of AMS systems. The several modeling and computation methods proposed to improve the support of design methodologies and tools for AMS system are validated and evaluated in the course of this dissertation considering many aspects of the modeling, simulation, design and verification of a low power embedded system implementing Adaptive Voltage and Frequency Scaling (AVFS) for energy saving.
  • Thumbnail Image
    ItemOpen Access
    Agentenbasierte Konsistenzprüfung heterogener Modelle in der Automatisierungstechnik
    (2015) Rauscher, Michael; Göhner, Peter (Prof. Dr.-Ing. Dr. h.c.)
    Automatisierte bzw. mechatronische Systeme sind aus der heutigen Welt nicht mehr wegzudenken. Sowohl ein Großteil der technischen Produkte als auch die industrielle Produktion enthalten Elemente der Mechatronik. Sie ist eine Disziplin, die die klassischen Disziplinen des Maschinenbaus, der Elektrotechnik und der Informationstechnik in sich vereint. Um die gewinnbringende Zusammenarbeit dieser sehr unterschiedlichen Disziplinen zu gewährleisten, muss verschiedenen Herausforderungen begegnet werden. Die durch die verschiedenen Disziplinen bedingte Verwendung heterogener Modelle ist dabei eine große Fehlerquelle beim Entwurf mechatronischer Systeme. Inkonsistenzen zwischen den einzelnen Modellen, die erst spät im Entwurfsprozess aufgedeckt werden, erfordern großen Aufwand zur Behebung und gefährden die Qualität der entwickelten Produkte. Auf Grund der Heterogenität der Modelle, ist eine automatisierte Prüfung der Modelle auf Inkonsistenzen nicht möglich. Die manuelle Abstimmung zwischen den Disziplinen und Modellen kosten die Entwickler jedoch viel Zeit im Entwicklungsprozess und sie können sich nicht vollständig auf ihre eigentliche, kreative und gewinnbringende Arbeit konzentrieren. Deshalb ist die Unterstützung der Entwickler bei der Prüfung der Modelle notwendig, um die Entwicklungskosten zu reduzieren und die Produktqualität zu steigern. In der vorliegenden Arbeit wird ein Konzept zur automatisierten Konsistenzprüfung für heterogene Modelle vorgestellt, das in der Lage ist, Inkonsistenzen aufzudecken und den Entwicklern alle zu deren Auflösung verfügbaren Informationen bereitzustellen. Das Konzept basiert darauf, die heterogenen Modelle und deren Inhalt auf eine globale, modellübergreifende Ebene zu abstrahieren und dort zu interpretieren und zu prüfen. Dies wird erreicht, indem jedes Modell, genauer jeder Modelltyp, eine (lokale) Beschreibung erhält, in der die Struktur und die Bedeutung der Syntax des Modelltyps enthalten sind. Das zur Prüfung erforderliche Wissen in Form von Fakten, Zusammenhängen und daraus abgeleiteten Regeln ist allgemeingültig verfasst und befindet sich auf der globalen Ebene. Benutzerspezifisch können zu prüfende Regeln ergänzt werden. Die lokalen und die globale Wissensbasen werden in Form von Ontologien realisiert. Die Prüfung selbst wird mit Hilfe eines Softwareagentensystems durchgeführt. Die Grundidee der agentenorientierten Konsistenzprüfung ist es, jedes beteiligte Modell mit einem Modellagenten zu repräsentieren, der als Schnittstelle zwischen lokaler und globaler Ebene fungiert. Ein Ontologieagent leitet die Regeln aus der globalen Wissensbasis ab. Regelagenten führen die Prüfung der Modelle auf die Einhaltung der Regeln aus. Ein Koordinierungsagent stößt die Prüfung an, koordiniert diese und verwaltet die Ergebnisse. Dem Entwickler werden diese Ergebnisse am Ende einer Prüfung präsentiert und alle Informationen, die zu einem positiven oder negativen Ergebnis geführt haben, bereitgestellt. Er kann die aufgedeckten Inkonsistenzen anschließend gezielt beheben und wird so bei seiner Tätigkeit unterstützt. Gleichzeitig wird die Qualität der mechatronischen Systeme gesteigert, indem die möglichen Fehlerquellen reduziert werden.
  • Thumbnail Image
    ItemOpen Access
    Direction of arrival estimation using a multiple-input-multiple-output radar with applications to automobiles
    (2017) Rambach, Kilian; Yang, Bin (Prof. Dr.-Ing.)
    The thesis at hand investigates the direction of arrival (DOA) estimation using a Multiple-Input-Multiple-Output (MIMO) radar system. The application of MIMO radars in automobiles is studied. A MIMO radar consists of several transmitting (Tx) and receiving (Rx) antennas. We focus on a time division multiplexed (TDM) MIMO radar with colocated Tx and Rx antennas. The motivation is the use of a radar as a security system in automotive applications, e.g. to identify a dangerous situation and react automatically. Security systems must be very reliable. Hence, besides a good estimation of the distance and velocity, a high performance in DOA estimation is necessary. This is a demanding task, since only a small number of antennas is used and the radar is limited to a small geometrical size. Compared to the corresponding Single-Input-Multiple-Output (SIMO) radar, a MIMO radar with colocated antennas can achieve a higher accuracy in DOA estimation due to its larger virtual aperture. Therefore it is a promising technique for the use in automobiles. The obtained results of this thesis enable us to find optimal TDM schemes which yield a very high DOA accuracy for targets which are stationary as well as for targets which are moving relative to the radar system. The results are not confined to MIMO radars in automobiles, but can be used in other applications as well.
  • Thumbnail Image
    ItemOpen Access
    Investigations of the error resilient rate distortion optimization for H.264 video transport over packet lossy channels
    (2010) Zeng, Hao; Speidel, Joachim (Prof. Dr.-Ing.)
    This dissertation first presents a rigorous analysis of the rate-distortion optimization (RDO) framework in H.264 and other similar video coding standards. The analysis is based on the rate-distortion theory and provides a deep theoretical insight into the RDO practice. In the analysis, the crucial assumptions and models on which the RDO is based, are formulated and discussed. Then the validity of deploying the RDO in error resilient video encoding is analyzed. Finally, the dissertation proposes and investigates two modification schemes to the error resilient RDO (ER-RDO) framework in the H.264 reference codec. The schemes are inspired by the aforementioned analyses and seek to find better complexity-performance balance points. The simulation results suggest that the performance of the existing H.264 ER-RDO framework has already been highly optimized. On the other side, algorithm complexity reduction is still possible using one of the proposed schemes.
  • Thumbnail Image
    ItemOpen Access
    Laser doping for silicon solar cells : modeling and application
    (2024) Hassan, Mohamed; Werner, Jürgen H. (Prof. Dr. rer. nat. habil.)
    In meiner Dissertation geht es um die Simulation des Laserdotierungsprozess der Oberfläche des Siliziumwafers um hoch effizienten Solarzellen herzustellen. Die Simulation ermöglicht die genaue Vorhersage der Dimensionen eines dotierten Bereiches. Das hat ermöglicht, nicht nur die Abhängigkeit des ergebenden Schichtleitwerts von der benutzten Rastergeschwindigkeit des Laserstrahls auf die Siliziumoberfläche zu verstehen, sondern auch der Schichtleitwert einer laserdotierten Schicht basierend auf ein einfaches geometrisches Modell vorherzusagen.
  • Thumbnail Image
    ItemOpen Access
    Der Germanium-Zener-Emitter für die Silizium-Photonik
    (2020) Körner, Roman; Schulze, Jörg (Prof. Dr. habil.)
  • Thumbnail Image
    ItemOpen Access
    Implications of the uncanny valley of avatars and virtual characters for human-computer interaction
    (2018) Schwind, Valentin; Henze, Niels (Prof. Dr.)
    Technological innovations made it possible to create more and more realistic figures. Such figures are often created according to human appearance and behavior allowing interaction with artificial systems in a natural and familiar way. In 1970, the Japanese roboticist Masahiro Mori observed, however, that robots and prostheses with a very - but not perfect - human-like appearance can elicit eerie, uncomfortable, and even repulsive feelings. While real people or stylized figures do not seem to evoke such negative feelings, human depictions with only minor imperfections fall into the "uncanny valley," as Mori put it. Today, further innovations in computer graphics led virtual characters into the uncanny valley. Thus, they have been subject of a number of disciplines. For research, virtual characters created by computer graphics are particularly interesting as they are easy to manipulate and, thus, can significantly contribute to a better understanding of the uncanny valley and human perception. For designers and developers of virtual characters such as in animated movies or games, it is important to understand how the appearance and human-likeness or virtual realism influence the experience and interaction of the user and how they can create believable and acceptable avatars and virtual characters despite the uncanny valley. This work investigates these aspects and is the next step in the exploration of the uncanny valley. This dissertation presents the results of nine studies examining the effects of the uncanny valley on human perception, how it affects interaction with computing systems, which cognitive processes are involved, and which causes may be responsible for the phenomenon. Furthermore, we examine not only methods for avoiding uncanny or unpleasant effects but also the preferred characteristics of virtual faces. We bring the uncanny valley into context with related phenomena causing similar effects. By exploring the eeriness of virtual animals, we found evidence that the uncanny valley is not only related to the dimension of human-likeness, which significantly change our view on the phenomenon. Furthermore, using advanced hand tracking and virtual reality technologies, we discovered that avatar realism is connected to other factors, which are related to the uncanny valley and depend on avatar realism. Affinity with the virtual ego and the feeling of presence in the virtual world were also affected by gender and deviating body structures such as a reduced number of fingers. Considering the performance while typing on keyboards in virtual reality, we also found that the perception of the own avatar depends on the user's individual task proficiencies. This thesis concludes with implications that not only extends existing knowledge about virtual characters, avatars and the uncanny valley but also provide new design guidelines for human-computer interaction and virtual reality.
  • Thumbnail Image
    ItemOpen Access
    Berührungslose Messung schnell veränderlicher Ströme
    (2014) Hudoffsky, Boris; Roth-Stielow, Jörg (Prof. Dr.-Ing.)
    Die berührungslose Strommessung wird im speziellen Anwendungsgebiet der Leistungselektronik bezüglich der Anforderungen an Messgeräte, des Stands der Technik und einem eigens entwickelten Messsystem behandelt. Die Herausforderung bei der Erfassung eines Stromverlaufs wird umso größer, je breitbandiger das Signal ist. Die für die Leistungselektronik typischen trapezförmigen Verläufe sind durch steile Flanken und dazwischenliegende Zeitabschnitte mit konstantem Strom gekennzeichnet. Sie enthalten neben dem Gleichanteil und der Grundschwingung viele hochfrequente Oberschwingungen. Für diese spezielle Signalform wird in dieser Arbeit der Zusammenhang zwischen erforderlicher Messgenauigkeit und benötigter Bandbreite eines Messsystems hergeleitet. Aus dieser Betrachtung kann eine Aussage darüber abgeleitet werden, welche Genauigkeit mit einem Messsystem bei angenommenem Tiefpassverhalten des Messgeräts erreicht werden kann. Andersherum kann eine Aussage darüber gemacht werden, welche Grenzfrequenz bei einer geforderten Genauigkeit notwendig ist. Aus hohen Anforderungen an die Genauigkeit resultiert bei trapezförmigem Signalverlauf eine große Bandbreite inklusive Gleichstrom. Nach dem Stand der Technik weisen direkt-abbildende und Nullfluss-geregelte Strommesssysteme PT1-Verhalten auf. Bei einer detaillierten Analyse etablierter Messsysteme wird festgestellt, dass die Kombination der Eigenschaften einer großen Bandbreite inklusive Gleichstromerfassung mit einer großen zulässigen Amplitude über den gesamten Frequenzbereich in einem Strommesssystem nicht gegeben ist. Diese Kombination ist allerdings für die breitbandige Strommessung besonders wichtig. Der Ansatz der stoßfreien Verkoppelung (HOKA-Prinzip) synthetisiert ein Messsystem aus zwei Sensoren: Gleichstrom und niederfrequente Ströme werden vom ersten Sensor (DC-Sensor), niederfrequente bis hochfrequente Ströme werden vom zweiten Sensor (AC-Sensor) erfasst. Dabei arbeiten die beiden Sensoren unabhängig voneinander und besitzen unterschiedliche Übertragungsfunktionen. Das Zusammenführen dieser zwei unterschiedlichen primären Sensoren führt zu einem breitbandigen Ausgangssignal. Bisher wurden zum HOKA-Prinzip keine Lösungen als zu öffnende Zange vorgestellt. Außerdem beschränken kommerzielle DC-Sensoren die Einsatzmöglichkeiten in Umgebungen mit großen Strömen bei hohen Frequenzen. Zur Vermeidung dieser Einschränkungen werden Lösungen vorgestellt und in Form eines Prototypen am Beispiel der Strommessung in der Leistungselektronik präsentiert. Die bisher vorhandene Technik zur Erfassung niederfrequenter Ströme stellt Messsysteme unterschiedlicher Genauigkeit bei einem weiten Bereich der maximal erfassbaren Amplitude zur Verfügung. Die berührungslosen Messverfahren, die für den DC-Sensor in Frage kommen, basieren auf der Erfassung des magnetischen Felds um einen Stromleiter, das in einem weichmagnetischen Kern gebündelt und über die Flussdichte ausgewertet wird. Dieser Kern kann in mancher Hinsicht die Messung negativ beeinflussen. Einerseits wird damit eine zusätzliche Induktivität in den zu messenden Stromkreis eingefügt, so dass die ursprünglichen Stromverläufe verändert werden. Andererseits können bei hochfrequenten Strömen so große Verluste im Kern entstehen, dass eine Messung nur kurz oder gar nicht möglich ist. Um die Verluste zu vermeiden und dennoch den Teil der gleichstromfähigen Erfassung für ein breitbandiges Messsystem zu erhalten, wird ein neues Konzept zur Gleichstrommessung vorgestellt. Die höherfrequenten Ströme werden mit einer Luftspule gemessen. Das neue Konzept beinhaltet die Messung des Magnetfelds um den stromführenden Leiter mit Induktionssensoren und verzichtet auf die Führung des magnetischen Flusses in einem Eisenkern. Den Induktionssensoren liegt der riesenmagnetoresistive- (GMR-) Effekt zu Grunde. Sie werden mit einer Biasspule vormagnetisiert und als Sensor-Spule-Kombination in einer ringförmigen Reihe um den zu messenden Leiter angeordnet. Ein Kanal des DC-Messsystems besteht neben der Kombination von Induktionssensor und Biasspule aus einer Ansteuer- und Auswerteschaltung. Mit dieser Technik wird ein Prototyp aufgebaut und im Betrieb untersucht. Zur Erfassung der höher- und hochfrequenten Ströme wird eine in Zangenform gewickelte Luftspule entworfen und aufgebaut. Die Ausgangssignale der beiden Sensoren werden über eine HOKA-Auswerteschaltung verkoppelt. Damit entsteht ein breitbandiges Strommesssystem als Zange ausgeführt, welches DC-Ströme von über 1000A messen kann. Der Frequenzbereich erstreckt sich bis über 10MHz, ebenfalls bei einer Amplitude von 1000A. Mit eigens aufgebauten Prüfplätzen werden neben der Untersuchung des neuen Strommesszangenkonzepts bestehende Strommesssysteme getestet. Die Eigenschaften der Messsysteme werden nach einem systematischen Vorgehen ermittelt, so dass ein qualitativer Vergleich der Geräte möglich ist.