05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 26
  • Thumbnail Image
    ItemOpen Access
    Interactive volume rendering in virtual environments
    (2003) Schulze-Döbold, Jürgen Peter; Ertl, Thomas (Prof. Dr.)
    This dissertation is about the interactive visualization of volume data in virtual environments. Only data on regular grids will be discussed. Research was conducted on three major topics: visualization algorithms, user interfaces, and parallelization of the visualization algorithms. Because the shear-warp algorithm is a very fast CPU-based volume rendering algorithm, it was investigated how it could be adapted to the characteristics of virtual environments. This required the support of perspective projection, as well as specific developments for interactive work, for instance a variable frame rate or the application of clipping planes. Another issue was the improvement of image quality by the utilization of pre-integration for the compositing. Concerning the user interface, a transfer function editor was created, which was tailored to the conditions of virtual environments. It should be usable as intuitively as possible, even with imprecise input devices or low display resolutions. Further research was done in the field of direct interaction, for instance a detail probe was developed which is useful to look inside of a dataset. In order to run the user interface on a variety of output devices, a device independent menu and widget system was developed. The shear-warp algorithm was accelerated by a parallelization which is based on MPI. For the actual volume rendering, a remote parallel computer can be employed, which needs to be linked to the display computer via a network connection. Because the image transfer turned out to be the bottleneck of this solution, it is compressed before being transferred. Furthermore, it will be described how all the above developments were combined to a volume rendering system, and how they were integrated into an existing visualization toolkit.
  • Thumbnail Image
    ItemOpen Access
    Universelle Fernservice-Infrastruktur für eingebettete Systeme
    (2003) Jazdi, Nasser; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Globalisierung ist ein Vorgang, durch den Märkte und Produktionen in verschiedenen Ländern immer mehr kooperieren, aber auch voneinander abhängig werden. Ursache hierfür ist die Dynamik des Handels mit Gütern und Dienstleistungen sowie die Bewegungen von Kapital und Technologie. Die Differenzierung erfolgt nicht mehr nur durch das Produkt selbst, sondern zunehmend durch dazugehörige Dienstleistungen, wie Wartung und Software-Updates. Die globale Bereitstellung solcher Dienstleistungen ist jedoch ein existentielles Problem für kleine und mittelständische Unternehmen. Das Internet als ein weltweiter Verbund von Computernetzwerken bietet eine globale Kommunikationsmöglichkeit für den Menschen. Computer mit Internet-Zugang werden zum festen Bestandteil jedes modernen Arbeitsplatzes, auch infolge der immer geringer werdenden Anschaffungskosten. Die mit dem Internet verbundenen Web-Technologien ermöglichen die weltweite, effektive und kostengünstige Bereitstellung von Dienstleistungen. Der Einsatz der Web-Tech-nologien beim Erbringen von Dienstleistungen für Automatisierungsprodukte und -anlagen verlangt jedoch neue, an die spezifischen Randbedingungen der Automatisierungssysteme zugeschnittene Konzepte. In der vorliegenden Arbeit wird eine flexible und erweiterbare Infrastruktur für den Einsatz von Web-Technologien in eingebetteten Systemen vorgestellt. Sie baut auf der bewährten Drei-Schichten-Architektur, bestehend aus dem eingebetteten System, dem universellen Fernzugriff-Server und dem Client, auf. Dabei wird eine systemübergreifende und allgemeingültige Schnittstelle für die Anbindung unterschiedlicher eingebetteter Systeme und den Zugriff auf deren Prozessdaten geschaffen. Das Verfahren ermöglicht außerdem ein flexibles Weiterverarbeiten der Gerätedaten, sodass sie für unterschiedliche Clients aufbereitet werden können. Um die Flexibilität - sowohl auf der Seite des eingebetteten Systems als auch beim Client - zu gewährleisten, wird eine neue, XML-basierte Beschreibungssprache (SDML) eingeführt. Die SDML-Dokumente beinhalten Informationen über angebundene eingebettete Systeme, abrufbare Gerätedaten und Präsentationsregeln für unterschiedliche Clients. Sie werden gerätespezifisch erstellt. Das vorgeschlagene Verfahren ermöglicht die Anbindung unterschiedlicher eingebetteter Systeme an das Internet bei minimalem Hardware- und Softwareaufwand. Die einmalig entwickelten Software-Komponenten des Fernzugriff-Servers können für unterschiedliche Geräte verwendet werden und tragen damit zur Senkung der Diagnose- und Wartungskosten bei. Der Anwender kann einen gewöhnlichen Browser für die Kommunikation mit seinem Gerät verwenden und braucht somit keine zusätzliche Software auf seinem lokalen Rechner zu installieren.
  • Thumbnail Image
    ItemOpen Access
    Ganzheitliche modellbasierte Sicherheitsanalyse von Prozessautomatisierungssystemen
    (2003) Biegert, Uwe; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Der Betrieb von Prozessautomatisierungssystemen ist immer mit einem gewissen Risiko verbunden. Ein Prozessautomatisierungssystem gilt dann als sicher, wenn das vorhandene Risiko zu keiner Zeit ein so genanntes Grenzrisiko überschreitet. Wird das Grenzrisiko überschritten, so droht Menschen und Umwelt unmittelbar ein Schaden. Mit Hilfe von Sicherheitsanalysen kann das vorhandene Risiko untersucht und abgeschätzt werden. Klassische Sicherheitsanalysen betrachten in der Regel nur einzelne Bestandteile eines Prozessautomatisierungssystems, welches aber im Allgemeinen aus drei verschiedenen Bestandteilen besteht: dem technischen System, dem Rechnersystem und dem Bedienpersonal. Was passiert aber, falls im technischen System ein Bauelement ausfällt, die Automatisierungssoftware Fehler enthält und zur gleichen Zeit das Bedienpersonal falsche Bedieneingriffe ausführt? Solche Fragen können mit klassischen Sicherheitsanalysen nur unzureichend beantwortet werden. Hinzu kommt, dass bei den meisten klassischen Sicherheitsanalysen die eigentliche Analyse des Systems in Form von Brainstorming-Prozessen durchgeführt wird. Dabei kann der Mensch niemals alle möglichen Kombinationen des Zusammenspiels zwischen den Bestandteilen überblicken und bewerten. In der vorliegenden Arbeit wird ein modellbasierter Ansatz zur Durchführung einer ganzheitlichen Sicherheitsanalyse vorgestellt, welche alle Bestandteile eines Prozessautomatisierungssystems berücksichtigt. Die Ausführung erfolgt rechnergestützt. Auf Grund der Komplexität von Prozessautomatisierungssystemen wird eine qualitative komponentenorientierte Modellierungsmethode gewählt. Die Systemgrößen werden durch qualitative Intervallvariablen beschrieben, wobei die definierten Intervallbereiche zusätzlich durch qualitative Ausdrücke kommentiert werden. Durch Kombination von Intervallbereichen entstehen kommentierte Situationen, die das Verhalten wiedergeben. Dabei wird sowohl der bestimmungsgemäße als auch der fehlerhafte Betrieb berücksichtigt. Anhand der Systemstruktur werden die Modelle der Bestandteile miteinander kombiniert, um alle möglichen Situationen des gesamten Prozessautomatisierungssystems zu erhalten. Anschließend werden die ermittelten sicherheitskritischen Situationen des Prozessautomatisierungssystems bewertet und es wird entschieden, ob Sicherheitsmaßnahmen notwendig sind. Durch das rechnergestützte Vorgehen lassen sich im Unterschied zu klassischen Methoden beliebig viele Fehlerkombinationen analysieren und damit Sicherheitslücken im Prozessautomatisierungssystem ermitteln. Das komplexe Zusammenspiel der Bestandteile wird mit Hilfe des qualitativen Modells transparent und analysierbar. Das Modell ist auf Grund seines qualitativen Charakters einfach anzuwenden und die Ergebnisse können leicht interpretiert werden.
  • Thumbnail Image
    ItemOpen Access
    Computational and logical aspects of infinite monoids
    (2003) Lohrey, Markus; Diekert, Volker (Prof. Dr.)
    The present work contains a treatise of several computational and logical aspects of infinite monoids. The first chapter is devoted to the word problem for finitely generated monoids. In particular, the relationship between the the computational complexity of the word problem and the syntactical properties of monoid presentations is investigated. The second chapter studies Cayley-graphs of finitely generated monoids under a logical point of view. Cayley-graphs of groups play an important role in combinatorial group theory. We will study first-order and monadic second-order theories of Cayley-graphs for both groups and monoids. The third chapter deals with word equations over monoids. Using the graph product operation, which generalizes both the free and the direct product, we generalize the seminal decidability results of Makanin on free monoids and groups to larger classes of monoids.
  • Thumbnail Image
    ItemOpen Access
    Integration von Data Mining und Online Analytical Processing : eine Analyse von Datenschemata, Systemarchitekturen und Optimierungsstrategien
    (2003) Schwarz, Holger; Mitschang, Bernhard (Prof. Dr.-Ing. habil.)
    Die technischen Möglichkeiten, Daten zu erfassen und dauerhaft zu speichern, sind heute so ausgereift, dass insbesondere in Unternehmen und anderen Organisationen große Datenbestände verfügbar sind. In diesen Datenbeständen, häufig als Data Warehouse bezeichnet, sind alle relevanten Informationen zu den Organisationen selbst, den in ihnen ablaufenden Prozessen sowie deren Interaktion mit anderen Organisationen enthalten. Vielfach stellt die zielgerichtete Analyse der Datenbestände den entscheidenden Erfolgsfaktor für Organisationen dar. Zur Analyse der Daten in einem Data Warehouse sind verschiedenste Ansätze verfügbar und erprobt. Zwei der wichtigsten Vertreter sind das Online Analytical Processing (OLAP) und das Data Mining. Beide setzen unterschiedliche Schwerpunkte und werden bisher in der Regel weitgehend isoliert eingesetzt. In dieser Arbeit wird zunächst gezeigt, dass eine umfassende Analyse der Datenbestände in einem Data Warehouse nur durch den integrierten Einsatz beider Analyseansätze erzielt werden kann. Einzelne Fragestellungen, die sich aus diesem Integrationsbedarf ergeben werden ausführlich diskutiert. Zu den betrachteten Fragestellungen gehört die geeignete Modellierung der Daten in einem Data Warehouse. Bei der Bewertung gängiger Modellierungsansätze fließen insbesondere die Anforderungen ein, die sich durch den beschriebenen Integrationsansatz ergeben. Als Ergebnis wird ein konzeptuelles Datenmodell vorgestellt, das Informationen in einer Weise strukturiert, die für OLAP und Data Mining gleichermaßen geeignet ist. Im Bereich der logischen Modellierung werden schließlich diejenigen Schematypen identifiziert, die die Integration der Analyseansätze geeignet unterstützen. Im nächsten Schritt sind die für Data Mining und OLAP unterschiedlichen Systemarchitekturen Gegenstand dieser Arbeit. Deren umfassende Diskussion ergibt eine Reihe von Defiziten. Dies führt schließlich zu einer erweiterten Systemarchitektur, die die Schwachstellen beseitigt und die angestrebte Integration geeignet unterstützt. Die erweiterte Systemarchitektur weist eine Komponente zur anwendungsunabhängigen Optimierung unterschiedlicher Analyseanwendungen auf. Ein dritter Schwerpunkt dieser Arbeit besteht in der Identifikation geeigneter Optimierungsansätze hierfür. Die Bewertung der Ansätze wird einerseits qualitativ durchgeführt. Andererseits wird das Optimierungspotenzial der einzelnen Ansätze auch auf der Grundlage umfangreicher Messreihen gezeigt.
  • Thumbnail Image
    ItemOpen Access
    Validierung komponentenbasierter Software für Echtzeitsysteme
    (2003) Fleisch, Wolfgang; Göhner, Peter (Prof. Dr.-Ing. Dr. h.c.)
    Der Anteil und die Bedeutung von Software bei der Entwicklung von Echtzeitsystemen wächst sehr stark. Gleichzeitig werden die Entwicklungszyklen für Software-Produkte zunehmend kürzer, was sich immer häufiger in ausgelieferter fehlerhafter Software widerspiegelt. Durch die Verwendung vorgefertigter Software-Komponenten kann nach dem Baukastenprinzip bei der Konstruktion neuer Produkte die Produktivität und die Qualität erheblich gesteigert werden. Aber auch wenn durch den Einsatz geprüfter, betriebsbewährter Software-Komponenten viele Fehler vermieden werden, muss eine aus Komponenten zusammengesetzte Software auch in Zukunft mit geeigneten Prüfverfahren validiert werden, weil beim Zusammenspiel der Komponenten weiterhin Fehler entstehen können. In der vorliegenden Arbeit wird dazu ein Prüfverfahren zur Validierung komponentenbasierter Software für Echtzeitsysteme entwickelt, das das dynamische Verhalten von komponentenbasierter Software gegenüber den Anforderungen aus Anwendersicht überprüft. Die Anforderungen werden zu Beginn der komponentenbasierten Softwareentwicklung als Anwendungsfälle spezifiziert. Mit Hilfe von erweiterten UML Sequenzdiagrammen werden die Anwendungsfälle systematisch in eine formale, automatisiert prüfbare Notation überführt, die auch die Spezifikation von Echtzeitanforderungen explizit unterstützt. Da beim Entwurf von komponentenbasierter Software bereits vollständig spezifizierte Software-Komponenten verwendet werden, kann das Verhalten schon in der frühen Entwurfsphase mit Hilfe von Simulation validiert werden. Die Verwendung von Simulation hat den Vorteil, dass auch ohne die in der Praxis meist spät verfügbaren Bestandteile des technischen Prozesses und des Automatisierungsrechnersystems eine Prüfung des simulierten Verhaltens der komponentenbasierten Software durchgeführt werden kann. Anhand festgelegter Prüfkriterien wird dann das simulierte Verhalten der komponentenbasierten Software gegenüber dem in den Anwendungsfällen spezifizierten Verhalten geprüft, um damit frühzeitig Fehler aufzudecken. Eine im Rahmen der Arbeit realisierte Validierungsumgebung unterstützt den Softwareentwickler dabei umfassend, angefangen bei der Spezifikation von prüfbaren Anwendungsfällen, bis hin zur automatisierten Prüfung des simulierten Verhaltens. Die Leistungsfähigkeit des Prüfverfahrens und der Validierungsumgebung werden abschließend am Beispiel der Entwicklung und Validierung einer komponentenbasierten Software für eine Kfz-Scheibenwischeranlage demonstriert.
  • Thumbnail Image
    ItemOpen Access
    Direct volume visualization of geometrically unpleasant meshes
    (2003) Kraus, Martin; Ertl, Thomas (Prof. Dr.)
    Interactive volume visualization (i.e., the visualization of scalar data defined on volumetric meshes in real time) is not only difficult to achieve for large meshes but it is also complicated by particular geometric features of volumetric meshes, e.g., non-uniform cells, non-convex boundaries, or visibility cycles. This thesis addresses several of these geometric features and their unpleasant consequences with respect to direct volume visualization, which is one of the most successful techniques for interactive volume visualization. In order to overcome, or at least alleviate, these difficulties, several new algorithmic solutions are presented: pre-integrated cell projection and hardware-assisted ray casting for non-uniform meshes, edge collapses in non-convex meshes, cell sorting and cell projection for non-convex and cyclic meshes, as well as texture-based pre-integrated volume rendering, topology-guided downsampling, and adaptive volume textures for non-simplicial volumetric meshes (i.e., non-tetrahedral meshes). As this work cannot cover all geometrically unpleasant features of volumetric meshes, particular emphasis is put on a description of the development of the proposed algorithms. In fact, most of the presented techniques are (or may be interpreted as) generalizations, adaptations, or extensions of existing methods. The intention of explaining these origins is to motivate new solutions for those geometrically unpleasant features of meshes that were out of the scope of this work.
  • Thumbnail Image
    ItemOpen Access
    Identifikation und Prädiktion von Fehlern bei Käfigläufer-Niederspannungs-Normmotoren
    (2003) Haug, Christoph; Gutt, Hans-Joachim (Prof. Dr.)
    In dieser Arbeit wird die Entwicklung eines Diagnosesystems für Käfigläufer-Niederspannungs-Normmotoren beschrieben. Dabei wurde insbesondere versucht ein System zu entwickeln, welches den niederen Kosten dieser IEC-Normmotoren gerecht wird und mit möglichst wenig Aufwand realisiert werden kann. Dazu gehört, dass dieses Diagnosesystem ohne eine Strommessung auskommt und die entwickelten und verwendeten Komponenten für sämtliche Baugrößen Verwendung finden können. Ausgehend von einer Anwenderbefragung wurde ein Systemkonzept für solch ein Diagnosesystem ausgearbeitet. Dabei wurde versucht die Vorschläge und Wünsche als Ergebnis dieser Umfrage zu berücksichtigen. Weiterhin wurden bei der Konzeption die Bedürfnisse der Motorhersteller in Betracht gezogen und die Ergebnisse der Untersuchung der zu diagnostizierenden Normmotoren integriert. Anhand der Systemkonzeption wurde eine Hardware realisiert, welche über Sensoren den Motorzustand erfasst, auswertet und die Ergebnisse an einen Prozessrechner oder Visualisierungsrechner, z. B. als Alarmmeldungen, über einen Feldbus weitergibt. Weiterhin ist es möglich Alarme direkt am Gerät visuell auszugeben. Zur Diagnose der Sensormesswerte wurden Algorithmen entwickelt und als Software unter einem Echtzeitbetriebssystem implementiert. Dabei wurde auf Modularität und die Möglichkeit späterer Erweiterungen wert gelegt. Insbesonders wurden bei der Diagnose des Motorzustandes die Motorvibrationen am Motorlager und am Klemmenkasten der Maschine mittels piezokeramischer und mikromechanischer Beschleunigungssensoren untersucht. Dabei können bei einer Vibrationsmessung am Klemmenkasten die Verhältnisse im Luftspaltfeld analysiert werden. Weiterhin wurde versucht die Werte von Drehmoment und Motorstrom möglichst genau durch Auswertung der zur Verfügung gestellten Messsignale nachzubilden und so dem Benutzer und weiteren Analysealgorithmen zur Verfügung zu stellen.
  • Thumbnail Image
    ItemOpen Access
    Methode zur Bestimmung der Adatomkonzentration von Dotierstoffen
    (2003) Oehme, Michael; Kasper, Erich (Prof. Dr. phil.)
    Die vorliegende Arbeit beschreibt eine neue Methode für die Untersuchung der Oberflächensegregation von Dotierstoffen und diese basiert auf einer definierten Epitaxiesequenz. Das Wachstum dieser Schichtsysteme erfolgt mit der Methode der Molekularstrahlepitaxie. Mit einer ex-situ Tiefenprofilanalyse wird die Oberflächenkonzentration berechnet und die zugehörige Volumenkonzentration der Dotieratome direkt bestimmt. Dieses Experiment findet besonders Anwendung für Dotierstoffe mit einer Segregationsweite im Bereich einiger Nanometer, bei der übliche Verfahren versagen. Die Wachstumsparameter Siliziumrate und Dotierfluß werden innerhalb einer Probe konstant gehalten. Nur die Wachstumstemperatur wird während des Prozesses definiert geändert. Eine anschließende Schichtanalyse mißt die Tiefenverteilung der absoluten Konzentration der Dotieratome. Durch die definierten Temperatursprünge entsteht ein Konzentrationsprofil, aus dem sich zu jedem Sprung die zugehörige relative Änderung der Oberflächenkonzentration der Dotieradatome ermitteln läßt. Bei geeigneter Wahl der Referenztemperatur können sogar die zur Untersuchungstemperatur zugehörigen absoluten Konzentrationen der Adatome des Dotierstoffs bestimmt werden. Zusätzlich liefert die Tiefenprofilanalyse die zugehörige Volumenkonzentration. Aus diesen beiden Meßwerten berechnet sich die Segregationsweite. Am Beispiel der Dotierung des Elements Bor in Silizium mit einer (100) Oberfläche wird das Basisexperiment in seiner Anwendung ausführlich demonstriert. Zu jeder Gleichgewichtsdotierung in Abhängigkeit der Wachstumstemperatur läßt sich die zugehörige Adatomkonzentration bestimmen. Diese neue Methode liefert Daten für die Erzeugung eines scharfen Dotierprofils, indem vor dem Schichtwachstum die notwendige Borvorbelegung aufgelegt wird. Der Einfluß von Siliziumionen auf die Segregationseigenschaften bei der Dotierung von Silizium mit Bor wird mit dem Basisexperiment untersucht. Dabei ergibt sich eine Erhöhung der Oberflächenkonzentration der Boradatome nur durch das angelegte Substratpotential ab einer Spannung von 200 V. Der Ionenbeschuß vergrößert somit die Segregationsweite. Weiterhin läßt sich unter diesen Bedingungen auch eine Konzentrationsabhängigkeit der Borsegregation nachweisen. In weiteren Experimenten wird die Temperaturabhängigkeit der Segregation und der maximale Einbau von Bor in Silizium untersucht. Als zweite Anwendungsmöglichkeit des Basisexperiments werden die Segregationseigenschaften von Kohlenstoff im Material Silizium analysiert. In der aktuellen Forschung gewinnt das Materialsystem Silizium-Germanium mit einem geringen Anteil an Kohlenstoff, welcher im Dotierkonzentrationsbereich liegt, immer mehr an Bedeutung. Die Segregationseigenschaften dieses Systems sind bisher kaum untersucht worden. Jedoch bietet das Basisexperiment dafür die idealen Voraussetzungen. In dieser Arbeit wird die Segregation der Elemente Bor und Kohlenstoff im Materialsystem Silizium-Germanium mit Germaniumgehalten von 20% und 33% untersucht. Abschließend wird das Wachstum zweier spezieller Bauelementstrukturen vorgestellt, bei denen die Ergebnisse des Basisexperiments für die benötigten scharfen Dotierprofile eingesetzt werden.
  • Thumbnail Image
    ItemOpen Access
    Messsysteme zur Untersuchung einer möglichen Beeinflussung des Menschen durch elektromagnetische Felder
    (2003) Waldmann, Jan; Landstorfer, Friedrich (Prof. Dr.-Ing. habil.)
    Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Charakterisierung von Mess-systemen zur Bestimmung einer möglichen Beeinflussung des menschlichen Körpers durch elektromagnetische Felder. Exemplarisch werden anhand von drei Beispielen Messsysteme vorgestellt, mit deren Hilfe diese mögliche Beeinflussung untersucht werden kann. Dabei werden neben thermischen Wirkungen elektromagnetischer Wellen, also der Erwärmung des Gewebes auf Grund absorbierter Feldenergie, auch nicht-thermische Wirkungen, d.h. direkte Wirkungen elektromagnetischer Felder auf den menschlichen Organismus, und Wirkungen auf medizinische Hilfsgeräte (z.B. implantierte Herzschrittmacher) untersucht. Nach einer Einführung in Kapitel 1 wird im Kapitel 2 eine grundsätzliche Beschreibung elektromagnetischer Felder und Wellen entwickelt, aus der die für diese Arbeit relevanten Eigenschaften elektromagnetischer Felder abgeleitet werden. Es werden die Zusammenhänge zwischen Nah- und Fernfeldern dargestellt sowie die Beschreibungen dieser Felder für messtechnische Zwecke. Mit dieser für Messungen geeigneten Beschreibung elektromagnetischer Felder und Wellen im Hochfrequenzbereich (in dieser Arbeit werden nur Frequenzen oberhalb von 1 MHz betrachtet) werden in Kapitel 3 nationale und internationale Vorschriften und Normen zusammengefasst, die für die weitere Betrachtung von Wirkungen elektromagnetischer Wellen auf den Menschen von Bedeutung sind. Ebenso wird die Methode der Ersatzfeldstärken erläutert und im Zusammenhang mit normativen Vorgaben diskutiert. Ausgehend von der grundsätzlichen Beschreibung elektromagnetische Felder und Wellen und den Forderungen, die sich aus den entsprechenden Normen und Vorschriften ergeben, werden in den sich anschliessenden Kapiteln Messsysteme und Messungen vorgestellt, mit denen eine mögliche Beeinflussung des Menschen durch elektromagnetische Felder bestimmt werden sollen. Gemäß der Unterteilung möglicher Wirkungen in thermische und nicht-thermische sowie Wirkungen auf Medizingeräte, die wiederum direkt den Menschen beeinflussen, wird in den Kapiteln 4 und 5 ein Messsystem entwickelt, mit dessen Hilfe einfach und genau elektrische und magnetische Feldstärken gemessen werden können. Mit diesem Messsystem können genaue Informationen über die Art und v.a. die Stärke der möglicherweise gefährdenden elektromagnetischen Felder gewonnen werden und damit die thermische Wirkungen auf den Menschen ermittelt und gegebenenfalls vermieden werden. Besonderes Augenmerk wird neben der technischen Realisierung eines normgemäßen Messvorgangs auch auf eine mögliche Beeinflussung des Messvorgangs und des Messergebnisses durch den Anwender und das zu messende Signal selbst gelegt. Als Beispiel eines Messsystems zur Bestimmung des Einflusses elektromagnetischer Felder auf Medizingeräte wird in Kapitel 6 ein im Menschen implantierter Herzschrittmacher untersucht. Dabei steht der Vorgang der Störeinkopplung eines äußeren Feldes in den im Menschen implantierten Herzschrittmacher im Vordergrund. Die tatsächliche Störbeeinflussung der Herzschrittmacher-Steuerung und die daraus resultierende mögliche Beeinflussung oder gar die Gefährdung des Herzschrittmacherpatienten muss jedoch auch von medizinischer Seite bewertet werden und wird in dieser Arbeit nicht untersucht. Abschliessend wird in Kapitel 7 ein Messsystem bzw. ein Messaufbau vorgestellt, mit dem versucht wird, nicht-thermische Wirkungen von höchstfrequenten Signalen (77 GHz) auf den Menschen und speziell das vegetative Nervensystem zu untersuchen. Neben den eingesetzten Messsystemen werden auch die Ergebnisse der durchgeführten Untersuchungen präsentiert und diskutiert.