05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 31
  • Thumbnail Image
    ItemOpen Access
    Performance Evaluation of Time-Based and Movement-Based Location Update Schemes
    (2006) Bachmaier, Sebastian
    In Personal Communications Service (PCS) networks, location management is a key issue. Mobility tracking operations are executed to maintain known the whereabouts of each mobile terminal. In this work, some modifications on the classical time-based and movement-based registration methods are evaluated. The goal is to provide a unified approach of the time-based and distance-based schemes on one hand, and the movement-based and distance-based strategies on the other hand. Furthermore what is achieved is that the Mobile Terminal sends less location update messages, which results in less contacts with the network and an increase in the uncertainty of the Mobile Terminal position. Although the Mobile Terminal Paging costs are lightly increased, the result is a significant reduction in the Location Update cost, and the net effect is a saving in the total location management cost per call arrival, i.e. the Location Update cost plus the Paging cost. The studied mechanisms will be compared with the original dynamic schemes by means of a performance evaluation method based on software simulation tools and contrasted to an analysis based on Markovian standard tools. The location management costs for all these dynamic policies will be evaluated.
  • Thumbnail Image
    ItemOpen Access
    Universelle Fernservice-Infrastruktur für eingebettete Systeme
    (2003) Jazdi, Nasser; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Globalisierung ist ein Vorgang, durch den Märkte und Produktionen in verschiedenen Ländern immer mehr kooperieren, aber auch voneinander abhängig werden. Ursache hierfür ist die Dynamik des Handels mit Gütern und Dienstleistungen sowie die Bewegungen von Kapital und Technologie. Die Differenzierung erfolgt nicht mehr nur durch das Produkt selbst, sondern zunehmend durch dazugehörige Dienstleistungen, wie Wartung und Software-Updates. Die globale Bereitstellung solcher Dienstleistungen ist jedoch ein existentielles Problem für kleine und mittelständische Unternehmen. Das Internet als ein weltweiter Verbund von Computernetzwerken bietet eine globale Kommunikationsmöglichkeit für den Menschen. Computer mit Internet-Zugang werden zum festen Bestandteil jedes modernen Arbeitsplatzes, auch infolge der immer geringer werdenden Anschaffungskosten. Die mit dem Internet verbundenen Web-Technologien ermöglichen die weltweite, effektive und kostengünstige Bereitstellung von Dienstleistungen. Der Einsatz der Web-Tech-nologien beim Erbringen von Dienstleistungen für Automatisierungsprodukte und -anlagen verlangt jedoch neue, an die spezifischen Randbedingungen der Automatisierungssysteme zugeschnittene Konzepte. In der vorliegenden Arbeit wird eine flexible und erweiterbare Infrastruktur für den Einsatz von Web-Technologien in eingebetteten Systemen vorgestellt. Sie baut auf der bewährten Drei-Schichten-Architektur, bestehend aus dem eingebetteten System, dem universellen Fernzugriff-Server und dem Client, auf. Dabei wird eine systemübergreifende und allgemeingültige Schnittstelle für die Anbindung unterschiedlicher eingebetteter Systeme und den Zugriff auf deren Prozessdaten geschaffen. Das Verfahren ermöglicht außerdem ein flexibles Weiterverarbeiten der Gerätedaten, sodass sie für unterschiedliche Clients aufbereitet werden können. Um die Flexibilität - sowohl auf der Seite des eingebetteten Systems als auch beim Client - zu gewährleisten, wird eine neue, XML-basierte Beschreibungssprache (SDML) eingeführt. Die SDML-Dokumente beinhalten Informationen über angebundene eingebettete Systeme, abrufbare Gerätedaten und Präsentationsregeln für unterschiedliche Clients. Sie werden gerätespezifisch erstellt. Das vorgeschlagene Verfahren ermöglicht die Anbindung unterschiedlicher eingebetteter Systeme an das Internet bei minimalem Hardware- und Softwareaufwand. Die einmalig entwickelten Software-Komponenten des Fernzugriff-Servers können für unterschiedliche Geräte verwendet werden und tragen damit zur Senkung der Diagnose- und Wartungskosten bei. Der Anwender kann einen gewöhnlichen Browser für die Kommunikation mit seinem Gerät verwenden und braucht somit keine zusätzliche Software auf seinem lokalen Rechner zu installieren.
  • Thumbnail Image
    ItemOpen Access
    Ganzheitliche modellbasierte Sicherheitsanalyse von Prozessautomatisierungssystemen
    (2003) Biegert, Uwe; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Der Betrieb von Prozessautomatisierungssystemen ist immer mit einem gewissen Risiko verbunden. Ein Prozessautomatisierungssystem gilt dann als sicher, wenn das vorhandene Risiko zu keiner Zeit ein so genanntes Grenzrisiko überschreitet. Wird das Grenzrisiko überschritten, so droht Menschen und Umwelt unmittelbar ein Schaden. Mit Hilfe von Sicherheitsanalysen kann das vorhandene Risiko untersucht und abgeschätzt werden. Klassische Sicherheitsanalysen betrachten in der Regel nur einzelne Bestandteile eines Prozessautomatisierungssystems, welches aber im Allgemeinen aus drei verschiedenen Bestandteilen besteht: dem technischen System, dem Rechnersystem und dem Bedienpersonal. Was passiert aber, falls im technischen System ein Bauelement ausfällt, die Automatisierungssoftware Fehler enthält und zur gleichen Zeit das Bedienpersonal falsche Bedieneingriffe ausführt? Solche Fragen können mit klassischen Sicherheitsanalysen nur unzureichend beantwortet werden. Hinzu kommt, dass bei den meisten klassischen Sicherheitsanalysen die eigentliche Analyse des Systems in Form von Brainstorming-Prozessen durchgeführt wird. Dabei kann der Mensch niemals alle möglichen Kombinationen des Zusammenspiels zwischen den Bestandteilen überblicken und bewerten. In der vorliegenden Arbeit wird ein modellbasierter Ansatz zur Durchführung einer ganzheitlichen Sicherheitsanalyse vorgestellt, welche alle Bestandteile eines Prozessautomatisierungssystems berücksichtigt. Die Ausführung erfolgt rechnergestützt. Auf Grund der Komplexität von Prozessautomatisierungssystemen wird eine qualitative komponentenorientierte Modellierungsmethode gewählt. Die Systemgrößen werden durch qualitative Intervallvariablen beschrieben, wobei die definierten Intervallbereiche zusätzlich durch qualitative Ausdrücke kommentiert werden. Durch Kombination von Intervallbereichen entstehen kommentierte Situationen, die das Verhalten wiedergeben. Dabei wird sowohl der bestimmungsgemäße als auch der fehlerhafte Betrieb berücksichtigt. Anhand der Systemstruktur werden die Modelle der Bestandteile miteinander kombiniert, um alle möglichen Situationen des gesamten Prozessautomatisierungssystems zu erhalten. Anschließend werden die ermittelten sicherheitskritischen Situationen des Prozessautomatisierungssystems bewertet und es wird entschieden, ob Sicherheitsmaßnahmen notwendig sind. Durch das rechnergestützte Vorgehen lassen sich im Unterschied zu klassischen Methoden beliebig viele Fehlerkombinationen analysieren und damit Sicherheitslücken im Prozessautomatisierungssystem ermitteln. Das komplexe Zusammenspiel der Bestandteile wird mit Hilfe des qualitativen Modells transparent und analysierbar. Das Modell ist auf Grund seines qualitativen Charakters einfach anzuwenden und die Ergebnisse können leicht interpretiert werden.
  • Thumbnail Image
    ItemOpen Access
    Constraintbasierte Testdatenermittlung für Automatisierungssoftware auf Grundlage von Signalflussplänen
    (2008) Linder, Paul; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Die zunehmende Komplexität von Automatisierungssoftware führt zu einem wachsenden Testaufwand, welcher mittlerweile einen beträchtlichen Anteil der Gesamtentwicklungskosten technischer Systeme ausmachen kann. Benötigt wird ein effizientes Testvorgehen, welches die Gründlichkeit der Softwareprüfung nicht beeinträchtigt. Hierbei spielt die effiziente Ermittlung qualitativ hochwertiger Testdaten, die eine zügige Aufdeckung aller wesentlichen Softwarefehler erlauben, eine wichtige Rolle. Modellbasierte Testverfahren gewinnen dabei aufgrund ihrer präzisen Systematik zunehmend an Bedeutung. Wegen der zeitabhängigen und häufig hybriden, d. h. diskret-kontinuierlichen Dynamik von Prozessautomatisierungssystemen erfordert die modellbasierte Ermittlung von zeitabhängigen Testdaten für Automatisierungssoftware im Allgemeinen die Auswertung hybrider funktionaler Modelle. Dies stellt eine Herausforderung dar, welche bis heute nicht zufriedenstellend gelöst wurde. Zur effizienten modellbasierten Ermittlung qualitativ hochwertiger zeitabhängiger Testdaten für Automatisierungssoftware wurden in dieser Arbeit neue Wege beschritten und ein innovatives Verfahren auf Grundlage hybrider, diskret-kontinuierlicher Signalflusspläne erarbeitet. Signalflusspläne sind eine in der industriellen Praxis eingeführte und verbreitete Beschreibungsform zur mathematisch präzisen Modellbildung dynamischer diskret-kontinuierlicher Automatisierungsanwendungen. Das Verfahren beruht auf zwei orthogonalen Grundkonzepten, nämlich der constraintbasierten Spezifikation und Berechnung von Testdaten mittels numerischer Methoden sowie der systematischen Formulierung des hierzu erforderlichen Constraint-Problems mithilfe eines analytischen mutationsbasierten Formalismus. Der constraintbasierte Formalismus ermöglicht die effiziente Ermittlung von Testdaten einer gleichbleibenden, definierten Qualität auf Grundlage eines gegebenen Signalflussplans als Testbasis. Der mutationsbasierte Formalismus sorgt für die erforderliche aussagekräftige Semantik des Constraint-Problems zur Erzielung aussagekräftiger, qualitativ hochwertiger Testdaten. Das Verfahren lässt sich im Rahmen einer modellgetriebenen Entwicklung von Automatisierungssoftware zur Ermittlung von Testdaten sowohl zum Testen eines ausführbaren Systemmodells der geforderten Automatisierungsfunktionalität gegenüber den Anforderungen als auch zum Testen einer Implementierung gegenüber dem Systemmodell einsetzen. Dabei lassen sich zwei Szenarien unterscheiden, nämlich die modellbasierte Synthese bzw. Generierung neuer Testdaten sowie die modellbasierte Analyse der Testüberdeckung bzw. Qualität gegebener Testdaten. Die mathematische Fundierung des Verfahrens eröffnet eine weitreichende Automatisierung dieser Szenarien im Sinne einer effizienten und praxisgerechten Testdatenermittlung. Hierzu wurde ein entsprechendes Softwarewerkzeug entwickelt. Das Verfahren wurde am Beispiel eines Kfz-Karosserieelektroniksystems evaluiert.
  • Thumbnail Image
    ItemOpen Access
    Novel network architecture for optical burst transport
    (2006) Gauger, Christoph; Kühn, Paul (Prof. Dr.-Ing. Dr. h. c. mult.)
    Transport networks form the backbone of communication networks by cost-efficiently offering huge bandwidth and by guaranteeing a high service quality and availability. These requirements can best be met by using optical communication technologies. Currently, wavelength-switching is the most prominent network technology employing optical fiber communication and wavelength division multiplexing. While for years progress in optical networks has been defined by ever increasing transmission bit-rates, higher flexibility and manageability as well as multi-service and multi-layer integration are equally important criteria today. Accounting for these trends, optical burst switching (OBS) has been proposed as highly dynamic optical network architecture. It offers fine-granular transport of different packet-switched services and applies statistical multiplexing directly in the optical layer. This thesis presents the design, modeling, and evaluation of the optical burst transport network architecture (OBTN). The architecture is motivated by the need for flexible, scalable, and cost-efficient transport in next generation networks. In addition, it is stimulated by the research activities towards highly dynamic optical network infrastructures. OBTN defines a network architecture to transport and switch optical burst data in a core network. The design objectives for the OBTN architecture are (i) an overall high quality of service, (ii) a network design allowing for cost-efficiency and scalability, and (iii) a network evolution perspective based on the current wavelength-switched networks. These objectives are achieved by combining selected concepts, architectures, and strategies of optical burst and optical packet switching as well as of multi-layer traffic engineering. The method of event-driven simulation is used to evaluate OBTN regarding its node and network resource requirements and QoS performance. Chapter 2 introduces the general characteristics, requirements, and trends for next generation transport networks in general and optical networks in particular. It describes architectural constraints and classification criteria for highly dynamic optical network architectures. These criteria are used to characterize the fast optical circuit switching, optical burst switching, and optical packet switching architectures as well as hybrid optical network architectures. Chapter 3 discusses the state of research and technology for optical burst switching. It presents the requirements for key functions in an OBS network and classifies the proposed architectures and mechanisms. Particularly, it addresses contention resolution which is necessary to achieve a high QoS in burst-switched networks. This is supported by Appendix A which analyzes the performance of nodes with fiber delay line buffers. Finally, architectures and realization aspects for burst-switched core nodes are presented to explain their resource and scalability constraints. Chapter 4 motivates and introduces the fundamental concepts of OBTN, namely the dense virtual topology, constrained alternative routing, and shared overflow capacity. These components are analyzed regarding their consequences for the overall node and network architecture. Finally, OBTN is compared qualitatively with optical burst switching and hybrid optical networks. Chapter 5 describes a unified resource model which allows dimensioning and evaluating burst-switched architectures with different virtual topologies. Then, it addresses the simulation methodology, the reference evaluation scenario used in Chapter 6 as well as the metrics for node and network resources and QoS performance. Chapter 6 evaluates OBTN and compares it with the two burst-switched reference architectures OBS and Burst-over-Circuit-Switching (BoCS). OBS uses a sparse virtual topology while BoCS employs a full-mesh virtual topology. The evaluations show that for the same high target QoS, suitable OBTN dimensionings require substantially less resources in burst-switched nodes than OBS and slightly less than BoCS. This improvement comes at the cost of higher resource requirements compared to OBS in the underlying wavelength-switched server layer. However, applying the cost relations for lambda grid networks, in which bandwidth is considered a commodity and client layer resources the major cost driver, OBTN yields an overall cost reduction. Concluding, OBTN is shown to offer an overall high QoS, to effectively reduce the node resources of the burst-switched client layer, and to perform well in a wavelength-switched network context.
  • Thumbnail Image
    ItemOpen Access
    Monolithische Integration von Millimeterwellenbauelementen auf rückseitenstrukturiertem Silizium
    (2007) Hasch, Jürgen; Kasper, Erich (Prof. Dr.)
    Die vorliegende Arbeit untersucht die monolithische Integration aktiver und passiver Millimeterwellen-Komponenten auf hochohmigem Silizium in der sogenannten Silicon Millimeter Wave Integrated Circuit (SIMMWIC)-Technologie. Ziel ist es, mit Hilfe von Standard-Prozessen aus der Mikroelektronik und Mikrosystemtechnik, ein Integrationskonzept darzustellen, mit dem sich der Hochfrequenzteil eines Radar-Sensors als monolithisch integrierte Schaltung im Millimeterwellenbereich realisieren lässt. Ein solcher Hochfrequenzteil besteht zumindest aus Sendesignalerzeugung, passiven Strukturen zur Signalverteilung, einem Antennenelement als Schnittstelle zu den elektromagnetischen Wellen im Freiraum und einer Empfängerschaltung, die typischerweise in Form eines Mischers ausgeführt wird. Der Einsatz eines solchen "Radar-ICs" als komplett monolithisch integrierte Schaltung bietet eine Reihe von Vorteilen gegenüber dem bisher verbreiteten Aufbau aus diskreten Komponenten. So kann durch den Wegfall diskreter Hochfrequenz-Komponenten die Anzahl der eingesetzten Bauelemente reduziert und die Baugröße des Sensors verringert werden. Durch die Integration aller Hochfrequenz-Komponenten ist außerdem eine wesentlich vereinfachte elektrische Kontaktierung möglich, da keine Hochfrequenzsignale von der Halbleiterschaltung nach außen geführt werden müssen. Dies ermöglicht auch den Einsatz einer einfachen Leiterplattentechnologie für die umgebenden Schaltungskomponenten. Durch den Einsatz einer Standard-Backend-Technologie aus der Mikroelektronik können Leiterstrukturen im Mikrometerbereich realisiert werden. Dies erlaubt die präzise Herstellung von Schaltungskomponenten mit sehr geringen Abmessungen, eine Voraussetzung für Arbeitsfrequenzen oberhalb von 100 GHz. Zusätzlich zur Strukturierung der Leiterstrukturen auf der Oberseite des Siliziumwafers, wird mit Hilfe eines Verfahrens zum anisotropen Ätzen von Silizium (dem sogenannten Bosch-Prozess) die Rückseite des Siliziumwafers selektiv rückgedünnt, damit dort partiell eine dünne Siliziummembran entsteht. Im Bereich dieser Membran können Mikrostreifenleitungsstrukturen mit sehr günstigen Hochfrequenzeigenschaften und einer Leitungsdämpfung von weniger als 0,3 dB/mm für den Frequenzbereich von 90-140 GHz realisiert werden. Diese günstigen Eigenschaften konnten durch messtechnische Untersuchung nachgewiesen werden. Ein wesentlicher Bestandteil des Integrationskonzeptes ist die Verfügbarkeit eines integrierten Antennenelements. Erst damit ist eine vollständige monolithische Integration der grundlegenden Millimeterwellenkomponenten auf der Siliziumschaltung erreicht. Dazu wurde eine Mikrostreifen-Patchantenne untersucht und charakterisiert. Trotz der hohen Permittivität von Silizium konnte gezeigt werden, dass sich ein Patch-Antennenelement auf Basis von Mikrostreifenleitungen mit einem Wirkungsgrad von mehr als 50% realisieren lässt. Die Integration aktiver Bauelemente wurde anhand einer Impatt-Diode untersucht, die mittels Molecular Beam Epitaxy direkt auf dem Siliziumwafer hergestellt wird. Mit Hilfe dieses Verfahrens können Halbleiterschichten mit einer genau definierten Schichtdicke und Dotierung erzeugt werden. Durch aufeinander folgendes Abscheiden mehrerer dotierter Halbleiterschichten und anschließendem selektiven Ätzen konnten Impatt-Dioden mit Lawinenfrequenzen von bis zu 110 GHz hergestellt und gemessen werden. Die Impatt-Dioden wurden bis 140 GHz messtechnisch in ihren Kleinsignaleigenschaften charakterisiert. Durch Parameterextraktion konnte ein einfaches Ersatzschaltbild für die Impatt-Diode bestimmt und das Hochfrequenzverhalten der Diode in Abhängigkeit vom Arbeitspunkt untersucht werden. Basierend auf einer Impatt-Diode als aktivem Element wurden Oszillatoren auf Basis von Koplanarleitungen entworfen und charakterisiert. Es konnten Oszillatoren mit einer Arbeitsfrequenz von bis zu 124 GHz bei 1dBm Ausgangsleistung realisiert werden. Die maximale Ausgangsleistung wurde für einen 104 GHz-Oszillator mit 11,4dBm erreicht. Abschließend wurde eine Transmitterschaltung entworfen und realisiert, die mikromechanisch strukturierte passive Strukturen und aktive Bauelemente in Form von Impatt-Dioden enthält.
  • Thumbnail Image
    ItemOpen Access
    Internetbasierte Datenintegration für Automatisierungssysteme
    (2006) Strobel, Thorsten; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Hersteller von Automatisierungssystemen suchen zunehmend nach neuen Möglichkeiten über den reinen Verkauf der Automatisierungssysteme hinaus Services anzubieten. Solches lässt sich durch Dienstleistungen erreichen, die rund um das verkaufte Automatisierungssystem angeboten werden und die es einem Automatisierungssystemhersteller ermöglichen, sich von seinen Konkurrenten abzuheben. Eine solche Dienstleistung ist das Anbieten von Daten aus dem Umfeld des Automatisierungssystems. Diese Daten können aus der Entwicklung oder dem Betrieb des Systems stammen und dem Kunden den Umgang mit dem Automatisierungssystem erleichtern. Die vorliegende Arbeit stellt ein Konzept für eine Plattform zur internetbasierten Datenintegration für Automatisierungssysteme vor. Die Datenintegrationsplattform für Automatisierungssysteme (DIPAS) realisiert einen einheitlichen Zugriff auf heterogene Datenbestände. Neben verschiedenen Arten von Datenbanksystemen werden auch Automatisierungssysteme als Datenbestände betrachtet. Die zu integrierenden Datenbestände können über das Internet hinweg verteilt sein. Aus der Integration gewonnene Daten sind ohne zusätzlichen Aufwand auf verschiedenartigen Ausgabegeräten darstellbar und auch veränderbar. Das Konzept beruht auf der konsequenten Verwendung von XML-basierten Standards. So kommen zur Kommunikation zwischen den einzelnen Bestandteilen der Plattform Web Services zum Einsatz. Sie ermöglichen die Verteilung der Datenbestände im Internet. Über die Web Service Schnittstellen wird festgelegt, welche Daten aus den einzelnen Datenbeständen für die Integration zur Verfügung stehen. Die vielfältigen Unterschiede zwischen den Datenbeständen werden durch Wrapper gekapselt. Durch die Verwendung generischer Wrapper reduziert sich der Realisierungsaufwand für die Integrationsplattform. Generische Wrapper werden für die Art eines bestimmten Datenbestands konfiguriert und anschließend für die Datenstruktur des Datenbestands parametriert. Auf die Wrapper baut ein Föderierungsdienst auf, der für die logische Verbindung der Daten sorgt. Dadurch ergibt sich für Anwendungen, die auf die Integrationsplattform DIPAS aufsetzen, der Eindruck, nur mit einem einzigen Datenbestand zu arbeiten. Die Informationen über die logische Verbindung der Datenbestände werden in einer XML-basierten Metadatenverwaltung gespeichert.
  • Thumbnail Image
    ItemOpen Access
    Zustandsabhängiges, risikobasiertes Asset-Management in der Energieversorgung
    (2007) Osztermayer, Jozsef; Feser, Kurt (Prof. Dr.-Ing.Dr.h.c.)
    Für die vorliegende Arbeit versteht man unter risikobasiertem und funktionsübergreifendem Asset-Management (RB&FÜAM) die risikobewusste Verwaltung von technischen Anlagen während ihrer gesamten Lebensdauer. Die konkrete Aufgabe ist dabei, die betriebsmittelrelevanten Aktivitäten zeitlich und inhaltlich funktionsübergreifend so zu koordinieren, dass die strategischen Unternehmensziele bei minimalen Anlagenkosten erreicht werden können. In der Tat geht es um die optimale Geldmittelallokation unter den Kernprozessen des Unternehmens, welche die Vernetzung von aktuellen risikorelevanten Informationen über das gesamte Anlagenportfolio voraussetzt. Die wesentlichen Nachteile der traditionellen Asset-Management Ansätze lassen sich wie folgt zusammenfassen: 1. Die Ursache-Wirkungskette zwischen den risikorelevanten Anlagendaten und der zugehörigen prozesscharakterisierenden Zielkennzahl (z.B. Instandhaltungsbudget) ist für Entscheidungsträger nicht transparent. Der Koordinationsaufwand und die Prozessdurchlaufzeit für die Entscheidungsunterstützung ist unverhältnismäßig groß. 2. Die rechnergestützte Überwachung von betriebswirtschaftlichen Prozessindikatoren, die ihrerseits vom Anlagenzustand abhängig sind, ist wegen mangelnder Methodenkompetenz für die Informationsverzahnung nicht möglich. Um diese Unzulänglichkeiten zu eliminieren, wurde der vorliegende Ansatz entwickelt. Hierbei wird der Anlagenzustand mittels Fuzzy-Logik anhand von aktuellen zustandsrelevanten Messgrößen der fehleranfälligen Anlagenkomponenten online geschätzt und die monetären Konsequenzen des Anlagenzustandes in Form eines Katalogs für Instandhaltungsszenarien formalisiert. Das von den fehlerbehafteten Anlagenkomponenten bzw. der Anlage ausgehende Risiko wird dabei durch den monetären Erwartungswert für die Durchführung eines dem aktuellen Zustand angemessenen Instandhaltungsszenarios berechnet. Als Alternative zur erwähnten Beschreibung des Risikos mit Erwartungswert kann auch die vektorbasierte Methode eingesetzt werden. In diesem Fall wird das Risiko durch die lineare Kombination des Zustandes und der Wichtigkeit der jeweiligen Betrachtungseinheit abgebildet. Nachdem der neue Ansatz durch die theoretische Behandlung der relevanten Basisdisziplinen fundiert wurde, wird die Anwendung der erarbeiteten Methode in zwei Fallbeispielen demonstriert. Während im Beispiel bezüglich einer Gruppe von Leistungstransformatoren die vektorbasierte Risikoanalyse eine Anwendung findet, wird das zustandsbedingte Risiko in der Analyse für ein Leistungsschalterportfolio mittels Bildung von entsprechenden Erwartungswerten abgebildet. Gemäß den Forderungen in der Praxis wurde die verursachungsgerechte Zusammenführung der Zustandsverschlechterung von Betriebsmittelkomponenten durch einen adäquaten Algorithmus, basierend auf der Theorie der Zielkostenrechnung, gelöst. Die Berechnungsvorschrift ermöglicht den Zustandsverschlechterungsgrad jeder Komponente einer zweckmäßig aufgebauten Anlagenhierarchie zu berechnen und damit die Überwachung des Zustandsforschrittes jeweils auf die zeitliche Verfolgung einer einzigen Zustandskennzahl zu reduzieren. Diese Möglichkeit gewinnt an Bedeutung beim Aufsteigen in der Systemhierarchie. Weil die Kennzahlabbildung durchgängig formalisiert ist, bietet der Ansatz umfassende Möglichkeiten auch für die Ursachenforschung. Da die weiteren Algorithmen für die anlagencharakterisierenden Indikatoren wie: 1. Anlagenpriorität für Ersatzinvestition 2. Ausfallwahrscheinlichkeit einer Betriebsmittelkomponente 3. finanzielles Risiko für Ersatz bzw. Instandhaltung 4. Priorität für Instandhaltung auf dem relevanten Wahrscheinlichkeitswert für Ersatz, Ausfall und Durchführung des aktuellen Instandhaltungsszenarios basieren, wird der Übergang vom aktuellen Zustandsverschlechterungsgrad zu den erwähnten Wahrscheinlichkeiten diskutiert. Mit Hilfe des vorgestellten Ansatzes, dessen Umsetzung durch ein modular aufgebautes Simulink-Modell getestet wurde, kann man eine fundierte Entscheidungsunterstützung für die folgenden Kernprozesse online zur Verfügung stellen: 1. Budgetierung von Instandhaltungskosten 2. Budgetierung von Kosten für Ersatzinvestitionen 3. zustandsbasierte Schätzung der Restlebensdauer einer Anlage Die nachstehenden Analysemöglichkeiten ergeben sich durch das AM-Modell: a. kontinuierliche Risikostrukturanalyse im selektierten Anlagenportfolio b. Simulation der Auswirkungen von geplanten risikominimierenden Maßnahmen auf unterschiedlicher Ebene der Anlagenhierarchie c. trendbasierte Prognose für die Kennzahlen anhand historischer Daten d. komponentenbezogene Archivierung von Wissen über die noch nicht vollständig erforschten Fehlermechanismen in Form von Beurteilungsregeln.
  • Thumbnail Image
    ItemOpen Access
    Identifikation und Prädiktion von Fehlern bei Käfigläufer-Niederspannungs-Normmotoren
    (2003) Haug, Christoph; Gutt, Hans-Joachim (Prof. Dr.)
    In dieser Arbeit wird die Entwicklung eines Diagnosesystems für Käfigläufer-Niederspannungs-Normmotoren beschrieben. Dabei wurde insbesondere versucht ein System zu entwickeln, welches den niederen Kosten dieser IEC-Normmotoren gerecht wird und mit möglichst wenig Aufwand realisiert werden kann. Dazu gehört, dass dieses Diagnosesystem ohne eine Strommessung auskommt und die entwickelten und verwendeten Komponenten für sämtliche Baugrößen Verwendung finden können. Ausgehend von einer Anwenderbefragung wurde ein Systemkonzept für solch ein Diagnosesystem ausgearbeitet. Dabei wurde versucht die Vorschläge und Wünsche als Ergebnis dieser Umfrage zu berücksichtigen. Weiterhin wurden bei der Konzeption die Bedürfnisse der Motorhersteller in Betracht gezogen und die Ergebnisse der Untersuchung der zu diagnostizierenden Normmotoren integriert. Anhand der Systemkonzeption wurde eine Hardware realisiert, welche über Sensoren den Motorzustand erfasst, auswertet und die Ergebnisse an einen Prozessrechner oder Visualisierungsrechner, z. B. als Alarmmeldungen, über einen Feldbus weitergibt. Weiterhin ist es möglich Alarme direkt am Gerät visuell auszugeben. Zur Diagnose der Sensormesswerte wurden Algorithmen entwickelt und als Software unter einem Echtzeitbetriebssystem implementiert. Dabei wurde auf Modularität und die Möglichkeit späterer Erweiterungen wert gelegt. Insbesonders wurden bei der Diagnose des Motorzustandes die Motorvibrationen am Motorlager und am Klemmenkasten der Maschine mittels piezokeramischer und mikromechanischer Beschleunigungssensoren untersucht. Dabei können bei einer Vibrationsmessung am Klemmenkasten die Verhältnisse im Luftspaltfeld analysiert werden. Weiterhin wurde versucht die Werte von Drehmoment und Motorstrom möglichst genau durch Auswertung der zur Verfügung gestellten Messsignale nachzubilden und so dem Benutzer und weiteren Analysealgorithmen zur Verfügung zu stellen.
  • Thumbnail Image
    ItemOpen Access
    Methode zur Bestimmung der Adatomkonzentration von Dotierstoffen
    (2003) Oehme, Michael; Kasper, Erich (Prof. Dr. phil.)
    Die vorliegende Arbeit beschreibt eine neue Methode für die Untersuchung der Oberflächensegregation von Dotierstoffen und diese basiert auf einer definierten Epitaxiesequenz. Das Wachstum dieser Schichtsysteme erfolgt mit der Methode der Molekularstrahlepitaxie. Mit einer ex-situ Tiefenprofilanalyse wird die Oberflächenkonzentration berechnet und die zugehörige Volumenkonzentration der Dotieratome direkt bestimmt. Dieses Experiment findet besonders Anwendung für Dotierstoffe mit einer Segregationsweite im Bereich einiger Nanometer, bei der übliche Verfahren versagen. Die Wachstumsparameter Siliziumrate und Dotierfluß werden innerhalb einer Probe konstant gehalten. Nur die Wachstumstemperatur wird während des Prozesses definiert geändert. Eine anschließende Schichtanalyse mißt die Tiefenverteilung der absoluten Konzentration der Dotieratome. Durch die definierten Temperatursprünge entsteht ein Konzentrationsprofil, aus dem sich zu jedem Sprung die zugehörige relative Änderung der Oberflächenkonzentration der Dotieradatome ermitteln läßt. Bei geeigneter Wahl der Referenztemperatur können sogar die zur Untersuchungstemperatur zugehörigen absoluten Konzentrationen der Adatome des Dotierstoffs bestimmt werden. Zusätzlich liefert die Tiefenprofilanalyse die zugehörige Volumenkonzentration. Aus diesen beiden Meßwerten berechnet sich die Segregationsweite. Am Beispiel der Dotierung des Elements Bor in Silizium mit einer (100) Oberfläche wird das Basisexperiment in seiner Anwendung ausführlich demonstriert. Zu jeder Gleichgewichtsdotierung in Abhängigkeit der Wachstumstemperatur läßt sich die zugehörige Adatomkonzentration bestimmen. Diese neue Methode liefert Daten für die Erzeugung eines scharfen Dotierprofils, indem vor dem Schichtwachstum die notwendige Borvorbelegung aufgelegt wird. Der Einfluß von Siliziumionen auf die Segregationseigenschaften bei der Dotierung von Silizium mit Bor wird mit dem Basisexperiment untersucht. Dabei ergibt sich eine Erhöhung der Oberflächenkonzentration der Boradatome nur durch das angelegte Substratpotential ab einer Spannung von 200 V. Der Ionenbeschuß vergrößert somit die Segregationsweite. Weiterhin läßt sich unter diesen Bedingungen auch eine Konzentrationsabhängigkeit der Borsegregation nachweisen. In weiteren Experimenten wird die Temperaturabhängigkeit der Segregation und der maximale Einbau von Bor in Silizium untersucht. Als zweite Anwendungsmöglichkeit des Basisexperiments werden die Segregationseigenschaften von Kohlenstoff im Material Silizium analysiert. In der aktuellen Forschung gewinnt das Materialsystem Silizium-Germanium mit einem geringen Anteil an Kohlenstoff, welcher im Dotierkonzentrationsbereich liegt, immer mehr an Bedeutung. Die Segregationseigenschaften dieses Systems sind bisher kaum untersucht worden. Jedoch bietet das Basisexperiment dafür die idealen Voraussetzungen. In dieser Arbeit wird die Segregation der Elemente Bor und Kohlenstoff im Materialsystem Silizium-Germanium mit Germaniumgehalten von 20% und 33% untersucht. Abschließend wird das Wachstum zweier spezieller Bauelementstrukturen vorgestellt, bei denen die Ergebnisse des Basisexperiments für die benötigten scharfen Dotierprofile eingesetzt werden.