05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6

Browse

Search Results

Now showing 1 - 10 of 17
  • Thumbnail Image
    ItemOpen Access
    Entwicklung und Analyse zeitgesteuerter Systeme
    (2002) Ringler, Thomas Karl; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Zeitgesteuerte Architekturen versprechen aufgrund ihrer deterministischen Eigenschaften die Anforderungen zukünftiger By-Wire-Systeme in Automobilen zu erfüllen. Im Vergleich zu herkömmlichen ereignisgesteuerten Architekturen benötigen sie jedoch einen erheblich höheren Entwicklungsaufwand und erfordern deshalb neue Verfahren und Werkzeugkonzepte. In der vorliegenden Arbeit wird ein Verfahren zur Entwicklung und Analyse zeitgesteuerter Systeme erarbeitet. Aktivitäten zur Entwicklung zeitgesteuerter Systeme werden identifiziert und in den etablierten Entwicklungsprozess der Automobilindustrie eingegliedert. In den frühen Phasen des Entwicklungsprozesses erfolgt die Planung des zeitlichen Ablaufs im verteilten System. In den späten Phasen wird durch die Zeitanalyse nachgewiesen, dass die implementierten Programme geplante Zeitbedingungen stets einhalten. Die Bestimmung der maximalen Ausführungszeit von Programmen durch die Worst-Case-Execution-Time-Analyse (WCET-Analyse) ist hierfür die Grundlage und bildet den Schwerpunkt der Arbeit. Dem aktuellen Trend in der Automobilindustrie Software modellbasiert zu erstellen wird Rechnung getragen, indem ein Konzept der modellbasierten WCET-Analyse entwickelt wird. Die Analyse der erstellten Modelle wird dadurch ohne die Angabe zusätzlicher Informationen durch den Anwender möglich. Dazu werden aus den Modellen heraus Informationen über das Ausführungsverhalten des Codes gewonnen. Die Übertragbarkeit des Konzepts wird aufgezeigt, indem es bei den zwei unterschiedlichen Software-Entwicklungswerkzeugen ViPER und MATLAB/Simulink/Stateflow angewandt wird. Zum praktischen Nachweis des erstellten Konzepts wird eine Werkzeugumgebung entwickelt. Anhand eines Steer-by-Wire-Fallbeispiels wird die Anwendbarkeit des Konzepts aufgezeigt. Durch die grafische Spezifikation des zeitlichen Ablaufs wird die Entwicklung verteilter regelungstechnischer Anwendungen unterstützt. Die integrierte WCET-Analyse für den in der Automobilindustrie weit verbreiteten Siemens 80C167 Mikrocontroller erfolgt voll automatisiert und bietet dem Anwender wichtige Informationen für den modellbasierten Softwareentwurf.
  • Thumbnail Image
    ItemOpen Access
    Ganzheitliche modellbasierte Sicherheitsanalyse von Prozessautomatisierungssystemen
    (2003) Biegert, Uwe; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Der Betrieb von Prozessautomatisierungssystemen ist immer mit einem gewissen Risiko verbunden. Ein Prozessautomatisierungssystem gilt dann als sicher, wenn das vorhandene Risiko zu keiner Zeit ein so genanntes Grenzrisiko überschreitet. Wird das Grenzrisiko überschritten, so droht Menschen und Umwelt unmittelbar ein Schaden. Mit Hilfe von Sicherheitsanalysen kann das vorhandene Risiko untersucht und abgeschätzt werden. Klassische Sicherheitsanalysen betrachten in der Regel nur einzelne Bestandteile eines Prozessautomatisierungssystems, welches aber im Allgemeinen aus drei verschiedenen Bestandteilen besteht: dem technischen System, dem Rechnersystem und dem Bedienpersonal. Was passiert aber, falls im technischen System ein Bauelement ausfällt, die Automatisierungssoftware Fehler enthält und zur gleichen Zeit das Bedienpersonal falsche Bedieneingriffe ausführt? Solche Fragen können mit klassischen Sicherheitsanalysen nur unzureichend beantwortet werden. Hinzu kommt, dass bei den meisten klassischen Sicherheitsanalysen die eigentliche Analyse des Systems in Form von Brainstorming-Prozessen durchgeführt wird. Dabei kann der Mensch niemals alle möglichen Kombinationen des Zusammenspiels zwischen den Bestandteilen überblicken und bewerten. In der vorliegenden Arbeit wird ein modellbasierter Ansatz zur Durchführung einer ganzheitlichen Sicherheitsanalyse vorgestellt, welche alle Bestandteile eines Prozessautomatisierungssystems berücksichtigt. Die Ausführung erfolgt rechnergestützt. Auf Grund der Komplexität von Prozessautomatisierungssystemen wird eine qualitative komponentenorientierte Modellierungsmethode gewählt. Die Systemgrößen werden durch qualitative Intervallvariablen beschrieben, wobei die definierten Intervallbereiche zusätzlich durch qualitative Ausdrücke kommentiert werden. Durch Kombination von Intervallbereichen entstehen kommentierte Situationen, die das Verhalten wiedergeben. Dabei wird sowohl der bestimmungsgemäße als auch der fehlerhafte Betrieb berücksichtigt. Anhand der Systemstruktur werden die Modelle der Bestandteile miteinander kombiniert, um alle möglichen Situationen des gesamten Prozessautomatisierungssystems zu erhalten. Anschließend werden die ermittelten sicherheitskritischen Situationen des Prozessautomatisierungssystems bewertet und es wird entschieden, ob Sicherheitsmaßnahmen notwendig sind. Durch das rechnergestützte Vorgehen lassen sich im Unterschied zu klassischen Methoden beliebig viele Fehlerkombinationen analysieren und damit Sicherheitslücken im Prozessautomatisierungssystem ermitteln. Das komplexe Zusammenspiel der Bestandteile wird mit Hilfe des qualitativen Modells transparent und analysierbar. Das Modell ist auf Grund seines qualitativen Charakters einfach anzuwenden und die Ergebnisse können leicht interpretiert werden.
  • Thumbnail Image
    ItemOpen Access
    Constraintbasierte Testdatenermittlung für Automatisierungssoftware auf Grundlage von Signalflussplänen
    (2008) Linder, Paul; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Die zunehmende Komplexität von Automatisierungssoftware führt zu einem wachsenden Testaufwand, welcher mittlerweile einen beträchtlichen Anteil der Gesamtentwicklungskosten technischer Systeme ausmachen kann. Benötigt wird ein effizientes Testvorgehen, welches die Gründlichkeit der Softwareprüfung nicht beeinträchtigt. Hierbei spielt die effiziente Ermittlung qualitativ hochwertiger Testdaten, die eine zügige Aufdeckung aller wesentlichen Softwarefehler erlauben, eine wichtige Rolle. Modellbasierte Testverfahren gewinnen dabei aufgrund ihrer präzisen Systematik zunehmend an Bedeutung. Wegen der zeitabhängigen und häufig hybriden, d. h. diskret-kontinuierlichen Dynamik von Prozessautomatisierungssystemen erfordert die modellbasierte Ermittlung von zeitabhängigen Testdaten für Automatisierungssoftware im Allgemeinen die Auswertung hybrider funktionaler Modelle. Dies stellt eine Herausforderung dar, welche bis heute nicht zufriedenstellend gelöst wurde. Zur effizienten modellbasierten Ermittlung qualitativ hochwertiger zeitabhängiger Testdaten für Automatisierungssoftware wurden in dieser Arbeit neue Wege beschritten und ein innovatives Verfahren auf Grundlage hybrider, diskret-kontinuierlicher Signalflusspläne erarbeitet. Signalflusspläne sind eine in der industriellen Praxis eingeführte und verbreitete Beschreibungsform zur mathematisch präzisen Modellbildung dynamischer diskret-kontinuierlicher Automatisierungsanwendungen. Das Verfahren beruht auf zwei orthogonalen Grundkonzepten, nämlich der constraintbasierten Spezifikation und Berechnung von Testdaten mittels numerischer Methoden sowie der systematischen Formulierung des hierzu erforderlichen Constraint-Problems mithilfe eines analytischen mutationsbasierten Formalismus. Der constraintbasierte Formalismus ermöglicht die effiziente Ermittlung von Testdaten einer gleichbleibenden, definierten Qualität auf Grundlage eines gegebenen Signalflussplans als Testbasis. Der mutationsbasierte Formalismus sorgt für die erforderliche aussagekräftige Semantik des Constraint-Problems zur Erzielung aussagekräftiger, qualitativ hochwertiger Testdaten. Das Verfahren lässt sich im Rahmen einer modellgetriebenen Entwicklung von Automatisierungssoftware zur Ermittlung von Testdaten sowohl zum Testen eines ausführbaren Systemmodells der geforderten Automatisierungsfunktionalität gegenüber den Anforderungen als auch zum Testen einer Implementierung gegenüber dem Systemmodell einsetzen. Dabei lassen sich zwei Szenarien unterscheiden, nämlich die modellbasierte Synthese bzw. Generierung neuer Testdaten sowie die modellbasierte Analyse der Testüberdeckung bzw. Qualität gegebener Testdaten. Die mathematische Fundierung des Verfahrens eröffnet eine weitreichende Automatisierung dieser Szenarien im Sinne einer effizienten und praxisgerechten Testdatenermittlung. Hierzu wurde ein entsprechendes Softwarewerkzeug entwickelt. Das Verfahren wurde am Beispiel eines Kfz-Karosserieelektroniksystems evaluiert.
  • Thumbnail Image
    ItemOpen Access
    Situation based process monitoring in complex systems considering vagueness and uncertainty
    (2004) Rebolledo, Mario; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    History has demonstrated during the 20th century that industrial development carries hazards that should not be ignored because they endanger humans, the environment and production facilities. For this reason, continuous development of new production technologies should be accompanied by a comparable development in industrial safety technologies. Safety-critical applications in complex processes are usually based on a precise monitoring of operation conditions, according to a “correct” process operation. The problem is determining if a behavior or an operation condition is “correct”. For this, models are generally used, which are able of reproducing “safe” or “appropriate” process behaviors. The difficulty of precise modeling grows continuously, because of the increasing complexity of the supervised processes. Rigorous deterministic modeling is limited to simple processes, while approximate models based on statistics or Artificial Intelligence techniques, for example, must be restricted to modeling single variables or small subsystems to be manageable and deliver useful information. A monitoring technique usually employed for complex processes relies on abstraction of the process behavior in qualitative models by using symbolic value ranges to represent required information. However, also the applicability of qualitative modeling techniques is eventually restricted by the resulting model size. In this research work, a new process monitoring approach, based on qualitative models, efficiently depicts valuable vague and uncertain information that is currently discarded during the modeling. The proposed method expands the ability of Situation-based Qualitative Modeling and Analysis (SQMA) to monitor complex processes by integrating elements of the Rough Set Theory and Stochastic Qualitative Automata. The resulting models are considerably more precise than other similar-sized qualitative models. At the same time, the new method develops more compact and precise qualitative models than traditional qualitative models of the same precision.
  • Thumbnail Image
    ItemOpen Access
    Entwicklung hybrider Komponentenmodelle zur Prozessüberwachung komplexer dynamischer Systeme
    (2004) Manz, Susanne; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Für die Automatisierung kontinuierlich-diskreter technischer Prozesse ist neben der Realisierung der Steuerungs- und Regelungsfunktionen auch die automatische Überwachung des bestimmungsgemäßen Betriebs von großer Bedeutung. In ingenieurtechnischen Anwendungen werden zur Prozessüberwachung und Diagnose häufig modellbasierte Lösungen mit dem Ziel betrachtet, eine möglichst genaue Beschreibung der betreffenden technischen Anlage zu erhalten. Jedoch ist besonders für komplexe dynamische Systeme das Aufstellen und Betreiben eines mathematischen Modells zur Online-Überwachung mit vielen Schwierigkeiten verbunden. Aufgrund dieser Schwierigkeiten bieten sich für komplexe Systeme qualitative Modellierungsverfahren an. Bei diesen Verfahren müssen die inneren physikalischen Zusammenhänge nicht genau wiedergegeben werden, sondern die Modelle enthalten nur Situationen, in denen etwas „passiert“. Das qualitative Modell muss solche Situationen voneinander unterscheiden können. Eine Möglichkeit, diese Schwierigkeiten in den Griff zu bekommen, ist die Kombination von qualitativen und kontinuierlichen, so genannten hybriden Modellen. Im Rahmen des Forschungsthemas „Entwicklung hybrider Komponentenmodelle zur Prozessüberwachung komplexer dynamischer Systeme“ wurde das SQMD-Verfahren (Situation based Qualitative Monitoring and Diagnosis) entwickelt. Das Verfahren zeichnet sich durch eine einfache, streng komponentenorientierte Modellierung aus. Komponenten ohne Speicherwirkung des technischen Prozesses werden nur qualitativ modelliert. In diesem Fall ordnet der Modellierer jeder physikalischen Größe verschiedene Wertebereiche zu, die das ordnungsgemäße und das fehlerhafte Verhalten dieser Komponente qualitativ beschreiben. Die dynamische Beschreibung erfolgt nur für Komponenten mit Speicherwirkung und wird für die Abbildung des dynamischen Systemverhaltens im qualitativen Modell benötigt. Im Rahmen der Online-Überwachung werden innerhalb eines bestimmten Zeitfensters alle Komponenten miteinander verknüpft und der Zustandsraum reduziert. Dies erfolgt auf Basis der hybriden Komponentenmodelle, der Systemstruktur und der vom technischen Prozess eingehenden Sensor- und Aktordaten. Der reduzierte Zustandsraum kann auf eventuelles Fehlverhalten des technischen Prozesses untersucht werden. Die Durchführbarkeit des Konzepts wird am Modellprozess Drei-Tank-System demonstriert. Anschließend findet die Übertragung auf ein reales System, die Überwachung der aero- und gasdynamischen Prozesse im Kohlebergwerk, statt.
  • Thumbnail Image
    ItemOpen Access
    Validierung komponentenbasierter Software für Echtzeitsysteme
    (2003) Fleisch, Wolfgang; Göhner, Peter (Prof. Dr.-Ing. Dr. h.c.)
    Der Anteil und die Bedeutung von Software bei der Entwicklung von Echtzeitsystemen wächst sehr stark. Gleichzeitig werden die Entwicklungszyklen für Software-Produkte zunehmend kürzer, was sich immer häufiger in ausgelieferter fehlerhafter Software widerspiegelt. Durch die Verwendung vorgefertigter Software-Komponenten kann nach dem Baukastenprinzip bei der Konstruktion neuer Produkte die Produktivität und die Qualität erheblich gesteigert werden. Aber auch wenn durch den Einsatz geprüfter, betriebsbewährter Software-Komponenten viele Fehler vermieden werden, muss eine aus Komponenten zusammengesetzte Software auch in Zukunft mit geeigneten Prüfverfahren validiert werden, weil beim Zusammenspiel der Komponenten weiterhin Fehler entstehen können. In der vorliegenden Arbeit wird dazu ein Prüfverfahren zur Validierung komponentenbasierter Software für Echtzeitsysteme entwickelt, das das dynamische Verhalten von komponentenbasierter Software gegenüber den Anforderungen aus Anwendersicht überprüft. Die Anforderungen werden zu Beginn der komponentenbasierten Softwareentwicklung als Anwendungsfälle spezifiziert. Mit Hilfe von erweiterten UML Sequenzdiagrammen werden die Anwendungsfälle systematisch in eine formale, automatisiert prüfbare Notation überführt, die auch die Spezifikation von Echtzeitanforderungen explizit unterstützt. Da beim Entwurf von komponentenbasierter Software bereits vollständig spezifizierte Software-Komponenten verwendet werden, kann das Verhalten schon in der frühen Entwurfsphase mit Hilfe von Simulation validiert werden. Die Verwendung von Simulation hat den Vorteil, dass auch ohne die in der Praxis meist spät verfügbaren Bestandteile des technischen Prozesses und des Automatisierungsrechnersystems eine Prüfung des simulierten Verhaltens der komponentenbasierten Software durchgeführt werden kann. Anhand festgelegter Prüfkriterien wird dann das simulierte Verhalten der komponentenbasierten Software gegenüber dem in den Anwendungsfällen spezifizierten Verhalten geprüft, um damit frühzeitig Fehler aufzudecken. Eine im Rahmen der Arbeit realisierte Validierungsumgebung unterstützt den Softwareentwickler dabei umfassend, angefangen bei der Spezifikation von prüfbaren Anwendungsfällen, bis hin zur automatisierten Prüfung des simulierten Verhaltens. Die Leistungsfähigkeit des Prüfverfahrens und der Validierungsumgebung werden abschließend am Beispiel der Entwicklung und Validierung einer komponentenbasierten Software für eine Kfz-Scheibenwischeranlage demonstriert.
  • Thumbnail Image
    ItemOpen Access
    Agentenbasierte Konsistenzprüfung heterogener Modelle in der Automatisierungstechnik
    (2015) Rauscher, Michael; Göhner, Peter (Prof. Dr.-Ing. Dr. h.c.)
    Automatisierte bzw. mechatronische Systeme sind aus der heutigen Welt nicht mehr wegzudenken. Sowohl ein Großteil der technischen Produkte als auch die industrielle Produktion enthalten Elemente der Mechatronik. Sie ist eine Disziplin, die die klassischen Disziplinen des Maschinenbaus, der Elektrotechnik und der Informationstechnik in sich vereint. Um die gewinnbringende Zusammenarbeit dieser sehr unterschiedlichen Disziplinen zu gewährleisten, muss verschiedenen Herausforderungen begegnet werden. Die durch die verschiedenen Disziplinen bedingte Verwendung heterogener Modelle ist dabei eine große Fehlerquelle beim Entwurf mechatronischer Systeme. Inkonsistenzen zwischen den einzelnen Modellen, die erst spät im Entwurfsprozess aufgedeckt werden, erfordern großen Aufwand zur Behebung und gefährden die Qualität der entwickelten Produkte. Auf Grund der Heterogenität der Modelle, ist eine automatisierte Prüfung der Modelle auf Inkonsistenzen nicht möglich. Die manuelle Abstimmung zwischen den Disziplinen und Modellen kosten die Entwickler jedoch viel Zeit im Entwicklungsprozess und sie können sich nicht vollständig auf ihre eigentliche, kreative und gewinnbringende Arbeit konzentrieren. Deshalb ist die Unterstützung der Entwickler bei der Prüfung der Modelle notwendig, um die Entwicklungskosten zu reduzieren und die Produktqualität zu steigern. In der vorliegenden Arbeit wird ein Konzept zur automatisierten Konsistenzprüfung für heterogene Modelle vorgestellt, das in der Lage ist, Inkonsistenzen aufzudecken und den Entwicklern alle zu deren Auflösung verfügbaren Informationen bereitzustellen. Das Konzept basiert darauf, die heterogenen Modelle und deren Inhalt auf eine globale, modellübergreifende Ebene zu abstrahieren und dort zu interpretieren und zu prüfen. Dies wird erreicht, indem jedes Modell, genauer jeder Modelltyp, eine (lokale) Beschreibung erhält, in der die Struktur und die Bedeutung der Syntax des Modelltyps enthalten sind. Das zur Prüfung erforderliche Wissen in Form von Fakten, Zusammenhängen und daraus abgeleiteten Regeln ist allgemeingültig verfasst und befindet sich auf der globalen Ebene. Benutzerspezifisch können zu prüfende Regeln ergänzt werden. Die lokalen und die globale Wissensbasen werden in Form von Ontologien realisiert. Die Prüfung selbst wird mit Hilfe eines Softwareagentensystems durchgeführt. Die Grundidee der agentenorientierten Konsistenzprüfung ist es, jedes beteiligte Modell mit einem Modellagenten zu repräsentieren, der als Schnittstelle zwischen lokaler und globaler Ebene fungiert. Ein Ontologieagent leitet die Regeln aus der globalen Wissensbasis ab. Regelagenten führen die Prüfung der Modelle auf die Einhaltung der Regeln aus. Ein Koordinierungsagent stößt die Prüfung an, koordiniert diese und verwaltet die Ergebnisse. Dem Entwickler werden diese Ergebnisse am Ende einer Prüfung präsentiert und alle Informationen, die zu einem positiven oder negativen Ergebnis geführt haben, bereitgestellt. Er kann die aufgedeckten Inkonsistenzen anschließend gezielt beheben und wird so bei seiner Tätigkeit unterstützt. Gleichzeitig wird die Qualität der mechatronischen Systeme gesteigert, indem die möglichen Fehlerquellen reduziert werden.
  • Thumbnail Image
    ItemOpen Access
    Flexible web-based management of components for industrial automation
    (2002) Lucena, Vicente Ferreira de; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    The development of applications based on elementary components is one of the oldest known engineering approaches. Such a procedure is well practiced, for example, in the hardware electronics industry and has been applied more and more in other domains. In the last years software components have been adopted as a meaningful solution for the construction of larger software applications improving the development productivity and improving the quality of the final products. But the more components that are available the more difficult is the proper management of those components and consequently more difficult is the proper choice of the most suitable one for solving a specific task. This thesis deals with this problem and proposes a systematic way of managing components. How to store components properly is investigated and later on how to find, understand and decide about the reuse of the most appropriate component. This thesis was centered in the industrial automation domain and a study of the most relevant characteristics of that domain was done. There is no common standardized model available for representing software components used in the industrial automation domain mainly because of the great amount of quite different component technologies being used in that domain. In fact, it is not possible to summarize all of them in only one model. The problem faced was to propose a way of constructing a repository able to deal with those technologies together and be able to represent the technical details of each one of them properly. The proposed solution involves a flexible representation for the components that consists of two parts, the first one with the common information for every component technology involved, and the second one where the specificity of each component technology is summarized. Additionally, through the systematic management process proposed, recently developed components are published before being used, and component users are conducted during the search for desired components. A prototypic tool for the management of components was constructed using technologies associated with the Internet. The necessary flexibility of the component management system was obtained through the representation of the specificity of each component technology with the eXtended Markup Language (XML) and associated technologies. In the example presented, different component technologies like JavaBeans and ViPER are successfully managed together.
  • Thumbnail Image
    ItemOpen Access
    Internetbasierte Datenintegration für Automatisierungssysteme
    (2006) Strobel, Thorsten; Göhner, Peter (Prof. Dr.-Ing. Dr. h. c.)
    Hersteller von Automatisierungssystemen suchen zunehmend nach neuen Möglichkeiten über den reinen Verkauf der Automatisierungssysteme hinaus Services anzubieten. Solches lässt sich durch Dienstleistungen erreichen, die rund um das verkaufte Automatisierungssystem angeboten werden und die es einem Automatisierungssystemhersteller ermöglichen, sich von seinen Konkurrenten abzuheben. Eine solche Dienstleistung ist das Anbieten von Daten aus dem Umfeld des Automatisierungssystems. Diese Daten können aus der Entwicklung oder dem Betrieb des Systems stammen und dem Kunden den Umgang mit dem Automatisierungssystem erleichtern. Die vorliegende Arbeit stellt ein Konzept für eine Plattform zur internetbasierten Datenintegration für Automatisierungssysteme vor. Die Datenintegrationsplattform für Automatisierungssysteme (DIPAS) realisiert einen einheitlichen Zugriff auf heterogene Datenbestände. Neben verschiedenen Arten von Datenbanksystemen werden auch Automatisierungssysteme als Datenbestände betrachtet. Die zu integrierenden Datenbestände können über das Internet hinweg verteilt sein. Aus der Integration gewonnene Daten sind ohne zusätzlichen Aufwand auf verschiedenartigen Ausgabegeräten darstellbar und auch veränderbar. Das Konzept beruht auf der konsequenten Verwendung von XML-basierten Standards. So kommen zur Kommunikation zwischen den einzelnen Bestandteilen der Plattform Web Services zum Einsatz. Sie ermöglichen die Verteilung der Datenbestände im Internet. Über die Web Service Schnittstellen wird festgelegt, welche Daten aus den einzelnen Datenbeständen für die Integration zur Verfügung stehen. Die vielfältigen Unterschiede zwischen den Datenbeständen werden durch Wrapper gekapselt. Durch die Verwendung generischer Wrapper reduziert sich der Realisierungsaufwand für die Integrationsplattform. Generische Wrapper werden für die Art eines bestimmten Datenbestands konfiguriert und anschließend für die Datenstruktur des Datenbestands parametriert. Auf die Wrapper baut ein Föderierungsdienst auf, der für die logische Verbindung der Daten sorgt. Dadurch ergibt sich für Anwendungen, die auf die Integrationsplattform DIPAS aufsetzen, der Eindruck, nur mit einem einzigen Datenbestand zu arbeiten. Die Informationen über die logische Verbindung der Datenbestände werden in einer XML-basierten Metadatenverwaltung gespeichert.
  • Thumbnail Image
    ItemOpen Access
    Evolutionäres Domain-Engineering zur Entwicklung von Automatisierungssystemen
    (2007) Jost, Pascal; Göhner, Peter (Prof. Dr.-Ing. Dr. h.c.)
    Die Mehrfach­verwendung von Software gewinnt in der Prozess­auto­matisierung zunehmend an Bedeutung. Besonders kleine und mittelständische Unternehmen (KMU) sehen die Mehrfach­verwendung als Möglichkeit, dem wachsenden Zeit- und Kostendruck zu begegnen. Der Mangel an existierender mehrfach verwendbarer Software, die sich für den Einsatz in Prozess­auto­matisierungs­systemen eignet, zwingt die Unternehmen dazu, solche Software selbst zu entwickeln. Die heute verfügbaren Domain-Engineering-Methoden zur Unterstützung der Entwicklung von Software für die Mehrfach­verwendung sind für allgemeine Softwaresysteme ausgelegt und für den Einsatz in Groß­unternehmen optimiert. Kleine und mittelständische Unternehmen, die Auto­matisierungs­systeme erstellen, benötigen Domain-Engineering-Methoden, die auf ihre finanziellen und personellen Möglichkeiten angepasst sind und die spezifischen Merkmale von Auto­matisierungs­systemen berücksichtigen. In der vorliegenden Arbeit wird ein Konzept zur iterativen Entwicklung mehrfach verwendbarer Software­komponenten und einer domänen­spezifischen Softwarearchitektur für Auto­matisierungs­systeme vorgestellt, das auf dem Evolutionsprinzip basiert. Das Konzept erlaubt die zeitliche Verteilung des Entwicklungsaufwandes durch das iterative Vorgehen. In den einzelnen Iterations­schritten werden Software­komponenten separat entwickelt. Dazu unterstützt das Konzept die frühe Zerlegung der Domäne in Sub-Domänen, aus denen die Software­komponenten entstehen, sowie die Integration der Software­komponenten zu einer domänen­spezifischen Software­architektur. Die Entwicklung erfolgt nach dem Vorbild von Domain-Engineering-Methoden. Bei der Entwicklung von Auto­matisierungs­systemen sind insbesondere die Vorgänge im zu auto­matisierenden technischen Prozess sowie die Einrichtungen, die zur Auto­matisierung notwendig sind, zu berücksichtigen. Um die relevanten Unterschiede und Gemeinsamkeiten von Auto­matisierungs­systemen beim Domain-Engineering berücksichtigen zu können, wird ein Fragenkatalog eingesetzt. Er unterstützt bei der Analyse der Auto­matisierungs­aufgaben und der zur Auto­matisierung eingesetzten Einrichtungen. Das Konzept wird in einer Methodik umgesetzt, welche die Anwender mit definierten Aktivitäten und Produkten bei der evolutionären Entwicklung mehrfach verwendbarer Software unterstützt. Die Methodik führt zu einer zeitlichen Verteilung des Entwicklungs­aufwandes sowie zu einer frühen Nutzung von Teilergebnissen. Damit erfüllt sie die Grund­voraus­setzung für den Einsatz in KMU. Insbesondere bei der Analyse werden Automatisierungsaufgaben und Einrichtungen zur Automatisierung berücksichtigt. Dadurch wird die Berücksichtigung der für Auto­matisierungs­systeme relevanten Informationen bei der Entwicklung der mehrfach verwendbaren Software unterstützt.