05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
20 results
Search Results
Item Open Access Aufwandsschätzung bei Geschäftsprozessmodellerstellung(2015) Milutinovic, AleksandarGeschäftsprozessmanagement-Projekte im Allgemeinen und Modellierungsprojekte im Speziellen besitzen noch keine angewandte und wissenschaftlich gestützte und untersuchte Methode zur Aufwandsschätzung. Insbesondere gibt es für die Phase der Modellerstellung innerhalb des Geschäftsprozessmanagement-Lebenszyklus keine Aufwandsschätzungen, während der Bereich der Implementierung von Geschäftsprozessmodellen erste Ansätze zu Aufwandschätzungen in der Literatur aufzeigt. Diese Arbeit gibt einen Überblick über Schätzmethoden, den aktuellen Stand der Literatur aus angrenzenden und entfernten Forschungsfeldern und entwickelt basierend darauf eine Methode namens BPM COCOMO zur Aufwandsschätzung bei der Erstellung von Geschäftsprozessmodellen. Es wird eine Adaption von COCOMO vorgenommen und eine weitere Untersuchung und Validierung dieses Modells vorgeschlagen. Keywords: geschäftsprozessmodellierung, aufwandsschätzung, gpm, bpm, bpmn, function point, cocomo, modellierung, aufwand, kostenItem Open Access Konzeption und Implementierung eines OTX Test Frameworks für das emotive ODF(2011) Thai, Hai-LangDie vorliegende Diplomarbeit beschäftigt sich vordergründig mit dem Testen und Prüfen von OTX-Abläufen. OTX (Open Test sequence eXchange) wurde als ein ISO Standard entwickelt, um im Bereich der Fahrzeugdiagnose Testsequenzen mit einem hohen Abstraktionsniveau graphisch modellieren, spezifizieren und auch ausführen zu können. Die Arbeit befasst sich zuerst mit den theoretischen Aspekten des Testens von Workflows allgemein, um anschließend einen Testing-Ansatz speziell für OTX zu konzipieren. Der zweite Teil der Arbeit dokumentiert die Integration und Implementierung des Test Frameworks mit dem Open Diagnostic Framework (ODF). Das Open Diagnostic Framework ist eine von der Firma emotive GmbH entwickelte Entwicklungsumgebung, mit der sich Diagnoseabläufe auf Basis von OTX spezifizieren, realisieren, validieren, dokumentieren, debuggen, testen und ausführen lassen.Item Open Access STEP/XML based macro data representation for parametric CAD model exchange(2014) Zoabi, FirasThere is tremendous need in collaborative design today for the integration of heterogeneous CAx systems. This general practice has serious shortcomings like design discontinuity, limited parallelisation, loss of information, and conversion errors. To overcome these shortcomings, macro-parametric approach (MPA), which is a history-based method of parametric CAD model exchange, has been proposed. The macro-parametric approach is a way to achieve compatible CAD model exchange amongst a variety of mutually incompatible CAD systems. CAD models can be exchanged in the form of a macro file that comprises a sequence of modeling commands. A standard macro file that contains a set of event-driven commands can transfer the designer intent such as parameters, features and constraints. Currently, STEP (STandard for the Exchange of Product model data) as an international standard (ISO-10303, Industrial automation systems and integration - Product data representation and exchange) for the computer-interpretable representation and the exchange of product model data is widely used. STEP is becoming the 'lingua franca' in the area of modelling and exchanging product data. One remaining problem of the using STEP as a neutral format is that it does not retain parametric information such as the designer intent but only the pure boundary representation (B-rep) of the CAD model. The B-rep model without parametric information presents difficulties for engineering changes and it may also lead to an unexpected distortion of shape. This research aims to investigate an exchange method that uses STEP/XML (extensible mark-up) technology to express a set of standard modeling commands extracted from CAD models created by Autodesk InventorTM, to enable the same CAD models are readable and shareable with other CAD application systems.Item Open Access Analyse und Auswertung von gewichteten Anforderungen in technischen Spezifikationen(2013) Zwirn, FelixDie Erhebung von Anforderungen aus natürlich sprachlichen Texten ist ein wichtiger Aufgabenteil eines jeden technischen Projektes. Die Extraktion von Anforderungen von Hand ist allerdings langwierig und anfällig für Fehler. Für diese Arbeit wurde deswegen ein System entworfen, dass gewichtete Anforderungen analysiert und auswertet. Es werden vom REC System Sätze danach untersucht, ob es sich bei ihnen um Anforderungen handelt. Dafür werden sie mithilfe einer Ontologie in Klassen unterteilt. Die betrachteten Klassen sind Anforderungen, schwache Anforderungen, optionale Anforderungen, Kandidaten für Anforderungen und keine Anforderungen. Die Ontologie nutzt (Subjekt, Verb, Objekt)- Tripel (SVO-Tripel), um Kandidaten zu finden. Anhand bestimmter Schlüsselwörter werden die Kandidaten danach weiter unterschieden. Die Erkennungsontologie hat bei technischen Spezifikationen eine Trefferquote von über 80% bei einer Präzision von 100%. Es werden also keine Sätze fälschlicherweise als Anforderungen klassifiziert. Betrachtungen von anderen Texten ergaben, dass viele optionale Anforderungen tatsächliche keine Anforderungen waren. Dies führte zu einer Präzision von 50% bei Dokumenten, die keine technische Spezifikation sind. Die Qualität der Klassifizierung hängt somit stark von der Struktur des eingehenden Dokumentes ab. Der REC kann auch genutzt werden, um Dokumente mit anderen Ontologien zu klassifizieren. Die Ontologien müssen eine Basisontologie (Abbildung 5.6) erweitern. Ein Dokument lässt sich ohne Wechselwirkung von mehreren Ontologien klassifizieren.Item Open Access "Process Engine" als Werkzeug der Automatisierung der Projektabwicklung in Unternehmen(2013) Gao, YangyangDas auf Basis von Web-Anwendungen implementierte Benutzeroberflächen-Konzept ermöglicht die Realisierung von Konsistenzprüfungen, eine unkomplizierte Fehlerbehandlung bei Daten-Inkonsistenz und die schrittweise Integration der entwickelten Dokumentengesteuerten Projektabwicklung in die bisherige Arbeitsumgebung der Firma Innovations- Solutions AG (ISAG). Zusammen mit dem strukturierten und erweiterbaren Datenbankschema werden die Fehlermöglichkeiten verringert und der Fehlerentdeckungsaufwand sowie der Arbeitsaufwand zur Projektabwicklung reduziert. Das neu entwickelte kombinierte Konzept einer gesamtheitlichen Prozess-Steuerung der Projektabwicklung, die in einzelnen Projektabschnitten eine Dokumenten-Steuerung zulässt, basiert auf Bonita Open Solution und Apache Tomcat und bindet die als Web-Anwendungen implementierten Benutzeroberflächen ein. Die dafür definierten Softwaretests sind optimal auf die unterschiedlichen Eigenschaften der hier verwendeten Werkzeuge abgestimmt. Die pilothafte Implementierung der kombinierten Projektabwicklung zeigt neue Möglichkeiten zu strukturierter und effizienter Projektabwicklung in kleinen und mittleren Unternehmen.Item Open Access Entwicklung einer Schnittstelle zur multidisziplinären Entwurfsoptimierung im Bereich Städteplanung(2013) Martin, OlegMultidisziplinäre Optimierung von komplexen Systemen sowie die Formulierung eines Optimierungsproblems und deren nahtlose Einbindung in den Bereich der Städteplanung ist Gegenstand der aktuellen Forschung. Architekten im Bereich des Städtebaus befassen sich typischerweise mit dem räumlichen Entwurf von großflächigen Stadtstrukturen sowie deren sozialen und technologischen Implikationen, wodurch die Notwendigkeit einer optimalen Verwendung von Bauflächen in den Vordergrund rückt. In der vorliegenden Diplomarbeit werden Lösungswege für den Einsatz multidisziplinärer Entwurfsoptimierung im Bereich der Städteplanung mit bereits existierenden Softwarewerkzeugen erarbeitet und erprobt. Das Ziel dieser Arbeit ist es, Architekten und Städteplaner mit Hilfe einer einheitlichen Schnittstelle zwischen den existierenden Softwarewerkzeugen bei der Entwurfsfindung zu unterstützen und damit eine nachhaltige städtebauliche Entwicklung eines Stadtgebietes zu ermöglichen.Item Open Access Erstellung eines intelligenten Systems zur Generierung von Komponenten für formal beschriebene Fahrzeug-Netzwerke(2011) Frank, Philipp M.In dieser Arbeit wird ein erweiterbares Framework zur Generierung von Restbussimulationen für Fahrzeug-Netzwerke vorgestellt. Die Anforderungen an ein derartiges Framework werden erörtert und mit bestehenden Architekturmodellen im Gesamtfahrzeug-Kontext kontrastiert. Die Variabilität der Kommunikationsbeschreibungen für Fahrzeug-Netzwerke wird im Generierungsprozess berücksichtigt, so dass ein kontrolliertes Nachziehen von Änderungen ermöglicht wird. Ein Fokus des entwickelten Frameworks liegt in der Erweiterbarkeit hinsichtlich zusätzlicher Beschreibungsformate für die Buskommunikation sowie hinsichtlich zusätzlicher Zielplattformen.Item Open Access CAD feature recognition of machining parts(2012) Erbas, Dursun KemalDie Oberflächen von Maschinenteilen lassen sich dank der ständigen Weiterentwicklung der 3D-Scan-Technologie immer schneller erfassen und erzeugen dabei eine Reihe von Punktdaten, die auch Punktwolke genannt werden. Die Entwicklung der Scan-Technologie erfordert effiziente Objekterkennungsprozesse, um die gescannten Maschinenteile mit ihren geometrischen Merkmalen möglichst automatisch aus einer vorliegenden Punktwolke zu erkennen und entsprechend zur Weiterverarbeitung der Objekte durch CAD-Systeme zu rekonstruieren. Objekterkennungsprozesse bestehen aus mehreren Schritten, bei denen vor der Objekterkennung die Extraktion der geometrischen Oberflächenmerkmale wie Normalenvektor und Krümmung an den einzelnen Punkten der Oberfläche sowie die Segmentierung der vorliegenden Punktwolke erforderlich ist. Im Allgemeinen gibt es zwei grundverschiedene Ansätze, um den Normalenvektor und die Krümmung an Oberflächenpunkten zu berechnen: analytische und numerische. Analytische Ansätze sind im Vergleich zu numerischen Ansätzen operativ aufwendiger. Numerische Ansätze dagegen weisen Schwächen besonders an scharfen Kanten und Übergängen zwischen geometrisch unterschiedlichen Teilobjekten in einer Punktwolke auf. Zur Verbesserung des Objekterkennungsprozesses wird in dieser Arbeit ein Verfahren vorge- stellt und implementiert, bei dem der Objekterkennungsprozess direkt auf eine unstrukturierte Punktwolke angewendet wird. Unstrukturiert bedeutet hier, dass die Punkte aus der Punktwolke ungeordnet sind und keine Nachbarschaftsinformationen zwischen den einzelnen Punkten existieren. In dem vorgestellten Prozess werden zunächst die geometrischen Merkmale wie Normalenvektor und Krümmung aus den einzelnen Oberflächenpunkten gewonnen. Um die Normalenvektoren zu berechnen, wird ein bestehendes numerisches lokales Triangulationsverfahren zu dem neuen Verfahren Lokale Triangulation mit direkten Nachbarpunkten erweitert. Innerhalb dieses Verfahrens wird eine neue Methode entwickelt, mit der die störenden Punkte in der Nachbarschaft eliminiert und somit die direkten Nachbarn eines betrachteten Punktes ermittelt werden. Mit Hilfe dieser Methode werden lokale Triangulationen besonders an scharfen Kanten und Übergängen optimiert, so dass sowohl Normalenvektor als auch die Krümmung in einem Schritt effizient berechnet werden, ohne analytische Ansätze einzusetzen. Mit Hilfe der gewonnen Merkmale wird die normalenbasierte Segmentierung durchgeführt, um die Kanten und die Übergänge zwischen geometrisch unterschiedlichen Teilobjekten in der Punktwolke zu detektieren. Die detektierten Kanten und Übergänge werden weiter verwendet, um charakteristische Teiloberflächen in einer Punktwolke einzugrenzen, so dass die Punkte einer Teiloberfläche in der krümmungsbasierten Segmentierung aufgeteilt und den zugehörigen geometrischen Grundprimitiven wie Ebene, Kugel oder Zylinder zugeordnet werden. Die Zuordnung entspricht dabei der Aufteilung des gescannten Maschinenteiles in seine Teiloberflächen, welche später zur Weiterverarbeitung parametrisiert und in die von CAD-Systemen bekannten Formate konvertiert werden kann.Item Open Access Weiterentwicklung des BPMN-Ansatzes für Geschäftsprozessmodelle(2014) El Hussein, RobertIm Rahmen des Business Process Management (BPM) stellt die Prozessmodellierung eine einleitende Phase dar, in der Arbeitsabläufe in Form von Prozessmodellen abgebildet werden. Hierbei hat sich die graphische Modellierungssprache Business Process Model and Notation (BPMN) als Standard für die Prozessmodellierung etabliert. Die vergangene BPMN-Forschung hat zufriedenstellende Lösungen für die Themen Evaluation, Semantik, Ausführbarkeit und Compliance entwickelt. Diese Ergebnisse bilden eine formale Grundlage für anknüpfende Forschungsarbeiten und industrielle Anwendungen. Die BPMN-Forschung befindet sich nun in einer Phase, in der neue Forschungsthemen identifiziert werden müssen, welche sich an den Bedürfnissen der Anwender sowie an den zukünftigen Anforderungen der Prozessmodellierung und des BPM orientieren. Im Hinblick auf diese Herausforderung analysiert die vorliegende Arbeit die bisherige BPMN-Forschung auf Basis einer umfangreichen Literaturrecherche. Es werden vergangene Forschungsergebnisse zusammengefasst und aktuelle Forschungsansätze ausführlich und zusammenhängend dargelegt. Darauf aufbauend werden neue BPMN-Themen aufgezeigt, die für zukünftige Forschungsaktivitäten von Bedeutung sein können. Bei der Analyse wird deutlich, dass es sich bei der aktuellen BPMN-Forschung um ein fragmentiertes Themenfeld handelt, welches diverse inhaltliche Schnittstellen zu benachbarten und übergeordneten Forschungsgebieten aufweist. Ebenfalls stellt sich heraus, dass zukünftige wissenschaftliche BPMN-Arbeiten von konsolidierenden und innovativen Forschungsmaßnahmen profitieren können.Item Open Access Internetgestützte Textanalyse zur Extraktion von Produktentwicklungswissen mittels OntoUSP : eine Machbarkeitsanalyse(2013) Wang, ChenEin natürlicher Text wird mit der Hilfe von USP bzw. OntoUSP in eine MLN für die Wörter umgewandelt. Ein MLN verknüpft Prädikatenlogik erster Stufe und Markov Netzwerk miteinander. Deshalb kann das Wissen mittels der Regeln aus dem vorhandenen Wissen Schlüsse inferieren. Die Korrektheit der Ergebnisse von "Standford Parse" und USP hat starken Einfluss auf die Schlussfolgerung. Durch die Analyse von MLN kann eine Hierarchie für die Wörter erstellt werden. Die Hierarchie kann man verbessern. Zwar ist die Hierarchie nicht ideal, aber das Produkt, die Produkteigenschaft und der Produkteigenschaftswert können extrahiert werden. Im Vergleich zu anderen Ansätzen ist der Algorithmus, der in dieser Diplomarbeit entwickelt wird, voll automatisch. Durch die Verbesserung der Hierarchie werden die Genauigkeit der Informationsextraktion verbessert. Wenn die Hierarchie besser aufgebaut wird, werden die mehrere richtige Informationen extrahiert. Bei der Verbesserung der Hierarchie ist immer die Schwierigkeit, die Fehler aus den Ergebnissen von Standford Parse und USP System zu korrigieren. Durch die Korrektur der Abhängigkeit wird die Hierarchie verbessert. Die Korrektur ist meistens abhängig von syntaktischen Beziehungen, aber die richtige Korrektur muss mit einer Kombination von syntaktischen Beziehungen durchgeführt werden. Beim Filter werden die Ausgabe zu verbessern, führt keine mehr Korrektur von Abhängigkeit durch. Aus den Ergebnissen der Experimente kennt man das, wenn die Wörter, die mit dem Produkt irrelevant sind, gefiltert werden können oder die Hierarchie verbessert werden kann, wird die Genauigkeit verbessert.