05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
25 results
Search Results
Item Open Access STEP/XML based macro data representation for parametric CAD model exchange(2014) Zoabi, FirasThere is tremendous need in collaborative design today for the integration of heterogeneous CAx systems. This general practice has serious shortcomings like design discontinuity, limited parallelisation, loss of information, and conversion errors. To overcome these shortcomings, macro-parametric approach (MPA), which is a history-based method of parametric CAD model exchange, has been proposed. The macro-parametric approach is a way to achieve compatible CAD model exchange amongst a variety of mutually incompatible CAD systems. CAD models can be exchanged in the form of a macro file that comprises a sequence of modeling commands. A standard macro file that contains a set of event-driven commands can transfer the designer intent such as parameters, features and constraints. Currently, STEP (STandard for the Exchange of Product model data) as an international standard (ISO-10303, Industrial automation systems and integration - Product data representation and exchange) for the computer-interpretable representation and the exchange of product model data is widely used. STEP is becoming the 'lingua franca' in the area of modelling and exchanging product data. One remaining problem of the using STEP as a neutral format is that it does not retain parametric information such as the designer intent but only the pure boundary representation (B-rep) of the CAD model. The B-rep model without parametric information presents difficulties for engineering changes and it may also lead to an unexpected distortion of shape. This research aims to investigate an exchange method that uses STEP/XML (extensible mark-up) technology to express a set of standard modeling commands extracted from CAD models created by Autodesk InventorTM, to enable the same CAD models are readable and shareable with other CAD application systems.Item Open Access Analyse und Auswertung von gewichteten Anforderungen in technischen Spezifikationen(2013) Zwirn, FelixDie Erhebung von Anforderungen aus natürlich sprachlichen Texten ist ein wichtiger Aufgabenteil eines jeden technischen Projektes. Die Extraktion von Anforderungen von Hand ist allerdings langwierig und anfällig für Fehler. Für diese Arbeit wurde deswegen ein System entworfen, dass gewichtete Anforderungen analysiert und auswertet. Es werden vom REC System Sätze danach untersucht, ob es sich bei ihnen um Anforderungen handelt. Dafür werden sie mithilfe einer Ontologie in Klassen unterteilt. Die betrachteten Klassen sind Anforderungen, schwache Anforderungen, optionale Anforderungen, Kandidaten für Anforderungen und keine Anforderungen. Die Ontologie nutzt (Subjekt, Verb, Objekt)- Tripel (SVO-Tripel), um Kandidaten zu finden. Anhand bestimmter Schlüsselwörter werden die Kandidaten danach weiter unterschieden. Die Erkennungsontologie hat bei technischen Spezifikationen eine Trefferquote von über 80% bei einer Präzision von 100%. Es werden also keine Sätze fälschlicherweise als Anforderungen klassifiziert. Betrachtungen von anderen Texten ergaben, dass viele optionale Anforderungen tatsächliche keine Anforderungen waren. Dies führte zu einer Präzision von 50% bei Dokumenten, die keine technische Spezifikation sind. Die Qualität der Klassifizierung hängt somit stark von der Struktur des eingehenden Dokumentes ab. Der REC kann auch genutzt werden, um Dokumente mit anderen Ontologien zu klassifizieren. Die Ontologien müssen eine Basisontologie (Abbildung 5.6) erweitern. Ein Dokument lässt sich ohne Wechselwirkung von mehreren Ontologien klassifizieren.Item Open Access "Process Engine" als Werkzeug der Automatisierung der Projektabwicklung in Unternehmen(2013) Gao, YangyangDas auf Basis von Web-Anwendungen implementierte Benutzeroberflächen-Konzept ermöglicht die Realisierung von Konsistenzprüfungen, eine unkomplizierte Fehlerbehandlung bei Daten-Inkonsistenz und die schrittweise Integration der entwickelten Dokumentengesteuerten Projektabwicklung in die bisherige Arbeitsumgebung der Firma Innovations- Solutions AG (ISAG). Zusammen mit dem strukturierten und erweiterbaren Datenbankschema werden die Fehlermöglichkeiten verringert und der Fehlerentdeckungsaufwand sowie der Arbeitsaufwand zur Projektabwicklung reduziert. Das neu entwickelte kombinierte Konzept einer gesamtheitlichen Prozess-Steuerung der Projektabwicklung, die in einzelnen Projektabschnitten eine Dokumenten-Steuerung zulässt, basiert auf Bonita Open Solution und Apache Tomcat und bindet die als Web-Anwendungen implementierten Benutzeroberflächen ein. Die dafür definierten Softwaretests sind optimal auf die unterschiedlichen Eigenschaften der hier verwendeten Werkzeuge abgestimmt. Die pilothafte Implementierung der kombinierten Projektabwicklung zeigt neue Möglichkeiten zu strukturierter und effizienter Projektabwicklung in kleinen und mittleren Unternehmen.Item Open Access Entwicklung einer Schnittstelle zur multidisziplinären Entwurfsoptimierung im Bereich Städteplanung(2013) Martin, OlegMultidisziplinäre Optimierung von komplexen Systemen sowie die Formulierung eines Optimierungsproblems und deren nahtlose Einbindung in den Bereich der Städteplanung ist Gegenstand der aktuellen Forschung. Architekten im Bereich des Städtebaus befassen sich typischerweise mit dem räumlichen Entwurf von großflächigen Stadtstrukturen sowie deren sozialen und technologischen Implikationen, wodurch die Notwendigkeit einer optimalen Verwendung von Bauflächen in den Vordergrund rückt. In der vorliegenden Diplomarbeit werden Lösungswege für den Einsatz multidisziplinärer Entwurfsoptimierung im Bereich der Städteplanung mit bereits existierenden Softwarewerkzeugen erarbeitet und erprobt. Das Ziel dieser Arbeit ist es, Architekten und Städteplaner mit Hilfe einer einheitlichen Schnittstelle zwischen den existierenden Softwarewerkzeugen bei der Entwurfsfindung zu unterstützen und damit eine nachhaltige städtebauliche Entwicklung eines Stadtgebietes zu ermöglichen.Item Open Access Development of procedures and evaluation strategies for novel field-effect transistor sensors(2012) Parker, Michael LeeIn order to evaluate new types of sensors based on the field-effect transistor technology, a cost-effective measurement and control system is developed. Because some new types of transistor-based sensors are particularly prone to drift and noise, a measurement system is built around evaluating the effect of a biasing technique known as switched biasing, which has been shown to reduce drift under certain configurations. The result is an implementation of software and hardware that is both able to control a transistor with switched biasing, explore drift-reducing switched biasing configurations, and accurately measure its performance with relatively high precision. Pre-Filtering of the measured data coupled with a fast actuation of an analog-to-digital converter is realized and implemented on a FPGA in the form of a rate-adjustable CIC decimation filter, which increases the signal-to-noise ratio and reduces the required data-transfer rate. The measurement system is controlled internally by a microcontroller and is interfaced through a USB interfaces to a higher-level system, such as a computer running MATLAB, and allows for multiple measurement systems to be operated in parallel. Systematic errors related to limitations of measurement hardware such as offset, temperature and drift are evaluated and compensated for through calibration.Item Open Access CAD feature recognition of machining parts(2012) Erbas, Dursun KemalDie Oberflächen von Maschinenteilen lassen sich dank der ständigen Weiterentwicklung der 3D-Scan-Technologie immer schneller erfassen und erzeugen dabei eine Reihe von Punktdaten, die auch Punktwolke genannt werden. Die Entwicklung der Scan-Technologie erfordert effiziente Objekterkennungsprozesse, um die gescannten Maschinenteile mit ihren geometrischen Merkmalen möglichst automatisch aus einer vorliegenden Punktwolke zu erkennen und entsprechend zur Weiterverarbeitung der Objekte durch CAD-Systeme zu rekonstruieren. Objekterkennungsprozesse bestehen aus mehreren Schritten, bei denen vor der Objekterkennung die Extraktion der geometrischen Oberflächenmerkmale wie Normalenvektor und Krümmung an den einzelnen Punkten der Oberfläche sowie die Segmentierung der vorliegenden Punktwolke erforderlich ist. Im Allgemeinen gibt es zwei grundverschiedene Ansätze, um den Normalenvektor und die Krümmung an Oberflächenpunkten zu berechnen: analytische und numerische. Analytische Ansätze sind im Vergleich zu numerischen Ansätzen operativ aufwendiger. Numerische Ansätze dagegen weisen Schwächen besonders an scharfen Kanten und Übergängen zwischen geometrisch unterschiedlichen Teilobjekten in einer Punktwolke auf. Zur Verbesserung des Objekterkennungsprozesses wird in dieser Arbeit ein Verfahren vorge- stellt und implementiert, bei dem der Objekterkennungsprozess direkt auf eine unstrukturierte Punktwolke angewendet wird. Unstrukturiert bedeutet hier, dass die Punkte aus der Punktwolke ungeordnet sind und keine Nachbarschaftsinformationen zwischen den einzelnen Punkten existieren. In dem vorgestellten Prozess werden zunächst die geometrischen Merkmale wie Normalenvektor und Krümmung aus den einzelnen Oberflächenpunkten gewonnen. Um die Normalenvektoren zu berechnen, wird ein bestehendes numerisches lokales Triangulationsverfahren zu dem neuen Verfahren Lokale Triangulation mit direkten Nachbarpunkten erweitert. Innerhalb dieses Verfahrens wird eine neue Methode entwickelt, mit der die störenden Punkte in der Nachbarschaft eliminiert und somit die direkten Nachbarn eines betrachteten Punktes ermittelt werden. Mit Hilfe dieser Methode werden lokale Triangulationen besonders an scharfen Kanten und Übergängen optimiert, so dass sowohl Normalenvektor als auch die Krümmung in einem Schritt effizient berechnet werden, ohne analytische Ansätze einzusetzen. Mit Hilfe der gewonnen Merkmale wird die normalenbasierte Segmentierung durchgeführt, um die Kanten und die Übergänge zwischen geometrisch unterschiedlichen Teilobjekten in der Punktwolke zu detektieren. Die detektierten Kanten und Übergänge werden weiter verwendet, um charakteristische Teiloberflächen in einer Punktwolke einzugrenzen, so dass die Punkte einer Teiloberfläche in der krümmungsbasierten Segmentierung aufgeteilt und den zugehörigen geometrischen Grundprimitiven wie Ebene, Kugel oder Zylinder zugeordnet werden. Die Zuordnung entspricht dabei der Aufteilung des gescannten Maschinenteiles in seine Teiloberflächen, welche später zur Weiterverarbeitung parametrisiert und in die von CAD-Systemen bekannten Formate konvertiert werden kann.Item Open Access Weiterentwicklung des BPMN-Ansatzes für Geschäftsprozessmodelle(2014) El Hussein, RobertIm Rahmen des Business Process Management (BPM) stellt die Prozessmodellierung eine einleitende Phase dar, in der Arbeitsabläufe in Form von Prozessmodellen abgebildet werden. Hierbei hat sich die graphische Modellierungssprache Business Process Model and Notation (BPMN) als Standard für die Prozessmodellierung etabliert. Die vergangene BPMN-Forschung hat zufriedenstellende Lösungen für die Themen Evaluation, Semantik, Ausführbarkeit und Compliance entwickelt. Diese Ergebnisse bilden eine formale Grundlage für anknüpfende Forschungsarbeiten und industrielle Anwendungen. Die BPMN-Forschung befindet sich nun in einer Phase, in der neue Forschungsthemen identifiziert werden müssen, welche sich an den Bedürfnissen der Anwender sowie an den zukünftigen Anforderungen der Prozessmodellierung und des BPM orientieren. Im Hinblick auf diese Herausforderung analysiert die vorliegende Arbeit die bisherige BPMN-Forschung auf Basis einer umfangreichen Literaturrecherche. Es werden vergangene Forschungsergebnisse zusammengefasst und aktuelle Forschungsansätze ausführlich und zusammenhängend dargelegt. Darauf aufbauend werden neue BPMN-Themen aufgezeigt, die für zukünftige Forschungsaktivitäten von Bedeutung sein können. Bei der Analyse wird deutlich, dass es sich bei der aktuellen BPMN-Forschung um ein fragmentiertes Themenfeld handelt, welches diverse inhaltliche Schnittstellen zu benachbarten und übergeordneten Forschungsgebieten aufweist. Ebenfalls stellt sich heraus, dass zukünftige wissenschaftliche BPMN-Arbeiten von konsolidierenden und innovativen Forschungsmaßnahmen profitieren können.Item Open Access Internetgestützte Textanalyse zur Extraktion von Produktentwicklungswissen mittels OntoUSP : eine Machbarkeitsanalyse(2013) Wang, ChenEin natürlicher Text wird mit der Hilfe von USP bzw. OntoUSP in eine MLN für die Wörter umgewandelt. Ein MLN verknüpft Prädikatenlogik erster Stufe und Markov Netzwerk miteinander. Deshalb kann das Wissen mittels der Regeln aus dem vorhandenen Wissen Schlüsse inferieren. Die Korrektheit der Ergebnisse von "Standford Parse" und USP hat starken Einfluss auf die Schlussfolgerung. Durch die Analyse von MLN kann eine Hierarchie für die Wörter erstellt werden. Die Hierarchie kann man verbessern. Zwar ist die Hierarchie nicht ideal, aber das Produkt, die Produkteigenschaft und der Produkteigenschaftswert können extrahiert werden. Im Vergleich zu anderen Ansätzen ist der Algorithmus, der in dieser Diplomarbeit entwickelt wird, voll automatisch. Durch die Verbesserung der Hierarchie werden die Genauigkeit der Informationsextraktion verbessert. Wenn die Hierarchie besser aufgebaut wird, werden die mehrere richtige Informationen extrahiert. Bei der Verbesserung der Hierarchie ist immer die Schwierigkeit, die Fehler aus den Ergebnissen von Standford Parse und USP System zu korrigieren. Durch die Korrektur der Abhängigkeit wird die Hierarchie verbessert. Die Korrektur ist meistens abhängig von syntaktischen Beziehungen, aber die richtige Korrektur muss mit einer Kombination von syntaktischen Beziehungen durchgeführt werden. Beim Filter werden die Ausgabe zu verbessern, führt keine mehr Korrektur von Abhängigkeit durch. Aus den Ergebnissen der Experimente kennt man das, wenn die Wörter, die mit dem Produkt irrelevant sind, gefiltert werden können oder die Hierarchie verbessert werden kann, wird die Genauigkeit verbessert.Item Open Access Implementierung von Methoden zur Auswertung von textuellen Anforderungen im WRSPM-Umfeld(2012) Tuncer, MuhammedIn einem wettbewerbsorientierten Markt spielen bei der Entwicklung von Firmen-Software immer mehr Faktoren eine wichtige Rolle. Auch eine erfolgreich durchgeführte Anforderungsanalyse (bzw. Requierement Engineering) zählt dazu. Denn so können z.B. Auftraggeber und Anwender entscheidend in den frühen Phasen der Systementwicklung mitwirken. Viele Fehler, die erst später auftauchen, können somit von Anfang an beseitigt werden. Linguistische Methoden können helfen, diesen Prozess rechnergestützt zu beschleunigen. Die Aufgabe dieser Arbeit ist es, aus einem reinen Text eine semantisch annotierte SALE-Datei (Semantic Annotation Language for English) zu erzeugen. Eine SALE-Datei ist eine strukturierte Text-Datei mit semantischen Rollen. Basierend auf einer syntaktischen Struktur wird in Zusammenarbeit mit Wissens-Ressourcen (Ontologien) eine möglichst genaue Bedeutung des Textes maschinell erarbeitet. Durch die methodische Vereinigung mehrerer Ontologien, die ähnlich aufgebaut sind, kommt man grundsätzlich auf exaktere Ergebnisse. Deswegen kamen in dem hier neu entwickelten Prototyp „Auto SRL“, neben dem syntaktischen Informationslieferant Stanford Core NLP noch folgende Ontologien zum Einsatz: WordNet, VerbNet, und FrameNet. Es gibt mittlerweile große Projekte wie Eclipse-EMF, die ein strukturiertes Dokument wie z.B. eine eSALE-Datei (gewonnene XML-Datei aus einer SALE-Datei) laden und grafisch anzeigen können. Die Ergebnisse entsprechen dabei den Instanzen des Textes. Durch das Laden dieser XML-Datei erhält man gleichzeitig Java-Klassen, mit denen man im weiteren Vorgehen der Software-Entwicklung interagieren kann (siehe [KIT11a] und [KIT11b]).Item Open Access Automatische Modellerzeugung aus klassifizierten und modellbasierten Anforderungen(2014) Jiang, LanDie Erhebung und Analyse der Anforderungen ist eine Schlüsselphase eines technischen Projekts. Schlechte oder fehlerhafte Anforderungen an komplizierte Softwareprodukte können zu einer schwerwiegenden Konsequenz führen. Ein verbreitetes Verfahren ist die Erhebung der Anforderungen aus natürlich sprachlichen Texten. Einerseits kann das Verfahren die gute Verständlichkeit natürlicher Sprache bieten, andererseits lassen sich dabei die Mehrdeutigkeiten natürlicher Sprache nicht vermeiden. Außerdem wird in manchen Bereichen, bei denen modellbasierte Ansätze zur Anwendung kommen, die Anforderungsanalyse unter Verwendung von natürlich sprachlichen Texten durchgeführt. Dadurch ist die Verbindung zwischen Anforderungsanalyse und Entwurf nicht so gut möglich. In dieser Arbeit wurde ein System UML Model Generator (UMG) entworfen, das Modelle aus klassifzierten und modellbasierten Anforderungen generiert. Mit den Modellen können die Anforderungen nicht nur textuell sondern auch grafisch dargestellt werden. Die Qualität der Anforderungsanalyse wird dadurch verbessert und ein Übergang von der Anforderungsanalyse hin zum Entwurf wird ebenfalls ermöglicht und Mehrdeutigkeiten werden vermieden. Das UMG System bietet die Funktionalität der Klassifizierung, die auf einem vorhandenen REC System aus der Diplomarbeit [Zwi13] basiert, welches Anforderungen aus technischen Spezifikationen extrahiert und klassifiziert. Zur Erzeugung der Modelle extrahiert UMG die funktionalen Anforderungen aus einem texutellen Dokument, welche Funktionen eines zu entwickelnden Systems beschreiben können. Für UMG wurde ein Datenmodell entworfen, das die extrahierten Anforderungen in Format von UML Model Generator XML (UMGX) darstellt. Darauf aufbauend kann ein modellbasiertes Anforderungsdokument generiert, in dem alle essentiellen Informationen zur Erzeugung der Modelle von Anforderungen beinhaltet sind. Ein UMGX Dokument enthält Anwendungsfälle und gegebenenfalls zu diesen die Standardabläufe. Als ein grundsätzliches Konzept von UMG ermöglicht das Datenmodell beliebige Änderungen und Erweiterungen zu den Anforderungen und deren Modelle.
- «
- 1 (current)
- 2
- 3
- »