05 Fakultät Informatik, Elektrotechnik und Informationstechnik
Permanent URI for this collectionhttps://elib.uni-stuttgart.de/handle/11682/6
Browse
25 results
Search Results
Item Open Access Efficient modeling and computation methods for robust AMS system design(2018) Gil, Leandro; Radetzki, Martin (Prof. Dr.-Ing.)This dissertation copes with the challenge regarding the development of model based design tools that better support the mixed analog and digital parts design of embedded systems. It focuses on the conception of efficient modeling and simulation methods that adequately support emerging system level design methodologies. Starting with a deep analysis of the design activities, many weak points of today’s system level design tools were captured. After considering the modeling and simulation of power electronic circuits for designing low energy embedded systems, a novel signal model that efficiently captures the dynamic behavior of analog and digital circuits is proposed and utilized for the development of computation methods that enable the fast and accurate system level simulation of AMS systems. In order to support a stepwise system design refinement which is based on the essential system properties, behavior computation methods for linear and nonlinear analog circuits based on the novel signal model are presented and compared regarding the performance, accuracy and stability with existing numerical and analytical methods for circuit simulation. The novel signal model in combination with the method proposed to efficiently cope with the interaction of analog and digital circuits as well as the new method for digital circuit simulation are the key contributions of this dissertation because they allow the concurrent state and event based simulation of analog and digital circuits. Using a synchronous data flow model of computation for scheduling the execution of the analog and digital model parts, very fast AMS system simulations are carried out. As the best behavior abstraction for analog and digital circuits may be selected without the need of changing component interfaces, the implementation, validation and verification of AMS systems take advantage of the novel mixed signal representation. Changes on the modeling abstraction level do not affect the experiment setup. The second part of this work deals with the robust design of AMS systems and its verification. After defining a mixed sensitivity based robustness evaluation index for AMS control systems, a general robust design method leading to optimal controller tuning is presented. To avoid over-conservative AMS system designs, the proposed robust design optimization method considers parametric uncertainty and nonlinear model characteristics. The system properties in the frequency domain needed to evaluate the system robustness during parameter optimization are obtained from the proposed signal model. Further advantages of the presented signal model for the computation of control system performance evaluation indexes in the time domain are also investigated in combination with range arithmetic. A novel approach for capturing parameter correlations in range arithmetic based circuit behavior computation is proposed as a step towards a holistic modeling method for the robust design of AMS systems. The several modeling and computation methods proposed to improve the support of design methodologies and tools for AMS system are validated and evaluated in the course of this dissertation considering many aspects of the modeling, simulation, design and verification of a low power embedded system implementing Adaptive Voltage and Frequency Scaling (AVFS) for energy saving.Item Open Access Maschinelles Lernen für intelligente Automatisierungssysteme mit dezentraler Datenhaltung am Anwendungsfall Predictive Maintenance(2019) Maschler, Benjamin; Jazdi, Nasser; Weyrich, MichaelFür eine hohe Ergebnisqualität sind Machine Learning Algorithmen auf eine breite Datenbasis angewiesen. Studien zeigen jedoch, dass viele Unternehmen nicht bereit sind, ihre Daten mit anderen Unternehmen, beispielsweise in Form einer gemeinsamen Daten-Cloud, zu teilen. Ziel sollte es daher sein, effizientes maschinelles Lernen mit einer dezentralen Datenhaltung, die den Verbleib vertraulicher Daten im jeweiligen Ursprungs-Unternehmen ermöglicht, zu ermöglichen. In diesem Artikel wird diesbezüglich ein neuartiges Konzept vorgestellt und hinsichtlich seiner Potentiale für intelligente Automatisierungssysteme am Beispiel des Anwendungsfalls Predictive Maintenance analysiert. Die Umsetzbarkeit des Konzepts unter Nutzung verschiedener bestehender Ansätze wird diskutiert, bevor schließlich auf potentielle Mehrwerte für Anlagenbetreiber sowie -hersteller unter besonderer Berücksichtigung der Perspektive kleiner und mittlerer Unternehmen eingegangen wird.Item Open Access Agentenbasierte Konsistenzprüfung heterogener Modelle in der Automatisierungstechnik(2015) Rauscher, Michael; Göhner, Peter (Prof. Dr.-Ing. Dr. h.c.)Automatisierte bzw. mechatronische Systeme sind aus der heutigen Welt nicht mehr wegzudenken. Sowohl ein Großteil der technischen Produkte als auch die industrielle Produktion enthalten Elemente der Mechatronik. Sie ist eine Disziplin, die die klassischen Disziplinen des Maschinenbaus, der Elektrotechnik und der Informationstechnik in sich vereint. Um die gewinnbringende Zusammenarbeit dieser sehr unterschiedlichen Disziplinen zu gewährleisten, muss verschiedenen Herausforderungen begegnet werden. Die durch die verschiedenen Disziplinen bedingte Verwendung heterogener Modelle ist dabei eine große Fehlerquelle beim Entwurf mechatronischer Systeme. Inkonsistenzen zwischen den einzelnen Modellen, die erst spät im Entwurfsprozess aufgedeckt werden, erfordern großen Aufwand zur Behebung und gefährden die Qualität der entwickelten Produkte. Auf Grund der Heterogenität der Modelle, ist eine automatisierte Prüfung der Modelle auf Inkonsistenzen nicht möglich. Die manuelle Abstimmung zwischen den Disziplinen und Modellen kosten die Entwickler jedoch viel Zeit im Entwicklungsprozess und sie können sich nicht vollständig auf ihre eigentliche, kreative und gewinnbringende Arbeit konzentrieren. Deshalb ist die Unterstützung der Entwickler bei der Prüfung der Modelle notwendig, um die Entwicklungskosten zu reduzieren und die Produktqualität zu steigern. In der vorliegenden Arbeit wird ein Konzept zur automatisierten Konsistenzprüfung für heterogene Modelle vorgestellt, das in der Lage ist, Inkonsistenzen aufzudecken und den Entwicklern alle zu deren Auflösung verfügbaren Informationen bereitzustellen. Das Konzept basiert darauf, die heterogenen Modelle und deren Inhalt auf eine globale, modellübergreifende Ebene zu abstrahieren und dort zu interpretieren und zu prüfen. Dies wird erreicht, indem jedes Modell, genauer jeder Modelltyp, eine (lokale) Beschreibung erhält, in der die Struktur und die Bedeutung der Syntax des Modelltyps enthalten sind. Das zur Prüfung erforderliche Wissen in Form von Fakten, Zusammenhängen und daraus abgeleiteten Regeln ist allgemeingültig verfasst und befindet sich auf der globalen Ebene. Benutzerspezifisch können zu prüfende Regeln ergänzt werden. Die lokalen und die globale Wissensbasen werden in Form von Ontologien realisiert. Die Prüfung selbst wird mit Hilfe eines Softwareagentensystems durchgeführt. Die Grundidee der agentenorientierten Konsistenzprüfung ist es, jedes beteiligte Modell mit einem Modellagenten zu repräsentieren, der als Schnittstelle zwischen lokaler und globaler Ebene fungiert. Ein Ontologieagent leitet die Regeln aus der globalen Wissensbasis ab. Regelagenten führen die Prüfung der Modelle auf die Einhaltung der Regeln aus. Ein Koordinierungsagent stößt die Prüfung an, koordiniert diese und verwaltet die Ergebnisse. Dem Entwickler werden diese Ergebnisse am Ende einer Prüfung präsentiert und alle Informationen, die zu einem positiven oder negativen Ergebnis geführt haben, bereitgestellt. Er kann die aufgedeckten Inkonsistenzen anschließend gezielt beheben und wird so bei seiner Tätigkeit unterstützt. Gleichzeitig wird die Qualität der mechatronischen Systeme gesteigert, indem die möglichen Fehlerquellen reduziert werden.Item Open Access Direction of arrival estimation using a multiple-input-multiple-output radar with applications to automobiles(2017) Rambach, Kilian; Yang, Bin (Prof. Dr.-Ing.)The thesis at hand investigates the direction of arrival (DOA) estimation using a Multiple-Input-Multiple-Output (MIMO) radar system. The application of MIMO radars in automobiles is studied. A MIMO radar consists of several transmitting (Tx) and receiving (Rx) antennas. We focus on a time division multiplexed (TDM) MIMO radar with colocated Tx and Rx antennas. The motivation is the use of a radar as a security system in automotive applications, e.g. to identify a dangerous situation and react automatically. Security systems must be very reliable. Hence, besides a good estimation of the distance and velocity, a high performance in DOA estimation is necessary. This is a demanding task, since only a small number of antennas is used and the radar is limited to a small geometrical size. Compared to the corresponding Single-Input-Multiple-Output (SIMO) radar, a MIMO radar with colocated antennas can achieve a higher accuracy in DOA estimation due to its larger virtual aperture. Therefore it is a promising technique for the use in automobiles. The obtained results of this thesis enable us to find optimal TDM schemes which yield a very high DOA accuracy for targets which are stationary as well as for targets which are moving relative to the radar system. The results are not confined to MIMO radars in automobiles, but can be used in other applications as well.Item Open Access Investigations of the error resilient rate distortion optimization for H.264 video transport over packet lossy channels(2010) Zeng, Hao; Speidel, Joachim (Prof. Dr.-Ing.)This dissertation first presents a rigorous analysis of the rate-distortion optimization (RDO) framework in H.264 and other similar video coding standards. The analysis is based on the rate-distortion theory and provides a deep theoretical insight into the RDO practice. In the analysis, the crucial assumptions and models on which the RDO is based, are formulated and discussed. Then the validity of deploying the RDO in error resilient video encoding is analyzed. Finally, the dissertation proposes and investigates two modification schemes to the error resilient RDO (ER-RDO) framework in the H.264 reference codec. The schemes are inspired by the aforementioned analyses and seek to find better complexity-performance balance points. The simulation results suggest that the performance of the existing H.264 ER-RDO framework has already been highly optimized. On the other side, algorithm complexity reduction is still possible using one of the proposed schemes.Item Open Access Implications of the uncanny valley of avatars and virtual characters for human-computer interaction(2018) Schwind, Valentin; Henze, Niels (Prof. Dr.)Technological innovations made it possible to create more and more realistic figures. Such figures are often created according to human appearance and behavior allowing interaction with artificial systems in a natural and familiar way. In 1970, the Japanese roboticist Masahiro Mori observed, however, that robots and prostheses with a very - but not perfect - human-like appearance can elicit eerie, uncomfortable, and even repulsive feelings. While real people or stylized figures do not seem to evoke such negative feelings, human depictions with only minor imperfections fall into the "uncanny valley," as Mori put it. Today, further innovations in computer graphics led virtual characters into the uncanny valley. Thus, they have been subject of a number of disciplines. For research, virtual characters created by computer graphics are particularly interesting as they are easy to manipulate and, thus, can significantly contribute to a better understanding of the uncanny valley and human perception. For designers and developers of virtual characters such as in animated movies or games, it is important to understand how the appearance and human-likeness or virtual realism influence the experience and interaction of the user and how they can create believable and acceptable avatars and virtual characters despite the uncanny valley. This work investigates these aspects and is the next step in the exploration of the uncanny valley. This dissertation presents the results of nine studies examining the effects of the uncanny valley on human perception, how it affects interaction with computing systems, which cognitive processes are involved, and which causes may be responsible for the phenomenon. Furthermore, we examine not only methods for avoiding uncanny or unpleasant effects but also the preferred characteristics of virtual faces. We bring the uncanny valley into context with related phenomena causing similar effects. By exploring the eeriness of virtual animals, we found evidence that the uncanny valley is not only related to the dimension of human-likeness, which significantly change our view on the phenomenon. Furthermore, using advanced hand tracking and virtual reality technologies, we discovered that avatar realism is connected to other factors, which are related to the uncanny valley and depend on avatar realism. Affinity with the virtual ego and the feeling of presence in the virtual world were also affected by gender and deviating body structures such as a reduced number of fingers. Considering the performance while typing on keyboards in virtual reality, we also found that the perception of the own avatar depends on the user's individual task proficiencies. This thesis concludes with implications that not only extends existing knowledge about virtual characters, avatars and the uncanny valley but also provide new design guidelines for human-computer interaction and virtual reality.Item Open Access Berührungslose Messung schnell veränderlicher Ströme(2014) Hudoffsky, Boris; Roth-Stielow, Jörg (Prof. Dr.-Ing.)Die berührungslose Strommessung wird im speziellen Anwendungsgebiet der Leistungselektronik bezüglich der Anforderungen an Messgeräte, des Stands der Technik und einem eigens entwickelten Messsystem behandelt. Die Herausforderung bei der Erfassung eines Stromverlaufs wird umso größer, je breitbandiger das Signal ist. Die für die Leistungselektronik typischen trapezförmigen Verläufe sind durch steile Flanken und dazwischenliegende Zeitabschnitte mit konstantem Strom gekennzeichnet. Sie enthalten neben dem Gleichanteil und der Grundschwingung viele hochfrequente Oberschwingungen. Für diese spezielle Signalform wird in dieser Arbeit der Zusammenhang zwischen erforderlicher Messgenauigkeit und benötigter Bandbreite eines Messsystems hergeleitet. Aus dieser Betrachtung kann eine Aussage darüber abgeleitet werden, welche Genauigkeit mit einem Messsystem bei angenommenem Tiefpassverhalten des Messgeräts erreicht werden kann. Andersherum kann eine Aussage darüber gemacht werden, welche Grenzfrequenz bei einer geforderten Genauigkeit notwendig ist. Aus hohen Anforderungen an die Genauigkeit resultiert bei trapezförmigem Signalverlauf eine große Bandbreite inklusive Gleichstrom. Nach dem Stand der Technik weisen direkt-abbildende und Nullfluss-geregelte Strommesssysteme PT1-Verhalten auf. Bei einer detaillierten Analyse etablierter Messsysteme wird festgestellt, dass die Kombination der Eigenschaften einer großen Bandbreite inklusive Gleichstromerfassung mit einer großen zulässigen Amplitude über den gesamten Frequenzbereich in einem Strommesssystem nicht gegeben ist. Diese Kombination ist allerdings für die breitbandige Strommessung besonders wichtig. Der Ansatz der stoßfreien Verkoppelung (HOKA-Prinzip) synthetisiert ein Messsystem aus zwei Sensoren: Gleichstrom und niederfrequente Ströme werden vom ersten Sensor (DC-Sensor), niederfrequente bis hochfrequente Ströme werden vom zweiten Sensor (AC-Sensor) erfasst. Dabei arbeiten die beiden Sensoren unabhängig voneinander und besitzen unterschiedliche Übertragungsfunktionen. Das Zusammenführen dieser zwei unterschiedlichen primären Sensoren führt zu einem breitbandigen Ausgangssignal. Bisher wurden zum HOKA-Prinzip keine Lösungen als zu öffnende Zange vorgestellt. Außerdem beschränken kommerzielle DC-Sensoren die Einsatzmöglichkeiten in Umgebungen mit großen Strömen bei hohen Frequenzen. Zur Vermeidung dieser Einschränkungen werden Lösungen vorgestellt und in Form eines Prototypen am Beispiel der Strommessung in der Leistungselektronik präsentiert. Die bisher vorhandene Technik zur Erfassung niederfrequenter Ströme stellt Messsysteme unterschiedlicher Genauigkeit bei einem weiten Bereich der maximal erfassbaren Amplitude zur Verfügung. Die berührungslosen Messverfahren, die für den DC-Sensor in Frage kommen, basieren auf der Erfassung des magnetischen Felds um einen Stromleiter, das in einem weichmagnetischen Kern gebündelt und über die Flussdichte ausgewertet wird. Dieser Kern kann in mancher Hinsicht die Messung negativ beeinflussen. Einerseits wird damit eine zusätzliche Induktivität in den zu messenden Stromkreis eingefügt, so dass die ursprünglichen Stromverläufe verändert werden. Andererseits können bei hochfrequenten Strömen so große Verluste im Kern entstehen, dass eine Messung nur kurz oder gar nicht möglich ist. Um die Verluste zu vermeiden und dennoch den Teil der gleichstromfähigen Erfassung für ein breitbandiges Messsystem zu erhalten, wird ein neues Konzept zur Gleichstrommessung vorgestellt. Die höherfrequenten Ströme werden mit einer Luftspule gemessen. Das neue Konzept beinhaltet die Messung des Magnetfelds um den stromführenden Leiter mit Induktionssensoren und verzichtet auf die Führung des magnetischen Flusses in einem Eisenkern. Den Induktionssensoren liegt der riesenmagnetoresistive- (GMR-) Effekt zu Grunde. Sie werden mit einer Biasspule vormagnetisiert und als Sensor-Spule-Kombination in einer ringförmigen Reihe um den zu messenden Leiter angeordnet. Ein Kanal des DC-Messsystems besteht neben der Kombination von Induktionssensor und Biasspule aus einer Ansteuer- und Auswerteschaltung. Mit dieser Technik wird ein Prototyp aufgebaut und im Betrieb untersucht. Zur Erfassung der höher- und hochfrequenten Ströme wird eine in Zangenform gewickelte Luftspule entworfen und aufgebaut. Die Ausgangssignale der beiden Sensoren werden über eine HOKA-Auswerteschaltung verkoppelt. Damit entsteht ein breitbandiges Strommesssystem als Zange ausgeführt, welches DC-Ströme von über 1000A messen kann. Der Frequenzbereich erstreckt sich bis über 10MHz, ebenfalls bei einer Amplitude von 1000A. Mit eigens aufgebauten Prüfplätzen werden neben der Untersuchung des neuen Strommesszangenkonzepts bestehende Strommesssysteme getestet. Die Eigenschaften der Messsysteme werden nach einem systematischen Vorgehen ermittelt, so dass ein qualitativer Vergleich der Geräte möglich ist.Item Open Access Decentralized interference coordination for the downlink of fully loaded heterogeneous wireless networks(2019) Bleicher, Zarah M. L.; Speidel, Joachim (Prof. Dr.-Ing.)The relentless evolution towards an overwhelming increase of mobile data traffic, where mobile phone subscribers demand the highest data rates and comprehensive coverage presents current and future mobile communication networks with demanding requirements. Previous homogeneous networks were mostly designed to optimize the sum capacity and peak data rates rather than take the individual user experience into account, and therefore failed to meet these requirements. Multi-layer networks, also known as heterogeneous networks, can improve the coverage and capacity of the cellular network and bring the network closer to the user. Moreover, the introduction of the smaller cells into the macro cellular network can improve the performance, especially in hotspots and indoors, which results in a better user experience. Frequency spectrum is rare and valuable, thus solely adding further bandwidth does not meet the demand. However, when reusing the bandwidth, inter-cell interference from neighboring cells leads to performance degradations, in particular for users located at the cell edges. Within a multi-layer network, additional and even more dynamic interference is present, caused by different kinds of cells, like macro-, pico-, femtocells, and relays. Therefore, addressing the interference issue is essential. This thesis examines suitable interference coordination algorithms and introduces an advanced interference coordination technique for heterogeneous networks. Whereas current techniques require significant communication between base stations, reduce the available bandwidth notably or do not consider interference between the small cells, the advanced technique is located in the small cells with only marginal information exchange. Its performance is investigated by means of computer simulations for fully loaded heterogeneous networks on the system layer. As a result, the proposed technique reduces the impact on the surrounding cells significantly, making in-home communication services attractive, leading to a tremendous advantage for service providers as well as the end-user.Item Open Access Drahtloses Kommunikationssystem für biegsame Sensor-Folien(2019) Briem, Jochen; Berroth, Manfred (Prof. Dr.-Ing.)Item Open Access Mining software repositories for coupled changes(2017) Ramadani, Jasmin; Wagner, Stefan (Prof. Dr.)Software-Repositories enthalten Informationen über den Entwicklungsverlauf eines Softwaresystems, die von den Entwicklern bei Wartungsarbeiten genutzt werden können. Dazu gehören Daten im Versionsverwaltungssystem, im Issue-Tracking-System und in den Dokumentationsarchiven. Eine der meistverwendeten Techniken zur Analyse von Software-Repositories ist Data Mining, wobei die Frequent-Itemsets-Analyse häufig verwendet wird, um Gruppen von Dateien zu definieren, die in der Vergangenheit häufig zusammen geändert wurden. Diese Dateigruppen definieren wir als gekoppelte Dateien oder Coupled Files. Die meisten Studien über gekoppelte Dateiänderungen in Software-Repositories beziehen Git Versioning-Systeme nicht mit ein. Auch wird darin das Feedback der Entwickler bezüglich der Nützlichkeit der gekoppelten Dateiänderungen und deren Einfluss auf die Wartungsaufgaben nicht berücksichtigt. Das Hauptziel der vorliegenden Untersuchung besteht darin, Entwickler bei ihren Wartungsaufgaben zu unterstützen, und zwar in Form von Vorschlägen für mögliche Dateiänderungen, die auf früheren Änderungen im Git-Versionsverlauf der Software basieren. Wir untersuchten die Extraktion gekoppelter Dateiänderungen durch Data Mining mit Git und analysierten die Rückmeldung von Entwicklern bezüglich der Interessantheit und Nützlichkeit der Vorschläge für gekoppelte Dateiänderungen sowie deren Einfluss auf die Wartungsarbeiten. Anhand einer Fallstudie in der Industrie extrahierten wir gekoppelte Dateiänderungen aus drei Git-Repositories. Basierend auf der in dieser Fallstudie untersuchten Interessantheit und den Erkenntnissen aus einer Reihe empirischer Studien zu Wartungsarbeiten stellten wir eine Theorie auf über die Verwendung von Vorschlägen für gekoppelte Dateiänderungen bei Wartungsarbeiten. Diese Theorie wurde in folgenden Studien getestet: (1) Wir führten ein kontrolliertes Experiment durch, in dem wir Heuristiken zum Gruppieren verwandter Änderungssätze in Git untersuchten, aus denen wir relevante gekoppelte Dateiänderungen extrahierten. (2) In einem Quasi-Experiment untersuchten wir die Nützlichkeit gekoppelter Dateiänderungsvorschläge und deren Auswirkung auf die Korrektheit der Lösung sowie den Zeitaufwand für die Bearbeitung der Wartungsaufgaben. (3) In einer Explorationsstudie untersuchten wir, wie gekoppelte Dateiänderungsvorschläge die Strategie der Entwickler beeinflussen, mit der sie Wartungsarbeiten Hilfe suchen. In einer Explorationsstudie erweiterten wir das Konzept gekoppelter Dateiänderungen auf Paketebene und ermittelten verschiedene Stufen von Entwickler-Kompetenz anhand der von den Entwicklern bearbeiteten Systempakete. Wir entwickelten ein Werkzeug auf Eclipse-Basis, das gekoppelte Dateiänderungsvorschläge extrahiert, visualisiert und Entwicklern bei Wartungsaufgaben zur Verfügung stellt. Wir haben Heuristiken definiert um verwandte Änderungen in Git zu gruppieren. Mit der Frequent-Itemsets-Analyse gelang uns die Extraktion relativer häufiger gekoppelter Dateiänderungen aus Git. Die an der Fallstudie zur Interessantheit gekoppelter Dateien beteiligten Entwickler zeigten sich interessiert an dieser Art von Hilfe während der Wartungsarbeiten. Das Experiment zur Nützlichkeit von gekoppelten Dateiänderungsvorschlägen ergab, dass die Entwickler, die die Vorschläge nutzten, ihre Aufgaben erfolgreicher bewältigten als diejenigen, die es nicht taten. Die Ergebnisse der Explorationsstudie zur Inanspruchnahme von Hilfe bei Wartungsaufgaben zeigen, dass gekoppelte Dateiänderungsvorschläge auch den Bedarf an für die Wartungsaufgaben relevanten externen Informationsquellen reduzieren und so den Wartungsprozess kompakter machen. Zudem wurde das Konzept der gekoppelten Dateiänderungen erfolgreich eingesetzt, um Kompetenzprofile mit unterschiedlichen Spezialisierungen zu erstellen, die auf den Änderungen in den gekoppelten Systempaketen basieren. Die Rückmeldungen der Entwickler zu dem Verfahren der gekoppelten Dateiänderungsvorschläge wurden als positiv identifiziert. Unsere Theorie über den Einsatz gekoppelter Dateiänderungsvorschläge bei Wartungsaufgaben wurde erfolgreich getestet. Mit den vorgeschlagenen Heuristiken ermittelten wir, dass die Gruppierung der Änderungssätze in Git ihre Relevanz beeinflusst. Die Rückmeldungen der Entwickler zeigten, dass das Format und der Kontext gekoppelter Dateiänderungsvorschläge sich auf deren Nützlichkeit auswirken. Die Ergebnisse zeigen auch, dass gekoppelte Dateiänderungsvorschläge die Bearbeitung der Wartungsaufgaben und die Strategien zum Suchen nach Hilfe positiv beeinflussen. Die weitere Analyse von Kopplungen zwischen Teilen des Quellcodes anhand großer Datensätze ermöglicht es, die Auswirkungen gekoppelter Dateiänderungen auf die Wartung und die Qualität von Software besser zu verstehen.
- «
- 1 (current)
- 2
- 3
- »