Browsing by Author "Bertsche, Bernd (Prof. Dr.-Ing.)"
Now showing 1 - 20 of 39
- Results Per Page
- Sort Options
Item Open Access Availability of particle accelerators : requirements, prediction methods and optimization(Stuttgart : Institut für Maschinenelemente, 2020) Rey Orozco, Odei; Bertsche, Bernd (Prof. Dr.-Ing.)From the design phase to operation, machine availability represents one of the key indicators for the performance of a particle accelerator. Availability requirements are typically set at the beginning of a project and should be kept (or demonstrated) during the operation phase. In the early design stages of an accelerator, an effective allocation method is needed to translate the overall accelerator availability goal into availability requirements for each subsystem. This is of particular value for cases in which the detailed design is not known, or where new technologies are developed and no failure data is available. In this thesis a novel method is proposed to allocate availability requirements based on accelerator subsystems complexity. During the design of complex availability-critical particle accelerators, the implementation of a detailed availability model that uses component reliability data for estimating the overall system availability, is particularly useful to demonstrate their feasibility and to identify improvements with high performance benefit. To ensure the completeness and consistency of the studies, a step-wise methodology for the definition of availability models is presented. In operating particle accelerators, availability models are also used to optimize machine performance. In both cases, the reliability of the results strongly depends on the precise knowledge of the input data. Hence, availability-tracking tools are of crucial importance to ensure reliable data capture. This thesis presents the performance evaluation of Linac4 during a Reliability Run using the Accelerator Fault Tracking system developed at CERN. The ultimate goal of accelerator availability studies is to determine the system designs and operation modes that would lead to the best performance of the accelerator at lowest cost. To this end, a sensitivity analysis method is proposed to identify the component upgrades that would lead to the best improvement of system availability for a certain investment. Moreover, the presented sensitivity analysis also helps to identify potential common cause failures (which are not considered in the availability models), and other critical components that may compromise significantly the optimal performance of the accelerator. The proposed methodologies are illustrated with examples of accelerators in the design phase and under operation both for linear accelerators: CLIC and Linac4, and circular accelerators: FCC and LHC.Item Open Access Beanspruchungsgerechte Bestimmung des Weibull-Formparameters für Zuverlässigkeitsprognosen(Stuttgart : Institut für Maschinenelemente, 2017) Juskowiak, Jochen; Bertsche, Bernd (Prof. Dr.-Ing.)A reliability prediction is essential for developing reliable products. The manufacturer should know as early as possible if the current design of its product can achieve the reliability target in the field. If crucial changes are implemented too late, considerable unforeseen costs result. Thus a first assessment of the product´s failure behavior, which describes the reliability at a given lifetime, is necessary in early development stages. For describing the failure behavior, the Weibull distribution is often used due to its flexibility. Usually, endurance-strength calculations and expert knowledge are available to derive the distribution parameters. If lifetime data from previous products is available or prototype tests have been conducted, a credible assessment is possible. However, a reoccurring problem is that existing lifetime data is not obtained at design stress of the actual development. They are rather obtained at various higher stress levels. Analyzing these data with existing models can result in inappropriate reliability predictions, especially for the failure mechanism fatigue, where the Weibull shape parameter is known to be stress-dependent. This dissertation aims to develop a methodical approach for a systematically stress-dependent determination of the Weibull shape parameter for reliability prediction considering all available sources of information. First of all, the Weibull distribution is introduced in-depth. Known influences on the shape parameter are gathered with focus on the influence of load. Existing models which partly address the stress-dependency of the shape parameter are examined. Most of these models have an underlying two parametric extreme value, log-normal or Weibull distribution with a log-linear relationship for the spread. The fatigue mechanism is elaborated regarding the material and statistical aspects. The obtained results are combined and concisely summarized: Due to the higher scatter, the higher number of cycles as well as the stronger growth rate increase of the crack initiation period - in contrast to the crack growth period -, an increasing stress leads to a higher shape parameter. Known concepts and methods, which allow for the determination of a shape parameter, are analyzed. The optimization potential is identified, which lies in a stressdependent modelling with respect to all three Weibull parameters, a differentiated field data analysis concerning actual stress and a quantified expert judgment concerning quality. Moreover, separate concepts and methods can be combined in order to increase the overall quality of the determined failure behavior. Thus, extended and new approaches are developed which address these issues. A differentiated field data approach yields a stress-dependent derivation of the Weibull shape parameter based on field data. In order to do so, simulations of the customer behavior and additional information from the customers themselves are used. As a result, linking the occurred failure with the corresponding stress-level is possible. Unknown stress-dependencies can be identified or differentiated data can be used for stressdependent analyses. Extended Weibull lifetime models are developed as a crucial part of these stressdependent analyses. Stress-dependent models comprise all three Weibull parameters to enable an adequate reliability prediction at design stress. The models are validated by means of three data sets with different stress-dependencies. A conducted simulation study highlights the wide applicability of the developed models: In most cases the new developed models are favored. Only if the failure free time is much smaller than the scale parameter, the existing models are better assessed. The more the Weibull density is right-skewed at observed stress levels, the more favorable the performance of both developed models. One of the developed models is restricted to failure mechanisms with an increasing failure rate, as fatigue, whereas the other one is unrestricted. Furthermore, a procedure is proposed based on machine learning, which empowers to quantify the probability to be an expert. This probability depends on defined attributes, e. g. work experience or publications, and is used as a measure of confidence. Finally, a confidence interval can be assigned systematically to the expert statement. The existing and developed approaches are combined in a holistic procedure, based on a Bayesian approach. Various sources of information, such as lifetime data, calculation results or expert knowledge, are taken into account and are classified in data and experience. Different sources of lifetime data are transformed to actual design stress and then integrated in the likelihood function considering the non-identical population. Algorithms for different scenarios are illustrated. The independent prior distributions of the Weibull parameters depict the available information from experience. If no data is available the procedure simplifies to a consideration of information from experience and a subsequent Monte-Carlo simulation is needed. The pragmatically holistic procedure finally leads to a systematic and comprehensive stress-dependent reliability prediction with respect to a stress-dependent Weibull shape parameter. A synthetic example substantiates the holistic procedure. The procedure is applied to various scenarios with different conditions regarding available information. The influence of parameters such as the transformation factor and expert performance is shown. This study introduces an elementary procedure in order to take into account a stressdependency on the one hand and to integrate parameter specific pre-knowledge on the other hand. New or extended approaches can be easily implemented. Further studies can focus on the determination of customer types, to ensure the adequate assignment of field data. A practical verification of the holistic procedure may be beneficial.Item Open Access Beitrag zur Gestaltung von Leichtbau-Getriebegehäusen und deren Abdichtung(2013) Prill, Tobias; Bertsche, Bernd (Prof. Dr.-Ing.)Der bisher verfolgte Ansatz zur Gewichtseinsparung bei Getrieben ist der Materialleichtbau. Dieser stößt allerdings an seine Grenzen. Als Alternative bietet sich der Strukturleichtbau an. Grundgedanke bei Getriebegehäusen ist dabei die Trennung der Funktionen "Kräfte Aufnehmen" und "Abdichten". Nur die Lastpfade sollen als massive Streben ausgeführt werden. Das so entstehende Skelettgehäuse weist also keine geschlossene Form mehr auf, sondern die entstehenden Löcher oder Fehlstellen müssen durch geeignete Maßnahmen abgedichtet werden. Das Ziel dieser Arbeit war die Abschätzung des Leichtbaupotentials zweier Getriebegehäuse in Skelettausführung sowie die Untersuchung und Entwicklung geeigneter Abdichtmaßnahmen für die sich ergebenden Gehäusefehlstellen. Die Optimierung der Gehäuse erfolgte auf zwei grundsätzlich verschiedene Arten. Einerseits wurde ein Gehäusedeckel intuitiv optimiert. Andererseits wurden derselbe Gehäusedeckel sowie ein komplettes Getriebegehäuse iterativ optimiert. Bei der intuitiven Optimierung wurden erst einzelne Gehäuse-Segmente getrennt betrachtet. Es wurden für jedes Segment mehrere Varianten entwickelt. Basierend auf diesen „Bausteinen“ wurde dann ein kompletter Gehäusedeckel aufgebaut. Es konnte eine Gewichtsersparnis von 26% erreicht werden, allerdings bei deutlich erhöhten Verschiebungen der Wellenlagerungen. Außerdem zeigte sich, dass die Vielzahl der manuellen Schritte der intuitiven Optimierung sehr zeitaufwendig ist. Daraus folgt, dass die intuitive Optimierung kein geeignetes Verfahren zur Gewichtsoptimierung von Getriebegehäuse ist. Die iterative Optimierung zeigte demgegenüber den Vorteil, dass die meisten Schritte automatisiert erfolgen können. Mit einer kommerziellen Optimierungssoftware wurden eine Vielzahl von Topologieoptimierungsrechnungen durchgeführt. Basierend auf dem besten Optimierungsergebnis wurde der Entwurf eines Skelettgehäusesdeckels erstellt. Dieser wurde im Anschluss noch einer Shapeoptimierung unterworfen. Das hierbei resultierende Skelettgehäuse wies eine um 28% reduzierte Masse auf. Die aufgetretenen Spannungen lagen alle weit unterhalb der Steckgrenze des verwendeten Werkstoffs. Die Verschiebungen der Lagerstellen der Wellen waren teilweise höher als beim Originalgehäuse, aber noch im tolerierbaren Bereich. Insgesamt zeigte sich, dass konventionelle Getriebegehäuse sehr ausgereifte Konstruktionen sind, die aufgrund der komplexen Belastungen in verschiedenen Fahrzuständen nur ein sehr begrenztes Optimierungspotential aufweisen. Unter Berücksichtigung des zusätzlichen Gewichts für die Abdichtung der Gehäusefehlstellen scheint eine Gewichtsreduktion von 10% – 20% für Skelettgehäuse im Vergleich zu konventionellen Gehäusen möglich. Zur experimentellen Absicherung der Simulationsrechnungen wurden Rapid-Prototyping-Modelle hergestellt. Diese Modelle wurden unter Last vermessen und mit simulierten Verschiebungen abgeglichen. Es zeigte sich, dass schichtweise aufgebaute Kunststoffmodelle zur experimentellen Absicherung nicht geeignet sind. Es muss auf Modelle mit orthotropen Materialeigenschaften wie z.B. gegossene Metallmodelle zurückgegriffen werden. Im zweiten Teil dieser Arbeit wurden Abdichtmöglichkeiten für Skelettgehäuse untersucht. Die Abdichtung der Trennstellen von Getriebegehäusen erfolgt heutzutage meist durch Flüssigdichtmittel. Dabei muss immer eine bestimmte Mindestpressung am Flansch vorhanden sein muss. Bei Space-Frame-Gehäusen stellt sich jedoch aufgrund der Fehlstellen in Flanschnähe eine sehr inhomogene Pressungsverteilung ein. Deshalb wurde versucht, die ungleiche Pressungsverteilung durch optimierte Metallsickendichtungen auszugleichen. Es konnte gezeigt werden, dass durch eine lokale Anpassung der Sickengeometrie der Pressungsverlauf im Flansch deutlich verbessert werden kann. Hier sind noch weitere Untersuchungen nötig, um einen analytischen Weg von den Flanscheigenschaften zur optimalen Dichtung zu beschreiben. Bei der Konstruktion eines Space-Frame-Gehäuses stellt sich auch ein grundsätzlich neues Problem. Die bei dieser Bauweise bewusst eingebrachten Löcher bzw. Fehlstellen müssen durch geeignete Maßnahmen abgedichtet werden. Aus diesem Grund wurde als systematischer Ansatz die morphologische Methode nach Zwicky gewählt, um die am meisten Erfolg versprechenden Dichtprinzipien zu identifizieren. Unter Berücksichtigung der beiden wichtigsten Bewertungskriterien Kosten und Zuverlässigkeit zeichnen sich für eine Serienproduktion lediglich zwei Möglichkeiten ab: das Eingießen von dünnen Blechen während des Gießens des Gehäuses, sowie das Umspritzen des kompletten Bauteils mit faserverstärktem Kunststoff. Alle anderen denkbaren Abdichtungen stellen sich bei näherer Betrachtung als zu teuer bzw. zu aufwendig heraus. In weiteren Untersuchungen in Zukunft muss die Realisierbarkeit der identifizierten Abdichtmöglichkeiten für die Serienfertigung nachgewiesen werden.Item Open Access Berücksichtigung von Wechselwirkungen bei Zuverlässigkeitsanalysen(2012) Gäng, Jochen; Bertsche, Bernd (Prof. Dr.-Ing.)Heutige Produkte werden immer komplexer. Die Gründe für diese These liegen auf der Hand: zum einen fordern die Kunden bei Neuentwicklungen immer mehr Funktionalitäten, zum anderen erwarten sie hochwertige und zuverlässige Produkte. Diese Tatsachen bringen jedoch einen großen Zielkonflikt in der Konzeption neuer Produkte mit sich. Einfache Produkte, die jedoch kaum den funktionalen Ansprüchen der Kunden genügen, können meistens recht einfach getestet werden, die Wechselwirkungen zwischen den Komponenten des Systems sind beherrschbar und häufig vernachlässigbar. Dadurch kann die Zuverlässigkeit zum einen einfach und recht genau ermittelt werden, zum anderen kann eine hohe Zuverlässigkeit leicht erreicht werden. Bei komplexen Produkten sieht dies jedoch anders aus. Durch die Vielzahl an Komponenten im System steigen die Wechselwirkungen immens. Die Erkennung der Wechselwirkungen ist nicht immer einfach, vor allem wenn es sich um mechatronische Systeme handelt. Um aber die vom Kunden geforderte hohe Zuverlässigkeit zu erreichen ist es erforderlich, diese Wechselwirkungen bestimmen als auch verstehen zu können. Kernpunkt dieser Arbeit bildet die Entwicklung eines Verfahrens, welches die Wechselwirkungen eines Systems bestimmt und eine Zuverlässigkeitsbewertung von den ermittelten Wechselwirkungen in frühen Entwicklungsphasen ermöglicht. Darüber hinaus sollen zudem den Entwicklern des neuen Produktes Informationen über kritische Wechselwirkungen bereitgestellt werden. Dafür werden zu allererst Notationsmöglichkeiten für die Analyse von Wechselwirkungen und bestehende Zuverlässigkeitsanalysen für Wechselwirkungen bezüglich ihrer Anwendbarkeit auf die Problemstellung untersucht sowie deren Vor- und Nachteile bestimmt. Hier wird offensichtlich, dass entweder ein direkter Bezug zwischen der Notation und der Zuverlässigkeit nicht vorhanden ist oder die Zuverlässigkeitsbestimmung und -bewertung in frühen Entwicklungsphasen nicht möglich ist. Deshalb wird in dieser Arbeit eine neue Methode erstellt. Diese Methode ermöglicht es, durch die Ermittlung unzulässiger Zustände und Fehlerfolgen der Wechselwirkungen einen sogenannten Wechselwirkungsfaktor zu berechnen. Des Weiteren können unterschiedliche Importanzen von Komponentenpaarungen für den Entwickler aufgezeigt werden. Neben dem Aufzeigen aller Schritte wird auch erläutert, wie die Methode sich in bestehende Entwicklungsmethoden eingliedern kann. Darüber hinaus wird ein Software-Tool vorgestellt, welches die Vorgehensweise aus Sicht der Automatisierung und der Anwendbarkeit unterstützt. Zuletzt wird ein Fallbeispiel vorgestellt um aufzuzeigen, dass die Methode die Zuverlässigkeit von Wechselwirkungen für den Einsatz geeignet ist und den Entwickler bei der Konzipierung des neuen Produkts unterstützt.Item Open Access CAD-integrierte Zuverlässigkeitsanalyse und -optimierung(2002) Ruppert, Heiko; Bertsche, Bernd (Prof. Dr.-Ing.)Die Zuverlässigkeit beschreibt unmittelbar die Funktionsfähigkeit eines Produkts. Sie ist als zeitabhängige, d.h. dynamische Komponente der Qualität anzusehen und daher ein entscheidendes Verkaufsargument im Wettbewerb. Um zuverlässige Produkte auch unter sich verschärfenden Randbedingungen, wie z.B. größerer Komplexität und höherer Funktionalität entwickeln zu können, müssen vermehrt Methoden der Zuverlässigkeitstechnik eingesetzt werden. Die funktionalen Eigenschaften eines Produkts werden, ausgehend von den Kundenforderungen, weitgehend durch die konstruktive Entwicklung bestimmt. Selbst eine ausgereifte Konstruktionsmethodik führt nur durch den Einsatz von Zuverlässigkeitsmethoden zu einer hohen Produktzuverlässigkeit. Jedoch erfolgt die Ermittlung der Zuverlässigkeit von Bauteilen und Systemen meist spät im Produktentstehungsprozeß sowie isoliert vom rechnerunterstützten Konstruktionsprozeß. Im Sinne einer CAD-integrierten, frühen und konstruktionsphasenübergreifenden Zuverlässigkeitsanalyse und -optimierung soll die vorliegende Arbeit einen Beitrag leisten. Basierend auf dem Stand der Konstruktionsmethodik und dessen Abbildung im CAD-System wurde die Anwendung von qualitativen und berechnenden Zuverlässigkeitsmethoden entlang des Produktentstehungsprozesses untersucht. Beginnend mit der Abbildung der Konzeptphase im CAD-System können mittels des Lebensdauermanagers zuverlässigkeitsrelevante Daten zu den geometrischen Objekten in einer Datenbank abgelegt werden. Darauf aufbauend können gängige Zuverlässigkeitsmethoden, wie z.B. Fehlerbaumanalyse und Boolesche Methode, ausgeführt werden. Eine inter-aktive Zuverlässigkeitsanalyse mit dem CAD-System, bereits in der frühen Phase, kann in der weiteren Entwicklung fortgeschrieben und verfeinert werden. Dadurch soll der Konstrukteur die geforderte hohe Produktzuverlässigkeit früher und genauer erreichen können, verglichen mit einem „CAD-isolierten“ Einsatz der Zuverlässigkeitsmethoden. Das Software-Werkzeug KOSYMA wurde hinsichtlich einer konstruktionsphasenbezogenen Datenablage weiterentwickelt. Bereits das Konzept in der Entwicklungsphase kann im Skizzenmodus des CAD-Systems abgebildet und mit dem Lebensdauermana-ger gekoppelt werden. Den erstellten geometrischen Objekten können somit Zuverlässigkeitsdaten zugewiesen werden, auf deren Basis die Zuverlässigkeitsanalyse erfolgt. Die Ergebnisse werden phasenbezogen und strukturiert in einer Datenbank abgelegt. In späteren Phasen der konstruktiven Entwicklung werden die Resultate als Basis für die weitere Zuverlässigkeitsanalyse verwendet und kontinuierlich verbessert und ergänzt. Diese Durchgängigkeit einer CAD-integrierten Zuverlässigkeitsanalyse wurde anhand der Fehlerbaumanalyse und anhand der Booleschen Methode gezeigt. Die Kopplung des CAD-Systems mit qualitativen Zuverlässigkeitsmethoden wurde am Beispiel der FMEA vorgestellt. Anhand des Beispiels Stellglied des elektromechanischen Kupplungssystems wurde die praktische Anwendung der Vorgehensweise durchgeführt. Abschließend wurde die Möglichkeit einer Kostenreduzierung eines Systems basierend auf der Weibullanalyse am Beispiel der Komponente Lager gezeigt. In einer Fortsetzung dieser Arbeit soll die Unsicherheit der Zuverlässigkeitsdaten, die sich beispielsweise in den Vertrauensbereichen ausdrückt, berücksichtigt werden. Da-bei ist zu prüfen, wie die Datenunsicherheit der einzelnen Komponenten die Zuverlässigkeitsermittlung des Systems beeinflußt. Dabei ist auch auf die Durchgängigkeit der Zuverlässigkeitsinformationen zu achten. Weitergehende Untersuchungen sollen, aufbauend auf der vorgestellten weibullbasierten Kostenanalyse, hinsichtlich einer früheren Berücksichtigung des Kostenaspekts erfolgen. Mit dem Aufwand der Zuverlässigkeitstechnik kann ein Kosteneinsparpotential einhergehen, so daß ein Einsatz der Zuverlässigkeitsmethoden direkt gewinnbringend ist.Item Open Access Dependable system development methodology and case study for the LHC beam loss monitoring system at CERN(Stuttgart : Institut für Maschinenelemente, 2021) Schramm, Volker; Bertsche, Bernd (Prof. Dr.-Ing.)Item Open Access Entwicklung von klapper- und rasselgeräuschfreien Fahrzeuggetrieben(2008) Stockmeier, Moritz; Bertsche, Bernd (Prof. Dr.-Ing.)Komfort ist in der Automobilindustrie zu einem Kriterium geworden, dessen Gewicht beim Kauf eines Fahrzeuges größer geworden ist. Eine dieser Komfort-Facetten stellt das Geräusch dar. Es ist allgemein unbestritten, dass zu einem positiven Geräuschempfinden im Wesentlichen beiträgt, dass insbesondere unerwünschte und störende Geräusche nicht oder nur in sehr geringem Umfang hörbar sein dürfen. Klapper- und Rasselgeräusche, die in Fahrzeuggetrieben entstehen, werden unzweifelhaft dieser Kategorie der unangenehmen Geräusche zugeordnet. In der Vergangenheit wurden in zahlreichen Forschungsarbeiten sowohl der Entstehungsmechanismus, als auch Möglichkeiten der Reduktion betrachtet. Allerdings gelang es bis heute nicht, durch getriebeinterne Maßnahmen die Entstehung der Klapper- und Rasselgeräusche wirksam zu unterbinden. In dieser Arbeit wurde daher der neuartige Ansatz der vollständigen mechanischen Entkopplung gewählt. In einem ersten Schritt wurde systematisch untersucht, inwiefern sich die derzeit am Markt befindlichen Getriebesysteme eignen, um sie als ein vollständig klapper- und rasselgeräuschfreies Fahrzeuggetriebe, kurz KURF-Getriebe, darzustellen. Es konnten Beispiele für Ausführungsformen gefunden werden, die sich prinzipbedingt sowohl vollständig klapper- und rasselgeräuschfrei ausführen lassen, als auch solche, die diese Möglichkeit gar nicht erst eröffnen. Dabei zeigen die vorgestellten Abschätzungen, dass der Aufwand zur Umgestaltung einer Getriebebauform zum KURF-Getriebe stark variieren kann. Es offenbarte sich ferner, dass es sinnvoll ist, diese Aufwandsabschätzung separat für die vollständige Klapper- und Rasselgeräuschfreiheit vorzunehmen. Der zweite Schritt umfasste die systematische Suche nach einem geeigneten Koppelprinzip für ein KURF-Getriebe. Im Ergebnis präsentiert sich das Prinzip Borg-Warner als äußerst geeignet, wobei in dieser Arbeit auch zwei weitere, eigenentwickelte Prinzipien, die Synchronstiftschaltung und die Passfederschaltung, zur Prototypenfertigungsreife getrieben wurden. Wie das herkömmliche Koppelprinzip nach Borg-Warner wurde auch die Synchronstiftschaltung gefertigt und auf dem IMA-Klapper- und Rasselprüfstand umfangreichen Tests unter Variation zahlreicher geometrischer und tribologischer Parameter unterzogen. Zunächst wurde eine einzelne Zahnradstufe mit Synchronstiftschaltung in einem eigens dafür angefertigten Experimentalprüfgehäuse untersucht, anschließend ein modifiziertes Seriengetriebe mit Synchronpaketen nach dem Prinzip Borg-Warner. Die durchgeführten Geräuschmessungen zeigen eindrucksvoll, dass im entkoppelten Zustand insbesondere bei kaltem Getriebeöl und bei sehr hohen Anregungen durch sinusförmige Drehungleichförmigkeiten keine Klappergeräusche auftreten. Im direkten Vergleich mit dem gekoppelten Zustand wurden Differenzen von mehr als 20 dB gemessen. Bei heißem Getriebeöl hingegen traten Klappergeräusche auf, die im Vergleich zum gekoppelten Zustand stets wesentlich geringere Luftschalldruckpegel aufweisen und zudem auch bei weiterer Steigerung der anregenden Winkelbeschleunigungsamplitude nur marginal an Intensität zunehmen. Zusätzlich liegen die Anregungsschwellen, die sog. Klappergrenzen, bei um ein Mehrfaches höheren Winkelbeschleunigungsamplituden als im gekoppelten Zustand. In zahlreichen Messungen wurden die Einflüsse von mehreren Gatriebeparametern auf das Verhalten hinsichtlich der Klappergeräuschentfaltung untersucht und dokumentiert. Die am modifizierten 5-Gang-Seriengetriebe durchgeführten Messungen zeigten ein grundsätzlich ähnliches Verhalten. Dabei wurde lediglich ein zusätzliches Synchronpaket in das Getriebe eingebaut, mit dessen Betätigung die gesamte Vorgelegewelle abgeschaltet werden konnte. Es wurde eine vollständige Klappergeräuschfreiheit unter definierten Umgebungsbedingungen ebenso wie eine reduzierte Rasselgeräuschemission im Direktgang nachgewiesen. Durch die mögliche Aufhebung der Zwangsdrehbewegung der Vorgelegewelle durch ein Entkoppeln des Konstantenritzels konnte ferner mit Messungen dokumentiert werden, dass sich das Getriebegesamtschleppmoment sowohl im Leerlauf wie auch im Direktgang deutlich verringert. Die mögliche Ausführung eines Fahrzeuggetriebes als KURF-Getriebe eröffnet durch die Einbringung von zusätzlichen Koppelelementen auch zusätzliche Freiheitsgrade bei der Schaltstrategie. Mittels Simulation wurde vorgestellt, wie sich die Verteilung von Synchronisationsarbeit, Synchronisationsspitzenleistung und Schaltzeit durch unterschiedliche Reihenfolgen der Aktivierung notwendiger Koppelelemente für den Gangwechsel darstellt. Dabei wurden die Übersetzung bei konstantem Achsabstand und gleich bleibendem Schaltkraftverlauf und damit mittelbar auch die Massenträgheitsverhältnisse variiert. Als Konsequenz dieser Simulationsergebnisse können je nach Einsatzzweck optimale Schaltstrategien für beliebige Gangwechsel in Hinblick auf die oben genannten Größen ausgelegt und umgesetzt werden.Item Open Access Erweiterte qualitative Zuverlässigkeitsanalyse mit Ausfallprognose von Systemen(2009) Pickard, Karsten; Bertsche, Bernd (Prof. Dr.-Ing.)Heutige Produktentwicklungen sind durch zunehmend kürzere Entwicklungszeiten geprägt, in denen immer komplexer werdende Baugruppen und Systeme serienreif gemacht werden. Verschärfend kommen hier die steigenden Anforderungen und Kundenwünsche nach qualitativ noch hochwertigeren und zuverlässigeren Produkten hinzu. Zur Lösung dieses Zielkonflikts versuchen die Entwickler heute, besonders bei mechatronischen Systemelementen, ihre Produkte bereits während der Entstehung mit Qualitäts- und Zuverlässigkeitsmethoden bestmöglich abzusichern. Unter dem Druck von kurzen Entwicklungszeiten und unter Einhaltung von vorgegebenen Kostenbudgets hat sich die Forschung im Bereich der quantitativen Zuverlässigkeit in Form der Testplanung mit dem Ziel einer Reduktion der zu prüfenden Teile beschäftigt. Die dabei eingesetzten Verfahren versuchen, Vorkenntnisse und Erfahrungen mit Vorgängerprodukten für Neuentwicklungen übertragbar zu machen, um damit dann eine Verringerung des Testaufwands bei gleich bleibender bzw. verbesserter Aussagegüte und Zuverlässigkeitsvorgabe zu erreichen. Dabei besteht aber das Problem, dass bereits in der Konzeptphase von Produktentwicklungen die Grundsteine für die spätere Zuverlässigkeit und Qualität dieser Produkte gelegt werden müssen. Obwohl zu diesem Zeitpunkt noch keine Aussagen über das spätere Ausfallverhalten gemacht werden können, beeinflusst die Wahl des Entwicklungskonzepts dieses ganz entscheidend. Um den beschriebenen Problemen besser entgegen zu wirken, wird in dieser Arbeit eine für den Produktentwicklungsprozess übergreifende Methode entwickelt, die einen qualitativen Konzeptvergleich erlaubt und eine sichere Konzeptauswahl ermöglicht. Darüber hinaus wird es möglich, die Informationen, die in dieser frühen Entwicklungsphase generiert werden, für das ausgewählte Konzept in eine System-FMEA zu überführen. Basierend auf den Inhalten und Vernetzungen der FMEA - hier auch um die Mehrfachfehlerbetrachtung erweitert - wird eine Lebensdauervorhersage mit Hilfe der Lebensdauerverteilungen und der FMEA Bewertungen gemacht. Der integrative qualitative Ansatz zur Qualitätsabsicherung und Lebensdauervorhersage unterteilt sich in drei Methodenbausteine: · den Konzeptvergleich, · die FMEA mit Einfachfehler- und Mehrfachfehlerbetrachtung und · die Lebensdauervorhersage.Item Open Access Ganzheitliche Datenerfassung für verbesserte Zuverlässigkeitsanalysen(2012) Leopold, Tobias; Bertsche, Bernd (Prof. Dr.-Ing.)Die Produktzuverlässigkeit stellt eine der wichtigsten Produktmerkmale dar, die weitestgehend während der Produktentstehung determiniert wird. Der darauf basierende Anspruch einer geringen Ausfallwahrscheinlichkeit von Produkten bedarf umfangreicher Zuverlässigkeitsanalysen während der Entwicklung und Herstellung eines Produkts. Der endgültige Nachweis, ob die Anstrengungen zur Erreichung und Sicherstellung der Produktzuverlässigkeit erfolgreich waren, kann abschließend erst während der Nutzungsphase des Produkts erfolgen. Somit muss der gesamte Produktlebenszyklus von Zuverlässigkeitsanalysen begleitet werden. Die Basis für aussagekräftige Zuverlässigkeitsanalysen sind, neben einer korrekten und zweckmäßigen Anwendung von Zuverlässigkeitsmethoden, die dafür notwendigen Zuverlässigkeitsdaten. Nur die Verbindung einer geeigneten Datenbasis mit bedarfsgerechten Analysemethoden erlaubt die Beantwortung wichtiger Fragestellungen der Zuverlässigkeitstechnik. Insbesondere die Zuverlässigkeitsdaten müssen dafür umfangreiche und teilweise sehr unterschiedliche Anforderungen erfüllen. Neben einer Anforderungsanalyse müssen deshalb die potentiell zur Verfügung stehenden Zuverlässigkeitsdaten untersucht und bewertet werden. Um eine Vergleichbarkeit der Bewertungen verschiedener Datenquellen sicherzustellen, wird im Rahmen dieser Arbeit ein Bewertungsmodell für Zuverlässigkeitsdatenquellen entwickelt und angewandt, das auf wichtigen Anforderungen und Eigenschaften von Zuverlässigkeitsdaten beruht. Da im Allgemeinen nur eine begrenzte Anzahl an Zuverlässigkeitsdatenquellen zur Verfügung steht bzw. realisiert werden kann, muss in Abhängigkeit der Aufgabenstellung eine ideale Kombination von Zuverlässigkeitsdatenquellen für anschließende Zuverlässigkeitsanalysen bereitgestellt werden. Dabei ist neben dem Nutzen der Datenquellen zusätzlich der Aufwand zu berücksichtigen, der für deren Verwendung entsteht. Unter Berücksichtigung der umfangreichen Zusammenhänge wird in dieser Arbeit ein modularer Aufbau einer ganzheitlichen Zuverlässigkeitsdatenerfassung entwickelt. Nur durch die Kombination von verschiedenen Datenquellen, die unterschiedliche Anforderungen von unternehmerischen Aufgabenstellungen erfüllen, kann eine sinnvolle Datenbasis für Zuverlässigkeitsanalysen geschaffen werden. Zusätzlich sind Aspekte der Unternehmensintegration zu berücksichtigen, die sich in einem zentralen Zuverlässigkeitsmanagement sowie der Prozess- und Projektverankerung widerspiegeln.Item Open Access Geräusch- und Wirkungsgradoptimierung bei Fahrzeuggetrieben durch Festradentkopplung(2010) Novak, Wolfgang; Bertsche, Bernd (Prof. Dr.-Ing.)Die Entwicklung moderner Kraftfahrzeuge bedarf in steigendem Maße komfortorientierter und effizienter Triebstränge. Ein Ziel hierbei liegt in der Reduzierung bzw. Eliminierung auftretender Losteilgeräusche bei Fahrzeuggetrieben, die durch motorinduzierte Drehungleichförmigkeiten entstehen. Diese Losteilgeräusche werden je nach Schaltungszustand des Getriebes in Klappergeräusche (Leerlaufbetrieb) und Rasselgeräusche (bei geschaltetem Gang) eingeteilt. Eine Steigerung der Effizienz kann infolge des sehr guten Verzahnungswirkungsgrads und des zu erwartenden Aufwands vor allem auf dem Gebiet der lastunabhängigen Verluste, wie Plansch-, Quetsch-, Lager-, Dichtungs- und Synchronisierungsverluste erreicht werden. Hieraus leitet sich das Ziel der vorliegenden Arbeit ab – die Entwicklung eines klapper- und rasselgeräuschfreien Fahrzeuggetriebes mit dem Potential, die lastunabhängigen Verluste zu minimieren.Item Open Access Gesamtheitliche Anlagenmodellierung und -analyse auf Basis stochastischer Netzverfahren(2008) Trost, Monika; Bertsche, Bernd (Prof. Dr.-Ing.)Das heutige Wirtschaftsumfeld produzierender Unternehmen ist gekennzeichnet durch einen hohen Wettbewerb, der unter anderem einen hohen Kostendruck bedingt. Über die Optimierung der Instandhaltungsprozesse von Produktionsanlagen steht den Unternehmen ein hohes Kostensenkungspotential zur Verfügung. Die Komplexität dieser Problemstellung erfordert es, diese Optimierungen anhand von realitätsnahen Modellen zu untersuchen und die Ergebnisse auf das reale System zu übertragen. Kernpunkt dieser Arbeit bildet daher die Entwicklung eines Verfahrens, das es ermöglicht, Produktionsanlagen gesamtheitlich unter Berücksichtung von Produktionsprozess, verschiedenen Verlustquellen sowie möglicher Instandhaltungsstrategien zu modellieren und zu analysieren. Dafür werden zunächst bekannte Modellierungs- und Analyseverfahren bezüglich ihrer Anwendbarkeit auf die Problemstellung untersucht sowie deren Vor- und Nachteile bestimmt. Viele der Verfahren sind dadurch gekennzeichnet, dass sie das stochastische Verhalten der Produktionssysteme und die zu Grunde liegende Datenbasis nur unzu-reichend abbilden können. Im Folgenden wird die Vorgehensweise für die Analyse von Produktionsanlagen mit Hilfe von Modellierung und folgender Analyse der Modelle vorgestellt sowie die einzelnen Arbeitspakete für eine solche Untersuchung festgelegt. Als erstes erfolgt die Abgrenzung des Systems Produktion. Danach wird auf Basis der Systemtheorie das abgegrenzte System über seine vier Bestandteile Hierarchie, Elemente, Relationen und Struktur sowie Attribute näher beschrieben. Bevor eine Systemmodellierung und -analyse erfolgt, muss festgelegt werden, welche Bewertungsgrößen die Fragestellung beantworten. Dafür werden die gängigen Kennwerten wie z. B. Durchlaufzeiten, Overall Equipment Effectiveness, usw. um, aus der finanzwirtschaftlichen Risikotheorie abgeleitete, Bewertungsgrößen, wie z.B. die Reparaturwürdigkeit, erweitert. Im nächsten Schritt werden die mögliche Herkunft und die damit Eigenschaften der Eingangsinformationen untersucht. Viele dieser Informationen sind mit Unschärfen behaftet. Je nach Herkunft und Art der Informationen handelt es sich dabei um aleato-rische sowie epistemische Unschärfen. Da in vielen Fällen nicht nur eine Informati-onsbasis zur Verfügung steht, sondern die Informationen beispielsweise aus Datenbanken und Expertenwissen vorliegen können, wurden verschiedene Verfahren unter-sucht, um diese Informationen zu kombinieren. Nach der Kombination der Informationen liegen weiterhin mit Unschärfe behaftete Daten vor, die im Folgenden als Eingangsgrößen für das Modell zielführend genutzt werden müssen. Dafür wird neben den reinen Randbetrachtungen noch ein Verfahren entwickelt, das es ermöglicht, die Unschärfe direkt über eine zweistufige Monte-Carlo-Simulation mit zu betrachten. Aus der Problemstellung, der Systemabgrenzung und -beschreibung sowie den Eingangsinformationen werden die Anforderungen an ein Modellierungs- und Analyseverfahren definiert. Dabei zeigt sich, dass die erweiterten farbigen stochastischen Petrinetze (ECSPN) diese am besten, jedoch nicht vollständig erfüllen. Daher wurden die-se um verschiedene Eigenschaften erweitert, wie weitere Verteilungsfunktionen, stochastische Kostenvariablen, Zufallsvariablen auf Kanten sowie die Verwendbarkeit von unscharfen Eingangsparametern. Als Analyseverfahren für diese zusätzlich erweiterten ECSPN wird eine zweistufige Monte-Carlo-Simulation entwickelt. Die Modellierung und Analyse dieser ECSPN kann mit Hilfe des Programmpaketes REALIST erfolgen. Um die Anwendbarkeit dieses Verfahrens in der Produktions- und Instandhaltungsplanung zu untersuchen, werden für zwei verschieden Arten an Produktionssystemen exemplarisch Modelle aufgebaut und analysiert. Dabei wird zum einen eine Bandsägenfertigung auf Basis einer Job-Shop-Struktur und zum anderen eine Zahnradfertigung auf Basis einer Flow-Shop-Struktur betrachtet. Hierzu werden jeweils die Produktionsstrukturen aufgebaut und verschiedene Verlustquellen wie Anlagen- und Werkzeugausfälle, kurzzeitige Störungen sowie Qualitätsverluste berücksichtigt. Um die optimale Produktionsstruktur und Instandhaltungsstrategie zu ermitteln, werden Simulationsläufe für verschiedene Kombinationen der beiden durchgeführt und somit das Optimum ermittelt. Dabei zeigt sich, dass das vorgestellte Verfahren prinzipiell zur Optimierung der Produktions- und Instandhaltungsplanung herangezogen werden kann.Item Open Access Integrale Methodik zur Entwicklung von robusten, zuverlässigen Produkten(Stuttgart : Institut für Maschinenelemente, 2018) Kemmler, Stefan; Bertsche, Bernd (Prof. Dr.-Ing.)Produktanforderungen prosperieren mit Kundenanforderungen, die auf Basis einer immer rasantere und stetig ansteigende Funktionserfüllungen wachsen. Infolge dieses Trends steigt der Komplexitätsgrad mit zunehmender Funktionsdichte in Systemen, Produkten und Prozessen, wodurch wiederum die Forderungen nach Qualität bezüglich der Zuverlässigkeit, der Robustheit, der Sicherheit und der Energieeffizienz zunehmen. Um den gesamten, vorgenannten Ansprüchen gerecht zu werden, muss die Priorität im Produktentwicklungsprozess auf dem Gestalten von robusten, zuverlässigen Produkten und Prozessen mit deren Derivaten sowie deren Design-Parametern liegen, damit diese innerhalb der geforderten Einsatzzeit gegenüber Markt-/ oder Anforderungsschwankungen unempfindlicher reagieren. Um diese Unempfindlichkeit gegenüber internen sowie externen Störeinflüssen innerhalb einer geforderten Einsatzzeit mit geringster Varianz aufrecht zu erhalten, wird nach der in dieser Arbeit vorgestellten Theorie der robusten Zuverlässigkeit, eine Definition festgelegt, die die beiden Qualitätsanforderungen und Theorien Zuverlässigkeit und Robustheit vereint. Mit dem Erklärungs- und Modellierungsmodell R²-Modell und dessen Derivate R²-Prozess und R²-Feld-Modell wird die Theorie visualisiert und dem Ingenieur ein Entwicklungsbegleitendes Werkzeug zur Verfügung gestellt. Die bislang fehlende, methodisch geführte Enttwicklungsabfolge des Robust Designs sowie die mangelnde Kombination und der unberücksichtigte Zusammenschluss von Methoden der Zuverlässigkeitstechnik, geben Anlass zur Festlegung und Definition einer integralen Methodik zur Entwicklung robuster, zuverlässiger Produkte: die Systematic Methodology for Axiomatic Robust Reliability-Testing (SMAR²T). Die Methodik behandelt neben der beschreibenden, chronologischen Entwicklungsabfolge mit den vier Phasen: System Design, Parameter Design, Toleranz Design und Robuste Zuverlässigkeitserprobung, den Aspekt der frühzeitigen Erkennung von unerwünschten Resultaten, wie Früh- und Zufallsausfällen, sowie deren Berücksichtigung im Design.Item Open Access Konzeption eines aktiven semantischen Zuverlässigkeitsinformationssystems(2011) Rzepka, Bettina; Bertsche, Bernd (Prof. Dr.-Ing.)Für die Unternehmen ist die gesamte Produktentwicklung bis hin zur Markteinführung ein Schlüsselprozess, der über Erfolg oder Misserfolg des Unternehmens entscheiden kann. Bereits während der Entwicklungsphase wird der Grundstein für die zukünftigen Qualitäts- und Kostenstandards gelegt. Die Komplexität des Prozesses stellt hohe Anforderungen an alle beteiligten Bereiche und erfordert eine ganzheitliche Betrachtungsweise. Daher wurde das Aktive Semantische Zuverlässigkeitsinformationssystem (ASZI) entwickelt, das die Analyse des betrachtenden Systems sowohl mit qualitativen und quantitativen Zuverlässigkeitsmethoden als auch unter Betrachtung von zuverlässigkeitsabhängigen Kosten ermöglicht. Das semantische Netz als Abbildung der menschlichen Gedächtnisstruktur bildet mithilfe seiner Elemente, den Objekten und Beziehungen, die Möglichkeit Informationen zu speichern, wiederzugeben und Verknüpfungen herzustellen. Mit den Objekten, die Zuverlässigkeitsinformationen enthalten, kann im ASZI die Zuverlässigkeitsstruktur des Systems modelliert werden. Die Klassifizierung unter zuverlässigkeitstechnischen Aspekten nach kritischen bzw. unkritischen Objekten ermöglicht die Priorisierung bestimmter Objekte für die weiteren Analysen. Durch die Einbindung von Lebensdauerverteilungen in die Objekte kann das Ausfallverhalten des Systems und der Systemelemente untersucht und mit der geforderten Zuverlässigkeit verglichen werden. Durch die gezielte Untersuchung des strukturellen und des probabilistischen Einflusses der Elemente innerhalb des Gesamtsystems werden die kritischsten Elemente identifiziert, um somit eine möglichst effektive Optimierung des Produktes zu erzielen. Die Auswertung zuverlässigkeitsabhängiger Fehlerkosten im ASZI erlaubt eine wirtschaftliche Rentabilitätsanalyse des Produkts. Ein vorgestelltes Verfahren bewertet die Wirtschaftlichkeit von FMEA-Maßnahmen in Bezug auf die prognostizierten Fehlerkosten. Anhand von Lebensdauerverteilungen werden Fehlerkosten in Bezug auf ihren strukturellen und probabilistischen Einfluss innerhalb des Systems untersucht. Mit der Monte-Carlo-Simulation werden die zuverlässigkeitsabhängigen Fehlerkosten unter Beachtung von verschiedenen Instandhaltungsstrategien prognostiziert. Somit kann die Effizienz der Optimierungsmaßnahme eines oder mehrere Elemente ermittelt werden. Das ASZI zeigt Stärken und Schwächen im Entwicklungsprozess bezüglich der Zuverlässigkeit auf. Durch die Einbindung zuverlässigkeitsabhängiger Fehlerkosten in den frühen Entwicklungsphasen kann somit Einfluss auf die Entstehung von ungeplanten Kosten, wie Nacharbeits-, Ausschuss- und Garantiekosten, genommen werden.Item Open Access Methode zum simulationsbasierten Nachweis der funktionalen Sicherheit fehlertoleranter Systeme(Stuttgart : Institut für Maschinenelemente, 2023) Bergen, Patrick van; Bertsche, Bernd (Prof. Dr.-Ing.)Zur Realisierung automatisierter Fahrfunktionen ist der Einsatz fehlertoleranter Systeme im Fahrzeug unvermeidbar. Mit steigender Automatisierungsstufe entfällt der Fahrer als Rückfallebene. Aufgrund dessen muss das Fahrzeug im Fehlerfall selbsttätig den sicheren Zustand erreichen. An der Realisierung der automatisierten Fahrfunktionen sind E/ESysteme beteiligt, weswegen die ISO 26262 bei der Entwicklung berücksichtigt werden muss. Die ISO 26262 umfasst den gesamten Sicherheitslebenszyklus eines Fahrzeuges. Ein Teil der ISO 26262 befasst sich ausgehend von den Sicherheitszielen mit der Ableitung von Sicherheitsanforderungen an die Komponentenebene. Dabei werden unter anderem die ASIL der Sicherheitsziele mittels ASIL Allokation und Dekomposition an untergeordnete Systeme und Komponenten abgeleitet. Aufgrund der hohen Systemkomplexität durch die Fehlertoleranz des Fahrzeugs ist dies händisch nicht effizient durchführbar. Aufgrund dessen werden die mathematischen Grundlagen der ASIL Dekomposition sowie ein Algorithmus zur automatisierten ASIL Allokation und Dekomposition auf Basis einer Fehlerbaumanalyse vorgestellt. Ein weiterer Bestandteil der ISO 26262, der durch die Analyse fehlertoleranter Systeme beeinflusst wird, ist der Nachweis, dass das Fahrzeug ausreichend sicher ist. Aufgrund der hohen Systemkomplexität sind die ISO 26262 Standardmethoden, Fehlerbaumanalyse und FMEDA, zur Modellierung der fehlertoleranten Systeme nur bedingt geeignet. Aufgrund dessen wird ein Ansatz basierend auf einer Markov-Analyse zur Modellierung der Fehlertoleranz vorgestellt. Das Markov-Modell wird automatisiert auf Basis von Fehlerinjektionssimulationen aufgebaut, welche das Systemverhalten im Fehlerfall bei Einfach- und Mehrfachfehlern beschreiben. Die Zustandsübergänge des Markov-Modells werden mittels Fehlerbaumanalysen der fail-safe Komponentenebene quantifiziert. Durch die vorgestellte Methode - werden die zum Sicherheitsnachweis benötigten ISO 26262-Metriken berechnet, - eine effiziente Systemoptimierung durch Identifikation der einflussreichsten Fehler / Fehlerkombinationen durchgeführt, - der Einfluss von Parametervariationen mittels Sensitivitätsanalysen bewertet, - der Nachweis der Funktionsfähigkeit von Sicherheitsmechanismen durchgeführt, - die Erkennung und Behebung systematischer Fehler des Systemdesigns, der Komponentendimensionierungen und Fehlerreaktionen umgesetzt.Item Open Access Methodik zur Konzeption, Analyse und Modellierung von Lösungen im Prognostics and Health Management (PHM)(Stuttgart : Institut für Maschinenelemente, 2021) Henß, Mark Stefan; Bertsche, Bernd (Prof. Dr.-Ing.)Digitalisierung, Konnektivität und Künstliche Intelligenz stellen aktuell drei der disruptivsten Trends im Produktlebenszyklus technischer Systeme dar. Mit Lösungen des Prognostics and Health Management (PHM) können nicht nur dem Kunden vollkommen neue Dienste angeboten werden, auch für den Hersteller (Betreiber) eröffnen sich eine Reihe neuer Möglichkeiten. Der zentrale Ansatz des PHM ist die Verwendung von Daten über Nutzung und Zustand aus dem Betrieb eines einzelnen Systems, um Störungen und Ausfälle frühzeitig zu erkennen und geeignete Gegenmaßnahmen zu definieren. Entscheidungen lassen sich so unter Berücksichtigung der gesamtwirtschaftlichen Interessen treffen. Beispielsweise lassen sich so gleichzeitig Kosten senken, Risiken minimieren, die nutzbaren Betriebsstunden maximieren und die Verfügbarkeit verbessern. Die Problemstellung ist nicht, dass es keine Literatur oder Normen im PHM gäbe, sondern ihre über eine Vielzahl an Fachdisziplinen isolierte Betrachtung. Dazu kommt, dass dem PHM, als relativ junge Disziplin, eine grundlagenwissenschaftliche Basis fehlt. Der Anwender steht somit vor der Schwierigkeit einen Lösungsansatz zu identifizieren, der sowohl die individuellen Anforderungen erfüllt, Fehlentwicklungen vermeidet als auch die Potenziale ausschöpft. Ziel dieser Arbeit ist eine Methodik, die diese Schwierigkeiten löst und eine möglichst einfache, strukturierte und transparente Entwicklung von PHM-Lösungen erlaubt. In einem ersten Schritt wird die zentrale Fragestellung, auf Basis der Design Research Methodology (DRM) wissenschaftlich vertieft. Dies umfasst die Abgrenzung der Forschungsaufgabe, die Definition von Forschungszielen sowie die Durchführung von zwei Studien. Neben einer Studie der Fachliteratur und Normung, wird eine empirische Metaanalyse von ca. 260 wissenschaftlichen Beiträgen durchgeführt. Wesentliche Ergebnisse der DRM sind Schlüsselfaktoren und Forschungsfragen. Für diese Arbeit sind die zentralen Forschungsfragen: 1. Wie lassen sich sowohl Konzepte als auch Modelle im PHM generisch und holistisch im Kontext der Technikwissenschaften beschreiben, sodass einerseits Einordnung und Abgrenzung gegenüber etablierter Anwendungswissenschaften und andererseits die Beherrschung der Komplexität möglich ist? 2. Wie lassen sich die Konzepte und Modelle in einer Methodik logisch verknüpfen, sodass die Entwicklung von PHM-Lösungen strukturiert und effizient abläuft? Die zwei Forschungsfragen werden in separaten aufeinander aufbauenden Teilen bearbeitet. Teil 1 beschreibt Grundlagen, Terminologie, Konzepte und Modelle im PHM und adressiert Forschungsfrage 1. Basis sind klare Merkmale die etablierte Konzepte in eine gemeinsame Betrachtung einsortieren. Etablierte Konzepte sind z. B. die Rekonfiguration, das Predictive oder Prescriptive Maintenance. Dies reduziert sowohl Komplexität und ermöglicht gleichzeitig einen effizienten Vergleich der einzelnen Leistungsfähigkeiten. Das PHM-Modell wird in dieser Arbeit als Abbild des funktionalen Zusammenhangs einer PHM-Lösung verstanden. Dieses wird anhand von 19 Elementen beschrieben, die dem Anwender die Möglichkeit geben die individuell gewünschte Funktionalität durch Kombination einzelner Elemente umzusetzen. In der holistischen Perspektive, charakterisiert das Modell einen geschlossenen Wirkungskreis. Das heißt, jede am System umgesetzte Entscheidung besitzt Auswirkungen auf nachfolgende Messungen, die nach abgeschlossener Bewertung wiederum Basis der nächsten Entscheidung sind. In dieser Arbeit wird diese Eigenschaft durch den PHM-Regelkreis beschrieben. Teil 2 verknüpft Konzepte und Modelle in der zentralen Methodik und adressiert somit Forschungsfrage 2. Kern ist ein Leitfaden von der Lösungsfindung, über die Auswahl des passenden Konzepts und die Analyse der Rahmenbedingungen bis hin zur konkreten Umsetzung der PHM-Lösung in einem evaluierten Modell. Anhand der Metaanalyse werden dem Anwender begleitend etablierte Lösungswege aufgezeigt. Einen weiteren Beitrag liefert die Integration einer kombinierten Analyse von Domänenwissen und Daten in die Methodik. Hiermit werden einerseits die Besonderheiten von Daten aus Beobachtungsstudien adressiert. Andererseits ist es möglich, Schwierigkeiten durch Störgrößen oder Stichprobenverzerrung frühzeitig zu erkennen und zu verhindern. Die prinzipielle Anwendbarkeit der Methodik wird anhand eines AutoEncoders, zur Bewertung von Wälzlagerschäden in verschiedenen Getrieben bei unterschiedlichen Betriebsmodi gezeigt. Mit der „Methodik zur Konzeption, Analyse und Modellierung von Lösungen im Prognostics and Health Management“ wird ein Beitrag zur transparenten, strukturierten und effizienten Entwicklung von Lösungen im PHM geliefert. Somit werden einerseits die Barrieren dieser neuen Technologie reduziert und der Zugang einem breiten Anwenderkreis eröffnet. Andererseits können die Potenziale einfacher identifiziert, genutzt und Fehlentwicklungen frühzeitig erkannt werden.Item Open Access Methodische Ermittlung von repräsentativen Lastkollektiven am Beispiel der Nutzfahrzeugbremse(Stuttgart : Institut für Maschinenelemente, 2021) Lucan, Kevin; Bertsche, Bernd (Prof. Dr.-Ing.)Repräsentative Lastkollektive haben eine große Bedeutung für Zuverlässigkeitserprobung und Bauteildimensionierung, da sie das Ergebnis der Erprobung valide machen und eine belastungsgerechte Bauteildimensionierung ermöglichen. Dieser Hintergrund macht repräsentative Lastkollektive zum notwendigen Bestandteil für die Entwicklung zuverlässiger und belastungsgerecht ausgelegter Produkte. In dieser Arbeit wird eine Methodik zur systematischen Ermittlung repräsentativer Lastkollektive vorgestellt und anhand des Beispiels der Nutzfahrzeugbremse validiert. Das erfolgreiche Anwendungsbeispiel demonstriert, dass die Methodik eine systematische Ermittlung von repräsentativen Lastkollektiven ermöglicht und damit einen Beitrag zur belastungsgerechten und ressourceneffizienten Auslegung von Produkten leistet.Item Open Access Modellierung der Zuverlässigkeit technischer Systeme mit stochastischen Netzverfahren(Stuttgart : Institut für Maschinenelemente, 2018) Rieker, Timo; Bertsche, Bernd (Prof. Dr.-Ing.)Durch den Einsatz von mechatronischen Systemen mit den Wissensdomänen Mechanik, Elektronik und Software kommt es zu einer weitaus höheren technischen Komplexität in den Systemen. Darüber hinaus ist es aufgrund von wirtschaftlichen Aspekten und zur Förderung des Systemverständnisses wichtig die Zuverlässigkeit dieser Systeme zu verstehen und berechnen zu können. Die komplexen Zusammenhänge können mit gewöhnlichen Zuverlässigkeitsmethoden nicht mehr beschrieben werden. Hier setzen die dynamischen Modellierungsmethoden an, wobei diese häufig aufgrund der aufwendigen Modellierung noch keine hinreichende Beachtung finden. Ziel dieser Arbeit war es, mit der Entwicklung einer methodischen Vorgehensweise die Motivation zur Anwendung einer geeigneten dynamischen Modellierungsmethode zu fördern. Diese wird durch eine Reduzierung des Modellierungsaufwands und einer realitätsnahen, strukturierten und nachvollziehbaren Modellierung erreicht. Die methodische Vorgehensweise soll dabei als ein Leitfaden für mögliche Anwender dienen. Zu Beginn der Arbeit wurden der Stand der Technik und Forschung zur prinzipiellen Modellierung der Zuverlässigkeit und deren Aspekte in Bezug auf den Modellierungsprozess von mechatronischen Systemen betrachtet. Anschließend wurden die bekanntesten und am verbreitetsten dynamischen Modellierungsmethoden beschrieben. Diese wurden bezüglich ihrer Leistungsfähigkeit untersucht. Aufgrund dieser Untersuchung wurde gezeigt, weshalb die erweiterten farbigen stochastischen Petrinetze (ECSPN) und speziell die verbundene Modellierung (CSM) für die Modellierung der Zuverlässigkeit von komplexen technischen Systemen geeignet sind. Den Kern dieser Arbeit bildet die Entwicklung einer methodischen Vorgehensweise zur Modellierung der Zuverlässigkeit von technischen Systemen. Dieser Inhalt teilt sich auf drei Kapitel auf. Zunächst wurden die Anforderungen an die methodische Vorgehensweise formuliert. Es wurden allgemeine Anforderungen, die sich aus der generellen Entwicklung einer Methode ergaben, ausgearbeitet. Die Anforderungen aufgrund des Entwicklungsprozesses ergaben sich aus den speziellen Problemstellungen bei der Entwicklung mechatronischer Systeme. Weiterhin wurden Anforderungen aufgrund der gewählten Modellierungsmethode und zuverlässigkeitsspezifische Anforderungen formuliert. Für die Entwicklung der methodischen Vorgehensweise wurde ein Ebenenansatz gewählt, wobei die jeweiligen Ebenen mehrere Arbeitsschritte beinhalten. Vorteil dieses Ansatzes ist die hohe gesamtheitliche Durchgängigkeit in jeder Modellierungsphase. Weiterhin wird eine starre unidirektionale Modellierung vermieden. Die methodische Vorgehensweise gliedert sich dabei in eine funktionale Ebene, in eine Komponenten-, Betriebs- und Systemebene und in eine Ebene für das Zuverlässigkeitsmodell und die Zuverlässigkeitsanalyse. Auf der funktionalen Ebene wurden Zuverlässigkeitsnetze der relevanten Komponenten auf Basis der bereitzustellenden Funktionen erstellt. Diese wurden auf der Komponentenebene zu Zuverlässigkeitsmodellen erweitert. Wechselwirkungen, die zwischen den Komponenten entstehen können, fanden ebenfalls Berücksichtigung. Auf der Betriebsebene wurden die zeitabhängigen Belastungen der Komponenten bestimmt. Maßgeblichen Einfluss darauf haben die Lastkollektive und die Betriebsstrategie, für die die Vorgehensweise bei deren Modellierung beschrieben wurde. Auf der Systemebene wurden die vervollständigten Zuverlässigkeitsmodelle zu einem Gesamtmodell zusammengefügt und schließlich auf der untersten Ebene berechnet und analysiert. Der Einfluss der Alterung der Komponenten wurde gezeigt und deren Modellierung beschrieben. Anhand den zuvor formulierten Anforderungen wurde die methodische Vorgehensweise reflektiert. Durch den Ebenenansatz wurde eine für den Anwender transparente und nachvollziehbare Vorgehensweise erreicht. Die Modellierung in den Ebenen kann unabhängig voneinander durchgeführt und zu einem späteren Zeitpunkt verknüpft werden. Die wesentlichen Herausforderungen, die bei der Modellierung von komplexen technischen Systemen entstehen, konnten erfüllt werden. Die Modellierung von Betriebsstrategien, zeitabhängigen Lastkollektiven, Alterungseinflüssen und Wechselwirkungen zwischen den Komponenten, die die Zuverlässigkeit maßgeblich beeinflussen, wurden gezeigt. Anhand eines Hybridantriebsstrangs eines Parallel-PlugIn-Hybridfahrzeugs wurde die methodische Vorgehensweise angewendet. Hier wurde der Einfluss von verschiedenen Fahrzyklen auf die Zuverlässigkeit der relevanten Komponenten und des Systems gezeigt.Item Open Access Modularisierung und Synthese von Zuverlässigkeitsmethoden(2013) Kopp, Michael; Bertsche, Bernd (Prof. Dr.-Ing.)Methoden zur Zuverlässigkeitsabsicherung existieren in großer Menge mit unterschiedlichen, sich teilweise aber überschneidenden Zielsetzungen. Daher kommt es in der Produktentwicklung vor, dass eigentlich wichtige Methoden weggelassen oder andere Themen doppelt bearbeitet werden. Dies wirkt sich nicht nur negativ auf die Effektivität, sondern auch auf die Methodenakzeptanz der Entwickler aus. Demzufolge befasst sich die vorliegende Arbeit mit dem Grundgedanken, dass nicht die Methoden an sich, sondern deren zugrunde liegende Fragestellungen mehr in den Vordergrund gerückt werden müssen. Auf dieser Basis kann auch eine bessere Kombination der Methoden stattfinden. Die weitergehende Idee ist, ob nicht sogar eine Systematik in den grundlegenden Fragestellungen der Methoden erkannt werden kann, die zu einem neuen Verständnis der Zuverlässigkeitsabsicherung führen könnte. Ziel der vorliegenden Arbeit ist es, die Vielzahl bestehender Methoden zur Zuverlässigkeitsabsicherung zu hinterfragen und deren Inhaltsebene mehr in den Vordergrund zu stellen. Als Hilfsmittel wird der Ansatz der Modularisierung aufgegriffen. Dieser erlaubt sowohl eine vermehrte Standardisierung durch kleine vorgegebene Module als auch eine stärkere Flexibilisierung durch die zahlreichen Kombinationsmöglichkeiten der Module. Dazu werden zu Beginn Zuverlässigkeitsmethoden im Speziellen und Entwicklungsmethoden im Allgemeinen betrachtet und auf deren wesentliche Funktionen heruntergebrochen. Im Anschluss daran werden die Anforderungen an eine Modularisierung festgelegt und bestehende Methoden zur Zuverlässigkeitsabsicherung daraufhin untersucht, ob sich diese mit dem Modularisierungsansatz darstellen lassen. Den Kernpunkt dieser Arbeit bildet schließlich die Entwicklung einer Systematik zum modularen Aufbau einer vollständigen Zuverlässigkeitsabsicherung. Diese Systematik basiert auf einem Makrozyklus als Wegweiser entlang des Produktentwicklungsprozesses und einem Mikrozyklus zur Anpassung der Arbeitsschritte an die menschliche Denkweise. In einem Exkurs wird zudem gezeigt, dass eine durchgängige Zuverlässigkeitsabsicherung nicht nur entlang des Produktenwicklungsprozesses, sondern auch quer über quantitative und qualitative Ansätze hinweg auf verschiedenen Ebenen möglich ist.Item Open Access Numerische Analyse von gemischten Ausfallverteilungen in der Zuverlässigkeitstechnik(2013) Klein, Benjamin; Bertsche, Bernd (Prof. Dr.-Ing.)Der Nachweis von Zuverlässigkeitsanforderungen erfordert einen große Zeit- und Kostenaufwand. Dieser Nachweis kann durch Prüfstandsversuche oder durch die Auswertung von Felddaten geführt werden. Beide Möglichkeiten haben Vor- und Nachteile. Versuche bieten den Vorteil der genauen Kenntnis der Parameter auf Kosten meist kleiner Stichprobengrößen und synthetischer Versuchsbedingungen. Felddaten bieten den Vorteil der realen Belastung des Produkts und großer Stichprobenumfänge mit den Nachteilen der Unsicherheit bezüglich der genauen Kenntnis der Lebensdauer und der Belastung. Trotz der genannten Nachteile bietet die Analyse von Felddaten ein großes Potential. Felddatensätze bestehen meist aus einer Mischung verschiedener Produkttypen oder Ausfallmechanismen. Diese Mischungen können durch Mischverteilungen oder Ausfälle verschiedener Komponenten von Systemen auftreten. Zur Analyse dieser gemischten Verteilungen wurde in dieser Arbeit ein neues Verfahren vorgestellt. Für die Problemstellung der Analyse von Mischverteilungen und booleschen Systemen wurden die Einschränkungen der grafischen und analytischen Verfahren aufgezeigt. Im Weiteren wurden bekannte numerische Optimierungsmethoden und deren Arbeitsweise und Anwendung beschrieben. Diese numerischen Optimierungsmethoden sind auch dann einsetzbar, wenn die Verwendung analytischer Methoden nicht möglich ist. Aus den vorgestellten Optimierungsmethoden wurden die genetischen Algorithmen und die künstlichen neuronalen Netze ausgewählt. Diese wurden genauer auf ihre Anwendbarkeit auf die Problemstellung untersucht. Dazu wurden der Ablauf und die Anwendung der genetischen Algorithmen und der künstlichen neuronalen Netze als Optimierungsmethode beschrieben. Die beiden Methoden wurden anschließend bezüglich der vorliegenden Problemstellung, der Parameterschätzung von gemischten Verteilungen, gegenübergestellt. Aus der Diskussion der beiden Methoden konnten die genetischen Algorithmen aufgrund ihrer universelleren Anwendbarkeit als die geeignetere Variante ausgewählt werden. Im nächsten Schritt wurde ein genetischer Algorithmus zur Schätzung von gemischten Verteilungen implementiert. Die Analyse der verschiedenen Algorithmenparameter und deren Optimierung konnte anhand von beispielhaften repräsentativen Mischverteilungen durchgeführt werden. Hierbei lag das Hauptaugenmerk auf den zentralen Punkten der Kodierung der Individuen, der geeigneten Ziel- oder Fitnessfunktion und den optimalen Parametern des genetischen Algorithmus. Zur Untersuchung der Funktionsweise des Algorithmus und der zu erwartenden Ergebnisse wurden verschiedene repräsentative Datensätze erstellt. Anhand der vorgestellten Datensätze wurde untersucht, welche Ergebnisse bei einer begrenzten Populationsgröße und Generationenanzahl erwartet werden können. Dazu mussten die Datensätze möglichst viele Arten von Mischverteilungen und booleschen Systemen repräsentieren, um allgemeine Aussagen treffen zu können. Aufbauend auf den repräsentativen Datensätzen wurden Parameterschätzungen durchgeführt und deren Ergebnisse diskutiert. Bei Mischverteilungen ohne ausfallfreie Zeit wurden Ergebnisse erzielt, die im Bereich der Ergebnisse kommerzieller Software liegen. Mit zunehmender Anzahl an Unterverteilungen konnte die Ergebnisgüte der kommerziellen Software nicht mehr in allen Fällen erreicht werden. Bei der Schätzung von Mischverteilungen mit ausfallfreier Zeit und booleschen Systemen konnten gute bis sehr gute Ergebnisse erzielt werden. In einem weiteren Schritt wurde die Möglichkeit zur Schätzung der Unterverteilungsanzahl untersucht, wurden die Schwierigkeiten erläutert und verschiedene Verbesserungsmaßnahmen vorgeschlagen. Mit dem genetischen Algorithmus konnte eine Methode implementiert werden, mit der es möglich ist, die Verteilungsparameter aller Typen von gemischten Verteilungen zu schätzen. Die Güte der Ergebnisse reicht an die der analytischen Vergleichsmethode MLE/EM heran. Bei booleschen Systemen war bisher eine Parameterschätzung der Unterverteilungen überhaupt nicht möglich. Die universelle Anwendbarkeit der Methode auf alle Arten von gemischten Verteilungen gleicht den Nachteil der etwas geringeren Ergebnisgüte gegenüber den analytischen Methoden aus. In dieser Arbeit konnte die prinzipielle Eignung numerischer Methoden zur Parameterschätzung von gemischten Verteilungen gezeigt werden. Darauf aufbauend könnten weitere numerische Methoden auf ihre Anwendbarkeit auf diese Problemstellung hin untersucht werden. Der genetische Algorithmus zeigt für die vorgestellten Verteilungen gute bis sehr gute Ergebnisse. Ein Nachweis der Anwendbarkeit auf weitere Verteilungsarten wie beispielsweise die Lognormalverteilung steht noch aus. Zudem sind noch weitere Möglichkeiten zur Erweiterung des genetischen Algorithmus bekannt bis hin zu memetischen Algorithmen, die bisher nicht untersucht wurden.Item Open Access Planung von Zuverlässigkeitstests mit weitreichender Berücksichtigung von Vorkenntnissen(2004) Krolo, Anna; Bertsche, Bernd (Prof. Dr.-Ing.)Die Sicherstellung der Produktzuverlässigkeit ist durch ausgereifte Konstruktionsmethoden allein nicht gewährleistet. Es müssen vielmehr spezielle analytische Zuverlässigkeitsmethoden zum Einsatz kommen. Obwohl es in der Industrie oft an der durchgängigen Anwendung der vorhandenen Methoden mangelt, werden diese vor allem in der Entwicklungs- und Verifikationsphase eingesetzt. Der Fokus der vorliegenden Arbeit richtet sich auf die Verifikationsphase. Den Abschluß vor Serieneinführung eines Erzeugnisses bildet dessen Erprobung, die die tatsächlichen Feldbedingungen möglichst gut abbilden und somit eine statistisch abgesicherte Aussage zur Zuverlässigkeit im Kundenbetrieb liefern soll. Eine gründliche Planung des Testablaufs ist unumgänglich. Die Planung und Durchführung von Lebensdauertests stützt sich auf die an das Produkt gestellten Anforderungen bzgl. Zuverlässigkeit und der damit verbundenen Aussagesicherheit. Ohne diese Vorgaben lassen sich Versuche, zumindest vom statistischen Gesichtspunkt her gesehen, nicht durchführen. Die Forderung nach einer gewissen Zuverlässigkeit bei einer definierten Lebensdauer reicht allein nicht aus. Aufgrund dessen, daß es sich bei der Zuverlässigkeit um eine Zufallsgröße handelt, ist die Festlegung einer bestimmten Aussagesicherheit unabdingbar. Der klassische Zuverlässigkeitsnachweis erfolgt nach der Binomialverteilung. In der Regel wird von einem Testablauf ohne auftretende Ausfälle ausgegangen, einem sog. Success Run Test. Danach läßt sich unter Berücksichtigung der geforderten Zuverlässigkeit und Aussagewahrscheinlichkeit der erforderliche Stichprobenumfang ermitteln. Dieser ist je nach Höhe der Zuverlässigkeitsanforderungen in der Praxis oft nicht realisierbar. Beispielsweise bedarf es einer Prüfung von 22 Teilen, um eine Zuverlässigkeit von 90% mit einer Aussagesicherheit von 90% abzusichern, wobei ein zuverlässigkeitsrelevanter Ausfall nicht auftreten darf. Eine Möglichkeit zur Reduktion des Versuchsaufwands besteht in der Nutzung von Vorinformationen. Diese werden mit den aktuellen Testbedingungen verknüpft, wobei als mathematisches Hilfsmittel die Bayes-Formel dient. Es ergibt sich eine genauere Schätzung für das aktuelle Produkt. Die Bayessche Statistik geht von identischen Gegebenheiten aus, d.h. die Vorkenntnisse und die aktuellen Testbedingungen betreffen genau die selbe Grundgesamtheit. In der Praxis wird meist vernachlässigt, daß Vorkenntnisse und aktuelle Testbedingungen unterschiedlichen Grundgesamtheiten entnommen sind, beispielsweise wenn Vorgängermodelle als Referenz verwendet werden. Aufgrund des reduzierten Stichprobenumfangs besteht die Gefahr, daß die Zuverlässigkeit des Produkts für reale Betriebsbedingungen im Feldeinsatz unzureichend abgesichert ist. Dennoch scheint die Verwendung von Vorkenntnissen gerechtfertigt zu sein. Selten handelt es sich bei Produkten um Neuentwicklungen. Meist wird auf Bewährtes zurückgegriffen. So liegt der Anteil an Neuentwicklungen bei nur 15%. Produktänderungen und -anpassungen werden zu 65% durchgeführt, Weiterentwicklungen zu lediglich 20%. Das Hauptziel dieser Arbeit ist die Entwicklung einer neuen Methode zur Planung von Zuverlässigkeitstests, die allgemein anwendbar ist und bestehende Vorinformationen über die Zuverlässigkeit des Produkts bei der Planung von Tests berücksichtigt. Dabei soll es möglich sein, Vorinformationen aus Berechnungen, vorangegangenen Versuchen und konstruktiv ähnlichen Produkten abzuleiten und in die Testplanung einzubeziehen. Mittels eines „Transformationsfaktors“ soll in Betracht gezogen werden, daß bereits vorhandene Informationen zur Zuverlässigkeit nur mit Einschränkungen auf eine neue Situation übertragbar sind. In diesem Zusammenhang wird die Vorgehensweise zur Schätzung und nachträglichen Verifikation des Transformationsfaktors vorgestellt.