Universität Stuttgart

Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1

Browse

Search Results

Now showing 1 - 10 of 1970
  • Thumbnail Image
    ItemOpen Access
    Strukturelle Eigenschaften von Cu(In,Ga)(Se,S)2 Dünnschichten
    (2003) Kötschau, Immo Michael; Werner, Jürgen H. (Prof. Dr. rer. nat. habil.)
    In Cu(In,Ga)(S,Se)2-Dünnfilmen treten, je nach Wachstum, auf natürliche Weise teilweise recht große Zusammensetzungsgradienten auf. Einerseits wurde an In-reichem Material eine Cu-arme Oberflächendefektschicht entdeckt, andererseits sorgt die Dynamik Cu-reicher Wachstumsprozesse für einen über die gesamte Schichtdicke veränderlichen Ga- oder S-Gehalt. Die gezielte Beeinflussung der tiefenabhängigen Konzentration von Ga und S kann unter anderem dazu genutzt werden, Rekombinationsverluste innerhalb der Solarzelle zu minimieren. Solches "Bandgap-Engineering" führte bereits zu entscheidenden Verbesserungen des Wirkungsgrades von Cu(In,Ga)(S,Se)2-Solarzellen. Für die gezielte quantitative Untersuchung der tiefenabhängigen Zusammensetzung in Dünnfilmen standen bisher ausschließlich nicht zerstörungsfreie Methoden zur Verfügung. Insbesondere können die mit Sputtermethoden erzielten Tiefenprofile der Zusammensetzung aufgrund des Sputterprozesses selbst stark fehlerbehaftet sein. Wegen dieser Problematik entwickelt diese Arbeit eine alternative Methode. Es hat sich gezeigt, dass sich Röntgenbeugungsspektren von Cu(In,Ga)(S,Se)2-Dünnfilmen, gemessen unter streifendem Einfall (Grazing Incidence X-Ray Diffraction; GIXRD), korrekt mittels eines Schichtenabsorptionsmodells, in welchem über die Absorption gewichteter Anteile aus unterschiedlich tiefen Schichten das Beugungsspektrum als Summe über alle Schichten berechnet wird, beschreiben lassen. Eine quantitative Auswertung von Strukturdaten, insbesondere die Verfeinerung von Zusammensetzungstiefenprofilen, ist damit möglich. Um die Gültigkeit der Modellierung einzugrenzen, erfolgte die Betrachtung und ausführliche Diskussion aller in der Praxis vorkommender apparate- und probenspezifischer Effekte. Während die Wechselwirkung von Oberflächenrauigkeiten und Brechung durch einfache Transformationen zu kompensieren sind, können beispielsweise tiefenabhängige Unterschiede der bevorzugten Orientierung Probleme aufwerfen, wenn über ihre Tiefenabhängigkeit keine Daten vorliegen. Prinzipiell ist jedoch die Untersuchung der Einflüsse aller Eingangsparamter, seien sie apparatebedingt oder durch die Probe selbst verursacht, möglich, solange alle übrigen Parameter bekannt sind. Eine eindeutige Verfeinerung von Tiefenprofilen muss dabei immer die Voraussetzung erfüllen, dass ein und derselbe Eingangsparametersatz gleichzeitig alle unter verschiedenen Einfallswinkeln gemessenen Spektren hinreichend genau beschreibt. Die Verfeinerung von Zusammensetzungstiefenprofilen erfolgt praktisch durch den Vergleich gemessener und simulierter Spektren, wobei dies in der jetzigen Fassung des dafür entwickelten Simulationsprogrammes (Thin Film X-Ray Diffraction Absorption Utility; TFXDAU) interaktiv geschieht. Die Eindeutigkeit der Anpassung hängt vom Umfang der a priori zur Verfügung stehenden Eingangsparameter ab. Liegen beispielsweise aufgrund des Wachstumsprozesses Informationen über mögliche Tiefenprofile bereits vor, lassen sich geeignete Modellfunktionen (Diffusionsprofile, Stufenfunktionen etc.) schrittweise durch vergleichende Simulationen anpassen. So gelang es, einen mehrstufigen S-Se-Gradienten des Anionen-Untergitters in einer Cu(In,Ga)(S,Se)2-Schicht detailgenau nachzuweisen. Die Veränderungen, die sich dabei gegenüber dem mit Sekundärionen-Massenspektrometrie gemessenen Tiefenprofil ergaben, ließen sich auf Messartefakte zurückführen, die der Sputterprozess selbst verursacht hat. Ebenso war ein In-Ga-Gradient im Kationen-Untergitter einer Cu(In,Ga)Se2-Schicht mit einer Tiefenauflösung von unter 50nm nachzuweisen. Die Gradierungen erstrecken sich dabei immer über die ganze Schichtdicke. In diesem Sinne erreicht diese Arbeit ihr eigentliches Ziel: die Entwicklung einer Methode, mit der die Tiefenabhängigkeiten der strukturellen Eigenschaften, welche auf das Engste mit den elektronischen Eigenschaften (Verlauf der Bandkanten) in Verbindung stehen, zu bestimmen sind. Als "Nebenprodukt" eignet sich diese Modellierung dazu, die integralen Ga- und S-Gehalte an homogenen Proben bis auf 2% genau zu bestimmen. Darüber hinaus hat sich gezeigt, dass die Möglichkeiten des Schichtenabsorptionsmodells noch nicht ausgeschöpft sind. Oberflächennahe Zusammensetzungsgradienten zeigen in Beugungsspektren, die unter kleinsten Einfallswinkeln gemessen werden, noch deutliche Auswirkungen. Die Existenz der immer wieder ins Spiel gebrachten Cu-armen Oberflächendefektschicht war mit Hilfe der Modellierung Cu-armer Oberflächen eindeutig nachzuwiesen. Überdies ließ sich ein Zusammenhang zwischen integralem Cu-Gehalt und der mittleren Dicke der Cu-armen Oberflächendefektschicht belegen.
  • Thumbnail Image
    ItemOpen Access
    Behavior of sulfur oxides in air and oxy-fuel combustion
    (2019) Spörl, Reinhold; Scheffknecht, Günter (Univ.-Prof. Dr. techn.)
    This thesis evaluates the behavior of sulfur oxides in pulverized fuel (PF) fired air and oxy-fuel systems. Sulfur oxides are responsible for certain operational problems and considerable gas cleaning requirements in air as well as oxy-fuel firing. A better understanding of the related issues will allow for a technical and economical optimization of the oxy-fuel combustion technology. A range of experimental investigations studying the stability and retention of sulfur oxides in ashes and deposits, acid gas (SO2, SO3, and HCl) control in air and oxy-fuel combustion by dry sorbent injection, and SO3 formation were conducted. The experimental work is in parts supported by theoretical considerations and thermodynamic equilibrium simulation. Studies for different coals and lignites showed that in practically relevant oxy-fuel configurations the exclusion of airborne N2 from combustion leads to an increase of the SO2 concentrations in oxy-fuel, compared to air firing, by a factor of about 3.4 to 4.2, referring to dry, and of about 2.9 to 3.5, when referring to wet flue gas conditions. The increased SO2 levels in oxy-fuel combustion are responsible for an increased stability of sulfates in oxy-fuel power boiler systems so that for example the decomposition temperature CaSO4 rises by about 50 to 80 °C, depending on flue gas atmospheres. The enhanced stability of sulfates in deposits at high temperatures when operating with increased SO2 levels was experimentally demonstrated. Compared to air firing, a considerable increase of the sulfur retention in the ash by 10 to 12 percentage points has been observed for oxy-fuel recycle combustion of Lusatian lignites. This leads to lower SO2 emissions and higher SO3 levels in process ashes and deposits. The results indicate that for fuels, such as the used lignites, the temperature level at which fouling by sulfatic deposits is problematic may be shifted to higher temperatures in oxy-fuel combustion and that the sintering of deposits by sulfation may be more pronounced. In contrast, in air and oxy-fuel combustion experiments with a hard coal with a low sulfur retention potential differences in the SO3 contents and degrees of sulfation of ashes and deposits were small. Besides higher SO3 contents and sulfation degrees, no other significant changes between the deposit samples from air and oxy-fuel combustion were identified. Experiments on dry sorbent injection in air and oxy-fuel mode showed that an increase of the average flue gas residence time in the furnace by flue gas recirculation and, to a lesser extent, the higher sulfate stability enhance the desulfurization efficiency in oxy-fuel recycle combustion considerably. SO2 capture efficiencies in oxy-fuel recycle combustion of 50 % to more than 80 % at moderate molar sulfur to calcium ratios between 1.7 and 2.9 were reached, when injecting CaCO3 and Ca(OH)2 together with the fuel or directly to the furnace. Under comparable injection conditions, the oxy-fuel performance was by as much as 29 percentage points higher than in air firing. Also an efficient SO3 and HCl control by DSI could be demonstrated. Experiments on formation of SO3 show that higher SO2 levels in oxy-fuel firing are the most important parameter responsible for the observed increase of the SO3 concentrations.
  • Thumbnail Image
    ItemOpen Access
    Ein Beitrag zur Stützung eines Software GNSS Empfängers mit MEMS-Inertialsensoren
    (2016) Gäb, Michael; Kleusberg, Alfred (Prof. Dr.-Ing.)
    Die genaue Bestimmung von Position und Geschwindigkeit mit einem globalen Navigationssatellitensystem (engl. Global Navigation Satellite System) (GNSS) in Echtzeit bildet eine essentielle Grundlage für viele Anwendungen in der Navigation. Bei mobilen Navigationsanwendungen finden häufig GNSS-Messungen unter ungünstigen Beobachtungsbedingungen statt, so dass Fehler in den Ergebnissen auftreten können. In diesem Fall ist der GNSS-Empfänger in Bewegung, so dass die Empfangsumgebung sich ständig ändert. So können Objekte, wie z.B. Gebäude, Bäume, Tunnel usw. zu Reflektionen, Dämpfung bzw. Abschattung der GNSS-Signale führen. Eine hohe zusätzliche Dynamik bzgl. der beobachteten Dopplerfrequenzverschiebung erfährt das empfangene GNSS-Signal durch die Bewegung des GNSS-Empfängers. Das beeinflusst die Signalnachführung (Tracking) und verursacht Fehler bei der Positions- und Geschwindigkeitsbestimmung oder eine Bestimmung ist sogar unmöglich. Eine Verbesserung der Positions- und Geschwindigkeitsbestimmung wird durch die gleichzeitige Messung mit einem GNSS-Empfänger und einem inertialen Navigationssystem (engl. Inertial Navigation System) (INS) ermöglicht. Kostengünstige INS beinhalten heute Mikro-Elektro-Mechanische Systeme (engl. Micro Electro Mechanical Systems) (MEMS), die als MEMS-Inertialsensoren bezeichnet werden. Die gemeinsame Nutzung der Messdaten von GNSS und INS wird als GNSS/INS-Integration bezeichnet. Diese Arbeit befasst sich mit der Tiefen GNSS/INS-Integration, so dass mit der Information eines INSs in die Tracking Loop des GNSS-Empfängers eingegriffen wird, um Verbesserungen beim Tracking des Signals und der daraus bestimmten GNSS-Beobachtungen zu erzielen. Dieser Eingriff wird auch als Stützung (engl. aiding) bezeichnet. Die Stützung erfolgt über die Regelgrößen (Dopplerfrequenz und Codephase) in der Tracking Loop für den jeweiligen Kanal des GNSS-Empfängers. Dazu werden die Regelgrößen zunächst prädiziert, bevor diese beim Tracking des empfangenen GNSS-Signals berücksichtigt werden können. Für die Prädiktion müssen die Position und Geschwindigkeit des Satelliten und des Empfängers vorliegen. Außerdem müssen die Uhrenfehlerrate des Satelliten und des Empfängers bekannt sein. Aus diesen Größen kann die Dopplerfrequenz und daraus die Rate der Codephase berechnet werden. Die zeitliche Integration der Codephasenrate ergibt die aktuelle Codephase. Aus den Ephemeriden des GNSS-Satelliten kann die Position, die Geschwindigkeit und die Uhrenfehlerrate für einen zeitnahen beliebigen Zeitpunkt berechnet werden. Die Uhrenfehlerrate des Empfängers wird hierbei mittels einer Extrapolation vorausbestimmt. Mit den MEMS-Inertialsensoren kann die Position und Geschwindigkeit des Empfängers fortgeführt werden. Diese Fortführung erfolgt über eine Lose GNSS/INS-Integration mittels einer Strapdown-Rechnung und einem Kalman-Filter für 15 Fehlerzustände. Als Stützwerte für den Kalman-Filter dienen hier die Position und Geschwindigkeit des SGEs. Die Stützung sollte bei einem Signalabriss oder für die Stabilisierung des Trackings eingeschaltet werden. Die Stützungsmethode wird mit einem Software GNSS-Empfänger (SGE) und einer Inertiale Messeinheit (engl. inertial measurement unit) (IMU) aus MEMS-Inertialsensoren (MEMS-IMU) in der Landfahrzeugnavigation getestet und analysiert. Der SGE ist für die Signale des globalen Positionierungssystem (engl. Global Positioning System) (GPS) mit dem C/A-Code auf der L1-Frequenz entwickelt und bestimmt die Position und Geschwindigkeit mit einer Messrate von 1 kHz. Die MEMS-IMU beeinhaltet 6 Freiheitsgrade mit jeweils einem 3-achsigen MEMS-Beschleunigungs- und MEMSDrehratensensor. Die Messrate des MEMS-Beschleunigungssensors beträgt 1 kHz und die Messrate des MEMS-Drehratensensors beträgt 800 Hz. Mit diesem Messsystem ist es möglich, die Prädiktion der Regelgrößen für jede Millisekunde durchzuführen, so dass diese bei jedem Tracking-Durchlauf mit dem C/A-Code vorliegen. Aufgrund der hohen Messraten können nur wenige Minuten Messdaten erfasst werden und die Auswertung erfolgt in der Nachbearbeitung (engl. post-processing). Die Stützungsmethode wird durch Fahrten mit einem Messfahrzeug getestet. Dazu werden Messfahrten mit verschiedenen Fahrmanöver ausgeführt, um im empfangenen GPS-Signal unterschiedliche Raten in der Dopplerfrequenz zu erzeugen. Eine Fahrt unter Bäumen ermöglicht den Einfluss des zeitlichen Verlaufs im Signal-Rauschverhältnis (engl. signal-to-noise ratio) (S/N) des empfangenen GPS-Signals auf die Stützungsmethode zu untersuchen. Bei dieser Messfahrt treten auch immer wieder kurzzeitige Signalabrisse auf. Die in der vorliegenden Arbeit dokumentierten Messfahrten und Ergebnisse zeigen, dass die Stützung für einen SGE erfolgreich in der Landfahrzeugnavigation durchgeführt werden kann. Die prädizierten Regelgrößen werden für die verschiedenen Messfahrten zuverlässig berechnet und das Tracking kann damit stabilisiert und sogar bei einem Signalabriss vorgesteuert werden. Außerdem können Ausreißer direkt in den Beobachtungen minimiert werden, so dass Verbesserungen in der Positions- und Geschwindigkeitsbestimmung des SGEs erzielt werden können.
  • Thumbnail Image
    ItemOpen Access
    Entwicklung einer schnell schaltenden Bremse und Kupplung für Linearbewegungen zum Überlastschutz in Werkzeugmaschinen
    (2009) Dennig, Hans-Jörg; Binz, Hansgeorg (Prof. Dr.-Ing.)
    Große Kollisionskräfte aufgrund eines Bedien- oder Programmierfehlers sind ein zentrales Problem bei der modernen Produktion mit hocheffizienten Werkzeugmaschinen. Dadurch entstehen teure Reparaturen vor allem an der Hauptspindel und den Spindelmutter-Antrieben, was zu langen Ausfallzeiten an der betroffenen Maschine führt. Eine Umfrage bei insgesamt 23 Anwendern und Herstellern von Werkzeugmaschinen ergab, dass die Service- und Ersatzteilkosten durch eine heftige Kollision bis zu 23.000 € betragen können. Verfügbare Überlastsicherungssysteme können derzeit weder die hohen Kollisionsschäden verhindern noch die Auswirkungen eines Schadens gering halten. Es bedarf also neuer Ansätze. Um dies zu ändern, wird eine Lösung verfolgt, die vorsieht, die Vorteile elektronischer und mechanischer Überlastsicherungssysteme zu vereinen. Diese Lösung basiert darauf, dass der erste Kontakt bei einer Kollision beispielsweise zwischen Werkzeug und Werkstück erkannt und über eine nachgeschaltete Entscheidungslogik verarbeitet wird. Durch diesen kontakterkennungsbasierten Ansatz ist es möglich, Kollisionen schneller als bei herkömmlichen Schutzsystemen zu erkennen und Maßnahmen einleiten zu können. Je nach Kollisionshärte muss die Maschine dann möglichst schnell gestoppt werden, wobei abhängig von der Vorschubgeschwindigkeit zwei Strategien zur Verfügung stehen. Im Bereich niedriger Vorschübe kann mittels eines steuerungsinternen Notstopps die Maschine sicher gestoppt werden, ohne dass nennenswerte Schäden auftreten. Im Fall einer Kollision mit höheren Vorschubgeschwindigkeiten reicht der interne Notstopp nicht mehr aus, weshalb die Steuerung ein Signal an eine aktiv geschaltete Sicherheitskupplung/-bremse weitergibt. Das schnell schaltende Bremssystem kann vor allem den Spindelkasten inkl. Hauptspindel schützen, indem die Überlast vom Bremssystem aufgenommen wird und bleibende Verformungen verhindert werden. Dazu muss das Bremssystem mit hoher Kraft schnellstmöglich wirken. Eine Überlastkupplung, die eine hohe Axialsteifigkeit aufweist und direkt an der Schnittstelle zwischen Antriebssystem und Werkzeugschlitten in die Spindelmutter integriert ist, kann den Kraftfluss infolge einer Kollision früh unterbrechen und somit das Antriebssystem schützen. Solche Maschinenelemente zur schnellen Kopplung bzw. Entkopplung von großen Kräften sind nach dem derzeitigen Stand der Technik und Forschung nicht verfügbar. Ziel dieser Arbeit ist somit die Entwicklung einer schnell schaltenden Bremse und Kupplung für Linearbewegungen am Beispiel des beschriebenen Überlastsicherungssystems für Werkzeugmaschinen mit Spindelmutter-Antrieben. Damit erfolgt eine Eingrenzung des Lösungsansatzes auf die mechanischen Komponenten. Die ebenfalls benötigte Steuerungstechnik zur Auslösung von Bremse bzw. Kupplung wird in einer weiteren Arbeit am Werkzeugmaschinenlabor der RWTH Aachen entwickelt. Die Hauptanforderung an die einzelnen Systeme besteht dabei in der Verkürzung der Reaktionszeit. Maßnahmen zur Vermeidung von schwerwiegenden Beschädigungen infolge Kollisionen müssen in den ersten Millisekunden eingeleitet werden. In der vorliegenden Arbeit wird zur Lösung dieser Aufgabe als Vorgehensweise der Produktentwicklungsprozess gemäß VDI2221 gewählt. Dabei wird gezeigt, dass die Anforderungen durch eine hydraulische Betätigung des Brems- bzw. Kupplungssystems erreichbar sind. Das Herzstück bildet daher ein Hydraulikventil, das durch einen extrem schnellen Aktor geöffnet wird. Das zentrale Problem dabei ist die Optimierung der Parameter Kraft, Weg und Zeit. So müssen die eingesetzten Aktorprinzipien hohe Kräfte und Wege innerhalb kürzester Reaktionszeit aufbringen. Das schnell schaltende Bremse-Kupplung-System wird hier exemplarisch für die x-Achse einer Fräsmaschine in Fahrständerbauweise entwickelt. Die Antriebssysteme bestehen dabei aus Kugelgewindetrieben. Es steht jedoch nicht die Werkzeugmaschine im Vordergrund, sondern die Entwicklung des Bremse-Kupplung-Systems, das somit auch in weiteren Anwendungsfeldern ihren Einsatz finden kann. Für die geforderte Aufgabenstellung leiten sich jedoch aus den Eigenschaften von Werkzeugmaschinen wie z. B. Verfahrgeschwindigkeiten, Steifigkeiten etc. verschiedene Anforderungen ab, welche die Basis für die vorliegende Arbeit darstellen.
  • Thumbnail Image
    ItemOpen Access
    Städte am Wasser - Wasserstädte : die nachhaltige Erhöhung der Konkurrenzfähigkeit von urbanen Räumen durch Sanierung und Umnutzung von Uferzonen
    (2009) Ebner, Stefan; Ribbeck, Eckhart (Prof. Dr. Ing.)
    Darstellung und Untersuchung von Best-Practice-Beispielen zur Erhöhung der nachhaltigen Konkurrenzfähigkeit von urbanen Räumen durch Sanierung und Umnutzung von Uferzonen
  • Thumbnail Image
    ItemOpen Access
    Lebensdauerabschätzung von metallischen Strukturen mittels der Diskrete-Elemente-Methode im gekoppelten thermo-mechanischen Feld
    (2012) Hahn, Manfred; Kröplin, Bernd (Prof. Dr.-Ing. habil.)
    Aufgrund der hohen Streubreite der physikalischen Eigenschaften von metallischen Werkstoffen kann man deren Verhalten nicht zuverlässig voraussagen. Dies stellt insbesondere bei der Lebensdauervorhersage von industriell gefertigten Konstruktionen ein Problem dar. Der atomare Aufbau eines metallischen Werkstoffs besteht in der Regel aus einem Hauptelement und einem oder mehreren Nebenkomponenten was dazu führt, dass beim Erstarren einer Metallschmelze auf der Atomskala die Anreihung der Atome nicht strukturiert erfolgt, sondern mit zufällig verteilten Fehlern. Betrachtet man den Werkstoff auf einer göberen Skala so fällt auf, dass metallische Schmelzen an vielen Stellen zu erstarren beginnen und dass die Erstarrungskeime und die Grenzen der Erstarrungsfronten stochastisch verteilt sind. Die metallischen Werkstoffe sind also bei genauerer Betrachtung kein Kontinuum sondern ein Diskontinuum in dem die physikalischen Eigenschaften global betrachtet zu den in den Laborexperimenten beobachteten Werten verschmieren. Ziel der vorliegenden Arbeit ist es, den Werkstoff als ein Diskontinuum darzustellen, um die stochastisch verteilten physikalischen Eigenschaften auf einer kleinen Skala zu erfassen. Im Weiteren sollen auf einer größeren Skala die physikalischen Eigenschaften zu den global beobachteten Werten verschmieren. Dabei soll die in dieser Arbeit vorgestellte numerische Methode der diskreten Elemente im mechanischen Feld ausgebaut und im Folgenden auf andere physikalische Felder übertragen werden. In metallischen Werkstoffen gehen bei zyklischen Belastungen im Inneren des Werkstoffs mikroplastische Verformungen vonstatten, welche mit zunehmender Zyklenzahl den Werkstoff an diskreten Stellen mit Mikroschäden sättigen. Dabei schreitet die diskrete Sättigung solange voran, bis der diskrete Ort übersättigt bzw.~geschwächt ist und im Folgenden versagt. Die mikroplastischen Verformungen sind, wie auch die anderen physikalischen Parameter, mit einer statistischen Größe behaftet. Die diskrete Akkumulation der statistisch verteilten mikroplastischen Schädigung soll in das numerische Modell der Diskreten-Elemente-Methode (DEM) mit aufgenommen werden, so dass sich auf numerischem Weg Lebensdauersimulationen durchführen lassen. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit den mathematischen Beweisen für die Gültigkeit der DEM als numerische Methode, sowohl für das mechanische als auch für das thermische Feld. Die Beweisführung erfolgt über eine vergleichende Betrachtung mit der Finite-Volumen-Methode (FVM), der Finite-Differenzen-Methode (FDM) und der Finite-Elemente-Methode (FEM). Dabei wird aus der FVM die Idee übernommen, dass physikalische Flüsse übertragen werden. Im Weiteren ergibt die Assemblierung von sechs Stäben, welche die physikalische Feldgröße übertragen, zusammen mit dem lokalen physikalischen Gleichgewicht den Finite-Differenzen-Stern der FDM. Zuletzt wird das globale Gleichgewicht mittels der FEM gewonnen. Im Nachlauf der Finite-Elemente-Rechnung lassen sich die Flussgrößen zurückbestimmen. In dieser Arbeit wird gezeigt, wie die Kopplung des mechanischen und thermischen Feldes mittels der DEM vorgenommen werden kann. Dazu wird ausgeführt, wie die beiden Felder zusammen wirken und wie stark deren Kopplung ist. Abschließend wird eine Lebensdauersimulation an einer thermo-mechanisch belasteten virtuellen Probe vorgeführt. Das Ergebnis dieser Arbeit zeigt, dass die DEM eine Methode ist, um partielle Differentialgleichungen zu lösen, sowohl für Einzelfelder, als auch für gekoppelte Felder. Außerdem kann der Werkstoff durch die Methode als ein Diskontinuum betrachtet werden, so dass sich Lebensdauersimulationen mittels eines erweiterten Werkstoffmodells vornehmen lassen.
  • Thumbnail Image
    ItemOpen Access
    Optimierung eines Portfolios mit hydro-thermischem Kraftwerkspark im börslichen Strom- und Gasterminmarkt
    (2003) Bagemihl, Joachim; Voß, Alfred (Prof.-Dr.)
    Terminbörsen für Strom und Gas sind von grundlegender Bedeutung für die Planungsprozesse der durch das Unbundling geschaffenen Unternehmenszweige Erzeugung und Handel. Für die Kraftwerkseinsatzplanung bedeutet dies, daß nicht mehr primär die langfristige Lastprognose, sondern in zunehmendem Maße die Terminpreise der Futureskontrakte den Kraftwerkseinsatz bestimmen. Dem Stromhandel müssen zur Bewertung der Börsenprodukte hingegen die Kosten der Erzeugung im konzerneigenen Kraftwerkspark bekannt sein. Da sich aber beide Akteure wechselseitig beeinflussen, muss der Kraftwerkseinsatz gemeinsam mit dem Stromhandel ko-ordiniert werden, um zu einem gesamtwirtschaftlichen Optimum im Konzern zu gelangen. Die vorgestellte Methode zur Optimierung eines Portfolios mit hydro-thermischem Kraftwerksparks erlaubt dem Konzern die Identifizierung eines optimalen Geschäftsportfolios, in dem mit Ausnahme nicht ausgelasteter Kraftwerkskapazitäten keine offenen Positionen zu-gelassen werden. Ausgehend von einem hydro-thermischen Kraftwerkspark mit Jahresspei-cherkapazitäten für Wasser und Gas kann unter Berücksichtigung von Restriktionen, wie begrenzten Gas-/Strom-Durchleitungskapazitäten und Limits auf Handelsmengen, bei signifi-kanten Änderungen der Terminpreise die jeweils gewinnoptimale Veränderung im Portfolio identifiziert werden. Aufgrund der vielfältigen Freiheitsgrade, die ein solches hydro-thermi-sches System aufweist, ist es auf Basis des vorgestellten Verfahrens möglich, allein durch die Marktpreisbewegungen der unterschiedlichen börslich gehandelten Produkte im täglichen Handelsgeschäft, zusätzliche Margen zu erwirtschaften. Die langen Planungshorizonte, vorgegeben durch die Laufzeiten der Produkte an Termin-börsen (EEX bis 18 Monate), bedingen bei der Optimierung hohe Rechenzeiten und erfordern daher oft problemangepaßte Algorithmen wie etwa die Langrange Relaxation. Durch das Auf-treten neuer Handelsprodukte und die häufige Veränderung der Vertragsformen kann mit die-sen Algorithmen nur schwer entsprechend flexibel reagiert werden, da die Anpassung meist mit hohem Aufwand verbunden ist. Das Standardverfahren der Gemischt-Ganzzahlig-Linearen Programmierung (GGLP) bietet hier entscheidende Vorteile, da der dabei verwendete Lösungs-algorithmus Branch & Bound unabhängig von der Problemstellung angewendet werden kann. Die vorgestellte Methode basiert auf einem Dekompositionsansatz im Zeitbereich, so daß die für schnelle Reaktionszeiten nötigen Rechenzeiten von wenigen Minuten erreicht werden kön-nen. Das System zur Optimierung des Portfolios wurde mit dem Energiemanagementsystem MESAP/PROFAKO realisiert.
  • Thumbnail Image
    ItemOpen Access
    Messung und Modellierung der effektiven Wärmeleitfähigkeit von Dämmstoffschüttungen für vakuumwärmegedämmte Warmwasserspeicher
    (2022) Lang, Stephan; Spindler, Klaus (apl. Prof. Dr.-Ing.)
    Das Ziel dieser Arbeit ist es, hinsichtlich Dämmwirkung und Kosten geeignete schüttfähige Wärmedämmstoffe für doppelwandige Warmwasserspeicher mit Vakuumwärmedämmung zu identifizieren und eine Vorhersage über die effektive Wärmeleitfähigkeit in Abhängigkeit von Luftdruck und Temperatur treffen zu können. Zu diesem Zweck werden expandierte Perlite unterschiedlicher mittlerer Korngrößen und Mischungen aus expandierten Perliten und pyrogener Kieselsäure untersucht. Schwerpunkt der Untersuchungen ist die Ermittlung der effektiven Wärmeleitfähigkeit bei unterschiedlichen Luftdrücken und Temperaturen. Die effektive Wärmeleitfähigkeit wird in einer eigens entwickelten Versuchsanlage, nach einem stationären Messprinzip, bei Luftdrücken zwischen 0,001 mbar und Atmosphärendruck von (960 ± 20) mbar sowie bei Probenmitteltemperaturen zwischen -5 °C und 90 °C bestimmt. Die maximale relative Messunsicherheit der Versuchsanlage beträgt < 8 % bei den geringsten und < 3 % bei den höchsten gemessenen effektiven Wärmeleitfähigkeiten. Reine feinkörnige expandierte Perlite mit Dichten der Schüttungen ≥ 182 kg/m³ erreichen bei Luftdrücken ≤ 0,1 mbar und allen gemessenen Probenmitteltemperaturen die geringsten effektiven Wärmeleitfähigkeiten. Bei einer Probenmitteltemperatur von 48 °C liegen diese bei ≤ 4,84 mW/(m·K). Mischungen aus einem vergleichsweise grobkörnigen expandierten Perlit mit einer sehr feinkörnigen und feinporigen pyrogenen Kieselsäure können hingegen, bei technisch einfacher zu handhabenden Luftdrücken von > 1 mbar, z. T. geringere effektive Wärmeleitfähigkeiten erreichen als reine expandierte Perlite. Mischungen dieser Komponenten werden in dieser Arbeit erstmals in Form einer losen Schüttung bzgl. ihrer effektiven Wärmeleitfähigkeit untersucht. Bei einer Probenmitteltemperatur von 48 °C werden in diesem Luftdruckbereich effektive Wärmeleitfähigkeiten dieser Mischungen von > 12,17 mW/(m·K) gemessen. Anhand der gemessenen effektiven Wärmeleitfähigkeiten sowie weiterer Stoffeigenschaften, werden vollständig prädiktive analytische Modelle der effektiven Wärmeleitfähigkeit entwickelt. Das Modell für Mischungen gilt für ein ausgewähltes Stoffpaar, während das Modell für expandierte Perlite für beliebige ungemahlene expandierte Perlite verwendbar ist. Es handelt sich nach Kenntnis des Autors um das erste vollständig prädiktive analytische Modell der effektiven Wärmeleitfähigkeit für expandierte Perlite, welches auch die Kopplung von Gas- und Festkörperwärmeleitung berücksichtigt und für welches lediglich drei einfach und kostengünstig zu messende Größen bestimmt werden müssen. Diese Größen sind der volumengewichtet gemittelte Korndurchmesser, die mittlere Korndichte sowie die Dichte der Schüttung des expandierten Perlits. Aus den Messwerten der effektiven Wärmeleitfähigkeit wird ein Zusammenhang von volumengewichtet gemitteltem Korndurchmesser zur Kopplung von Gas- und Festkörperwärmeleitung deutlich, der für das Modell für expandierte Perlite verwendet wird. Mit den Modellen ist es nun möglich, ohne entsprechende Messungen, die effektive Wärmeleitfähigkeit von Mischungen aus einem expandierten Perlit und einer pyrogenen Kieselsäure sowie für beliebige ungemahlene expandierte Perlite, mit zufriedenstellender bis hoher Genauigkeit vorherzusagen.
  • Thumbnail Image
    ItemOpen Access
    Untersuchungen zu neuartigen Infusionspumpen für die Medizintechnik
    (2013) Wolter, Frank; Kück, Heinz (Prof. Dr. rer. nat.)
    Es gibt derzeit keine am Markt erhältlichen Geräte, die sowohl unbegrenztes Dosiervolumen verabreichen können als auch den genannten Ratenbereich mit der geforderten Genauigkeit abdecken. Um den Geräteaufwand zu minimieren, ist es deshalb eine wichtige Anforderung an eine neuartige Infusionspumpe, diese universell einsetzen zu können. Das ist in dieser Arbeit vorgestellte neuartige Pumpprinzip mit ferromagnetischem Pumpelement stellt eine Verfeinerung des Hubkolbenprinzips dar und ist aufgrund seines einfachen und robusten Aufbaus für die Ausführung als Einwegteil in der Medizintechnik geeignet. Der zur Bewegung des Pumpelements nötige Antrieb kann ebenfalls sehr einfach und mit wenigen Bauteilen ausgeführt sein. Er kommt dabei nicht mit dem zu fördernden Fluid in Kontakt.
  • Thumbnail Image
    ItemOpen Access
    Warmbeton : Mischungsentwicklung mit verbesserter Übertragbarkeit in den Realmaßstab
    (2019) Schließer, Agnes; Garrecht, Harald (Prof. Dr.-Ing.)
    Warmbeton vereint tragende und wärmedämmende Eigenschaften in einem Baustoff. Damit ist die monolithische Ausführung von Außenwänden und der Verzicht auf eine zusätzliche Wärmedämmschicht möglich. Die Entwicklung und Verbesserung solcher Baustoffe wird von der klimaschutzpolitischen Forderung nach einem annähernd klimaneutralen Gebäudebestand in Deutschland gefördert. Findet die Entwicklung neuer Betone ausschließlich im Labor statt, sind unter den dort herrschenden optimalen Bedingungen sehr gute Betoneigenschaften einstellbar. Für eine erfolgreiche Übertragung in den Realmaßstab ist bereits von Beginn der Mischungsentwicklung an auf ein robustes Frischbetonverhalten zu achten, das über die Betrachtung der Packungsdichte abzuschätzen ist. Wird ebenfalls frühzeitig der von Mischerbautyp und -größe abhängige Energieeintrag in die Mischung betrachtet, ist die Übertragung vom Labor- auf den Produktionsmischer bei nahezu gleichbleibender Betongüte möglich. Unter Berücksichtigung dieser Einflussgrößen gelang die Reduzierung der Wärmeleitfähigkeit eines Warmbetons auf einen Bemessungswert von lediglich 0,125 W/(m·K). In der vorliegenden Arbeit werden Mischungsentwicklung und Betoneigenschaften zusammengefasst.