Universität Stuttgart
Permanent URI for this communityhttps://elib.uni-stuttgart.de/handle/11682/1
Browse
3635 results
Search Results
Item Open Access Investigating superconductivity by tunneling spectroscopy using oxide heterostructures(2017) Fillis-Tsirakis, Evangelos; Mannhart, Jochen (Prof. Dr.)Item Open Access Eine OSLC-Plattform zur Unterstützung der Situationserkennung in Workflows(2015) Jansa, PaulDas Internet der Dinge gewinnt immer mehr an Bedeutung durch eine starke Vernetzung von Rechnern, Produktionsanlagen, mobilen Endgeräten und weiteren technischen Geräten. Derartige vernetzte Umgebungen werden auch als SMART Environments bezeichnet. Auf Basis von Sensordaten können in solchen Umgebungen höherwertige Situationen (Zustandsänderungen) erkannt und auf diese meist automatisch reagiert werden. Dadurch werden neuartige Technologien wie zum Beispiel "Industrie 4.0", "SMART Homes" oder "SMART Cities" ermöglicht. Komplexe Vernetzungen und Arbeitsabläufe in derartigen Umgebungen werden oftmals mit Workflows realisiert. Um eine robuste Ausführung dieser Workflows zu gewährleisten, müssen Situationsänderungen beachtet und auf diese entsprechend reagiert werden, zum Beispiel durch Workflow-Adaption. Das heißt, erst durch die Erkennung höherwertiger Situationen können solche Workflows robust modelliert und ausgeführt werden. Jedoch stellen die für die Erkennung von Situationen notwendige Anbindung und Bereitstellung von Sensordaten eine große Herausforderung dar. Oft handelt es sich bei den Sensordaten um Rohdaten. Sie sind schwer extrahierbar, liegen oftmals nur lokal vor, sind ungenau und lassen sich dementsprechend schwer verarbeiten. Um die Sensordaten zu extrahieren, müssen für jeden Sensor individuelle Adapter programmiert werden, die wiederum ein einheitliches Datenformat der Sensordaten bereitstellen müssen und anschließend mit sehr viel Aufwand untereinander verbunden werden. Im Rahmen dieser Diplomarbeit wird ein Konzept erarbeitet und entwickelt, mit dessen Hilfe eine einfache Integration von Sensordaten ermöglicht wird. Dazu werden die Sensoren über eine webbasierte Benutzeroberfläche oder über eine programmatische Schnittstelle in einer gemeinsamen Datenbank registriert. Die Sensordaten werden durch REST-Ressourcen abstrahiert, in RDF-basierte Repräsentationen umgewandelt und mit dem Linked-Data Prinzip miteinander verbunden. Durch die standardisierte Schnittstelle können Endbenutzer oder Anwendungen über das Internet auf die Sensordaten zugreifen, neue Sensoren anmelden oder entfernen.Item Open Access Behavior of sulfur oxides in air and oxy-fuel combustion(2019) Spörl, Reinhold; Scheffknecht, Günter (Univ.-Prof. Dr. techn.)This thesis evaluates the behavior of sulfur oxides in pulverized fuel (PF) fired air and oxy-fuel systems. Sulfur oxides are responsible for certain operational problems and considerable gas cleaning requirements in air as well as oxy-fuel firing. A better understanding of the related issues will allow for a technical and economical optimization of the oxy-fuel combustion technology. A range of experimental investigations studying the stability and retention of sulfur oxides in ashes and deposits, acid gas (SO2, SO3, and HCl) control in air and oxy-fuel combustion by dry sorbent injection, and SO3 formation were conducted. The experimental work is in parts supported by theoretical considerations and thermodynamic equilibrium simulation. Studies for different coals and lignites showed that in practically relevant oxy-fuel configurations the exclusion of airborne N2 from combustion leads to an increase of the SO2 concentrations in oxy-fuel, compared to air firing, by a factor of about 3.4 to 4.2, referring to dry, and of about 2.9 to 3.5, when referring to wet flue gas conditions. The increased SO2 levels in oxy-fuel combustion are responsible for an increased stability of sulfates in oxy-fuel power boiler systems so that for example the decomposition temperature CaSO4 rises by about 50 to 80 °C, depending on flue gas atmospheres. The enhanced stability of sulfates in deposits at high temperatures when operating with increased SO2 levels was experimentally demonstrated. Compared to air firing, a considerable increase of the sulfur retention in the ash by 10 to 12 percentage points has been observed for oxy-fuel recycle combustion of Lusatian lignites. This leads to lower SO2 emissions and higher SO3 levels in process ashes and deposits. The results indicate that for fuels, such as the used lignites, the temperature level at which fouling by sulfatic deposits is problematic may be shifted to higher temperatures in oxy-fuel combustion and that the sintering of deposits by sulfation may be more pronounced. In contrast, in air and oxy-fuel combustion experiments with a hard coal with a low sulfur retention potential differences in the SO3 contents and degrees of sulfation of ashes and deposits were small. Besides higher SO3 contents and sulfation degrees, no other significant changes between the deposit samples from air and oxy-fuel combustion were identified. Experiments on dry sorbent injection in air and oxy-fuel mode showed that an increase of the average flue gas residence time in the furnace by flue gas recirculation and, to a lesser extent, the higher sulfate stability enhance the desulfurization efficiency in oxy-fuel recycle combustion considerably. SO2 capture efficiencies in oxy-fuel recycle combustion of 50 % to more than 80 % at moderate molar sulfur to calcium ratios between 1.7 and 2.9 were reached, when injecting CaCO3 and Ca(OH)2 together with the fuel or directly to the furnace. Under comparable injection conditions, the oxy-fuel performance was by as much as 29 percentage points higher than in air firing. Also an efficient SO3 and HCl control by DSI could be demonstrated. Experiments on formation of SO3 show that higher SO2 levels in oxy-fuel firing are the most important parameter responsible for the observed increase of the SO3 concentrations.Item Open Access Nonlinear optical microspectroscopy with few-cycle laser pulses(2017) Wan, Hui; Wrachtrup, Jörg (Prof. Dr.)Nonlinear optical (NLO) microscopy is a powerful tool in physics, chemistry, and material science it probes intrinsic optical properties of the sample without the need of labeling. In order to investigate the ultrafast processes in nonlinear materials with high spatial resolution, we need to combine both ultrashort pulses and techniques focusing them to the diffraction limit. Previously, few-cycle laser pulses have often been tightly focused using conventional microscope objectives. However, the propagation of an ultrashort pulse in optical materials, particularly in the glass of a high numerical aperture (N.A.) microscope objective, results in spatial and temporal distortions of the pulse electric field, which can severely affect its quality in the focus. By purely passive group delay dispersion (GDD) and third-order dispersion (TOD) management, in this thesis, we experimentally demonstrate in-focus diffraction-limited and bandwidth-limited few-cycle pulses by using high N.A. objectives. Based on these achievements, the performance of a novel few-cycle NLO microscope for both second-harmonic generation (SHG) imaging and microspectroscopy in the frequency- and time-domains was characterized. The inverse linear dependence of SHG intensity on the in-focus pulse duration was demonstrated down to 7.1 fs for the first time. The application of shorter in-focus pulses for the enhancement of SHG image contrast was successfully demonstrated on a single collagen (type-I) fibril as a biological model system for studying protein assemblies under physiological conditions. Beyond imaging, a collagen fibril has been found to act as a purely non-resonant χ(2) soft matter under the present excitation conditions, and its ratio of forward- to epi-detected SHG intensities allowed for the estimation of the fibril thickness, which corresponds well with atomic force microscopy (AFM) measurements. The ultrafast dephasing of the localized surface plasmon resonance (LSPR) in the metallic nanoparticles, that only occurs on a time scale of a few femtoseconds, has gained a lot of attraction in the field of nanoplasmonics. This thesis is the first systematic experimental demonstration of time-resolving ultrashort plasmon dephasing in single gold nanoparticles by using interferometric SHG spectroscopy with in-focus 7.3 fs excitation pulses in combination with linear scattering spectroscopy performed on the same nanoparticle. For nanorods, nanodisks, and nanorectangles, strong plasmon resonance enhanced SHG is observed, where the SHG intensity strongly depends on the spectral overlap between the LSPR band and the excitation laser spectrum. For single nanorods and nanorectangles, the polarization dependence of the SHG intensity was found to follow second-order dipole scattering, and the effect of size and shape on the LSPR properties was directly observed in the time-domain. Good agreement between experimental and simulated values of dephasing times and resonance wavelengths is obtained, which confirms that a common driven damped harmonic oscillator model for the LSPR in the nanoparticle can qualitatively explain both the linear scattering spectra in the frequency-domain and the SHG response in the time-domain. Resonance bands in linear transmission and scattering spectra have also been observed for nanoholes with sizes smaller than the wavelength of the incident light in a metal film, which are assigned to LSPR modes of the electric field distribution around the nanohole with qualitatively similar resonance properties as a nanoparticle. The polarization-resolved nonlinear optical properties of the single nanoholes with different shapes and symmetries were also reported. The objective of this thesis has been systematic SHG studies of the size effect in the LSPR of single nanoholes in metal films and of their ultrafast dephasing dynamics. Although, enhancement of both the forward- and epi-detected SHG emissions from single rectangular nanoholes are observed,however,no ultrafast dephasing dynamics of LSPRs in rectangular nanoholes could be time-resolved with our in-focus 7.3 fs excitation laser pulses, which indicates that contributions from LSPR enhanced SHG to the detected SHG signal are negligible. More work needs to be done in order to overcome the current experimental limitations. However, in this thesis, the polarization dependence of the forward- and epi-detected SHG intensity from the single rectangular nanohole was found to follow that of a second-order dipole pattern. While the SHG dipole pattern observed for rectangular nanoparticles is oriented parallel to its long-axis, the SHG dipole pattern of its complementary rectangular nanohole is oriented perpendicular to its long-axis. This observation represents the first experimental demonstration of Babinet’s principle in second-order nonlinear scattering of a single rectangular nanohole in a gold film.Item Open Access Konkurrenz und Diffusion von Technologien auf Märkten unter Standardisierungsdruck : Modellbildung, Simulation und Prognose(2019) Valentowitsch, Johann; Burr, Wolfgang (Prof. Dr.)Die Häufigkeit und Intensität technologischer Standardkriege hat in Folge rasanter Entwicklungen auf den Gebieten der Informations- und Kommunikationstechnologien in den letzen Jahren spürbar zuge-nommen. Aus diesem Grund rückten in jüngster Vergangenheit Prozesse der Technologiediffusion und -adoption verstärkt in den Fokus der wirtschaftswissenschaftlichen Forschung. Trotz zahlreicher Beiträge auf diesem Gebiet ist unser heutiges Verständnis von den zugrunde liegenden Wettbewerbs- und Marktdynamiken jedoch nach wie vor stark limitiert. Wie in dieser Arbeit ausführlich gezeigt wird, sind die meisten konventionellen Difffusionsmodelle heute nicht in der Lage, die volle Bandbreite der kompetitiven Dynamiken zu erfassen, die sich im Rahmen technologischer Standardkriege regelmäßig auf Märkten unter Standardisierungsdruck entfalten. Aus heutiger Sicht bleibt die Modellbildung häufig darauf beschränkt, einfache Generationenfolgen von Technologien abzubilden. Bei dieser Form von Technologiesubstitution lassen sich jedoch nicht, die für Standardkriege typischen, erbittert geführten Dominanzkämpfe beobachten, die sich in Folge von mangelnder Interkomplementarität zwishen den konkurrierenden Technologien im Markt herausbilden. Zur Beschreibung derartiger Prozesse bedarf es daher anderer Modelle, die eine stärkere Fokussetzung auf die eigentlichen Wettbewerbsprozesse und Marktdynamiken setzen. Um den gegenwärtigen Mangel an wettbewerbsorientierten Modellen zu begegen, wird in dieser Arbeit unter Heranziehung von ökonomischen Adoptions- und Diffusionstheorien sowie unter Berücksichtigung der mittlerweile sehr umfangreichen Forschungsergebnisse auf den Gebieten der Standard- und Netzwerkforschung ein neues Modell formuliert, das sich zur Analyse von Diffusionsdynamiken auf Märkten unter Standardisierungs- und Wettbewerbsdruck heranziehen lässt. Mit Hilfe des neuen Modells kann gezeigt werden, dass die Adoption neuer Technologien durch drei wesentliche Faktoren erklärt werden kann, nämlich durch das innovative und imitative Verhalten der Innovationsnachfrager auf der einen Seite sowie das Größenverhältnis der konkurrierenden Anwendernetzwerke zueinander auf der anderen Seite. Der im Rahmen des Modells implementierte Adoptionsmechanismus leitet sich dabei vornehmlich aus der Klasse so genannter Mixed-Influence-Diffusionsmodelle ab. Allerdings erweitert das neue Modell den klassischen Mixed-Influence-Gedanken, indem es den Betrachtungshorizont auf mehrere Diffusionstechnologien ausweitet und dabei marktliche Interdependenzen zwischen den Technologien im Diffusionsprozess zulässt. Die Modellierung in dieser Arbeit verfolgt somit einen integrativen Ansatz, der unterschiedliche theoretische Sichtweisen in einem kompakten Modell vereinen soll. Um das aufgestellte Wettbewerbsmodell zu validieren, werden ökonomische Zeitreihendaten zu ausgewähtlen Standardkriegen verwendet, die in der Vergangenheit zu temporären Technologie-Lock-ins auf den jeweiligen Märkten geführt haben. Wie mit Hilfe dieser Datenreihen gezeigt werden kann, erklärt das neue wettbewerbsorientierte Modell dabei einen Großteil der beobachteten Adoptionsvarianz in den Daten und führt insgesamt betrachtet zu einem guten Daten-Fit. Zudem weisen ex ante Prognosen der Adoptionsraten, die auf Basis des Wettbewerbsmodells generiert wurden, eine höhere Genauigkeit auf als Schätzungen, die auf Grundlage des zu Referenzzwecken mitbetrachteten Standardmodells von Bass erstellt wurden. Aufgrund seiner hohen Prädiktabilität bietet das aufgestellte Wettbewerbsmodell zahlreiche Eisatzmöglichkeiten in Wissenschaft und Praxis. Diese werden im Rahmen der Arbeit ausführlich diskutiert und auf ihren Nutzen für die betriebswirtschaftliche Prognosepraxis hin untersucht.Item Open Access Ein Beitrag zur Stützung eines Software GNSS Empfängers mit MEMS-Inertialsensoren(2016) Gäb, Michael; Kleusberg, Alfred (Prof. Dr.-Ing.)Die genaue Bestimmung von Position und Geschwindigkeit mit einem globalen Navigationssatellitensystem (engl. Global Navigation Satellite System) (GNSS) in Echtzeit bildet eine essentielle Grundlage für viele Anwendungen in der Navigation. Bei mobilen Navigationsanwendungen finden häufig GNSS-Messungen unter ungünstigen Beobachtungsbedingungen statt, so dass Fehler in den Ergebnissen auftreten können. In diesem Fall ist der GNSS-Empfänger in Bewegung, so dass die Empfangsumgebung sich ständig ändert. So können Objekte, wie z.B. Gebäude, Bäume, Tunnel usw. zu Reflektionen, Dämpfung bzw. Abschattung der GNSS-Signale führen. Eine hohe zusätzliche Dynamik bzgl. der beobachteten Dopplerfrequenzverschiebung erfährt das empfangene GNSS-Signal durch die Bewegung des GNSS-Empfängers. Das beeinflusst die Signalnachführung (Tracking) und verursacht Fehler bei der Positions- und Geschwindigkeitsbestimmung oder eine Bestimmung ist sogar unmöglich. Eine Verbesserung der Positions- und Geschwindigkeitsbestimmung wird durch die gleichzeitige Messung mit einem GNSS-Empfänger und einem inertialen Navigationssystem (engl. Inertial Navigation System) (INS) ermöglicht. Kostengünstige INS beinhalten heute Mikro-Elektro-Mechanische Systeme (engl. Micro Electro Mechanical Systems) (MEMS), die als MEMS-Inertialsensoren bezeichnet werden. Die gemeinsame Nutzung der Messdaten von GNSS und INS wird als GNSS/INS-Integration bezeichnet. Diese Arbeit befasst sich mit der Tiefen GNSS/INS-Integration, so dass mit der Information eines INSs in die Tracking Loop des GNSS-Empfängers eingegriffen wird, um Verbesserungen beim Tracking des Signals und der daraus bestimmten GNSS-Beobachtungen zu erzielen. Dieser Eingriff wird auch als Stützung (engl. aiding) bezeichnet. Die Stützung erfolgt über die Regelgrößen (Dopplerfrequenz und Codephase) in der Tracking Loop für den jeweiligen Kanal des GNSS-Empfängers. Dazu werden die Regelgrößen zunächst prädiziert, bevor diese beim Tracking des empfangenen GNSS-Signals berücksichtigt werden können. Für die Prädiktion müssen die Position und Geschwindigkeit des Satelliten und des Empfängers vorliegen. Außerdem müssen die Uhrenfehlerrate des Satelliten und des Empfängers bekannt sein. Aus diesen Größen kann die Dopplerfrequenz und daraus die Rate der Codephase berechnet werden. Die zeitliche Integration der Codephasenrate ergibt die aktuelle Codephase. Aus den Ephemeriden des GNSS-Satelliten kann die Position, die Geschwindigkeit und die Uhrenfehlerrate für einen zeitnahen beliebigen Zeitpunkt berechnet werden. Die Uhrenfehlerrate des Empfängers wird hierbei mittels einer Extrapolation vorausbestimmt. Mit den MEMS-Inertialsensoren kann die Position und Geschwindigkeit des Empfängers fortgeführt werden. Diese Fortführung erfolgt über eine Lose GNSS/INS-Integration mittels einer Strapdown-Rechnung und einem Kalman-Filter für 15 Fehlerzustände. Als Stützwerte für den Kalman-Filter dienen hier die Position und Geschwindigkeit des SGEs. Die Stützung sollte bei einem Signalabriss oder für die Stabilisierung des Trackings eingeschaltet werden. Die Stützungsmethode wird mit einem Software GNSS-Empfänger (SGE) und einer Inertiale Messeinheit (engl. inertial measurement unit) (IMU) aus MEMS-Inertialsensoren (MEMS-IMU) in der Landfahrzeugnavigation getestet und analysiert. Der SGE ist für die Signale des globalen Positionierungssystem (engl. Global Positioning System) (GPS) mit dem C/A-Code auf der L1-Frequenz entwickelt und bestimmt die Position und Geschwindigkeit mit einer Messrate von 1 kHz. Die MEMS-IMU beeinhaltet 6 Freiheitsgrade mit jeweils einem 3-achsigen MEMS-Beschleunigungs- und MEMSDrehratensensor. Die Messrate des MEMS-Beschleunigungssensors beträgt 1 kHz und die Messrate des MEMS-Drehratensensors beträgt 800 Hz. Mit diesem Messsystem ist es möglich, die Prädiktion der Regelgrößen für jede Millisekunde durchzuführen, so dass diese bei jedem Tracking-Durchlauf mit dem C/A-Code vorliegen. Aufgrund der hohen Messraten können nur wenige Minuten Messdaten erfasst werden und die Auswertung erfolgt in der Nachbearbeitung (engl. post-processing). Die Stützungsmethode wird durch Fahrten mit einem Messfahrzeug getestet. Dazu werden Messfahrten mit verschiedenen Fahrmanöver ausgeführt, um im empfangenen GPS-Signal unterschiedliche Raten in der Dopplerfrequenz zu erzeugen. Eine Fahrt unter Bäumen ermöglicht den Einfluss des zeitlichen Verlaufs im Signal-Rauschverhältnis (engl. signal-to-noise ratio) (S/N) des empfangenen GPS-Signals auf die Stützungsmethode zu untersuchen. Bei dieser Messfahrt treten auch immer wieder kurzzeitige Signalabrisse auf. Die in der vorliegenden Arbeit dokumentierten Messfahrten und Ergebnisse zeigen, dass die Stützung für einen SGE erfolgreich in der Landfahrzeugnavigation durchgeführt werden kann. Die prädizierten Regelgrößen werden für die verschiedenen Messfahrten zuverlässig berechnet und das Tracking kann damit stabilisiert und sogar bei einem Signalabriss vorgesteuert werden. Außerdem können Ausreißer direkt in den Beobachtungen minimiert werden, so dass Verbesserungen in der Positions- und Geschwindigkeitsbestimmung des SGEs erzielt werden können.Item Open Access Comparison and analysis of web vulnerability scanners(2019) Lis, AlexanderWithin the last years the commercial relevance of web applications increased steadily. They developed from simple information sharing platforms to serious business applications like online-banking, e-commerce and social media platforms. Unlike most other technologies, web-based applications are accessible from around the world continuously. Additionally, they are very susceptible for vulnerabilities as there are various technologies interacting. These factors render web applications to very attractive targets for criminals because they are often easy to attack, globally accessible and yield valuable exploits. As a consequence, much effort was put into research to prevent, detect and eliminate web application vulnerabilities. However manual security audits are time-consuming, costly and demand expertknowledge. Web vulnerability scanners tackle this problem. They are programs that test web applications for the existence of vulnerabilities. Additionally they categorize and report them. Because these tools work automatically, faster as humans and reduce the necessary knowledge in network security, they became an interesting supplementation to traditional security audits. On the other side web vulnerability scanners also have their limits. They can not test for the absence of vulnerabilities and thus produce false positives or miss weaknesses. Furthermore previous research has shown that there are also vulnerability classes that are especially intricate to detect like stored SQL injections or stored cross-site scripting vulnerabilities. Nonetheless web vulnerability scanners show very much potential and there is a growing interest into automatic web application testing. This is reflected in the increasing diversity of commercial web vulnerability scanners that can be found online. Thus this thesis compares and examines three web vulnerability scanners, namely Acunetix, Arachni and w3af. Focus is set on delineating the current capabilities and limits of state-of-the-art vulnerability scanners.Item Open Access Die Vermittlung des Themas "Simulation" an Schülerinnen und Schüler im Rahmen des Projekts Simulierte Welten : eine Betrachtung von zwei verschiedenen Formaten der Wissensvermittlung hinsichtlich des Interesses und der Motivation der Schülerinnen und Schüler(2019) Hilpert, Jörg-Marco; Renn, Ortwin (Prof. Dr.)Diese Dissertation setzt sich mit der Vermittlung des Themas „Simulation“ an Schülerinnen und Schüler der gymnasialen Oberstufe in Baden-Württemberg im Rahmen des Projekts Simulierte Welten auseinander. Dabei wurden zum einen untersucht, inwieweit die Elemente des Berliner Modells in den durchgeführten, freiwillig besuchten Unterrichtsformaten (d. h. der Science AG bzw. dem Seminarkurs im Rahmen von Simulierte Welten) umgesetzt werden konnten. Zum anderen wurden diese beiden Formate der Wissensvermittlung hinsichtlich der Zufriedenheit, der Motivation sowie des Interesses der teilnehmenden Schülerinnen und Schüler betrachtet. Konkret wurde dabei analysiert, ob bei Schülerinnen und Schüler durch die Teilnahme an einer Science AG bzw. einem Seminarkurs ein eher kurzfristiges situationales oder ggf. sogar ein langfristiges individuelles Interesse am Thema „Simulation“ geweckt werden konnte. Außerdem wurde erforscht, aus welchen Motiven die Schülerinnen und Schüler an diesen fakultativen Formaten teilgenommen haben. Die theoretische Grundlage hierfür bildet die psychologisch-pädagogische Theorie des Interesses bzw. des Nicht-Interesses nach Upmeier zu Belzen und Vogt (2001). Zur Konkretisierung des Vorhabens wurde ein Interview mit Lehrenden und drei Fokusgruppen mit Lehrerinnen und Lehrern sowie Schülerinnen und Schüler durchgeführt. Zur Beantwortung der formulierten Forschungsfragen (F1 - F5) und Hypothesen fand im Anschluss eine quantitative Befragung sowohl in vier Science AGs, als auch in zwei Seminarkursen zu zwei Befragungszeitpunkten (t0 zu Beginn eines Schuljahres und t1 am Ende eines Schuljahres) statt. Insgesamt nahmen an den Befragungen in der Science AG 61 und an den Befragungen in den Seminarkursen 24 Schülerinnen und Schüler teil (N= 85). Im Rahmen der Untersuchung konnte u. a. festgestellt werden, dass die affektiven, wertbezogenen und kognitiven Motive der Teilnehmerinnen und Teilnehmern befriedigt werden konnten. Der Theorie entsprechend konnte aufgrund der Befriedigung der drei Motive der Person-Gegenstands-Auseinandersetzung ein situationales sowie ein individuelles Interesse für die in den Science AGs und Seminarkurse behandelten Themen ausgelöst werden. Interessant war zudem, dass die Schülerinnen und Schüler vor allem aus einem intrinsischen Sachinteresse (wertbezogenes Motiv) sowie den affektiven Bedürfnissen nach sozialer Eingebundenheit und Autonomie an der Science AG teilgenommen haben. An dem Seminarkurs nahmen die Schülerinnen und Schüler hingegen vor allem aus dem kognitiven Motiv „Können“, einem intrinsischen Sachinteresse (wertbezogenes Motiv) sowie dem kognitiven Motiv „Wissen“ teil. Insgesamt stellte sich heraus, dass sowohl die Science AG als auch der Seminarkurs ein geeignetes Format darstellen, um das Thema „Simulation“ an Schülerinnen und Schüler zu vermitteln. Außerdem konnte mit Hilfe dieser Formate ein situationales und ein individuelles Interesse der Teilnehmerinnen und Teilnehmer an der Thematik entwickelt werden.Item Open Access Untersuchungen zu neuartigen Infusionspumpen für die Medizintechnik(2013) Wolter, Frank; Kück, Heinz (Prof. Dr. rer. nat.)Es gibt derzeit keine am Markt erhältlichen Geräte, die sowohl unbegrenztes Dosiervolumen verabreichen können als auch den genannten Ratenbereich mit der geforderten Genauigkeit abdecken. Um den Geräteaufwand zu minimieren, ist es deshalb eine wichtige Anforderung an eine neuartige Infusionspumpe, diese universell einsetzen zu können. Das ist in dieser Arbeit vorgestellte neuartige Pumpprinzip mit ferromagnetischem Pumpelement stellt eine Verfeinerung des Hubkolbenprinzips dar und ist aufgrund seines einfachen und robusten Aufbaus für die Ausführung als Einwegteil in der Medizintechnik geeignet. Der zur Bewegung des Pumpelements nötige Antrieb kann ebenfalls sehr einfach und mit wenigen Bauteilen ausgeführt sein. Er kommt dabei nicht mit dem zu fördernden Fluid in Kontakt.Item Open Access Regulation of the catalytic activity and specificity of DNA nucleotide methyltransferase 1(2014) Bashtrykov, Pavel; Jeltsch, Albert (Prof. Dr.)DNA nucleotide methyltransferase 1 (Dnmt1) is mainly responsible for the maintenance of DNA methylation in mammals and plays a crucial role in the epigenetic control of gene expression. Dnmt1 recognizes and methylates hemimethylated CpG sites formed during DNA replication. In the present work, the mechanistic details of the substrate recognition by the catalytic domain of Dnmt1, the possible role of the CXXC and RFTS domains of Dnmt1 in the regulation of specificity and activity of Dnmt1, and the influence of the Ubiquitin-like PHD and RING finger domain-containing 1 (Uhrf1) protein on the enzymatic properties of Dnmt1 was investigated. Using modified substrates, the functional roles of individual contacts of the Dnmt1 catalytic domain with the CpG site of the DNA substrate were analysed. The data show that the interaction with the 5-methylcytosine:guanine pair is required for the catalytic activity of Dnmt1, whereas the contacts to the non-target strand guanine are not important, since its replacement with adenine increased the activity of Dnmt1. It was proposed that the CXXC domain binding to unmethylated CpG sites increases the specificity of Dnmt1 for hemimethylated DNA. Our data showed that the CXXC domain does not influence the enzyme’s specificity in the full-length Dnmt1. In contrast, mutagenesis in the catalytic domain introducing an M1235S exchange resulted in a significant reduction in specificity. Therefore, the readout for the hemimethylated DNA occurs within its catalytic domain. It was observed in a crystal structure that the RFTS domain of Dnmt1 inhibits the activity of the enzyme by binding to the catalytic domain and blocking the entry of the DNA. By amino acid substitution in the RFTS domain its positioning within the catalytic domain was destabilized and a corresponding increase in the catalytic rate was observed, which supports this concept and suggests a possible mechanism to allosterically regulate the activity of Dnmt1 in cells. Uhrf1 has been shown to target Dnmt1 to replicated DNA, which is essential for DNA methylation. Here it is demonstrated that Uhrf1 as well as its isolated SRA domain increase the activity and specificity of Dnmt1 in an allosteric mechanism. The stimulatory effect was independent of the SRA domain’s ability to bind hemimethylated DNA. The RFTS domain of Dnmt1 is required for the stimulation, since its deletion or blocking of its interaction with the SRA domain, significantly reduced the ability of Uhrf1 to increase the activity and specificity of Dnmt1. Uhrf1, therefore, plays multiple roles that support DNA methylation including targeting of Dnmt1, its stimulation and an increase of its specificity.