Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-9083
Autor(en): Hartich, David
Titel: Stochastic thermodynamics of information processing: bipartite systems with feedback, signal inference and information storage
Sonstige Titel: Stochastische Thermodynamik der Informationsverarbeitung: gekoppelte Systeme mit Feedback, Signal-Inferenz und Informationsspeicherung
Erscheinungsdatum: 2017
Dokumentart: Dissertation
Seiten: 159
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-ds-91003
http://elib.uni-stuttgart.de/handle/11682/9100
http://dx.doi.org/10.18419/opus-9083
Zusammenfassung: Stochastic thermodynamics is a theoretical framework that extends the laws of classical thermodynamics to small system at the molecular and cellular scale. In particular processing information at theses scales is continuously corrupted by thermal fluctuations. Examples involve translating information from DNA to proteins, bacteria that sense their environment or neurons that fire action potentials. In all of these examples, energy is consumed to process information or to shield the process against thermal fluctuations. This thesis investigates the relation between information and thermodynamics in physical systems. We develop a framework for two continuously coupled systems, which is called stochastic thermodynamics of bipartite systems. This framework includes information and refines the standard second law of thermodynamics. In the first part we consider feedback-driven engines, where one subsystem is controlled by a second subsystem that constitutes the feedback controller. The feedback controller continuously acquires information about the controlled subsystem and uses it to rectify thermal fluctuations, i.e., to "convert information into energy". We compare two information theoretic quantities that characterize the performance of the feedback controller the transfer entropy rate and the learning rate. We find that only the latter both (i) bounds the rate of energy extraction from the medium due to the controlled subsystem and (ii) is itself bounded by the thermodynamic cost to maintain the dynamics of the feedback controller. This insight is one of the main results and provides a modern view on classical thought experiments first proposed by Maxwell. In the second part, we discuss implications to cellular information processing, whereby a stochastic time dependent signal is measured by a sensory network. In contrast to feedback-driven engines, here a sensor dissipates energy to acquire information about a signal, i.e., "it converts energy into information". We define an efficiency that relates the information which a sensor acquires to the energy which is dissipated by the sensor. Models that are inspired by the sensory system of Escherichia coli chemotaxis are used to illustrate our findings. Moreover, a purely information theoretic quantity, which is called sensory capacity, is introduced. The sensory capacity is bounded by one and given by the ratio of the learning rate of the sensor and the transfer entropy rate from the signal to the sensor. The sensory capacity is maximal if the instantaneous state of the sensor knows as much about the signal as its full time history. We show that the sensory capacity can be increased with an additional dissipative memory, where the increase of the sensory capacity characterizes the performance of the memory. A general tradeoff between the sensory capacity and the efficiency is shown, which demonstrates that a sensor cannot be both: a perfect noise filter and energetically efficient. The third subject considers binary sensors (e.g., receptors) measuring a stochastic signal (e.g., ligand concentration). For this setup we study the information loss of inference strategies that are solely based on time-averages of the sensor state. We show that simple time-averaging strategies lose up to 0.5 bit of information compared with the full time history of the sensor. This result holds for an arbitrary number of sensors measuring the same signal independently. Furthermore, we show that the same information loss occurs if one approximates a discrete chemical master equation by a continuous Brownian motion. In the last part, we discuss nonequilibrium receptors that are driven out of equilibrium by an ATP hydrolysis reaction. It is shown that the sensitivity of the receptor to concentration changes can be increased with the nonequilibrium reaction, whereby the increase in sensitivity is related to the chemical energy released in the hydrolysis of one ATP molecule. It turns out that there is an analogy between nonequilibrium receptors and kinetic proofreading, which is a dissipative mechanism to reduce errors in a polymerization process. This part demonstrates that investing chemical energy can improve the capability to process information.
Die stochastische Thermodynamik ist ein theoretisches Grundgerüst, welches die Gesetze der Thermodynamik auf kleine Systeme erweitert. Vor allem Prozesse, die auf molekularer und zellularer Ebene Information verarbeiten, werden permanent durch thermische Fluktuationen beeinträchtigt. Beispiele hierfür sind die Proteinsynthese, bei der Information von der DNA beziehungsweise mRNA kopiert wird, Bakterien, die ihre Umgebung wahrnehmen oder Neuronen, die ein Aktionspotential versenden. In all diesen Beispielen wird Energie aufgewandt, um Information zu verarbeiten oder den Prozess vor thermischen Fluktuationen zu schützen. In dieser Arbeit wird die Rolle der Information für die Thermodynamik untersucht. Entwickelt wird eine allgemeine Rahmentheorie für zwei kontinuierlich gekoppelte Systeme, die stochastische Thermodynamik zweigeteilter Systeme genannt wird (stochastic thermodynamics of bipartite systems). Diese Rahmentheorie berücksichtigt Information, die zwischen den beiden Teilsystemen ausgetauscht wird, um den zweiten Hauptsatz der Thermodynamik zu verallgemeinern. Im ersten Teil werden feedback-getriebene Maschinen betrachtet, wobei ein Teilsystem kontinuierlich von einem zweiten Teilsystem (dem Feedback-Controller) durch Rückkopplung kontrolliert wird. Der Feedback-Controller erhält kontinuierlich Information über den Zustand des zu kontrollierenden Systems und nutzt diese, um thermische Fluktuationen auszurichten beziehungsweise um "Information in Energie umzuwandeln". Es werden zwei informationstheoretische Größen untersucht, die Transferentropierate sowie Lernrate genannt werden und die die Leistung des Feedback-Controllers charakterisieren. Es stellt sich heraus, dass nur die Lernrate allgemein die beiden folgenden Eigenschaften erfüllt: (i) Sie beschränkt die Energie, die vom kontrollierten Teilsystem aus dem umgebenden Medium extrahiert wird und (ii) sie wird selbst durch die thermodynamischen Kosten, den Feedback-Controller zu betreiben, beschränkt. Diese Erkenntnis stellt eines der Hauptergebnisse dieser Arbeit dar und bietet eine moderne Sicht auf klassische Gedankenexperimente, wie sie zuerst von J.~C.~Maxwell vorgestellt wurden und erst vor kurzem experimentell realisiert werden konnten. In einem zweiten Teil werden zeitabhängige Signale betrachtet, die von einem sensorischen Netzwerk gemessen werden. Im Gegensatz zu feedback-getriebenen Maschinen wird hier "Energie in Information umgewandelt", wobei ein Sensor Energie dissipiert, um Information über das Signal zu erhalten. Es wird eine Effizienz definiert, die sich aus dem Verhältnis der Lernrate und der Energiedissipationsrate des Sensors ergibt. Die Effizienz gibt an, wie effizient chemische Energie verwendet wird, um Information über ein Signal zu gewinnen. Die Ergebnisse werden anhand verschiedener Modelle illustriert, die an das sensorische Netzwerk des Chemotaxissystems von Escherichia coli angelehnt sind. Es werden Ähnlichkeiten zu molekularen Motoren aufgezeigt, wobei anstatt der Umwandlung von chemischer in mechanische Energie hierbei chemische Energie in Information umgewandelt wird. Darüber hinaus wird eine rein informationstheoretische Größe definiert, die Sensorische Kapazität genannt wird und sich formal aus dem Verhältnis zwischen Lernrate des Sensors und der Transferentropierate vom Signal zum Sensor berechnet. Die Sensorische Kapazität eines Sensors erreicht ihr Maximum 1, falls der instantane Zustand des Sensors die selbe Information über das Signal enthält wie die Zeitserie des Sensors. Die Sensorische Kapazität kann durch Hinzufügen eines dissipativen Speichers die Leistungsfähigkeit eines Sensors erhöhen, wobei die Information von der Zeitserie des Sensors im instantanen Zustand des Speichers festgehalten wird. Es stellt sich eine Kompromissbeziehung zwischen der Effizienz und der Sensorischen Kapazität eines Sensors heraus, die es allgemein verhindert, dass ein Sensor zugleich ein perfekter Rauschfilter sowie energetisch effizient sein kann. In einem dritten Themenbereich werden binäre Sensoren (z.B. Rezeptoren) betrachtet, die ein stochastisches Signal (z.B. Stoffkonzentration) messen. Hierbei wird der Informationsverlust von Inferenzstrategien untersucht, die ausschließlich auf der Zeitintegration des Sensorzustands basieren. Es wird gezeigt, dass diese einfachen Inferenzstrategien Information verlieren, die nur aus der kompletten Zeitserie des Sensorzustands gewonnen werden kann. Der Informationsverlust beträgt abhängig vom physikalischen Modell des Sensors bis zu 0.5 bit pro Messung. Der gleiche Informationsverlust tritt auch für beliebig viele Sensoren auf, die unabhängig ein Signal messen. Außerdem stellt sich heraus, dass der selbe Informationsverlust bei Approximationsverfahren auftritt, bei denen die Dynamik eines diskreten chemischen Netzwerks, durch eine kontinuierliche Brown'sche Bewegung angenähert wird. Im letzten Teil der Arbeit werden Nichtgleichgewichtsrezeptoren untersucht, die durch eine ATP Hydrolyse aus dem Gleichgewicht getrieben werden. Es wird gezeigt, dass die Sensitivität des Rezeptors gesteigert werden kann durch die chemische Energie, die bei der Aufnahme eines ATP-Moleküls frei wird. Des Weiteren wird eine Analogie zwischen kinetic proofreading und Nichtgleichgewichtsrezeptoren hergestellt.
Enthalten in den Sammlungen:08 Fakultät Mathematik und Physik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
dissertation_Hartich.pdf2,95 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.