Die Rolle von Dopamin bei der Steuerung des flexiblen Verhaltens der Ratte Von der Fakultät für Energie-, Verfahrens- und Biotechnik der Universität Stuttgart zur Erlangung der Würde eines Doktors der Naturwissenschaften (Dr. rer. nat.) genehmigte Abhandlung Vorgelegt von Carsten Calaminus aus Köln Hauptberichter: Prof. Dr. Wolfgang Hauber Mitberichter: Prof. Dr. Franziska Wollnik Tag der mündlichen Prüfung: 25.01.2010 Biologisches Institut der Universität Stuttgart, 2010 Die vorliegende Arbeit wurde von mir selbständig bearbeitet. Ich habe keine anderen als die angegebenen Quellen und Hilfsmittel benutzt. Die Koautoren der zur Veröffentlichung eingereichten Manuskripte sind jeweils genannt. Stuttgart, den 03.11.2009 Carsten Calaminus Für Luca Inhaltsverzeichnis 7 1 Inhaltsverzeichnis 1 INHALTSVERZEICHNIS.......................................................................... 7 2 ABKÜRZUNGSVERZEICHNIS.................................................................. 9 3 ABSTRACT............................................................................................ 11 4 EINLEITUNG ........................................................................................ 13 4.1 BASALGANGLIEN ...................................................................................... 14 4.1.1 Anatomie ......................................................................................... 14 4.1.2 Funktion .......................................................................................... 15 4.2 NUCLEUS ACCUMBENS ............................................................................... 20 4.3 ORBITOFRONTALER KORTEX........................................................................ 24 4.4 DORSALES STRIATUM................................................................................ 27 4.5 DOPAMIN .............................................................................................. 31 4.5.1 Anabolismus..................................................................................... 32 4.5.2 Katabolismus.................................................................................... 32 4.5.3 Dopamin-Rezeptoren ........................................................................ 33 4.5.4 Dopamin-Freisetzung ........................................................................ 34 4.5.5 DA-Rezeptorliganden ........................................................................ 35 4.5.5.1 SCH23390 ................................................................................. 35 4.5.5.2 Racloprid/Eticloprid .................................................................... 36 4.5.5.3 6-Hydroxydopamin..................................................................... 36 4.5.6 Dopamin-System und Lernen............................................................. 37 4.6 GLUTAMAT............................................................................................. 44 4.6.1 Anabolismus..................................................................................... 44 4.6.2 Katabolismus.................................................................................... 45 4.6.3 Glutamat-Rezeptoren ........................................................................ 46 4.6.3.1 Metabotrope Glutamatrezeptoren ................................................ 46 4.6.3.2 Ionotrope Glutamatrezeptoren .................................................... 47 4.6.3.3 Glutamat-spezifische Pharmaka................................................... 49 4.6.3.3.1 AP-5 ...................................................................................... 49 4.7 ZIELE DER ARBEIT.................................................................................... 49 Inhaltsverzeichnis 8 5 DURCHGEFÜHRTE ARBEITEN .............................................................. 51 5.1 INTACT DISCRIMINATION REVERSAL LEARNING BUT SLOWED RESPONDING TO REWARD- PREDICTIVE CUES AFTER DOPAMINE D1 AND D2 RECEPTOR BLOCKADE IN THE NUCLEUS ACCUMBENS OF RATS .......................................................................................... 51 5.2 GUIDANCE OF INSTRUMENTAL BEHAVIOUR UNDER REVERSAL CONDITIONS REQUIRES DOPAMINE D1 AND D2 RECEPTOR ACTIVATION IN THE ORBITOFRONTAL CORTEX .................. 51 5.3 MODULATION OF BEHAVIOR BY EXPECTED REWARD MAGNITUDE DEPENDS ON DOPAMINE IN THE DORSOMEDIAL STRIATUM................................................................................ 51 6 ZUSAMMENFASSENDE DISKUSSION ................................................... 92 6.1 REAKTIONSZEITAUFGABE............................................................................ 92 6.2 VISUELLE DISKRIMINATIONSAUFGABE ............................................................ 94 6.3 RÄUMLICHE VISUELLE DISKRIMINATIONSAUFGABE.............................................. 95 6.4 HABITUATION ......................................................................................... 95 6.5 MIKROINFUSIONEN................................................................................... 97 6.6 LÄSION................................................................................................. 97 6.7 DIE ROLLE VON DOPAMIN IM NUCLEUS ACCUMBENS........................................... 98 6.8 DIE ROLLE VON DOPAMIN IM ORBITOFRONTALEN KORTEX.................................. 103 6.9 DIE ROLLE VON DOPAMIN IM POSTERIOREN DORSOMEDIALEN STRIATUM................ 108 6.10 DIE ROLLE VON DOPAMIN BEIM ZIELGERICHTETEN VERHALTEN............................ 112 6.11 ZUSAMMENFASSUNG ............................................................................... 117 7 LITERATURVERZEICHNIS.................................................................. 120 8 DANKSAGUNG ................................................................................... 134 9 LEBENSLAUF...................................................................................... 135 Abkürzungsverzeichnis 9 2 Abkürzungsverzeichnis 6-OHDA 6-Hydroxydopamin ADHD Attention-deficit/hyperactivity disorder AMPA α-Amino-3-hydroxy-5-methyl-4-isoxazol-Propionsäure AP5 2-amino-5-Phosphonopentansäure ACh Acetylcholin BLA Basolaterale Amygdala cAMP cyclisches Adenosinmonophosphat COMT Catechol-O-Methyltransferase DA Dopamin DAT Dopamine active transporter DS Dorsales Striatum DLS Dorsolaterales Striatum DMS Dorsomediales Striatum DOPAC (3,4-Dihydroxyphenyl)-Essigsäure EAAT Exzitatorischer Aminosäure-Transporter GABA γ-Aminobuttersäure GPe/i Globus pallidus externus/internus L-DOPA L-3,4-Dihydroxyphenylalanin MAO Monoaminooxidase NAC Nucleus accumbens NMDA N-Methyl-D-Aspartat NO Stickstoffmonoxid OFC Orbitofrontaler Kortex PET Positronen-Emissions-Tomographie PFC Präfrontaler Kortex PIT Pavlovian-to-instrumental transfer RRA Retrorubrales Areal SCH23390 7-chloro-3-methyl-1-phenyl-1,2,4,5-tetrahydro-3- benzazepin-8-ol SNc Substantia nigra pars compacta Abkürzungsverzeichnis 10 SNr Substantia nigra pars reticulata TH Thyrosinhydroxylase VTA Ventrales tegmentales Areal VMAT vesikulärer Monoamintransporter ZNS Zentrales Nervensystem Bezeichnungen, die im deutschsprachigen Teil der Arbeit aus dem Englischen, Lateinischen und Französischen übernommen wurden, sind im Text kursiv gedruckt. Abstract 11 3 Abstract It has long been recognized that the rewarding effects of actions and their outcomes are mediated by mesocorticolimbic dopamine systems, comprising dopamine neurons in the ventral tegmental area and substantia nigra and their projections to the striatum, orbitofrontal cortex and other forebrain regions. Major efforts have attempted to specify what function this system contributes. Does mesocorticolimbic dopamine mediate the pleasure of reward stimuli? This was originally suggested because mesocorticolimbic systems are activated by many natural and drug rewards, and their blockade impairs the behavioural effectiveness of most reinforcers. Do mesocorticolimbic projections instead learn and predict the occurrence of rewards? That prediction error hypothesis was based on evidence that DA neurons fire to cues that predict rewards but not to already predicted hedonic rewards. Do mesocorticolimbic dopamine systems mediate the incentive salience attributed to neural representations of rewards and cues, causing them to become perceived as “wanted” goals? That incentive salience hypothesis of dopamine function was based originally on evidence that mesolimbic dopamine is not needed to mediate the hedonic impact or “liking” for sweet rewards, despite its importance for motivated behaviour to obtain the same rewards. This dissertation would make a small contribution to the understanding of learning behaviour, as we examined the role of dopamine in different learning paradigms in an animal model. In addition microinfusions and lesions of different subareas of the basal ganglia and the cortex of rats were accomplished and the effects of these manipulations on the learning behaviour of the animals were observed. In the first experiment we examined the effects of a selective D1 or D2 receptor blockade in the AcbC on learning a reversal of previously acquired cue-reward magnitude contingencies. Therefore rats were trained on a reaction time (RT) task demanding conditioned lever release with discriminative visual cues signalling in advance the upcoming reward magnitude (one or five food pellets). After acquisition, RTs were guided by cue-associated reward magnitudes. Thereafter, cue–reward magnitude contingencies were reversed. Reversal learning was tested for 12 daily sessions with intra-AcbC microinfusions being given on sessions 1-6. Subjects Abstract 12 received pre-trial infusions of different concentrations of the selective D1 or D2 receptor antagonists, SCH23390 or raclopride. We observed no inhibition of discrimination reversal learning after infusion of SCH23390 or raclopride, but the higher dose of each drug increased RTs of instrumental responses. In the second experiment we examined the effects of a selective D1 or D2 receptor blockade in the OFC on learning a reversal of previously acquired stimulus–reward magnitude contingencies. Rats were trained on the same reaction time (RT) task as used in experiment one. After acquisition, RTs were guided by stimulus-associated reward magnitudes, i.e. RTs of responses were significantly shorter for expected high vs. low reward. Thereafter, stimulus–reward magnitude contingencies were reversed and learning was tested under reversal conditions for three blocks after pre-trial infusions of selective D1 or D2 receptor antagonists SCH23390 and eticlopride. For comparisons, we included intra-OFC infusions of the selective N-methyl-D-aspartate receptor antagonist AP5. Results revealed that in animals subjected to intra-OFC infusions of SCH23390 or eticlopride learning a reversal of previously acquired stimulus reward-magnitude contingencies was impaired. In the third experiment was divided in three parts. In the first part adopting a reaction time task, reaction times of responding were reliably shorter on cued large reward trials than on cued small reward trials. Results showed that pDMS dopamine depletion impaired reward-dependent modulation of reaction times, if visual cues predict large vs. small reward, but not if visual cues predict reward vs. no reward. In part 2 and 3, a pDMS dopamine depletion did not compromise the acquisition of a conditional visual discrimination task in an operant box that required learning a rule of the type “if the cue light is bright press left lever for reward, if dim press right lever” and did not impair the acquisition of a cross maze task that required learning a visual cue discrimination strategy to obtain food reward. Taken together these results implicate, that dopamine plays variable roles in the different brain areas during goal directed behavior, even though these areas belong to the same functional loop. This implies that the functional separation of the multiple functional loops in an associative and a limbic circuit is not clear. There seems to be, at least in some cases a functional overlap, which speaks against a strictly dissociation of the aforementioned cortico-striatal-thalamic-cortical loops. Einleitung 13 4 Einleitung Menschen und Tiere sind von Geburt an einer sich ständig ändernden Umwelt ausgesetzt. Ein Überleben in dieser Umwelt hängt maßgeblich davon ab, inwieweit ein Individuum in der Lage ist, sich an diese sich laufend ändernden Umweltbedingungen anzupassen. Dazu müssen bestimmte Verhaltensweisen neu gelernt bzw. bereits erlernte Verhaltensmuster umgelernt werden. Lernen ist also eine essentielle Voraussetzung für das Überleben. Deshalb versuchen Forscher seit vielen Jahren das Lernverhalten von Tier und Mensch besser zu verstehen. Während ganz zu Beginn der Lernforschung noch einfache, habituelle Verhaltensweisen untersucht wurden, sind in den letzten Jahren komplexere, assoziative Lernvorgänge und die daran beteiligten Hirnareale und Neurotransmitter in den Mittelpunkt gerückt. Das Wissen um die Funktion der Interaktionen zwischen den Hirnarealen sowie deren biochemische, elektrophysiologische und lerntheoretische Grundlagen werden zu einem besseren Verständnis von tierischem und menschlichem Lernverhalten führen. Dies kann helfen, neurodegenerative Erkrankungen frühzeitig anhand spezifischer Lerndefizite zu erkennen und möglicherweise neue Wege eröffnen, diese effektiver zu behandeln. Einen bescheidenen Beitrag zum besseren Verständnis menschlichen Lernverhaltens soll die vorliegende Arbeit leisten, in der die Rolle von Dopamin bei bestimmten Lernvorgängen am Tiermodell untersucht wird. Dazu wurden Mikroinfusionen und Läsionen verschiedener Teilbereiche der Basalganglien und des Kortex von Ratten durchgeführt und der Einfluß dieser Eingriffe auf das Lernverhalten der Tiere untersucht. Beginnen wird die Einleitung mit einem kurzen Überblick über die Struktur und soweit bekannt die Funktion der an der Steuerung des Lernverhaltens beteiligten Areale des präfrontalen Kortex und der Basalganglien. Das Hauptaugenmerk liegt auf den für die vorliegende Arbeit relevanten Teilbereichen. Der darauf folgende Abschnitt widmet sich den biochemischen Grundlagen der untersuchten Neurotransmitter Dopamin und Glutamat, die beide nach aktuellem Kenntnisstand bei der Steuerung des Lernverhaltens eine wichtige Rolle zu spielen scheinen. Den Abschluß der Einleitung bildet ein umfassender Überblick über die relevanten Einleitung 14 Theorien zur Funktion von Dopamin im Kortex und den Basalganglien bei der Steuerung des Lernverhaltens und den Einfluß den Dopamin auf die Vermittlung lernrelevanter Informationen im Kortex und in den Basalganglien ausübt. 4.1 Basalganglien 4.1.1 Anatomie Unter dem Begriff der Basalganglien werden Strukturen des Mittel- und Vorderhirns zusammengefaßt, die während der Gehirnentwicklung gemeinsam aus dem Ganglienhügel (Emenentia ganglionaris) des Keimlings hervorgegangen sind und funktionell zusammengehören. Dies sind namentlich die Substantia nigra, der Globus pallidus, der N. subthalamicus, sowie der N. caudatus und das Putamen. In den letzteren sind unter dem Mikroskop kleine Streifen weißer Substanz zu erkennen. Aus diesem Grund tragen diese zusammen den Namen Striatum, oder auch Streifenkörper. Ventral von diesen Teilen des Striatums liegt darüber hinaus noch das sog. ventrale Striatum, dessen wichtigster Teil als N. accumbens bezeichnet wird. Im Unterschied zum Primaten sind bei Nagetieren die beiden Bereiche des N. caudatus und des Putamens nicht getrennt und werden deshalb als Caudatus-Putamen, oder dorsales Striatum bezeichnet (Kandel et al. 2000). Das Striatum bildet die Eingangsstruktur der Basalganglien (z.B. Delgado 2007; Pasupathy and Miller 2005). Dort werden die eingehenden Informationen verarbeitet und in andere Strukturen der Basalganglien weitergeleitet (Bellebaum et al. 2008; Lansink et al. 2008; Lau and Glimcher 2007). Es empfängt Informationen aus nahezu allen Kortexbereichen und dem Thalamus. Sowohl der Kortex, als auch der Thalamus (Thal) projizieren über glutamaterge Bahnen zum Striatum (z.B. Parsons et al. 2007; Smith et al. 2004; Tisch et al. 2004). Daneben erreicht das Striatum auch eine starke dopaminerge Innervation aus dem Mittelhirn (z.B. Ferreira et al. 2008; Horvitz 2002). Die striatofugalen Projektionsneurone sind GABAerg, hemmen also die nachfolgenden Bereiche (Lacey et al. 2005). Schließlich werden die durch das Striatum prozessierten Informationen entweder über direkte Projektionen zur Substantia nigra pars reticulata (SNr) und den N. entopeduncularis (Ratte) bzw. Einleitung 15 Globus pallidus internus/medialis (Primat), die man als Ausgangsstrukturen der Basalganglien bezeichnet, geleitet. Die indirekten Projektionen ziehen über den Globus pallidus externa (GPe) und den N. subthalamicus zu den Ausgangsstrukturen zurück. Die Ausgangsstrukturen wiederum projizieren dann zu Arealen, die motorische, aber auch kognitive Prozesse initiieren (z.B. Alberts et al. 2008; Cakmakli et al. 2009; Sauleau et al. 2009; Yelnik 2008). Auf Grund dieses zirkulären Informationsflusses vom Kortex/Thalamus zum Striatum und zurück, spricht man von sog. Funktionsschleifen. Abbildung 1: Schaltkreis der Basalganglien. Das Striatum bildet die Eingangsstruktur der Basalganglien. Es empfängt Informationen aus verschiedenen Kortexarealen und dem Thalamus, sowie Afferenzen aus dem Mittelhirn (SNc/VTA). Ausgehend vom Striatum gelangen die Informationen dann entweder über den indirekten Weg zum Globus pallidus externa (GPe) und den Subthalamischen Nukleus, oder über den direkten Weg zum Globus pallidus internus (GPi) und die Substantia nigra pars reticulata (SNr) wieder zu den kortikalen Ausgangsstrukturen zurück (mod. nach Yin and Knowlton 2006). 4.1.2 Funktion Die Basalganglien selektieren eingehende Informationen und filtern diejenigen heraus, die für den Organismus aktuell von größter Bedeutung sind (Balleine et al. Einleitung 16 2007; Lau and Glimcher 2007). Da sowohl die efferenten Projektionen vom Striatum zum Globus pallidus internus/N. entopeduncularis, als auch die von dort weitergehenden efferenten Projektionen zum Thalamus GABAerg (hemmend) sind, wird bei einer Aktivierung der striatalen Efferenzen der Globus pallidus internus/N. entopeduncularis gehemmt und in der Folge die für den Organismus essentiellen Prozesse im Thalamus „enthemmt“ (Abb. 1), während alle irrelevanten Prozesse weiterhin gehemmt bleiben. Diese Funktion der Basalganglien wird von Neuropsychologen auch in der Gating – Theorie zusammengefaßt (French and Totterdell 2002; Levy 2004; O'Donnell and Grace 1995). Diese besagt, daß die Eingangsstruktur der Basalganglien, das Striatum, eine Art Selektionsfunktion ausübt und bestimmte situationsangemessene motorische Verhaltensmuster auswählt, andere hingegen unterdrückt. Anschließend erhält die ausgewählte Verhaltenweise den exklusiven Zugriff auf die Motorik, während anderen, potentiell störenden Verhaltenweisen der Zugriff auf die Motorik „verweigert“ wird. Dieses Modell erinnert stark an Vorgänge der „lateralen Inhibition“, die in rezeptiven Feldern im sensorischen System aller höheren Organismen vorkommen. Verschiedene neuropsychologische Erkrankungen beruhen auf der fehlerhaften Funktion des Striatums bei der Selektion der eingehenden Signale. Ein humanpathologisches Beispiel für eine solche Fehlselektion sind die sogenannten TIC-Störungen (Abb. 2), bei denen Personen bestimmte Verhaltensmuster, oder Lautäußerungen unwillkürlich regel- oder unregelmäßig wiederholen. Verschiedene Forscher vermuten auch bei ADHD (Attention Deficit and Hyperactivity Disorder), daß eine solche Störung vorliegt, nur daß nicht eine bestimmte Handlung oder Lautäußerung unwillkürlich wiederholt wird, sondern generell unangemessene Handlungen und Lautäußerungen verstärkt werden (Hyperaktivität) und Verhaltensmuster fehlerhaft ge- bzw. enthemmt werden. So wenden sich betroffene Patienten z.B. vermehrt externen störenden Stimuli zu und sind nicht in der Lage, sich längere Zeit auf eine Sache zu konzentrieren (Aufmerksamkeitsdefizit) (Brennan and Arnsten 2008). Einleitung 17 Abbildung 2: Neurodegenerative Erkrankungen der Basalganglien. Der Basalganglien- thalamokortikale Schaltkreis unter normalen Bedingungen, Parkinson, TIC-Störungen und Chorea Huntington. Inhibitorische Verbindungen sind grau und schwarz dargestellt, exzitatorische Verbindungen pink und rot. Die Degeneration des nigrostriatalen DA-Systems bei Parkinson führt zu unterschiedlichen Veränderungen der Aktivität der beiden striatopallidalen Bahnen. Hier durch die Helligkeit der Verbindungspfeile dargestellt (dunkle Pfeile zeigen gesteigerte neuronale Aktivität und hellere Pfeile verringerte Aktivität). Die Signale der thalamischen Efferenzen der Basalganglien sind bei der Parkinsonschen Erkrankung verstärkt, wohingegen diese bei TIC-Störungen und Chorea Huntington deutlich verringert sind. GPe = Globus pallidus externus; GPi = Globus pallidus internus; SNc = Substantia nigra pars compacta; STN = Subthalamischer Nukleus. (Abbildung modifiziert nach Kandel et al. 2000) Einleitung 18 Neben der motorischen Steuerung bestimmter Verhaltensweisen nehmen die Basalganglien eine wichtige Rolle bei der Steuerung von kognitiven und emotionalen Hirnleistungen ein (Graybiel 1995; Hikosaka et al. 2000; Nicola 2007; Packard and Knowlton 2002; Yin and Knowlton 2006). Deutlich wird dies bei verschiedenen neuropsychiatrischen Erkrankungen, bei denen Fehlfunktionen eines Teilbereichs der Basalganglien zu massiven Verhaltensdefiziten führen (Albin et al. 1989). So zeigen Personen mit der Parkinsonschen Erkrankung, bei denen die dopaminergen Neurone der Substantia nigra degeneriert sind (Abb. 2), deutliche Beeinträchtigungen beim Lösen komplexer Lernaufgaben (Gauntlett-Gilbert and Brown 1998; Tinaz et al. 2008). Auch bei Chorea Huntington (Abb. 2), einer Erkrankung, bei der die hemmenden GABAergen Efferenzen des Striatum degenerieren, führt die fehlende Hemmung nachfolgender Areale zu einer verringerten Hemmung des indirekten Ausgangswegs aus den Basalganglien und nachfolgend zu einer verstärkten Aktivierung des Thalamus (Disinhibition). Die Folge sind neben motorischen Beeinträchtigungen, die zumeist erst in einem fortgeschrittenen Stadium der Erkrankung auftreten, Gedächtnisstörungen, sowie erhöhtes impulsives Verhalten und soziale Enthemmung (Rosenblatt and Leroi 2000). Die Basalganglien werden von mind. 3 verschiedenen, voneinander sowohl strukturell, als auch funktionell unabhängigen sog. Funktionsschleifen durchzogen. D.h. anatomisch und funktionell unterschiedliche Bereiche des Cortex, der Basalganglien und des Thalamus werden in parallelen Schleifen durchlaufen (´parallel processing´, Alexander and Crutcher 1990, Übersicht in Parent and Hazrati 1993). Die Namensgebung der Funktionsschleifen variiert in der Literatur stark, abhängig vom Autor und dem präsentierten Modell. Deshalb soll in der Folge die verwendet werden, die Nakano und Yin in ihren Arbeiten beschreiben (Nakano 2000; Yin and Knowlton 2006). Diese sprechen von einer assoziativen, einer sensomotorischen und einer limbischen Funktionsschleife (Abb. 3). Neuere Untersuchungen haben jedoch gezeigt, daß die Schleifen nicht vollständig unabhängig voneinander agieren, sondern partiell überlappen und interagieren. D.h., die gleiche striatale Subregion erhält Information aus verschiedenen kortikalen Bereichen (Übersicht in Gerfen 2000). Allerdings gehen alle Arbeiten davon aus, daß die Basalganglien Informationen bündeln und wie oben schon erwähnt selektieren, („Gating“) um das Verhalten zu steuern. Auf zwei dieser Schleifen der limbischen und Einleitung 19 der assoziativen Funktionsschleife liegt das Hauptaugenmerk dieser Arbeit. Die limbische Funktionsschleife beginnt und endet im anterioren cingulären Kortex und dem orbitalen Teil des präfrontalen Kortex (OFC) (Kandel et al. 2000). Sie durchzieht die Basalganglien im ventralen Teil des Striatums, dem N. accumbens (Alexander et al. 1990; Selemon and Goldman-Rakic 1985) und erhält dort Informationen aus anderen Arealen des limbischen Systems, wie z.B. der Amygdala oder dem Hippocampus. Dieser Schaltkreis wird mit einer Vielzahl an kognitiven und affektiven Funktionen wie Antrieb oder Motivation in Verbindung gebracht (z.B. Faure et al. 2008; Robbins 2007; Salamone et al. 2007; Schultz 2007; Wise 2006). Der assoziative Schaltkreis beginnt und endet im assoziativen Kortex. Efferenzen vom assoziativen Kortex erreichen die Basalganglien im dorsalen Teil des Striatums (Flaherty and Graybiel 1991; 1993). Das dorsale Striatum selbst projiziert auf den Globus pallidus und dieses dann auf „direktem“ Weg in den Thalamus oder auf dem „indirekten“ Weg in die Substantia nigra pars reticulata und dann auf den Thalamus (Nakano 2000; Nakano et al. 2000; Selemon and Goldman-Rakic 1985). Von dort gehen die Projektionen wieder zurück an den assoziativen Kortex. Die assoziative und auch die motorische Funktionsschleife sind vornehmlich für die Auswahl, Initiation und Ausführung zielgerichteter Verhaltensweisen zuständig. Ein enges Zusammenspiel der limbischen und der motorischen Funktionsschleife ist z.B. für die soziale Kommunikation (Köpersprache, Gestik, Mimik) essentiell, um die affektiven und motivationalen Signale des limbischen Systems in die Steuerung des zielgerichteten Verhaltens zu integrieren. Einleitung 20 Abbildung 3: Kortiko-basalganglische Netzwerke als eine zentrale Funktionseinheit des Gehirns. Vereinfachte schematische Darstellung der 3 großen Schaltkreise, die Teile des Kortex und die Basalganglien umfassen: der limbische, assoziative und sensorimotorische Schaltkreis (modifiziert nach Yin and Knowlton 2006). 4.2 Nucleus accumbens Der N. accumbens befindet sich im ventralen Teil des Striatums und ist Teil des limbischen Systems. Er erhält glutamaterge Afferenzen aus allocortikalen Bereichen, wie z.B. dem Hippocampus, kortikalen Bereichen, wie z.B. dem präfrontalen Kortex, sowie aus der basolateralen Amygdala und den thalamischen Nuclei (Ferré et al. 1997; Gerfen and Wilson 1996; Groenewegen et al. 1996; Heimer et al. 1995; McGeorge and Faull 1989a), aber auch dopaminerge Afferenzen aus dem ventralen tegmentalen Areal (Bjorklund and Dunnett 2007). GABAerge Projektionsneurone des NAC ziehen über die „indirekte“ Bahn zum Globus pallidus und über die „direkte“ Bahn zur Substantia nigra pars reticulata. Die Efferenzen lassen sich durch die verwendeten Cotransmitter und die exprimierten Dopaminrezeptortypen (siehe Abbildung 2) unterscheiden. Während die striatopallidalen Neurone das Neuropeptid Enkephalin ausschütten und hauptsächlich den D2-Rezeptortyp exprimieren, verwenden die striatonigralen Neurone die Neuropeptide Substanz P und Dynorphin als Cotransmitter und exprimieren den D1-Rezeptortyp (Sonomura et al. 2007). Es mehren sich allerdings die Anzeichen, daß Projektionsneurone existieren, die sowohl D1-, als auch D2-Rezeptoren exprimieren (Aizman et al. 2000; Meador-Woodruff et al. 1991; Shetreat et al. 1996). Dies würde die allgemeine Auffassung von einer Einleitung 21 Unterteilung der accumbalen Projektionsbahnen in einen direkten und einen indirekten Weg in Frage stellen. Mit 90-95% stellen die Projektionsneurone den Hauptanteil der accumbalen Neurone. Die übrigen 5-10% sind homogen verteilte Interneurone. Es können zwei Typen von Interneuronen unterschieden werden: die mittelgroßen GABAergen Interneurone (medium spiny neurons) und die dornenfreien Interneurone (aspiny neurons) (Kawaguchi et al. 1995). Diese Interneurone bilden ein Netzwerk, das die Projektionsneurone untereinander verbindet (Emson 1993). Über die genaue Funktion der Interneurone weiß man noch nicht viel, nur daß sie vermutlich an der Kommunikation und Regulation des „indirekten“ und des „direkten“ Ausgangs aus dem NAC beteiligt sind (Mallet et al. 2006; Smith and Villalba 2008). In immunhistochemischen Untersuchungen konnten neben GABA, Dopamin und Glutamat noch weitere Substanzen identifiziert werden, die Einfluß auf die Aktivität des NAC ausüben. Dazu gehören neben Stickstoffmonoxid (NO) (French et al. 2005; Sahraei et al. 2007) noch weitere Neurotransmitter, wie Serotonin (z.B. Fallon et al. 2007), Adenosin (z.B. Nagel and Hauber 2001; Nagel and Hauber 2003; Worden et al. 2009), oder auch Somatostatin (z.B. Marazioti et al. 2008), auf die hier allerdings nicht weiter eingegangen werden soll. Sowohl anatomisch, als auch funktionell unterteilt man den NAC in eine Kern- (core) und eine Schalen- (shell) Region (z.B. Di Ciano 2008; Floresco et al. 2006a; Groenewegen et al. 1991; Laviolette et al. 2008; Sokolowski and Salamone 1998). Beide Teilbereiche unterscheiden sich aber auch im Ursprung ihrer Afferenzen. Während die Schalen-Region hauptsächlich Afferenzen aus dem Kortex, namentlich vom ventralen prälimbischen und dem entorhinalen Kortex sowie der basolateralen Amygdala und dem Hirnstamm erhält (Zahm et al. 1999), wird die Kern-Region hauptsächlich von Projektionen aus dem orbitalen Teil des präfrontalen Kortex, dem dorsalen Teil des prälimbischen Kortex und dem mediodorsalen Thalamus innerviert (Frank and Claus 2006; Reynolds and Zahm 2005). Gemeinsam sind beiden Teilbereichen nur die dopaminergen Projektionen aus dem ventralen Tegmentalen Areal (VTA). Bisher ist allerdings nicht bekannt, ob und inwieweit beide Teilbereiche „direkt“ miteinander kommunizieren. Bisher vermutet man, daß beide Bereiche über eine Schleife, die Teile des präfrontalen Kortex mit einbezieht, verbunden sind. Aus jüngster Vergangenheit existieren allerdings auch Hinweise auf eine direkte Einleitung 22 Verbindung beim Primaten (van Dongen et al. 2008) aber auch bei der Ratte (van Dongen et al. 2005). Abbildung 4: Schematische Darstellung der Afferenzen und Efferenzen der NAC- Kern- und Schalenregion. Die Afferenzen sind blau dargestellt und die Efferenzen rot. Die NAC-Kernregion empfängt u.a. Input vom orbitalen Teil des präfrontalen Kortex, sowie dem mediodorsalen Thalamus und der VTA. Sie projiziert ihrerseits auf den Globus pallidus internus. Die NAC-Schalenregion wird ebenfalls von der VTA innerviert, empfängt aber ebenso Afferenzen von verschiedenen Arealen des Hippocampus und dem entorhinalen Kortex. Die efferenten Projektionen erreichen u.a. den lateralen Hypothalamus und das ventrale Pallidum. (Abbildung modifiziert nach Groenewegen and Trimble 2007) Der Nucleus accumbens ist als Teilgebiet des limbischen Systems insbesondere für die Steuerung der Handlungsbereitschaft oder Motivation wichtig. Bereits frühe Untersuchungen von Wise (Wise and Strick 1984) wiesen nach, daß nach Eingriffen in den NAC die Motivation für viele Verhaltensweisen abnahm und auch die Intensität und Dauer, mit der belohnungsgerichtete Verhaltensweisen ausgeübt wurden, sich deutlich reduzierte. Berridge hat deshalb vorgeschlagen, der NAC sei eine Struktur, die maßgeblich die Intensität steuert, mit der bestimmte Handlungsziele verfolgt Einleitung 23 werden („wanting“; siehe 4.5.6). Die Subregionen des NAC scheinen dabei verschiedene Aufgaben zu haben. Eine Stimulation der Kernregion des NAC (NACcore) führte dazu, daß Ratten eine längere Zeit auf eine in Aussicht gestellte Belohnung warteten, als Kontrolltiere (Sesia et al. 2008). Diese reduzierte Impulsivität wird als eine verringerte Handlungsbereitschaft interpretiert (Cardinal et al. 2001). Demgegenüber führte eine Stimulation der Schalenregion des NAC (NACshell) zu einer Steigerung der Impulsivität und einer Zunahme der Handlungsbereitschaft (Sesia et al. 2008). Darüber hinaus spielt der NAC vor allem bei der Steuerung von Verhaltensweisen eine Rolle, die durch Umgebungsreize vermittelt werden, welche einen bestimmten Anreizwert besitzen. Beispielsweise führt die Darbietung von Reizen, die mit einem Geldgewinn verknüpft sind, zu einer massiven Erhöhung der Aktivität von accumbalen Neuronen, sowie einer verstärkten DA-Freisetzung im NAC (Schott et al. 2008). Elektrophysiologische Untersuchungen an Primaten konnten zeigen, daß die Neurone des NAC sowohl auf konditionierte Umgebungsreize, die physiologisch relevante und attraktive Belohungen voraussagten, reagierten, als auch auf die Belohnungen selber (Carelli et al. 2000; Schultz et al. 2003; Setlow et al. 2003; Woodward et al. 1999; Yun et al. 2004). Ebenso geht aus Verhaltensstudien hervor, daß der NAC Informationen über das Auftreten biologisch signifikanter Umgebungsreize dazu nutzt, das Verhalten an sich ändernde Umgebungsbedingungen anzupassen (Cardinal et al. 2002a; Giertler et al. 2003; Hauber et al. 2000; Schoenbaum and Setlow 2003; Yun et al. 2004). Folglich trägt der NAC zur flexiblen Steuerung des Verhaltens bei. Eine solche Anpassung ist notwendig, wenn sich eine Situation ändert und das bisher gezeigte Verhalten nicht mehr zielführend ist. Tieren, aber auch Menschen mit dysfunktionalem NAC geht diese Verhaltensflexibilität verloren. So zeigten Tiere, die eine Zellkörperläsion der Kern-Region des NAC hatten, eine deutlich verringerte Fähigkeit, ihre Verhaltensstrategie einer neuen Situation anzupassen (Floresco et al. 2006a). Im Gegensatz dazu steht eine Studie von Stern und Passingham (Stern and Passingham 1995). Diese konnten zeigen, daß Makaken in der Lage sind, trotz Läsion im NAC die Reiz-Belohnungs-Beziehungen in einer visuellen Diskriminationsaufgabe umzulernen. Allerdings hatten die Tiere derselben Studie Probleme beim Umlernen einer motorischen Diskriminationsaufgabe. Diese zum Teil unterschiedlichen Einleitung 24 Studienergebnisse sprechen gegen die bisherigen Theorien, die dem NAC eine Rolle bei der Steuerung der generellen Verhaltensflexibilität zusprechen. Vielmehr scheint die Beteiligung des NAC an der Steuerung des flexiblen Verhaltens auch von der Art des verwendeten Verhaltenstest abhängig zu sein. Zusammenfassend spielt der NAC eine essentielle Rolle bei der Anpassung des Verhaltens an geänderte Umgebungsbedingungen. Sowohl elektrophysiologische Untersuchungen, als auch Verhaltenstests konnten zeigen, daß die beiden Subregionen des NAC dabei unterschiedliche Beiträge leisten. Unklar war lange, welche Neurotransmitter an der Vermittlung der Verhaltensflexibilität beteiligt sind. In den letzten Jahren zeigte sich jedoch, daß DA eine essentielle Rolle bei der Steuerung des flexiblen Verhaltens zu spielen scheint (siehe 4.5.6). 4.3 Orbitofrontaler Kortex Der präfrontale Kortex ist ein Hirnareal im Frontallappen der Großhirnrinde. Er ist maßgeblich an der Integration bestimmter Gedächtnisinhalte mit sensorischen Informationen aus dem Kortex, emotionalen Bewertungen aus dem limbischen System beteiligt und initiiert auf dieser Basis situationsangemessene Handlungen. Der humane präfrontale Kortex läßt sich in drei Teilbereiche unterteilen: Den medialen (mPFC), den dorso-/ventrolateralen (dl/vlPFC) und den orbitofrontalen (OFC) Teil (Crespo-Facorro et al. 1999; Muller et al. 2002). Letzterer läßt sich bei Ratten anatomisch in 3 weitere Teilbereiche unterteilen: den ventrolateralen orbitalen, den lateralen orbitalen und den agranulären insulären Kortex. Laut der Definition von Schoenbaum und Kollegen (Schoenbaum et al. 2002) sind diese Bereiche homolog zum orbitofrontalen PFC von Primaten (Groenewegen et al. 1997; Ongur and Price 2000). Auf Grund dieser Homologie hat man sich darauf geeinigt, diese Teilbereiche auch bei Ratten unter dem Begriff des OFC zusammenzufassen. Der OFC erhält massive GABAerge und glutamaterge Projektionen aus verschiedenen Bereichen des limbischen Systems (Hippocampus; NACshell; basolaterale Amygdala) (Horvitz 2002; Schoenbaum et al. 2006), sowie dem entorhinalen und dem perirhinalen Kortex und auch eine starke dopaminerge Innervation aus der VTA (Takahashi et al. 2009). Bis auf die DAerge sind alle diese Projektionen reziprok Einleitung 25 (Schoenbaum et al. 2006). Daneben projiziert er auch auf die motorischen Cortices und den Hypothalamus, sowie auf den Caudatus putamen (Schilman et al. 2008). Vor allem die Verbindung zum Hypothalamus läßt vermuten, daß der OFC eine wichtige Rolle bei der unbewußten, autonomen Steuerung des Verhaltens in emotionalen Situationen spielt, indem er z.B. den Herzschlag und die Atmung beeinflußt. Tatsächlich beeinträchtigt eine pathologische Fehlfunktion des OFC die Fähigkeit des Menschen, unbewußte Handlungen in emotionalen Situationen zu initiieren (Bramham et al. 2009; Drevets 2007). Zum Beispiel sind Menschen mit einem dysfunktionalen OFC - ihre Wahrnehmung betreffend - unbeeinträchtigt, treffen jedoch in einer Wahlsituation falsche Entscheidungen (Chase et al. 2008; Übersicht in Karnath 2006, Neuropsychologie). Elektrophysiologische Studien legen nahe, daß der OFC neben der Integration von kognitiven und emotionalen Signalen zur Modulation von Reaktionen des autonomen Nervensystems, sowie zur Steuerung zielgerichteten Verhaltens beiträgt. So konnte schon 1981 nachgewiesen werden, daß die Neurone des OFC sowohl auf eine Belohnung (Rosenkilde et al. 1981), als auch auf den Stimulus, der diese vorhersagte, (Furuyashiki et al. 2008) mit einer Aktivitätserhöhung reagierten. 1983 gelang es zu zeigen, daß OFC-Neurone durch zwei Stimuli, welche entweder Fruchtsaft, oder Kochsalzlösung vorhersagten unterschiedlich aktiviert werden (Thorpe et al. 1983). Neuere elektrophysiologische Untersuchungen zeigen darüber hinaus, daß die Neurone des OFC in ihrer Aktivität eine Führung durch die erwartete Belohnungsstärke aufweisen (van Duuren et al. 2007; van Duuren et al. 2008). Weitere Untersuchungen lassen vermuten, daß der OFC eine essentielle Rolle bei der Steuerung der Verhaltensflexibilität spielt, indem er erwartete und tatsächlich erhaltene Belohnungen miteinander vergleicht, um zukünftige Verhaltensweisen anzupassen bzw. ein einmal gelerntes Verhalten umzulernen (Rudebeck et al. 2008; Rudebeck and Murray 2008; Takahashi et al. 2009). So hat man bei Menschen und nicht-humane Primaten mit dysfunktionalem OFC Probleme beim Umlernen einer einmal gelernten Reiz-Belohnungs-Beziehung festgestellt (Baxter et al. 2000; Dias et al. 1996; Hornak et al. 2004; Izquierdo et al. 2004; Man et al. 2009; Manes et al. 2002; Meunier et al. 1997; Murray 2008; Rudebeck and Murray 2008). Sie beharren auf den vormals gelernten Zusammenhängen und sind nicht in der Lage ihr Verhalten den neuen Situationen anzupassen. Ein etwas differenziertes Bild über die Einleitung 26 Verhaltensdefizite nach einer OFC-Läsion ergab sich aus Studien an Ratten. In einem „attentional set-shifting“-Test wurden Ratten im T-Labyrinth 2 verschiedene Stimulus-Paare unterschiedlicher Dimension, d.h. 1. schwarzer vs. weißer Arm und 2. glatte vs. rauhe Oberfläche präsentiert. Ein Stimulus pro Paar war prädiktiv für eine Belohnung, wohingegen der andere Stimulus jeden Paares keine prädiktiven Eigenschaften hatte. Dabei war aber jeweils nur eine Stimulus-Dimension relevant für das Erreichen einer Belohnung. Nach Erlernen der Aufgabe wurden die prädiktiven Eigenschaften der Stimulus-Dimensionen getauscht, sodaß nun das Paar der anderen Stimulus-Dimension prädiktive Eigenschaften für die zu erwartende Belohnung hatte. Dieser „attentional shift“ von einer Dimension zur anderen war den Ratten trotz einer Läsion im OFC möglich. Anschließend wurde die Aufgabe innerhalb einer Dimension umgedreht, so daß ein ehemals mit Belohnung assoziierter Stimulus nun keine Belohnung mehr vorhersagte und umgekehrt. Tiere, deren OFC während des Umlernens temporär läsioniert war, registrierten zwar, daß sich die Stimulus- Belohnungs-Beziehungen geändert hatten, vollzogen jedoch einen extradimensionalen Wechsel zur falschen Strategie. Mit anderen Worten: Sobald die belohnungsprädiktiven Eigenschaften der Stimuli innerhalb einer Dimension gewechselt wurden, also nicht mehr der schwarze (oder rauhe) Arm eine Belohnung beinhaltete sondern der Weiße (oder glatte) waren Tiere mit dysfunktionalem OFC nicht mehr in Lage, diese Aufgabe umzulernen (Ghods-Sharifi et al. 2008). Während schon länger bekannt ist, daß der PFC eine essentielle Rolle bei der Steuerung der Verhaltensflexibilität spielt, konnten die differentiellen Aufgaben der einzelnen Subregionen erst in den letzten Jahren aufgeklärt werden. So ist der mediale Teil des PFC (mPFC) vornehmlich für das Lernen neuer Regeln zuständig - möglicherweise durch die Hemmung früherer erlernter Strategien (Birrell and Brown 2000; Floresco et al. 2006b; Ragozzino et al. 1999). Der OFC hingegen vermittelt eher einfachere Formen der Verhaltensflexibilität (Birrell and Brown 2000; Chudasama et al. 2001; McAlonan and Brown 2003). Eine Fehlfunktion des OFC scheint gemäß den Ergebnissen von Ghods-Sharifi kein generelles Umlerndefizit auszulösen, wie es zunächst die Studien am Menschen und Primaten implizierten (Baxter et al. 2000; Dias et al. 1996; Hornak et al. 2004; Izquierdo et al. 2004; Man et al. 2009; Manes et al. 2002; Meunier et al. 1997; Murray 2008; Rudebeck and Murray 2008). Sie beeinträchtigt vielmehr die Verhaltensflexibilität nur dann, wenn Einleitung 27 das Verhalten an einen intradimensionalen Wechsel der Stimulus-Belohungs- Assoziation angepaßt werden muß. 4.4 Dorsales Striatum Das Striatum ist Teil des Großhirns und bildet die Eingangsstruktur der Basalganglien (z.B. Bolam et al. 2000; Kreitzer and Malenka 2008). Diese sind bekanntermaßen (siehe 4.1) von mehreren funktionellen Regelkreisen durchzogen, die unterschiedliche Aspekte des Verhaltens steuern. Das Striatum ist wesentlicher Bestandteil dieser Schaltkreise und nimmt eine Schlüsselrolle bei der Integration und Weitergabe von kognitiven, motivationalen und emotionalen Gedächtnisinhalten ein (Delgado 2007). Es läßt sich anatomisch in drei große Teilbereiche unterteilen, das Putamen: den N. caudatus und den N. accumbens (z.B. Grahn et al. 2009). Der N. caudatus und das Putamen liegen in der frühen Embryonalentwicklung zusammen und werden erst später durch das Durchwachsen der Capsula interna - der längsten Projektionsbahn des ZNS - getrennt. Durch beide Teile des Striatums ziehen Projektionsbahnen, die aus weißer Substanz bestehen und diesem ein streifenförmiges Muster geben. Deshalb bezeichnet man es als Striatum oder Streifenköper. Der ventrale Teil des Striatums läßt sich sowohl funktionell (Ragozzino 2007; Ragozzino et al. 2009; Worbe et al. 2009), als auch anatomisch (Di Martino et al. 2008; Voorn et al. 2004) von dem Rest abgrenzen. Dieser ventrale Teil wird als ventrales Striatum oder N. accumbens (siehe 4.2) und der restliche dorsale Teil als dorsales Striatum (DS) bezeichnet. Das DS empfängt starke glutamaterge Afferenzen aus dem gesamten motorischen und somatosensorischen Kortex, aber auch dem Assoziationskortex, dem Thalamus, sowie dopaminerge Afferenzen aus der Substantia nigra (Übersicht in Kreitzer and Malenka 2008). Daneben erreichen das DS noradrenerge Afferenzen des L. coeruleus (Devoto and Flore 2006) und serotonerge Afferenzen des N. raphe dorsalis (Waselus et al. 2006), sowie GABAerge Neurone des Globus pallidus externa (Adachi et al. 2002; McGeer et al. 1984). Die eingegangenen Informationen verlassen das DS hauptsächlich auf zwei unterschiedlichen Wegen. GABAerge Neurone mit dem Cotransmitter Substanz P leiten die Informationen vom DS über den „direkten“ Weg zum Globus pallidus interna (Blomeley et al. 2009; Nambu 2009) und weiter zum Einleitung 28 Thalamus, während GABAerge Neurone mit dem Cotransmitter Enkephalin vom DS über einen „indirekten“ weg über den G. pallidus externa (Kita 2007; Martorana et al. 2003; Nambu 2009) und den N. subthalamicus Informationen an den Thalamus weiterleiten (Übersicht in Kreitzer and Malenka 2008). Der indirekte Weg hat eine inhibitorische Wirkung auf den Thalamus, während der direkte aktivierend wirkt. Die Basalganglien üben auf Basis der thalamischen Integration der Informationen aus beiden Signalübermittlungswegen ihre oben beschriebene Filterfunktion aus (siehe 4.1). Dies führt dazu, daß aus den vielen Informationen diejenigen selektiert werden, die für den Organismus aktuell die größte Relevanz besitzen. Das Fehlen dieses Selektionsmechanismus ist insbesondere bei neurodegenerativen Erkrankungen, wie Chorea Huntington, von großer Bedeutung (Kropotov and Etlinger 1999). Bei der Chorea Huntington degenerieren zuerst die GABAergen, Enkephalin-haltigen Efferenzen des indirekten Weges. Dies führt zu einer verstärkten Hemmung des Globus pallidus externa und schließlich zu einer „Enthemmung“ (Disinhibition) des Thalamus. Erst im späteren Verlauf der Erkrankung degenerieren die GABAergen, Substanz-P-haltigen Neurone des „direkten“ Weges (Glass et al. 2000). Aus diesem Grund zeigen Huntington-Patienten zu Beginn der Erkrankung häufig unbewußte, überschießende Bewegungen, und erst in fortgeschrittenem Stadium der Erkrankung dominieren Akinesie und motorische Steifheit. Auf Grund seiner Rolle bei verschiedenen neurologischen Erkrankungen und den damit verbundenen Verhaltensbeeinträchtigungen rückte das Striatum speziell das DS und die Aufgaben, die es bei der Steuerung zielgerichteter Verhaltensweisen spielt in den letzten Jahren immer weiter in den Fokus des neurowissenschaftlichen Interesses. Elektrophysiologische Untersuchungen am Striatum von nicht-humanen Primaten fanden eine Korrelation zwischen der Aktivität striataler Neurone und der erwarteten Belohnungstärke (Cromwell and Schultz 2003) bzw. dem spezifischen Wert einer belohnten Handlung (Lau and Glimcher 2007). Dies implizierte eine essentielle Rolle des Striatums bei der Handlungssteuerung, insbesondere der Anpassung des Verhaltens an handlungsinduzierte Ereignisse. Einen weiteren Hinweis darauf lieferte eine Studie an Ratten. So beeinträchtigten Läsionen verschiedener Teilbereiche des DS die Fähigkeit der Tiere, ihr Verhalten in einer Entscheidungssituation anzupassen und auf den belohnten von zwei präsentierten Hebeln zu drücken (Featherstone and McDonald 2004a; Featherstone and McDonald Einleitung 29 2004b). Dabei konnte zwischen Handlungen gewählt werden, die entweder in der Gabe einer Belohnung resultierten oder nicht. Bereits seit 1989 war aus anatomischen Studien bekannt (McGeorge and Faull 1987; McGeorge and Faull 1989), daß die Teilbereiche des DS ihre Informationen von unterschiedlichen Bereichen des Kortex und den Basalganglien bekommen (McGeorge and Faull 1987; McGeorge and Faull 1989). Dementsprechend unterteilte man das DS in einen lateralen (DLS) und einen medialen Teil (DMS). Aus dieser anatomischen Heterogenität schloß man, daß die verschiedenen Teilbereiche möglicherweise unterschiedliche Beiträge zur Verhaltenssteuerung leisten. Dies untersuchte u.a. auch eine Arbeitsgruppe um Yin und Kollegen. Aus ihren Verhaltenstests geht hervor, daß das DLS eine wichtige Aufgabe bei der Ausführung von Gewohnheitshandlungen zuzuschreiben ist, wohingegen das DMS offenbar eine essentielle Rolle bei der Steuerung des zielgerichteten Verhaltens spielt (Yin and Knowlton 2004). Weitere Unterstützung für diese Hypothese lieferten jüngere Studien an menschlichen Probanden, die feststellten, daß der N. caudatus, die zum DMS der Ratte homologe Struktur (Joel and Weiner 2000) für Vermittlung der Handlungs-Ergebnis- Beziehungen notwendig ist. Das Putamen ist die zum DLS der Ratte homologe Struktur (Joel and Weiner 2000) und kodiert die Verknüpfung von einem Reiz mit einer Handlung unabhängig vom Ergebnis (Grahn et al. 2009). Es steuert also das Gewohnheits- oder auch automatisierte Handeln. Die Verknüpfung zwischen einer Handlung und einem bestimmten Ergebnis spielt auch bei der Entstehung von Suchtverhalten eine wichtige Rolle und wurde in sog. PIT-(„pavlovian to instrumental transfer“) Experimenten untersucht. Dabei erlernten die Tiere zunächst, daß zwei verschiedene visuelle oder auditive Stimuli (StA und StB) prädiktiv für unterschiedliche Belohungen (A und B) waren. Die Tiere lernten in einem zweiten Teilexperiment, daß Handlung A (Drücken eines Hebels) und Handlung B (Ziehen einer Schnur) zu den Belohnungen A und B führte. In einem abschließenden Test untersuchte man, ob StA eher die Handlung zu Erreichen von A oder B verstärkte. Dies wurde analog auch für StB durchgeführt. Es stellte sich heraus, daß StA die Handlung für A und nicht die Handlung für B steigerte. Analoges galt für StB. D.h., das Tier vergleicht offenbar die mit den Stimuli und Handlungen verknüpften Belohnungen. Stimmen sie überein, erfährt das belohnungsgerichtete Verhalten eine deutliche Steigerung. Grundlage dieses Effektes ist, daß die Tiere S-O Einleitung 30 und R-O Assoziationen ausbilden und kombinieren, sowie kongruente und nicht- kongruente Bedingungen unterscheiden lernen. Diesen Effekt bezeichnet man als ergebnisspezifischen PIT. Nach Läsionen des DMS und DLS war diese Form des PIT auf unterschiedliche Weise beeinträchtigt. Eine Läsion des DMS bewirkte, daß Stimuli unabhängig von ihrer Spezifität zu einer Steigerung des Antwortverhaltens führten. Die Tiere konnten offenbar die von den Stimuli kodierten Belohnungen nicht mehr unterscheiden. Daraus hat man geschlossen, daß das DMS für assoziative Lernvorgänge, die insbesondere S-O Verknüpfungen betreffen, relevant ist. Demgegenüber blieb eine Steigerung des Antwortverhaltens bei Darbietung der Stimuli völlig aus, wenn das DLS inaktiviert war. So verhinderte eine Läsion des DLS die Zuordnung eines erlernten Antwortverhaltens zu einem bestimmten Ergebnis, d.h. den ergebnisspezifischen PIT (Corbit and Janak 2007). Daraus schloß man, daß den Tieren die Knüpfung einer S-R Beziehung nicht mehr möglich war und demzufolge das DMS und nicht das DLS eine essentielle Rolle bei der stimulusabhängigen Modulation des Verhaltens und bei der Zuordnung von Stimuli zu spezifischen Ergebnissen spielt. Dieser ergebnisspezifische PIT ist ein wichtiger Mechanismus, der bei einem Rückfall in die Drogensucht eine Schlüsselrolle spielt. So reicht einem ehemals Süchtigen die Präsentation eines Umgebungsreizes, der z.B. für den früheren Einnahmeort der Droge steht aus, um einen Rückfall auszulösen. Eine Studie von Adams und Kollegen (Adams et al. 2001) behauptet allerdings, daß sowohl das DLS, als auch das DMS Stimulus-Handlungs-Beziehungen (S-R) vermittelt und demnach das Verhalten unabhängig von der erwarteten Belohnung steuert. Wäre dem so, dann sollten Läsionen sowohl des DLS, als auch DMS die Ausbildung eines ergebnisspezifischen PITs verhindern und ähnliche Auswirkungen auf das Verhalten haben, indem sie die Bildung von Stimulus-Handlungs-Assoziationen verhindern. Das ist, wie oben gezeigt wurde, nur bedingt so. Beide Läsionen beeinträchtigen zwar die Ausbildung eines ergebnisspezifischen PITs, jedoch unterscheiden sich deren Auswirkungen auf die Verhaltenssteuerung. Eine mögliche Erklärung für die unterschiedlichen Beobachtungen wäre eine funktionelle Heterogenität des DMS. Mit anatomischen Methoden konnten bereits McGeorge und Faull (1987; 1989) nachweisen, daß man im DMS zwischen einem anterioren (aDMS) und einem posterioren (pDMS) Teil unterscheiden kann. Während das aDMS ausschließlich Afferenzen aus dem präfrontalen Kortex erhält, erreichen das pDMS Einleitung 31 darüber hinaus massive Afferenzen aus dem entorhinalen Kortex und der basolateralen Amygdala. Unter den wenigen bisher bekannten Studien zu einer funktionellen Unterteilung sind Studien von Yin und Kollegen aus dem Jahr 2005 (Yin et al. 2005b). In diesen wiesen sie nach, daß nicht das aDMS, sondern das pDMS an der Codierung von Ergebnissen, die mit bestimmten Handlungen assoziiert sind, beteiligt ist. Es wäre daher durchaus denkbar, daß die unterschiedlichen Aussagen zur Funktion des DMS (Adams et al. 2001; Corbit and Janak 2007; Yin et al. 2005) auf die anatomische und funktionelle Heterogenität der Struktur zurückzuführen sind. Darüber, wie diese Informationen in die Modulation des Verhaltens nach der Präsentation belohnungsprädiktiver Stimuli einfließen, ist wenig bekannt und derzeit Ziel intensiver Forschungsarbeit. Zusammenfassend läßt sich sagen, daß das dorsale Striatum eine funktionell heterogene Struktur ist, dessen lateraler und medialer Teil unterschiedliche Beiträge zur Steuerung des Verhaltens leisten. Während das mediale Striatum kognitive Funktionen steuert und insbesondere für das Erlernen von ursächlichen Zusammenhängen von Handlung und Ergebnis wichtig ist, trägt das laterale Striatum maßgeblich zur Ausbildung von Stimulus-Handlungs-Assoziationen bei. Darüber hinaus spielt das DMS eine wichtige Rolle bei der Vermittlung der verhaltenssteuernden Wirkung belohnungsprädiktiver Stimuli. Dennoch sind die Beobachtungen, die zur Rolle des DMS bei der Steuerung des Verhaltens gemacht wurden, zum Teil sehr widersprüchlich. Ein Grund dafür könnte sein, daß das DMS eine heterogene Struktur ist, die sich sowohl anatomisch, als auch funktionell in einen anterioren und posterioren Teil unterteilen läßt. Deshalb ist es durchaus denkbar, daß beide Teilbereiche unterschiedliche Aspekte des Verhaltens steuern. 4.5 Dopamin Einen der wichtigsten Neurotransmitter der Basalganglien stellt Dopamin (DA) dar. DA gehört mit Adrenalin und Noradrenalin zu den Catecholaminen. Diese sind als Neurotransmitter und Neuromodulatoren essentiell für die neurochemische Signaltransduktion im Gehirn von Wirbeltieren. Einleitung 32 4.5.1 Anabolismus DA ist ein Zwischenprodukt aus dem Syntheseweg von Adrenalin und wird im Cytoplasma catecholaminerger Neurone gebildet. Zuerst entsteht - katalysiert durch die Tyrosinhydroxylase (TH) - aus der Amminosäure L-Tyrosin durch Abspaltung eines Wassermoleküls Levodopa (L-DOPA). L-DOPA ist bekannt geworden als ein Pharmakon, das bei der Therapie der Parkinsonschen Erkrankung Anwendung findet. Aus L-DOPA entsteht dann durch die L-Tyrosin-Decarboxylase Dopamin. An dieser Stelle endet die Synthese im dopaminergen Neuron. In adrenergen oder noradrenergen Neuronen läuft die Synthese weiter und durch die Dopamin-β- Hydroxylase und Abspaltung eines Wassermoleküls wird aus DA Noradrenalin und in einem weiteren Syntheseschritt durch die Methylierung von Noradrenalin Adrenalin. Die Tyrosinhydroxylase, die in dopaminergen, noradrenergen und adrenergen Neuronentypen vorkommt, läßt sich mit Hilfe spezifischer Antikörper in einer immunhistochemischen Färbung nachweisen. 4.5.2 Katabolismus DA wird sowohl in den synaptischen Spalt, als auch in den interstitiellen Raum abgegeben. Da es schon in sehr geringen extrazellulären Konzentrationen (< 1µM bei D2-Rezeptoren) die DA-Rezeptoren aktiviert, unterliegt es einer strengen Kontrolle. Freigesetztes DA wird sehr schnell durch Wiederaufnahmemechanismen in die Präsynapse aufgenommen und abgebaut. Hauptsächlich zwei Enzyme regeln den Abbau von Dopamin. Zum einen die in der Mitochondrienmembran lokalisierte Monoaminooxidase (MAO) und zum anderen die cytoplasmatische (S-COMT) und membranständige (MB-COMT) Catechol-O-Methyltransferase (COMT). Wird DA abgebaut, wird in einem ersten Schritt aus DA DOPAC, indem eine Aminogruppe entfernt und durch eine Carboxylgruppe ersetzt wird. Dieser Schritt wird durch die MAO katalysiert. In einem zweiten Schritt wird dann DOPAC zu Homovanillinsäure, indem die COMT eine endständige Methylgruppe auf DOPAC überträgt (Kruk and Pycock 1991). Beide katabolische Metaboliten lassen sich neben DA sehr gut mit Hilfe der Mikrodialyse nachweisen, da sie in hoher Konzentration vorliegen. Einleitung 33 Abbildung 5: Schematische Darstellung der DA-Freisetzung sowie des Wiederaufnahmemechanismus. DA wird in catecholaminergen Neuronen gebildet und dort nach Depolarisation der präsynaptischen Membran durch Verschmelzung der synaptischen Vesikel mit der Plasmamembran freigesetzt. Die Wiederaufnahme erfolgt über den DA-Transporter (DAT) an der präsynaptischen Membran. Intrazellulär wird DA dann entweder weiter verstoffwechselt, oder erneut in synaptische Vesikel verpackt, um dort wieder für eine neue Signaltransduktion zur Verfügung zu stehen (aus Aktories et al. 2005). 4.5.3 Dopamin-Rezeptoren Dopamin-Rezeptoren befinden sich auf dem ganzen Neuron sowohl im synaptischen Spalt, insbesondere aber extrasynaptisch. Man unterscheidet grundsätzlich zwei Klassen von Dopamin-Rezeptoren. Exzitatorische und inhibitorische Rezeptoren. Rezeptoren der D1/D5-Gruppe (kurz: D1-Gruppe) kommen hauptsächlich extrasynaptisch vor (Caille et al. 1996) und wirken auf die intrazelluläre Signalkaskade exzitatorisch, indem sie das nachfolgende G-Protein aktivieren und in der Folge über eine vermehrte Freisetzung intrazellulärer Proteine zu einer Verstärkung der neuronalen Aktivität führen. Rezeptoren der anderen D2/D3/D4- Gruppe (kurz: D2-Gruppe) können sowohl prä-, als auch postsynaptisch vorkommen. Gliazelle DA- Neuron Einleitung 34 Sie sind überwiegend innerhalb der Synapse lokalisiert (Carlson 2004), kommen aber auch extrasynaptisch vor (Schultz 1998). Präsynaptische D2-Rezeptoren fungieren auch als Autorezeptoren, indem sie die DA-Freisetzung aus dem dopaminergen Neuron hemmen. Sie wirken inhibitorisch auf das intrazelluläre G-Protein. Eine Aktivierung dieser Rezeptoren führt folglich zu einer Hemmung der intrazellulären Proteinsynthese. 4.5.4 Dopamin-Freisetzung DA wird an den Axonterminalen der DAergen Neuronen freigesetzt. Allerdings werden laut Schultz (Schultz 1998) lediglich 30-40% des Dopamins in den synaptischen Spalt ausgeschüttet. Die dominierende Art ist vielmehr die Freisetzung an sogenannten Varikosiäten. Als Varikositäten werden hier perlschnurartige Ausbuchtungen im Axon bezeichnet, an denen Dopamin nicht in einen synaptischen Spalt ausgeschüttet wird, sondern direkt in den Extrazellulärraum (Grace 2008). Die Ausschüttung in den synaptischen Spalt geschieht über eine Fusion von dopaminhaltigen Vesikeln mit der präsynaptischen Membran infolge eines potentialabhängigen Einstroms von Calciumionen in die Präsynapse. DA bindet daraufhin an Rezeptoren und löst dadurch eine intrazelluläre Signalkaskade aus. Die DA-Rezeptoren können entweder auf der postsynaptischen Membran lokalisiert sein und die Aktivität der Rezeptor-tragenden Neurone modulieren, oder auf den eigenen Terminalen (Autorezeptoren). Die Aktivierung der Autorezeptoren hat eine Beendigung der DA-Freisetzung zur Folge. Die DA-Freisetzung wird also mit Hilfe der negativen Rückkopplung durch freigesetztes DA reguliert. Die Verweildauer von Dopamin im synaptischen Spalt wird durch verschiedene Mechanismen gesteuert. Entweder wird DA über einen DA-Transporter (DAT) wieder in die Zelle aufgenommen und wiederverwendet (Reuptake), oder dort enzymatisch abgebaut (s. Katabolismus). Der Reuptake-Mechanismus stellt eine Komponente der räumlichen und zeitlichen Begrenzung der DA-Freisetzung dar (Grace 1995; Zoli et al. 1998). Dabei wird DA wiederverwendet, indem es über einen Monoamintransporter (VMAT) erneut in Vesikel gepackt wird. Eine weitere Möglichkeit der Regulation ist, daß DA aus dem synaptischen Spalt heraus diffundiert (Rice and Cragg 2004). Diese tonische Freisetzung von DA resultiert in einer extrasynaptischen DA-Konzentration, die Einleitung 35 ungefähr 0,01% der Konzentration im synaptischen Spalt entspricht (Grace et al. 2007). Die extrazelluläre Diffusion ist allerdings in Arealen mit DAT-reichen Terminalen eher gering, da ausgeschüttetes DA sofort wieder ins Zellinnere transportiert wird. Sind auf den Terminalen wenige DAT lokalisiert, so spielt die Diffusion eine wichtigere Rolle bei der Neurotransmission. DA-Moleküle treffen dann erst nach einer gewissen Diffusionsstrecke durch den interstitiellen Raum auf einen Rezeptor und aktivieren diesen. Man spricht in diesem Fall von einer „offenen Synapse“ oder einer „offenen“ Transmission (Zoli et al. 1998). Diese Transmission wird auch als Volumentransmission bezeichnet (Agnati et al. 1995) und spielt zum Beispiel im präfrontalen Kortex eine nicht unerhebliche Rolle (Sesack et al. 1998). Auch im ventralen Striatum wird dieser Art der dopaminergen Signalübertragung eine wichtige Rolle zugesprochen (Garris et al. 1994) Die Menge des ausgeschütteten Dopamins in vivo und die Konzentration im Extrazellularraum hängen neben der Feuerrate, also der Frequenz an Aktionspotentialen, auch vom zeitlichen Muster der Freisetzung ab. So kann die DA- Freisetzung bei gleichbleibender Frequenz beträchtlich erhöht werden, wenn kurze Salven, gefolgt von Intervallen ohne Aktionspotentiale auftreten (Suaud-Chagny et al. 1992). Dieses tonische und phasische Signal der Dopamin-Freisetzung ist auf eine komplexe Art und Weise miteinander verbunden. Die Arbeitsgruppe um Grace (Grace et al. 2007) konnte am Beispiel des NAC zeigen, daß die Interaktion von phasischem und tonischem DA-Signal möglicherweise zu einer Selektion der Eingangssignale und folglich zu einer Auswahl der korrekten Antwortstrategie in Situationen führt, wo die optimal zielführende aus verschiedenen Strategien gewählt werden muß. 4.5.5 DA-Rezeptorliganden Für Verhaltensmessungen ist es von großem Vorteil, Substanzen an der Hand zu haben, die entweder eine ähnliche Wirkung auf die DA-Rezeptoren haben wie DA selber, oder die Fähigkeit besitzen, mehr oder weniger spezifisch bestimmte Gruppen von DA-Rezeptoren zu blockieren. 4.5.5.1 SCH23390 SCH23390, (R-(+)-8-chloro-7-hydroxy-2,3,4,5-tetrahydro-3-methyl-5-phenyl-1H-3- benzazepin-ol), ist ein kompetitiver DA-Antagonist, der D1 -Rezeptoren blockiert. Er Einleitung 36 ist äußerst selektiv und hat wenn überhaupt dann nur sehr geringen Einfluß auf die D2-Rezeptoren. Er wird auf Grund seiner hohen D1-Selektivität sehr häufig in Verhaltenstests, aber auch anderen tierexperimentellen Studien eingesetzt. Er löst dosisabhängig Katalepsien aus und ist in der Lage, die neurophysiologischen Wirkungen von indirekten DA-Agonisten wie Kokain zu antagonisieren, indem es in die intrazelluläre, Kokain -induzierte Genexpression eingreift und diese als Antwort auf die Drogenapplikation verhindert (Guan et al. 2009). 4.5.5.2 Racloprid/Eticloprid Racloprid, (3,5-dichloro-N-{[(2S)-1-ethylpyrrolidin-2-yl]methyl}-2-hydroxy-6- methoxybenzamid), und Eticloprid, (3-chloro-5-ethyl-N-{[(2S)-1-ethylpyrrolidin-2-yl] methyl}-6-hydroxy-2-methoxybenzamid), sind kompetitive Antagonisten der D2- Rezeptoren. Beide haben vergleichbare Eigenschaften und eine hohe Selektivität für die Rezeptoren der D2-Gruppe. Racloprid (11C-Racloprid) wird im humanmedizinischen Bereich oftmals für die PET-Bildgebung verwendet, um Erkrankungen zu identifizieren, die mit einer erhöhten DA-Transmission einhergehen (z.B. ADHD). 4.5.5.3 6-Hydroxydopamin 6-Hydroxydopamin (6-OHDA) ist ein synthetisches Neurotoxin, das von Neurowissenschaftlern verwendet wird, um dopaminerge und noradrenerge Neurone selektiv zu zerstören. Ist die Zerstörung noradrenerger Neurone nicht gewünscht, läßt diese sich durch Gabe von selektiven Nordrenalin-Wiederaufnahmehemmern wie z.B. Desipramin verhindern. 6-OHDA wird als DA-Analogon über den DA-reuptake Transporter (DAT) in die Zelle aufgenommen, um dann intrazellulär durch die MAO und die COMT katabolisiert zu werden. Bei diesem Prozeß entstehen freie Sauerstoffradikale, die schließlich durch Hemmung der Atmungskette zur Apoptose des dopaminergen/noradrenergen Neurons führen. 6-OHDA wird häufig eingesetzt, um bei Mäusen und Ratten eine Parkinson- Symptomatik hervorzurufen. Einleitung 37 4.5.6 Dopamin-System und Lernen Die Basalganglien werden hauptsächlich von drei Arealen aus dem Mittelhirn dopaminerg innerviert: der Substantia nigra pars compacta (SNc), dem ventralen Tegmentalen Areal (VTA) und dem Retrorubralen Areal (RRA). Axone dieser dopaminergen Neurone projizieren im medialen Vorderhirnbündel oder über die Capsula interna in verschiedene Regionen des Vorderhirns. Daher spricht man auch vom „aufsteigenden“ Dopamin-System (Fuxe et al. 1985) (Abbildung 6). Dabei wird zwischen dem nigrostriatalen System, das von der SNc ausgeht und in das dorsale Striatum (DS) projiziert, dem mesolimbischen System, das vom VTA zum ventralen Striatum projiziert und dem mesocorticalen System, das ausgehend von der VTA Areale des frontalen Kortex innerviert, unterschieden (Janhunen and Ahtee 2007). Eine strikte funktionelle Trennung ist jedoch unmöglich, da alle drei Systeme bei der Steuerung verschiedener kognitiver Prozesse massiv interagieren (Gonzalez-Burgos and Feria-Velasco 2008; Parent 1990). Abbildung 6: Schematische Darstellung der DAergen Innervation des Gehirns. DA-Neurone konnten in 9 Arealen des Säugetiergehirns nachgewiesen werden. Die Numerierung der Areale wurde entsprechend einer Studie von Dahlström und Fuxe (1964) gewählt. (Abbildung modifiziert nach Bjorklund and Dunnett 2007). A8 = Retrorubrales Areal; A9 = Substantia nigra pars compacta; A10 = ventrales tegmentales Areal; A11 = posteriorer Hypothalamus; A12 = Nukleus arcuatus; A13 = subthalamischer Nukleus; A14 = anteriorer Hypothalamus; A15 = Rostraler Hypothalamus; A16 = bulbus olfactorius. Einleitung 38 Trotz der relativen Seltenheit von DA-Neuronen im ZNS (<1%) im Vergleich zu anderen Neuronen des ZNS (z.B. Glutamat (~2%), GABA (~90%)) (Kandel et al. 2000), ist es an der Steuerung einer Vielzahl von Verhaltensweisen beteiligt. Verschiedenste neuropathologische Erkrankungen, die in einem dysfunktionalen DA- System begründet sind, äußern sich symptomatisch durch im Krankheitsverlauf immer gravierender werdende Ausfälle des motorischen Systems („restless-leg“- Syndrom, Morbus Parkinson, Chorea Huntington, AD(H)S) (Barbeau 1970; Fahn and Sulzer 2004; Nikolaus et al. 2009). Vor allem beim Morbus Parkinson kann dies bis zur völligen Bewegungslosigkeit führen. Daneben ist DA aber auch an der Steuerung von motivationalen und emotionalen Prozessen beteiligt (zur Übersicht siehe (Berridge and Robinson 1998) und spielt bei der Entstehung von Suchtverhalten eine wichtige Rolle (Dackis and Gold 1985; Wise and Bozarth 1987). Dies führte in der jüngeren Vergangenheit dazu, daß man sich verstärkt mit dem Neurotransmitter DA und den Funktionen beschäftigte, die DA bei der Vermittlung unterschiedlicher motorischer Abläufe, aber auch bestimmter Lern- und Gedächtnisinhalte erfüllt. Man erhofft sich, durch tiefere Einblicke in die Entstehung verschiedenster neurodegenerativer Erkrankungen die Früherkennung solcher Krankheiten zu verbessern und möglicherweise neue Therapieansätze entwickeln zu können. Der Fokus lag dabei zu Beginn primär auf den motorischen Defiziten (Barbeau 1972), die z.B. im Falle der Chorea Huntington, welche auf Defekten der striatofugalen, DA- rezeptortragenden Neuronen beruht, oder Morbus Parkinson, bei dem die DA- Neurone der SNr und VTA degenerieren, deutlich zu Tage traten (Abb. 2). Erst später entdeckte man, daß eine Degeneration des dopaminergen Systems auch gravierende Defizite im (Lern-)verhalten zur Folge hat (z.B. (Pirozzolo et al. 1982; Saint-Cyr et al. 1988). Einige wichtige Theorien zur Funktion von DA, die für diese Arbeit relevant sind, sollen hier kurz skizziert werden. Zunächst vermutete man, daß DA hauptsächlich an der Steuerung von motorischen Funktionen beteiligt sei (Barbeau 1972). Koob erweiterte diese Überlegungen und stellte fest: „Das DA-System ist ein Motorsystem höherer Ordnung, nicht mehr und nicht weniger“ (Koob 1982, zitiert aus Wise 2008). Bewegungsabläufe, wie das Durchlaufen eines Labyrinthes, das Drücken eines Hebels oder das Aufsuchen bestimmter Orte, können durch das Eintreten eines für das Tier positiven Ereignisses verstärkt werden. In verschiedenen Studien entfiel Einleitung 39 diese Verhaltensverstärkung, sobald das dopaminerge System beeinträchtigt war (Bozarth and Wise 1981; Spyraki et al. 1982a; Spyraki et al. 1982b; Wise 1978). Aus diesen Beobachtungen entstand die Idee des „stamping in“, oder auch „positive reinforcement“. Diese Idee besagt, daß DA eine essentielle Rolle bei der initialen Verknüpfung eines Stimulus mit der entsprechenden Belohnung spielt. Diese Theorie ist, trotz der Einschränkungen, die Studien in neuerer Zeit brachten, allgemein als eine wichtige Hypothese zur Funktion von DA akzeptiert, obgleich nicht nur DA für die positive Verstärkung von Verhaltensweisen verantwortlich ist (Brown et al. 1997; Carlezon and Wise 1996; Jenner 2003). Nahezu zeitgleich mit Koob konstatierte Wise, daß im NAC unter Beteiligung von DA der „Anreizwert“ einer Belohnung generiert wird (Wise 1980; Wise and Bozarth 1982). Wise vertrat die Hypothese, daß DA-Antagonisten die hedonische Wirkung von natürlichen Belohnungen auf das Verhalten blockierten (Wise 1978; Wise and Bozarth 1982). Sie wurde daher als „Anhedonie-Hypothese“ bezeichnet. In der folgenden Zeit kamen erste Zweifel an dieser Hypothese auf, so daß Wise in einer Arbeit von 1982 bereits eine Modifikation der ursprünglichen These vorschlug, indem er feststellte: „dopaminergic impairment disrupts first and most strongly the motivational arousal function of external rather than internal stimuli“ (Wise 1978). Obwohl Wise 10 Jahre später selber Abstand von seiner ursprünglichen These (Wise 1994) nahm, ist die Anhedonie-Hypothese weiterhin Gegenstand aktueller Forschungsarbeiten. In zahlreichen Studien wurde eine starke Aktivierung des mesolimbischen DA-Systems als Antwort auf „pleasant rewards“, wie Essen, Sexualpartner oder Drogen gemessen (Aragona et al. 2006; Becker et al. 2001; Everitt and Robbins 2005; Fiorino et al. 1997; Koob 2006; Roitman et al. 2004; Small et al. 2003; Thut et al. 1997; Volkow et al. 2005). Außerdem wird DA in vielen wissenschaftlichen Artikeln als „brain`s pleasure neurotransmitter“ bezeichnet (Wickelgren 1997). Andere Studien widersprechen allerdings dem Bild von DA als „Quelle der Freude“ („liking“). Sie zeigen das DA-Signal vielmehr als „Quelle des Verlangens“ („wanting“). Berridge etwa zeigte an Ratten, bei denen er die Rezeptoren für DA blockiert hatte, daß sie zwar nicht mehr aus eigenem Antrieb fraßen, doch wenn man sie zur Aufnahme einer süßen Lösung zwang, sie deutliche Zeichen für Wohlempfinden zeigten. Sie mochten Süßes weiterhin („liking“), wollten es aber nicht mehr („wanting“) (Berridge 2000). Dem gegenüber stehen zahlreiche Einleitung 40 Studien aus der jüngeren Vergangenheit, die versuchten nachzuweisen, daß DA das „Liking“ steuert (Cagniard et al. 2006; Pecina et al. 2003; Tindell et al. 2005; Wyvell and Berridge 2000). In allen durchgeführten Studien wurde allerdings nur das „Wanting“ beeinflußt, nicht aber das „Liking“. Weitere Hinweise dafür, daß nicht DA, sondern andere Neurotransmittersysteme an der Vermittlung der hedonischen Wirkung von Stimuli beteiligt sind, lieferten Studien, die eine Veränderung im „Liking“ und nicht im „Wanting“ nach Eingriffen in die Opioid-, Cannabinoid und GABA- Signaltransduktion sahen (Berridge and Pecina 1995; Jarrett et al. 2005; Kaczmarek and Kiefer 2000; Parker 1995; Parker et al. 1992). DA schien demnach also ausschließlich das „Wanting“ zu vermitteln und hatte keinen Einfluß auf das „Liking“. Berridge und Robinson prägten dafür den Begriff des „incentive salience“ (Berridge and Robinson 1998), als eine von Motivation und Belohnung zu unterscheidende Komponente der Verhaltenssteuerung. Mit anderen Worten: DA ist notwendig für das „Wollen“ einer Belohnung, nicht aber für das „Mögen“. Diese Erkenntnis ist auch für das Verständnis der Entstehung von Suchtverhalten von essentieller Bedeutung: Durch den Konsum suchtauslösender Substanzen, wie z.B. Kokain, das durch Blockade des DAT den DA-reuptake verhindert, oder Nikotin, das durch Bindung an ACh-Rezeptoren zu einer verstärkten DA-Ausschüttung führt oder auch Amphetamin, durch das die DA-Freisetzung stimuliert wird, wird die Konzentration von DA im synaptischen Spalt erhöht. Als Folge sind die Funktionen, die DA bei der Steuerung des Verhaltens vermittelt, deutlich verstärkt. Durch die pathologische Steigerung des „incentive salience“ im Laufe der fortdauernden Aufnahme der suchtauslösenden Substanz wird die Droge in der Folge trotz der immer stärker werdenden negativen Begleiterscheinungen immer stärker „gewollt“, aber immer weniger „gemocht“ (Robinson and Berridge 1993). Allein die Präsentation eines Stimulus, der prädiktiv für das erwartete Suchtmittel ist, reicht aus, um eine Aktivierung des dopaminergen Systems auszulösen (Übersicht in Schultz 1998). Der Anreizwert einer Belohnung, egal ob - wie zuvor beschrieben - einer Droge oder einer natürlichen Belohnung, geht auf den Stimulus über, der diese Belohnung sicher vorhersagt. In verschiedenen Lernversuchen wird dieses Phänomen untersucht. So verstärkt ein klassisch konditionierter Stimulus, der eine Belohnung, wie z.B. Futter vorhersagt, instrumentelle Verhaltensweisen, die ebenfalls zu diesem Futter führen. Dieses Phänomen wird als „pavlovian to instrumental transfer“ oder auch PIT bezeichnet Einleitung 41 (Corbit and Janak 2007; Homayoun and Moghaddam 2009; Lex and Hauber 2008) (siehe auch 4.4). Eine andere Hypothese zur Rolle von DA postuliert, daß DA-Signale für assoziative Lernvorgänge wichtig sind. Laut dieser Theorie spielt DA eine essentielle Rolle bei der Verknüpfung eines Stimulus mit einer entsprechenden Belohnung (z.B. Bassareo et al. 2007; Day et al. 2007; Yin and Knowlton 2006). Die Präsentation des konditionierten Stimulus kann Handlungen und Verhaltensweisen auslösen und verstärken, die zu der erwarteten Belohnung führen. Um allerdings diese Verhaltensweisen auslösen zu können, muß eine Repräsentation derjenigen Belohnung vorhanden sein, die nach Ausführen der instrumentellen Handlung erwartet wird. Tritt das „vorhergesagte“ Ergebnis (Belohnung) nicht ein, müssen die Repräsentationen aktualisiert und das Verhalten der geänderten Situation angepaßt werden. Elektrophysiologische Messungen zeigen, daß die Aktualisierung von Repräsentationen möglicherweise auf Signalen dopaminerger Neurone beruht (Schultz 1998; Schultz et al. 1997). In den Studien von Schultz und Kollegen wurde ein klassischer Stimulus (Ton) einige Zeit vor der Gabe einer Belohnung eingespielt. Zu Beginn des Experimentes zeigten die abgeleiteten Neurone eine Aktivierung auf die Belohnungsgabe hin. Im Laufe des Versuchs „wanderte“ diese Aktivierung hin zu dem Stimulus, der diese Belohnung vorhersagte. Erfolgte dann allerdings zu dem erwarteten Zeitpunkt keine Belohnungsgabe, zeigten die Neurone eine deutliche Aktivitätsverringerung (Abb. 6). Dies ließ Schultz vermuten, daß die Signale dieser Neurone, die er als DA-Neurone identifizierte (Schultz et al. 1997), eine „Vorhersage“ für bestimmte zukünftige Ereignisse repräsentierten. Daraus entwickelte er die sog. „Vorhersagefehlertheorie“. Diese besagt, daß DA-Neurone Änderungen am Zusammenhang zwischen Stimulus, Antwort und Belohnung registrieren und diese Informationen weitergeben, um Verhaltensweisen an geänderte Umgebungsbedingungen anzupassen. Diese neuronalen Signale konnten in den Ursprungsarealen des DAergen Systems wie der VTA und der Substantia nigra (Hollerman and Schultz 1998), aber auch den DAerg innervierten Zielgebieten, wie dem ventralen Striatum (Schultz et al. 1992), dem dorsalen Striatum (Lau and Glimcher 2007; Lauwereyns et al. 2002) und dem orbitofrontalen Kortex (Rolls 2000) beobachtetet werden. Auch zeigen Verhaltensstudien an Ratten mit Beeinträchtigungen des dopaminergen Systems in verschiedenen Arealen des Einleitung 42 Striatums (Haluk and Floresco 2009; O'Neill and Brown 2007), aber auch des Kortex (z.B. Floresco et al. 2006) eingeschränkte Fähigkeiten der Tiere, ihr Verhalten flexibel, entsprechend neuer Zuordnungsregeln, anzupassen. Diese Beobachtungen stehen in Einklang mit der Vorhersagefehlertheorie. Dabei ist aber nicht nur die Flexibilität des Verhaltens eingeschränkt, sondern auch die Fähigkeit, verschiedene Belohnungsqualitäten, -stärken und -wahrscheinlichkeiten auseinanderzuhalten (z.B. (Glimcher 2003; Stefani and Moghaddam 2006). Abbildung 7: DA-Neurone kodieren eine Belohnung entsprechend dem Fehler in der Belohnungserwartung. Oben: Eine Belohnungsgabe erfolgt ohne vorherigen Stimulus. Dies führt dazu, daß die Neurone durch den „positiven“ Vorhersagefehler mit einer Aktivitätssteigerung reagieren. Mitte: Ein Stimulus ist prädiktiv für die Belohnung und die Belohnungsgabe erfolgt entsprechend der Erwartung. Die DA- Neurone zeigen eine Aktivierung auf den prädiktiven Stimulus hin, ungeachtet dessen, ob eine Belohnungsgabe erfolgt oder nicht. Unten: Auf den belohnungsprädiktiven Stimulus hin reagieren die DA-Neurone mit einer Aktivitätserhöhung. Erfolgt zum vorhergesagten Zeitpunkt keine Belohnungsgabe antworten die Neurone mit einer deutlichen Aktivitätsminderung. (Modifiziert nach Schultz 1998). So zeigten erstmals Tobler und Kollegen (Tobler et al. 2005) einen Zusammenhang zwischen dem DA-Signal und unterschiedlichen Belohnungsqualitäten/-stärken. Sie untersuchten Affen, denen als Belohnung unterschiedliche Konzentrationen einer Einleitung 43 Zuckerlösung präsentiert wurden. Tobler wies durch elektrophysiologische Untersuchungen nach, daß die DA-Neurone des Mittelhirns durch Änderungen ihrer Aktivität dabei auch Informationen über die unterschiedlichen Belohnungsstärken kodierten. Dabei zeigte er auch, daß die DA-Neurone durch ihre Signale nicht die Information über die absolute Menge einer Belohnung kodierten, sondern das Verhältnis der aktuellen zur erwarteten Belohnungsstärke. Das DA-Signal scheint also nicht nur Informationen über den Zeitpunkt einer Belohnungsgabe zu kodieren, sondern auch Informationen über Belohnungsstärke und -qualität. Darüber hinaus scheint das DA-Signal auch die Wahrscheinlichkeit zu kodieren, mit der ein Stimulus zu einer Belohnung führt (Fiorillo et al. 2003; Nakahara et al. 2004; Schultz et al. 2008; Stefani and Moghaddam 2006). Daneben sind im DA-Signal Informationen über Assoziationen des aktuellen physiologischen Zustandes des Organismus - z.B. den Hungerstatus - mit dem biologischen Wert der zu erwartenden Belohnung - z.B. dem Nährwert - enthalten (Berridge and Robinson 2003). Leider ist derzeit noch wenig darüber bekannt, wie diese Informationen in den verschiedenen Zielgebieten der dopaminergen Projektionen verarbeitet werden und welchen Beitrag sie zur Steuerung des Verhaltens leisten (z.B. Berridge and Robinson 2003; Übersicht in Salamone 2009). DA wirkt also auf vielfältige Art und Weise an der Steuerung sehr unterschiedlicher Verhaltensweisen mit. Dementsprechend gibt es eine große Anzahl verschiedener, sich teilweise widersprechender Hypothesen zu seiner Funktion. Dies ist zum einen die anfangs erwähnte „Anhedonie-Hypothese“, die jedoch in der Zwischenzeit mehrfach durch Studien, bei denen Eingriffe in das DAerge System nur das „Wanting“, nicht aber das „Liking“ beeinflußten, widerlegt wurde (Cagniard et al. 2006; Pecina et al. 2003; Tindell et al. 2005; Wyvell and Berridge 2000). Trotzdem findet diese Theorie heutzutage immer noch zahlreiche Anhänger. Zum anderen ist dies die Hypothese des „incentive salience“, die DA eine modulierende Funktion bei der Verarbeitung des Anreizwertes einer Belohnung zuspricht. Zuletzt soll die Theorie des Vorhersagefehlers Erwähnung finden. Laut dieser Theorie „vergleichen“ DA- Neurone Informationen über die aktuelle Situation mit der Vorhersage, um gegebenenfalls zukünftiges Verhalten anzupassen. Grundsätzlich läßt sich aber resümieren, daß DA bei unterschiedlichen Hirnfunktionen, unterschiedliche Rollen spielt. Einleitung 44 Der Zeitverlauf DAerger Signale reicht von einigen ms bis hin zu größeren Perioden von mehreren Stunden. Kurzzeitige DA-Signale im Subsekunden-Bereich übermitteln Informationen über Belohnungen und belohnungsprädiktive Stimuli. Betrachtet man größere Zeitabschnitte im Minuten- bis Stundenbereich, ist der extrazelluäre DA- Spiegel oft konstant. Auch dieser konstante extrazelluläre DA-Spiegel scheint für zahlreiche Funktionen wichtig zu sein. Wird er geringer, kann dies zum Ausfall bestimmter kognitiver Funktionen wie z.B. der Aufmerksamkeit führen. Die Anwesenheit von DA führt dabei zu einer Modulation von Neuronen, die für solche kognitiven Leistungen essentiell sind. Dies bezeichnet man als die sogenannte „Enabling“-Funktion von DA. In anderen Zeitfenstern werden von DA-Neuronen weitere Informationen übertragen, wie z.B. die Vermittlung der Wahrscheinlichkeit, mit der eine Belohnungsgabe erfolgt (im Bereich von Sekunden), oder auch die Repräsentationen von belohnungsbezogenen Informationen, die über Mikrodialyse oder Voltametrie gemessen werden können (Sekunden bis Minuten). 4.6 Glutamat Ein weiterer wichtiger Neurotransmitter der Basalganglien ist das Glutamat. L- Glutamat ist das unter physiologischen Bedingungen vorliegende Salz der Glutaminsäure (α-Aminoglutarsäure). Es wird angenommen, daß mehr als die Hälfte aller Neuronen im Gehirn Glutamat freisetzen (Hanser 2001). Aus diesem Grund gilt Glutamat als wichtigster Neurotransmitter des Gehirns. 4.6.1 Anabolismus Die Biosynthese von L-Glutamat erfolgt durch eine von der Glutamatdehydrogenase katalysierte Transaminierung der α-Ketoglutarsäure, einem Zwischenprodukt des Citratzyklus (Berg et al. 2007). Dies geschieht im Organismus vorwiegend in den Zellen der Leber, der Lunge, der Niere und in den Neuronen des Zentralnervensystems. Da jedoch Glutamat die Blut-Hirn-Schranke nicht passieren kann, wird das gesamte im Zentralnervensystem vorkommende Glutamat ausschließlich in Neuronen und Gliazellen synthetisiert. Es kann in den Neuronterminalen auf zwei zusätzlichen Wegen synthetisiert werden. Zum einen entsteht es im Zitratzyklus durch Transaminierung von α-Oxoglutarat, einer Reaktion, Einleitung 45 die durch die Glutamat-Synthase katalysiert wird. Zum anderen wird es in den Nervenendigungen durch Hydrolysierung von Glutamin mit Hilfe der Glutaminase synthetisiert, das aus dem Extrazellularraum in das Neuron gelangt. Dieser Synthese- Schritt wird durch die Aktivität der Glutaminase und der Glutamin-Aufnahme in die Nervenendigung reguliert. Ebenso wie bei anderen Neurotransmitter-Systemen - wie z.B. dem Acetylcholin- oder DA-System - findet hier eine Endprodukt-Hemmung der Synthese durch das Endprodukt Glutamat statt (Cooper et al. 2004). In einer weiteren Reaktion entsteht dann durch Decarboxylierung aus dem „erregenden“ Neurotransmitter Glutamat γ-Aminobuttersäure, ein Transmitter mit überwiegend „hemmenden“ Eigenschaften. Das synthetisierte Glutamat wird in synaptischen Vesikeln angereichert und wird nach einer Depolarisation der Axonterminale freigesetzt 4.6.2 Katabolismus Aus dem synaptischen Spalt wird Glutamat wieder in das präsynaptische Neuron oder die Gliazellen aufgenommen (reuptake). Die Konzentration an extrazellulärem Glutamat wird dabei von metabotropen Glutamat-Rezeptoren kontrolliert (Hanser 2001). Es wird hauptsächlich durch einen hochaffinen, transmembranären Glutamat- Transporter (EAAT - excitatory amino acid transporter) wieder zurück in die Zellen transportiert, der überwiegend auf den umliegenden Gliazellen und nur in geringem Umfang auf den Neuronen selbst lokalisiert ist. Nach Kontakt mit dem erregenden Neurotransmitter Glutamat aktivieren die Gliazellen den Glutamat-Transporter, der das Glutamat durch einen Na+-abhängigen Symport mit hoher Geschwindigkeit aus dem synaptischen Spalt entfernt. Nachfolgend können dann unterschiedliche Reaktionen ablaufen. Zum einen kann Glutamat in den Gliazellen mit Hilfe der Glutamin-Synthetase über eine Amidierung in Glutamin überführt werden, welches dann über einen Aminosäure-Transporter wieder in die umliegenden Neurone zurücktransportiert werden kann, wo es anschließend zur erneuten Glutamatsynthese zu Verfügung steht (Glutamat-Glutamin-Zyklus). Zum anderen besteht auch die Möglichkeit, daß Glutamin in den Gliazellen zu α-Ketoglutarat oxidiert und zurück in die Axonterminalen transportiert wird, um das durch die Glutamat-Synthese verlorengegangene α-Ketoglutarat zu ersetzen. Die wichtigste Funktion der Einleitung 46 Wiederaufnahme ist in jedem Fall, die synaptische Übertragung rasch zu beenden, um die Erregungszeit des postsynaptischen Neurons zu begrenzen. Auf diese Weise sind Astrozyten an der Informationsverarbeitung an der Synapse beteiligt (Hanser 2001; Squire 2008). Abbildung 8: Schematische Darstellung der glutamatergen Signaltransduktion. Glutamat wird im Gehirn in Gliazellen und Neuronen synthetisiert. Es entsteht dort durch Transaminierung von Glutamin. Nach der Synthese wird es in synaptische Vesikel verpackt und wird bei Eintreffen eines Aktionspotentials über die Verschmelzung des Vesikels mit der präsynaptischen Membran in den synaptischen Spalt freigesetzt. Die Aufnahme wird über einen hochaffinen transmembralen Glutamattransporter in die Gliazellen oder Neuronen zurücktransportiert und dort entweder direkt wieder in Vesikel verpackt, oder in Glutamin umgewandelt, um den Verlust an Glutamin durch die Glutamat-Synthese auszugleichen (aus Aktories et al. 2005). 4.6.3 Glutamat-Rezeptoren 4.6.3.1 Metabotrope Glutamatrezeptoren Metabotrope Glutamatrezeptoren sind G-Protein-gekoppelte Rezeptoren und spielen eine wichtige Rolle in der intrazellulären Signaltransduktionskaskade, indem sie verschiedene second-messenger-Systeme aktivieren und langsame synaptische Gliazelle Glu- Neuron Einleitung 47 Antworten generieren (Gudermann et al. 1997; Nakanishi and Yamamoto 1991). Derzeit unterscheidet man 8 Klassen von metabotropen Rezeptoren mGluR1 bis mGluR8. Aufgrund von Ähnlichkeiten in der Aminosäuresequenz, in den pharmakologischen Eigenschaften und den intrazellulären Signalwegen, mit denen sie gekoppelt sind, werden diese in drei Gruppen eingeteilt. Die Gruppe I besteht aus mGluR1 und mGluR5. Sie aktivieren die intrazelluläre Signalkaskade über die Phospholipase C und induzieren darüber die Freisetzung verschiedener Metabolite. Die Gruppe II setzt sich aus mGluR2 und mGluR3 zusammen. Diese hemmen durch ihre Aktivierung die Adenylatcyclase und verhindern die Bildung des intrazellulären Botenstoffs cAMP. Alle übrigen, mGluR4, 6, 7 und 8, gehören auf Grund der im Vergleich zu Gruppe II unterschiedlichen Präferenz für bestimmte Agonisten zur Gruppe III. Auch sie hemmen die Bildung von cAMP durch negative Regulation der Adenylatcyclase. Metabotrope Glutamatrezeptoren können also je nach Subtyp exzitatorisch oder inhibitorisch wirken (Kandel et al. 2000). 4.6.3.2 Ionotrope Glutamatrezeptoren Die ionotropen Glutamatrezeptoren sind transmembrale Ionenkanäle und werden - abhängig von ihrer Präferenz für bestimmte Agonisten - in AMPA- (α-Amino-3- hydroxy-5-methylisoxazol-4-propionsäure), NMDA- (N-methyl-D-aspartat) und Kainat-Rezeptoren eingeteilt. Alle Rezeptoren sind im Unterschied zu den metabotropen Glutamatrezeptoren für die schnelle Signaltransduktion ausgelegt. Die zeitliche Verzögerung (Latenz) für das Binden des Neurotransmitters bis zum Öffnen des Kanals beträgt dabei unter 5 ms. Die NMDA-Rezeptoren sind sowohl spannungs-, als auch ligandenabhängig. Sie benötigen für ihre Aktivierung sowohl die Bindung von Glutamat oder einem anderen Agonisten, als auch die Entfernung des - den Kanal blockierenden Magnesiumions - nach der Depolarisation der postsynaptischen Membran. NMDA-Rezeptoren sind unselektive pentamere Kationenkanäle mit vielen unterschiedlichen Bindungsstellen, die letztlich die Kanalleitfähigkeit bestimmen können. Sie besitzen neben der Bindungsstelle für Glutamat darüber hinaus Bindungsstellen für Rezeptor- Antagonisten wie AP-5, Ketamin oder MK-801, aber auch Bindungsstellen für den Coagonisten Glycin (Cooper et al. 2004). Durch Aktivierung des Rezeptors strömen Einleitung 48 Kationen in die Zelle ein und sorgen für eine Depolarisation der postsynaptischen Membran. Jedoch werden die NMDA-Rezeptoren erst bei ausreichender Depolarisierung der postsynaptischen Membran aktiv und tragen dann zur synaptischen Transmission bei (Collingridge 1987). Diese Eigenschaft, nur bei gleichzeitiger prä- und postsynaptischer Aktivität leitfähig zu sein, macht die NMDA- Rezeptoren zu idealen molekularen Koinzidenzdetektoren. Das gleichzeitige Eintreten beider Ereignisse - nämlich der prä- und postsynaptische Erregung - ist nicht der Regelfall und deutet darauf hin, daß die entsprechende Synapse zwischen zwei Nervenzellen besonders häufig benutzt wird. Man nimmt heute an, daß die Leitfähigkeitserhöhung des NMDA-Rezeptors eines der wesentlichen Elemente für die Induktion synaptischer Plastizität ist und damit einen molekularen Mechanismus für Lernen und Gedächtnis darstellt (Bliss and Collingridge 1993; Westbrook 1994). AMPA-Rezeptoren sind pentamere Transmembranproteine, die selektiv den Transport von Calcium-, Natrium- und Kaliumionen steuern. Dabei hängt die Ionenspezifität des Transporters von der Kombination der fünf Proteinuntereinheiten GluR1, 2, 3, 4 und 5 ab (Pellegrini-Giampietro et al. 1997; Seeburg 1993). Im Unterschied zu NMDA- Rezeptoren sind die AMPA-Rezeptoren nur ligandenabhängig und öffnen ihren Ionenkanal nach Bindung von Glutamat innerhalb weniger Millisekunden. Dadurch tragen sie ebenso wie Kainat-Rezeptoren zur schnellen Signaltransduktion bei. Kainat-Rezeptoren ähneln in Aufbau und Eigenschaften den AMPA-Rezeptoren. Sie bestehen aus den Untereinheiten GluR6 und 7 sowie KA1 und KA2 (Hanser 2001). Diese zusammen bilden einen transmembralen Ionenkanal - der abhängig von der Kombination der Untereinheiten - selektiv für Calcium-, Natrium- und Kaliumionen ist. Eine Übersicht über die verschiedenen Glutamat-Rezeptoren liefert Abbildung 9. Einleitung 49 Abbildung 9: Ionotrope Glutamatrezeptortypen. Es lassen sich drei verschieden ionotrope Glutamat- Rezeptoren unterscheiden: AMPA- und Kainat-Rezeptoren öffnen nach der Bindung von Glutamat und sind im geöffneten Zustand permeabel für Na+ und K+-Ionen. Der NMDA-Rezeptor öffnet erst nach der Bindung von Glutamat, sowie nach der Entfernung des Mg2+-Blocks durch eine Depolarisation der postsynaptischen Membran und ist im geöffneten Zustand für Na+-, K+- und auch für Ca2+-Ionen permeabel ist. CNQX ist ein kompetitiver Antagonist für die AMPA und Kainat-Glutamatrezeptoren und AP5 ist ein kompetitiver Antagonist für die NMDA-Glutamatrezeptoren. Modifiziert nach Giertler (2003). 4.6.3.3 Glutamat-spezifische Pharmaka 4.6.3.3.1 AP-5 AP-5 ((2R)-amino-5-phosphonovaleriansäure) ist ein kompetitiver Glutamatrezeptor- Antagonist, der spezifisch NMDA-Rezeptoren blockiert (Morris 1989). Er wirkt schon in sehr niedrigen Konzentrationen und hat bei einer intracranialen Applikation sehr gravierende Auswirkungen auf verschiedene Arten von Verhalten (z.B. Barker and Warburton 2008; Giertler et al. 2005; Tan 2008). 4.7 Ziele der Arbeit Tiere lernen rasch den kausalen Zusammenhang zwischen Umgebungsreizen, Handlungen und den Ergebnissen ihrer Handlungen zu erfassen. Bei Ratten werden solche Lernleistungen oft in SKINNER-Boxen untersucht. Dabei zeigen Lichtsignale an, daß die Betätigung eines Hebels zu einer Belohnung wie Futter führt. Insbesondere erfassen Tiere Änderungen in den kausalen Zusammenhängen zwischen den Umweltsignalen, ihren Handlungen und dem Ergebnis ihrer Handlungen und passen ihr Verhalten entsprechend den neuen Zuordnungsregeln Einleitung 50 an. Diese Flexibilität des Verhaltens beruht auf Lernvorgängen, die durch die zwei wichtigen Funktionsschleifen des Gehirns - der limbischen und der assoziativen Funktionsschleife - gesteuert werden. Wichtige Teilgebiete dieser Funktionsschleifen sind der NAC, der OFC (limbische Funktionsschleife) und das pDMS (assoziative Funktionsschleife). Alle diese Strukturen werden durch das mesencephale DA-system moduliert. Durch DA-Signale erhalten der NAC, OFC und das pDMS vermutlich Informationen, die für die Steuerung von Lernvorgängen essentiell sind. Das DA-System steuert Lernvorgänge auf vielfältige Weise. Es gibt daher eine Reihe sich zum Teil widersprechender Hypothesen zur Funktion von DA. Unklar ist bislang, auf welche Weise DA-Signale im pDMS, NAC und OFC zur Steuerung des zielgerichteten Verhaltens beitragen und Lernvorgänge steuern, die eine flexible Anpassung des Verhaltens ermöglichen. Ziel der vorliegenden Arbeit war es daher, die Rolle DAerger Signale in verschiedenen Zielgebieten DAerger Projektionen, nämlich dem NAC, dem OFC und dem DMS bei der Steuerung kognitiver Leistungen besser zu verstehen. Dazu wurden Ratten vom Stamm Lister Hooded in 3 Experimenten in einer bereits erprobten Reaktionszeitaufgabe getestet (Giertler 2003). In dieser Aufgabe fungierten zwei Stimuli mit unterschiedlichen Lichthelligkeiten als instruktive Stimuli, die prädiktiv für unterschiedliche Belohnungsstärken waren. Ziel war es dabei, den Einfluß von Eingriffen in das DAerge System im NAC, im OFC und DMS auf das Erlernen, bzw. das Umlernen eines bereits gelernten Zusammenhangs zwischen einem Stimulus und einer empfangenen Belohnung zu untersuchen. Daraus konnten dann Rückschlüsse auf die Funktion die DA im untersuchten Hirnareal ausübt, gezogen werden. In Experiment 1 lag der Fokus auf der Rolle von DA im NAC bei der Anpassung des Verhaltens an geänderte Stimulus-Belohnungs-Assoziationen. In Experiment 2 wurde analog zu Experiment 1 die Rolle von DA im OFC untersucht. In Experiment 3 beschäftigten wir uns mit den Auswirkungen einer DAergen Läsion des pDMS auf das Erlernen dieser Reaktionszeitaufgabe. Durchgeführte Arbeiten 51 5 Durchgeführte Arbeiten Die in dieser Arbeit durchgeführten Versuche an Wirbeltieren wurden nach § 8 des Tierschutzgesetzes und die Mitwirkung von Carsten Calaminus nach § 9 Abs. 1 des Tierschutzgesetzes vom Regierungspräsidium Stuttgart genehmigt (Az. 35- 9185.81/135). Nachfolgend sind die zur Veröffentlichung eingereichten Manuskripte eingebunden. Die darin zitierte Literatur und verwendeten Abkürzungen sind im entsprechenden Anhang der jeweiligen Arbeit aufgeführt. 5.1 Intact discrimination reversal learning but slowed responding to reward-predictive cues after dopamine D1 and D2 receptor blockade in the nucleus accumbens of rats Seite 52-67 5.2 Guidance of instrumental behaviour under reversal conditions requires dopamine D1 and D2 receptor activation in the orbitofrontal cortex Seite 68-77 5.3 Modulation of behavior by expected reward magnitude depends on dopamine in the dorsomedial striatum Seite 78-91 Durchgeführte Arbeiten 52 Durchgeführte Arbeiten 53 Durchgeführte Arbeiten 54 Durchgeführte Arbeiten 55 Durchgeführte Arbeiten 56 Durchgeführte Arbeiten 57 Durchgeführte Arbeiten 58 Durchgeführte Arbeiten 59 Durchgeführte Arbeiten 60 Durchgeführte Arbeiten 61 Durchgeführte Arbeiten 62 Durchgeführte Arbeiten 63 Durchgeführte Arbeiten 64 Durchgeführte Arbeiten 65 Durchgeführte Arbeiten 66 Durchgeführte Arbeiten 67 Durchgeführte Arbeiten 68 Durchgeführte Arbeiten 69 Durchgeführte Arbeiten 70 Durchgeführte Arbeiten 71 Durchgeführte Arbeiten 72 Durchgeführte Arbeiten 73 Durchgeführte Arbeiten 74 Durchgeführte Arbeiten 75 Durchgeführte Arbeiten 76 Durchgeführte Arbeiten 77 Durchgeführte Arbeiten 78 Durchgeführte Arbeiten 79 Durchgeführte Arbeiten 80 Durchgeführte Arbeiten 81 Durchgeführte Arbeiten 82 Durchgeführte Arbeiten 83 Durchgeführte Arbeiten 84 Durchgeführte Arbeiten 85 Durchgeführte Arbeiten 86 Durchgeführte Arbeiten 87 Durchgeführte Arbeiten 88 Durchgeführte Arbeiten 89 Durchgeführte Arbeiten 90 Durchgeführte Arbeiten 91 Zusammenfassende Diskussion 92 6 Zusammenfassende Diskussion In den nachfolgenden Abschnitten werden die Resultate der durchgeführten Experimente sowie die dabei verwendeten Verhaltenstests und pharmakologischen Manipulationen diskutiert. Es werden hierbei Abweichungen und Übereinstimmungen zu vorangegangenen Arbeiten aufgezeigt und zusammen mit unseren Ergebnissen diskutiert. Den Abschluß dieses Abschnittes bildet eine zusammenfassende Diskussion über die Rolle von Dopamin im limbischen System bei der Steuerung des instrumentellen (zielgerichteten) Verhaltens der Ratte. Außerdem werden die Implikationen dieser Ergebnisse für das Verständnis des menschlichen Lernverhaltens erläutert. 6.1 Reaktionszeitaufgabe In der vorliegenden Arbeit wurde an Ratten die Rolle von Dopamin in verschiedenen Hirnarealen beim Lernverhalten untersucht. Im Mittelpunkt stand das Erlernen von instrumentellen Verhaltensweisen, die durch belohnungsprädiktive Stimuli gesteuert werden. Dazu wurden Ratten vom Stamm Lister Hooded in drei Experimenten in einer Reaktionszeitaufgabe getestet (Giertler 2003). In dieser Aufgabe fungierten zwei Stimuli mit unterschiedlichen Lichthelligkeiten als instruktive Stimuli, die prädiktiv für eine hohe und eine niedrige Belohnungsstärke waren. Bei unbehandelten Ratten zeigte sich dabei eine Führung des untersuchten Verhaltens durch die erwartete Belohnungsstärke. D.h., die Tiere reagierten in Erwartung einer hohen Futterbelohnung schneller als in Erwartung einer niedrigen Futterbelohnung. Die Differenz stellt den Meßparameter der Reaktionszeitdifferenz dar (siehe unten). Diese Aufgabenstellung war aus mehreren Gründen besonders geeignet das instrumentelle Lernverhalten der Tiere zu untersuchen. Erstens konnten neben der Reaktionszeit weitere Parameter - wie die Genauigkeit der Handlungsausführung oder die Bewegungszeit - aufgenommen werden, die eine detailliertere Verhaltensanalyse zuließen. Zweitens wurden bei Studien am Menschen (Knutson and Cooper 2005; Tobler et al. 2007), oder am Primaten (Nakamura and Hikosaka Zusammenfassende Diskussion 93 2006) ähnliche Aufgaben verwendet. Eine Vergleichbarkeit des untersuchten Lernverhaltens über Speziesgrenzen hinweg war somit möglich. Erlernen: Die Reaktionszeitdifferenz bildete sich meist im Laufe der ersten Tage der Akquisitionsphase aus und blieb bei unverändertem Fortgang des Experimentes weitgehend konstant bei ca. 100-120ms. D.h., die Ratten ließen nach Darbietung des imperativen Stimulus bei erwarteter hoher Belohnung (5 Futterstücke) den Hebel signifikant schneller los, als bei zu erwartender niedriger Belohnung (1 Futterstück). Diese Führung der Reaktionszeiten durch die erwartete Belohnungsstärke war ein Indikator dafür, daß die Tiere die Stimulus-Belohnungs-Beziehungen gelernt hatten. Die Bewegungszeit hingegen konnte, entgegen den Beobachtungen aus vorrangegangenen Arbeiten (Bohn et al. 2003b; Bohn et al. 2003c; Giertler et al. 2005), nicht als Parameter für einen Lernerfolg der Tiere verwendet werden. Bei allen durchgeführten Experimenten konnte keine Führung der Bewegungszeit durch die erwartete Belohnungsstärke beobachtet werden. Ein möglicher Grund für den Unterschied zu vorangegangenen Arbeiten könnte sein, daß die um 3-4 Tage verkürzte Habituationsphase nicht ausreichte, um auch in der Bewegungszeit eine Führung durch die erwartete Belohnungsstärke zu erreichen. Auch die Tatsache, daß in dieser Arbeit Lister Hooded und keine Sprague Dawley Ratten verwendet wurden, könnte den Unterschied in den Beobachtungen erklären. Im Gegensatz zur Bewegungszeit war die Präzision ein Parameter, der sich in Abhängigkeit von der Belohnungsstärke änderte. Interessanterweise machten unbehandelte Tiere signifikant mehr Fehler und ließen den Hebel zu früh (vor Darbietung des imperativen Stimulus) los, wenn Ihnen viel Belohnung signalisiert worden war. Die Präzision, mit der für die hohe Belohnung gedrückt wurde, nahm im Laufe eines Experimentes immer weiter ab. Dieses Phänomen wurde in allen drei Experimenten beobachtet und zeigte sich vor allem bei Reaktionen für erwartete hohe Belohnung. Dies war insofern überraschend, als ein Lernfortschritt in anderen Studien (z.B. Giertler et al. 2005) mit einer Zunahme der Genauigkeit bzw. Abnahme der Fehler einherging. In unserer Aufgabe war es aus folgendem Grund umgekehrt: Der hochbelohnte Stimulus erzeugte bei den Tieren offenbar einen Zustand erhöhter Impulsivität, die zu den Fehlreaktionen führte. Mit zunehmendem Lernerfolg wurde deshalb der Anteil der verfrühten Antworten höher, d.h. die Genauigkeit nahm ab. Zusammenfassende Diskussion 94 Umlernen: Neben der Lernfähigkeit der Tiere wurde darüber hinaus auch die Verhaltensflexibilität der Tiere - insbesondere das Umlernen von Stimulus- Belohnungs-Assoziationen - in der oben genannten Aufgabe untersucht. Dazu wurden nach einer ca. 8-tägigen Akquisitionsphase die Stimulus-Belohnungs- Beziehungen umgedreht, so daß ein ehemals hoch belohnter Stimulus in der Folge prädiktiv für wenig Belohnung war und umgekehrt. Unbehandelte Tiere erlernten die geänderten Stimulus-Belohnungs-Beziehungen innerhalb von 4-5 Tagen, erkennbar an der Zunahme der Reaktionszeitdifferenz und der Zunahme an verfrühten Fehlern für erwartete hohe Belohnung. 6.2 Visuelle Diskriminationsaufgabe Neben der Reaktionszeitaufgabe wurden noch weitere Aufgaben verwendet, um das Lernverhalten der Tiere genauer zu charakterisieren. Dazu wurde eine visuelle Diskriminationsaufgabe verwendet, die nach einer Aufgabe von Winters und Kollegen (2004) modifiziert wurde. Diese erforderte von den Tieren die korrekte Zuordnung zweier verschiedener Lichtstimuli zu dem belohnten von zwei präsentierten Hebeln. In dieser Aufgabe wurde durch einen hellen Lichtstimulus signalisiert, daß das Betätigen des Linken der beiden Hebel belohnt wird und ein gedimmter Lichtstimulus, daß das Drücken des rechten Hebels mit einem Futterpellet belohnt wird. Unbehandelten Tieren gelang es, das geforderte Kriterium von 75 % korrekten Antworten innerhalb von 30 Testtagen zu erreichen, wobei der Lernfortschritt täglich kontrolliert wurde. Dies stimmt mit den Ergebnissen von Winters und Kollegen (Winters et al. 2004) überein, deren Tiere ebenfalls das geforderte Kriterium erreichten. Allerdings brauchten die Tiere von Winters und Kollegen wesentlich länger (50-60 Tage) um das geforderte Kriterium von 75% korrekten Antworten zu erreichen. Diese nahezu doppelt so lange Lernphase war vermutlich auf die verwendeten Lichtstimuli zurückzuführen. Winters und Kollegen nutzten zwei unterschiedliche Blinkfrequenzen als visuellen Stimulus, während wir die zwei unterschiedlichen Lichthelligkeiten aus der Reaktionszeitaufgabe (s.o.) als diskriminativen Stimulus verwendeten. Offenbar stellt die Diskrimination der Zusammenfassende Diskussion 95 verschiedenen Blinkfrequenzen höhere Anforderungen an die Tiere, was zu einer deutlich verlängerten Lernphase führt. 6.3 Räumliche visuelle Diskriminationsaufgabe Eine mögliche Ursache für Lerndefizite in den zuvor beschriebenen Aufgaben könnte die mangelnde Fähigkeit sein, die beiden verwendeten visuellen Stimuli (hell und gedimmt) voneinander zu unterscheiden. Um diese Möglichkeit zu prüfen, wurde ein zweiter visueller Diskriminationstest verwendet. Eine Aufgabe von Floresco wurde in modifizierter Form eingesetzt (Floresco et al. 2006a). In einem T-Labyrinth dienten Bodenbeläge als visuelle Stimuli und als Hinweissignale für eine Futterbelohnung. Dazu wurden zwei Arme des Labyrinths mit Klebefolien versehen, die dieselben taktilen Eigenschaften besaßen, allerdings unterschiedlich gemustert waren (schwarz/weiß gestreift bzw. schwarz). Diese Bodenbeläge signalisierten den Tieren, welcher der beiden Arme belohnt war (z.B. gestreift = belohnt; uni = nicht belohnt). Unbehandelte Ratten hatten am Tag des Abschlußtests innerhalb von 20 Läufen im Labyrinth das Kriterium von 10 aufeinander folgenden Entscheidungen für den korrekten (belohnten) Arm erreicht. Dabei waren sie wesentlich besser, als die Tiere von Floresco und Kollegen, die knapp 40 Versuche brauchten (Floresco et al. 2006a). Dies könnte auf die etwas unterschiedliche Habituationsprozedur (siehe unten) oder möglicherweise auch auf den verwendeten Tierstamm zurückzuführen sein. 6.4 Habituation Reaktionszeitaufgabe Das Habituationstraining hatte zum Ziel, die Tiere mit der SKINNER-Box, den Hebeln und der Futterbelohnung vertraut zu machen. Es zeigte sich, daß eine 5-6tägige Habituationsphase ausreichte, um die Versuchstiere an die ihnen ungewohnte Umgebung sowie die Futterbelohnung zu gewöhnen und das Hebel-Drücken beizubringen. Vorangegangene Arbeiten verwendeten dazu eine wesentlich aufwendigere und langwierigere Prozedur, die zwei Monate (Bohn et al. 2003a; Giertler et al. 2003) bzw. zwölf Tage (Giertler et al. 2004; Giertler et al. 2005) Zusammenfassende Diskussion 96 dauerte. Die hier verwendete Habituationsprozedur bestand aus drei Einzelschritten, die es ermöglichten nach maximal sechs Sitzungen mit der Akquisition der in Experiment 1-3 verwendeten Reaktionszeitaufgabe zu beginnen. Die im Vergleich zu früheren Arbeiten deutlich verkürzte Habituationsphase führte neben der sehr geringen Streuung der individuellen Reaktionszeiten für hohe und niedrige Belohnung dazu, daß die Tiere das Erlernen der Reaktionszeitaufgabe von Beginn an mit einer Genauigkeit von 75-80% bewältigten. Durch dieses standardisierte Vorgehen wurde gewährleistet, daß schon der erste Erlerntag der Reaktionszeitaufgabe für die Auswertung der Verhaltensergebnisse berücksichtigt werden konnte und zudem das Umlernen innerhalb von 7-8 Tagen begonnen werden konnte, was die Versuchsdauer im Vergleich zu früheren Arbeiten deutlich reduzierte. Visuelle Diskriminationsaufgabe Für die visuelle Diskriminationsaufgabe in der Skinner-Box wurde eine ähnliche Habituationsprozedur wie für die Reaktionszeitaufgabe verwendet. Diese Prozedur bestand ebenfalls aus drei Einzelschritten, die es ermöglichten, nach maximal sechs Sitzungen mit der Akquisition der visuellen Diskriminationsaufgabe zu beginnen. Der einzige Unterschied zur Habituationsphase bei der Reaktionszeitaufgabe war, daß statt einem deren zwei Hebel jeweils einzeln mit dem zugehörigen Lichtstimulus präsentiert wurden. Räumliche visuelle Diskriminationsaufgabe Für die Aufgabe im T-Labyrinth wurde ebenfalls eine 5-6tägige Habituationsphase durchgeführt. Diese mußte nach der Aufgabe von Florecso et al. 2006 entsprechend unseren Anforderungen angepaßt werden. Im Unterschied zu der Floresco-Aufgabe wurden hier zwei unterschiedlich gefärbte Bodenbeläge als visuelle Stimuli verwendet, um den belohnten und den unbelohnten Arm anzuzeigen. Die Raumposition der beiden Zielarme wurde immer wieder verändert, um zu verhindern, daß die Tiere sich anhand von externen Raummarken im Labyrinth orientieren. Durch die gewählte Prozedur wurde somit gewährleistet, daß die Tiere die beiden visuellen Stimuli auf dem Boden des Labyrinths, und nicht Umgebungsreize zur Orientierung verwendeten. Zudem gewöhnten sie sich daran, daß sie vom Experimentator nach jedem Lauf aus dem Labyrinth genommen und zurück in den Haltungskäfig gesetzt Zusammenfassende Diskussion 97 wurden, um nach 2 min erneut in das Labyrinth gesetzt zu werden und einen neuen Lauf zu beginnen. Nach ca. sechs Tagen Habituation konnte dann mit dem visuellen Diskriminationstest begonnen werden. 6.5 Mikroinfusionen Für die Untersuchung des Lernverhaltens in Experiment 1 und 2 wurden während der Umlernphase Mikroinfusionen in den NAC und den OFC durchgeführt. Dazu mußten die Tiere unmittelbar vor Beginn der jeweiligen Sitzung so auf dem Schoß des Experimentators fixiert werden, daß die abgesenkten Injektionskanülen über den gesamten Infusionszeitraum im gewünschten Zielgebiet blieben. Das erforderte im Vorfeld der Umlernsitzungen eine aufwendige Mikroinfusions-Habituationsphase, die zum Ziel hatte, die Tiere an die Abläufe und akustischen Reize der Infusionen zu gewöhnen. In Vorversuchen hatte sich gezeigt, daß die - durch die Mikroinfusionsprozedur hervorgerufene - Streßreaktionen der Tiere dazu führten, daß die gemessenen Reaktionszeiten eine reduzierte Führung durch die erwartete Belohnungsstärke zeigten. Während der an drei aufeinanderfolgenden Tagen durchgeführten Mikroinfusions-Habituationsphase wurden die Tiere auf dem Schoß fixiert und zuerst nur durch Einsetzen der Injektionskanülen, dann durch fünfminütige Probeinfusionen von Kochsalzlösung in das Zielgebiet an die Mikroinfusionsprozedur gewöhnt. Dies führte zu einer deutlichen Reduktion der Streßreaktion während der Injektionen in der Umlernphase, so daß die Prozedur selber keine meßbaren Veränderungen des Lernverhaltens hervorrief. 6.6 Läsion Die in Experiment 3 durchgeführten dopaminergen Läsionen des dorsomedialen Striatums waren im Bezug auf die Handhabung der Tiere und die Streßreaktionen der Ratten während des Verhaltenstestes unproblematisch, da sie 1-2 Wochen vor Versuchbeginn stattfanden und auch keine durch die Läsionen ausgelösten unspezifischen Verhaltensauffälligkeiten im Vorfeld der Verhaltenstests beobachtet werden konnten. Darüber hinaus fanden wir in post mortem durchgeführten Zusammenfassende Diskussion 98 immunhistologischen Untersuchungen keine Hinweise darauf, daß TH-positive Neurone in den dem pDMS angrenzenden Arealen läsioniert waren. Da in vielen Studien wesentlich höhere Volumina (2,0µl) als bei uns (0,4µl) verwendet wurden, um intrastriatale 6-OHDA Injektionen durchzuführen (z.B. Amalric and Koob 1987; Brown and Robbins 1991; Courtiere et al. 2005; Cousins et al. 1999; Faure et al. 2005), ist die Größe unserer Läsion schwer mit den Ergebnissen anderer Arbeitsgruppen zu vergleichen. Auch riefen intra-pDMS Infusionen des, zu dem von uns verwendeten Volumen identischen Volumens des Excytotoxins NMDA (0,4µl) eine räumlich eng begrenzte Läsion des pDMS hervor (Yin et al. 2005b). Zahlreiche Studien arbeiteten in der Vergangenheit darüber hinaus mit wesentlich geringeren Konzentrationen an 6-OHDA (4 µg/µl) als wir (15 µg/µl) und fanden eine erhebliche Reduktion der Gewebekonzentration an DA (>85%) (z.B. Brown and Robbins 1991). Auch konnten Arbeiten mit autoradiographischen Methoden zeigen, daß die intrastriatale Injektion von 3,5µg/µl – 6,7µg/µl 6-OHDA zu einem deutlichen Verlust DAerger Neurone führte (Winkler et al. 2000). Zusammenfassend lassen diese Beobachtungen vermuten, daß unsere 6-OHDA Injektionen zu einer nahezu vollständigen pDMS DA-Läsion führten. 6.7 Die Rolle von Dopamin im Nucleus accumbens Aus den Ergebnisse von Experiment 1 geht hervor, daß DA-Signale im NAC für das Umlernen nicht erforderlich sind, wohl aber die Intensität steuern, mit der belohnungsgerichtete Handlungen und instrumentelle Verhaltensweisen ausgeführt werden. So waren Tiere, die während des Umlernens Injektionen von Dopamin- Antagonisten bekamen - unabhängig davon, ob die D1- oder D2-Rezeptoren blockiert waren - ebenso wie entsprechende Kontrolltiere in der Lage, die Stimulus- Belohnungs-Beziehungen innerhalb von 4-5 Tagen umzulernen. Allerdings verdoppelten sich die Reaktionszeiten für viel und wenig Belohnung unter der Behandlung mit einem D1- und einem D2-Antagonisten. Die Anzahl der verfrühten und verspäteten Fehler blieb von der Behandlung jedoch unbeeinträchtigt. Die Rolle des Nucleus accumbens bei Lernvorgängen ist in den letzten Jahren immer genauer charakterisiert worden. So konnte gezeigt werden, daß klassische Stimuli Zusammenfassende Diskussion 99 keinen Einfluß mehr auf das Lernverhalten der Tiere hatten, sobald die Signaltransduktion im NAC unterbrochen war (Cardinal et al. 2002b; Parkinson et al. 1999). Man geht deshalb davon aus, daß der NAC in Pavlovschen (klassischen) Lernaufgaben eine wichtige Rolle bei der Informationsverarbeitung spielt. Eine typische Aufgabe, mit der die Einflüsse von klassischen Stimuli auf das Lernverhalten untersucht werden, ist der klassisch-instrumentelle Transfer (PIT). Hierbei haben klassische Stimuli wie z.B. Ton-, Geräusch-, aber auch Lichtsignale eine motivationale (De-)Aktivierung des Verhaltens zur Folge. In verschiedenen dieser PIT-Aufgaben konnte gezeigt werden, daß der NAC die motivationalen Aspekte des Verhaltens steuert. Er vermittelt die Anziehungskraft („incentive salience“), die belohnungsprädiktive Stimuli ausüben und verstärkt so das belohnungsfördernde Antwortverhalten (Hall et al. 2001; Lex and Hauber 2008). Neben diesen appetitiven Verhaltensweisen wird durch den NAC auch aversives Verhalten gesteuert, wie es z.B. als Reaktion auf negativ-assoziierte Gerüche oder akustische Signale entsteht (Faure et al. 2008; Reynolds and Berridge 2002). Diese klassisch konditionierten Stimuli wie Gerüche, akustische Signale, aber auch visuelle Stimuli, spielen auch in instrumentellen Lernaufgaben - wie die in der vorliegenden Arbeit verwendeten - eine wichtige Rolle und übermitteln Informationen über den Anreizwert der zu erwartenden Belohnung. So konnten Wolterink und Kollegen bereits 1993 zeigen, daß das Hebeldruckverhalten in einem conditioned reinforcement - Test, bei dem einer von zwei Hebeln gedrückt werden mußte, um einen belohnungsprädiktiven klassischen Stimulus (Ton) auszulösen, der prädiktiv für eine Belohnungsgabe war, durch eine Inaktivierung des NAC deutlich verringert war (Wolterink et al. 1993). In der Vergangenheit stellte man sich daher vermehrt die Frage, welche Neurotransmitter die motivationssteuernde Funktion des NAC vermitteln. Aus früheren Arbeiten war bekannt, daß Dopamin eine essentielle Rolle bei der Steuerung des Lernverhaltens spielen mußte (Koch et al. 2000; Nowend et al. 2001; Parkinson et al. 2002). So konnten z.B. Cheng und Feenstra nachweisen, daß die DA- Freisetzung in NACcore und NACshell während des Erlernens einer instrumentellen Aufgabe im Vergleich zu nicht-lernenden Ratten deutlich erhöht war (Cheng and Feenstra 2006). Ebenso war bekannt, daß die Informationen, die durch D1- und D2- Rezeptoren vermittelt werden, vielfach unterschiedliche Auswirkungen auf das belohungsgerichtete Verhalten haben können. Floresco zeigte dies 2006, indem er in Zusammenfassende Diskussion 100 einem set-shifting-Paradigma D1- bzw. D2- spezifische DA-Rezeptor-Antagonisten in verschiedenen Zielgebieten DAerger Projektionen von Ratten applizierte (Floresco et al. 2006) und unterschiedliche Auswirkungen auf das Lernverhalten der Tiere beobachten konnte. Auch beobachtete Lee, daß Ratten unter systemischer Blockade der D1/D5- und D2/D3-Rezeptoren zwar eine instrumentelle Handlung erlernen konnten, aber Probleme hatten, eine einmal gelernte Aufgabe umzulernen (Lee et al. 2007). In Experiment 1 gelang es uns zu zeigen, daß das Umlernen einer instrumentellen Verhaltensweise durch eine Blockade der DA-Rezeptoren im NAC unbeeinträchtigt war. Allerdings war die motivationale Aktivierung des Verhaltens durch Hemmung sowohl der D1- als auch der D2-Rezeptor-Subtypen im NAC deutlich beeinträchtigt. Außerdem blieb die normale Bewegungsfähigkeit der Tiere erhalten, wie Messungen der Bewegungszeit zeigten. Vergleichbare Studien konnten darüber hinaus zeigen, daß die generelle Motivation, frei verfügbares Futter zu konsumieren, ebenso erhalten blieb (Yun et al. 2004). Daß beide DA-Rezeptorsubtypen ähnliche Auswirkungen auf die Motivation haben, ist insofern erstaunlich, als beide (wie unter Punkt 4.5. gezeigt) auf unterschiedlichen Bahnen lokalisiert sind. Durch die Aktivierung werden zudem grundsätzlich unterschiedliche intrazelluläre Stoffwechselwege aktiviert (Squire 2008). Auch aus diesem Grund wäre es wahrscheinlich, daß unterschiedliche Funktionen durch die beiden Rezeptortypen vermittelt werden. Diese Ergebnisse sind insofern überraschend, als sie Annahmen widersprechen, die sich aus der Vorhersagefehlertheorie der DA-Funktion ableiten. Diese besagt, daß DA-Neurone des limbischen Systems ein Vorhersagefehlersignal kodieren, mit dessen Hilfe Tiere ihr Verhalten an sich ändernde Umgebungsbedingungen anpassen können (Schultz et al. 1998). Dieses Vorhersagefehlersignal konnte durch elektrophysiologische Ableitungen an DA-Neuronen in der VTA und der Substantia nigra (Hollerman and Schultz 1998; Satoh et al. 2003), sowie in Zielgebieten DAerger Neurone z.B. dem orbitofrontalen Kortex (Schoenbaum et al. 1998; Tremblay and Schultz 1999), dem Striatum (Schultz et al. 2003) und dem NAC (Abler et al. 2006; Khamassi et al. 2008) nachgewiesen werden. Unsere Studien zeigen jedoch, daß die Anpassung des Verhaltens an neue Stimulus-Belohungs-Beziehungen trotz Blockade Zusammenfassende Diskussion 101 der DAergen Transmission, und demzufolge eine Blockade des Vorhersagefehlersignals, im NAC möglich war. Allerdings ist derzeit noch wenig darüber bekannt, auf welche Weise der NAC das Vorhersagefehlersignal verarbeitet und welche Aufgabe Dopamin im NAC bei der Steuerung des Verhaltens zukommt. Bekannt ist, daß DA in verschiedenen Hirnarealen bei vielen Verhaltensabläufen eine essentielle Rolle spielt. So entschieden sich Tiere, deren DA-System durch systemische Haloperidol-Gabe beeinträchtigt war, in einer Situation, in der sie zwischen zwei - mit unterschiedlichem Aufwand verbundenen Handlungen - wählen konnten, für diejenige, die geringeren Aufwand, aber auch geringere Belohnung bedeutete. Dagegen nahmen Kontrolltiere den höheren Aufwand in Kauf, um eine entsprechend höhere Belohnung zu bekommen (Salamone 1994). Diese Ergebnisse zeigen, daß Kosten-Nutzen-Analysen abhängig von einer intakten DAergen Neurotransmission sind, und daß Tiere in diesen Einscheidungssituationen ein abnormales Verhalten zeigen, sobald das DA-System beeinträchtigt ist. DA scheint aber auch bei verschiedenen Lernvorgängen eine essentielle Rolle zu spielen. So fanden z.B. Stefani und Moghaddam eine positive Korrelation zwischen der DA-Freisetzung im präfrontalen Kortex (PFC) und der Schnelligkeit, mit der die Tiere zwischen zwei Diskriminationsregeln wechseln konnten. Auch schien die DA-Freisetzung im NAC oder DS gesteigert zu sein (Stefani and Moghaddam 2006), wenn neue, unerwartete Ereignisse eintraten und dementsprechend neue Verhaltensregeln gelernt werden mußten. Die Flexibilität, mit der sich Tiere auf geänderte Umgebungsbedingungen einstellen können, ist also abhängig von einem intakten DA-System. Ist dieses beeinträchtigt, sollten belohnungsabhängige Verhaltensanpassungen nicht mehr korrekt funktionieren. In der vorliegenden Arbeit dagegen konnte gezeigt werden, daß eine Beeinträchtigung der dopaminergen Transmission im NAC keinen signifikanten Einfluß auf die Fähigkeit der Tiere hat, ihr Verhalten den sich ändernden Umgebungsbedingungen anzupassen. Vielmehr scheint Dopamin hier die Aufgabe zu haben, die motivationalen Informationen über ein belohnungsförderndes Verhalten zu verstärken (Faure et al. 2008). Geht man davon aus, daß durch die Injektionen in den NAC während des Umlernens dessen motivationssteuernde Funktionen außer Kraft gesetzt wurden, kann man aus dem beobachteten Verhalten der Tiere den Schluß ziehen, daß sich die Tiere der neuen Regeln zwar durchaus gewahr werden, Zusammenfassende Diskussion 102 ihnen allerdings die Motivation fehlt, entsprechend den Regeln für die Belohnung zu arbeiten. Darüber hinaus zeigten weitere Arbeiten, daß auch andere Neurotransmittersysteme im NAC an der Anpassung des Verhaltens an belohnungsprädiktive Stimuli beteiligt sind. So konnte durch Unterbrechung der glutamatergen Neurotransmission mit Hilfe von Mikroinfusionen von NMDA- und AMPA-Rezeptorantagonisten nachgewiesen werden, daß die Verarbeitung belohnungsrelevanter Informationen im NAC auch auf Glutamat-vermittelten Signalübertragungsvorgängen beruht (Giertler et al. 2005; Hernandez et al. 2005). Deshalb schlägt Hernandez vor, daß dopaminerge und glutamaterge Neurone im NAC bei der Steuerung des belohnungsgerichteten Verhaltens zusammenspielen (Hernandez et al. 2005). Hypothetisch könnte eine Interaktion der beiden Neurotransmittersysteme folgendermaßen ablaufen: Das mesolimbische Dopaminsystem interagiert mit glutamatergen Neuronen im NAC, die aus Thalamus, BLA, Hippocampus oder dem PFC kommen über DA-Rezeptoren (Cardinal et al. 2002a; Meredith et al. 1999; Mulder et al. 1998), die auf den Axonterminalen des glutamatergen Neurons liegen. Auf diese Weise werden die Glutamatsignale auf eine komplexe, noch nicht bis ins Detail verstandene Art und Weise moduliert. Die motivationssteigernde Wirkung von DA könnte also darauf beruhen, daß DA Glutamatsignale im NAC moduliert und z.B. verstärkt. Darüber hinaus fungiert DA im NAC offensichtlich nicht nur als eine Art Modulator von Glutamat-Signalen (Chuhma et al. 2004; Grace et al. 2007; Surmeier et al. 2007) sondern - wie neuere Erkenntnisse zeigen - auch als Modulator von motivationsbezogenen Informationen, die über die Neurotransmitter Serotonin oder Norepinephrin in den NAC gelangen (Faure et al. 2008). Deshalb könnten auch solche Signale, die für die Vermittlung von Motivation relevant sind, durch DA im NAC verstärkt werden. Die motivationssteuernde Funktion von DA im NAC konnte durch die hier gezeigten Ergebnisse untermauert werden. Während das Umlernen der Stimulus-Belohnungs- Beziehungen trotz Blockade der DA-Rezeptoren möglich war, war die Intensität, mit der die belohnungsgerichteten Handlungen ausgeführt wurden, auf Grund der fehlenden motivationalen „Befeuerung“ des Verhaltens durch DA deutlich verringert. Die DAerge Innervation des NAC ist daher vermutlich nicht direkt an der Anpassung des Verhaltens an sich ändernde Umgebungsbedingungen beteiligt. Vielmehr ist DA Zusammenfassende Diskussion 103 in der Lage, das belohnungsgerichtete Verhalten durch die Interaktion mit anderen Neurotransmittersystemen - wie z.B. der serotonergen, oder auch der glutamatergen Transmission, zu modulieren und auf eine noch nicht genau verstandene Art und Weise zu verstärken. 6.8 Die Rolle von Dopamin im orbitofrontalen Kortex Aus der vorliegenden Arbeit geht hervor, daß Dopamin und Glutamat im orbitofrontalen Kortex eine wichtige Rolle bei der Flexibilität des Lernverhaltens spielen. Intra-OFC-Mikroinfusionen von sowohl D1- und D2- Rezeptor-Antagonisten, als auch NMDA-Rezeptor-Antagonisten, beeinträchtigten das Umlernverhalten deutlich. Dieses war bei den behandelten Tieren deutlich verzögert; die Anpassung des Verhaltens an geänderte Stimulus-Belohnungs-Beziehungen war verlangsamt. Es scheinen folglich sowohl Dopamin, als auch Glutamat (Bohn et al. 2003) im OFC während des Umlernens eine essentielle Rolle zu spielen. Die Rolle des OFC beim Lernen und Umlernen von Stimulus-Belohnungs Beziehungen ist in den letzten Jahren immer mehr in den Fokus des Interesses gerückt (z.B. Chamberlain et al. 2008; Ghods-Sharifi et al. 2008; Takahashi et al. 2009). Humanphysiologische Studien etwa konnten zeigen, daß verschiedene neurodegenerative Erkrankungen - wie z.B. Demenz (Snowden et al. 2001) oder Zwangsstörungen (OCD) (Chamberlain et al. 2008) - mit Fehlfunktionen des präfrontalen Kortex - speziell des OFC - einhergehen und sich in den krankheitstypischen Verhaltensdefiziten äußern. Hinweise für die Beteiligung des OFC an der Steuerung von Lernverhalten lieferten auch Mikrodialyse-Experimente an Ratten. Demnach geht eine gesteigerte Impulsivität der Tiere in einer Hebeldruck- Aufgabe mit einer erhöhten DA-Freisetzung im OFC einher (Winstanley et al. 2006). Neueste Studien belegen diese Tatsache und konnten darüber hinaus nachweisen, daß Patienten mit einer auf dysfunktionalem OFC beruhenden gesteigerten Impulsivität zudem eine beeinträchtigte Verhaltensflexibilität aufweisen (Franken et al. 2008). Auch Studien an Ratten konnten zeigen, daß eine neurochemische Inaktivierung des OFC zu einer eingeschränkten Flexibilität des Lernverhaltens führte (Ragozzino 2007). Mit Hilfe elektrophysiologischer Untersuchungen an Primaten Zusammenfassende Diskussion 104 gelang es darüber hinaus, nachzuweisen, daß Neurone des OFC ihre Aktivitätsmuster änderten, sobald die belohnungsprädiktiven Stimuli ihre Attraktivität für das Tier änderten (Critchley and Rolls 1996; Schoenbaum et al. 1999; Tremblay and Schultz 1999). Auch geht aus Verhaltensstudien hervor, daß Tiere und Menschen mit Schäden am OFC Probleme haben, einmal gelernte Aufgaben umzulernen (Chudasama and Robbins 2003; Hornak et al. 2004; Izquierdo et al. 2004; Jones and Mishkin 1972). Diese sind nicht mehr in der Lage, aus Ergebnissen ihrer Handlungen, die nicht den ursprünglichen Vorhersagen entsprechen, zu lernen und ihr zukünftiges Verhalten basierend auf diesen neuen Informationen anzupassen (Burke et al. 2008; Gallagher et al. 1999; Izquierdo et al. 2004; McDannald et al. 2005; Ostlund and Balleine 2007). So haben z.B. Primaten, deren OFC läsioniert ist, Probleme, eine Aufgabe, die eine Unterscheidung von verschiedenen Geruchsstoffen verlangt, umzulernen (Schoenbaum et al. 2003a). Obwohl diese Tiere eine intakte Geruchswahrnehmung haben, gelingt es ihnen nicht, die durch die Gerüche vorhergesagten Ergebnisse ihrer Handlungen umzulernen. Ebenso zeigten Versuche an Ratten, daß Tiere ein Futter, das mit Übelkeit auslösendem LiCl devaluiert war, im Heimkäfig verschmähten. In einer anschließenden Lernaufgabe in der SKINNER-Box waren sie aber trotz des „Wissens“ um den Übelkeit auslösenden Effekt nicht in der Lage, ihre belohnungsgerichteten Handlungen entsprechend anzupassen. Unter Extinktion drückten sie den Hebel trotzdem, der zu devaluiertem Futter führte (Gallagher et al. 1999). Aus diesem Grund ging man davon aus, daß der OFC eine Struktur ist, die Umlernen maßgeblich mit steuert, und stellte sich die Frage, welche Neurotransmitter an der Steuerung dieses Verhaltens beteiligt sind. Dazu war es essentiell, die die Ein- und Ausgänge des OFC näher zu beleuchten. Bekannt war bis dato, daß der OFC massiv zum ventralen (Haber et al. 1995; Schoenbaum et al. 2006) und dorsalen (Ragozzino 2007; Schilman et al. 2008) Striatum und der BLA (Holland and Gallagher 2004; Ramirez and Savage 2007; Schoenbaum and Setlow 2003) projiziert und starke Afferenzen von Arealen wie dem ventralen Tegmentalen Areal (VTA) (Oades and Halliday 1987) und auch der BLA (Holland and Gallagher 2004; Schoenbaum et al. 2003b) erhält. Während die Afferenzen, die von der VTA kommen, dopaminerg sind, ist die Verbindung zwischen BLA und OFC glutamaterger Natur (Groenewegen and Uylings 2000; Kalivas and Nakamura 1999; Reep et al. 1996). Letztere vermittelt mutmaßlich Informationen über den Zusammenfassende Diskussion 105 emotionalen/motivationalen Wert einer Belohnung, die es dem OFC ermöglichen, das zukünftige Verhalten zu steuern (McDannald et al. 2005; Pickens et al. 2005; Pickens et al. 2003; Schoenbaum et al. 2003a; Setlow et al. 2002). Daher ist es nicht weiter überraschend, daß eine Blockade dieser glutamatergen Interaktion auf Seiten des OFC die Steuerung des Lernverhaltens deutlich beeinträchtigt. Die Tiere waren nicht mehr in der Lage, eine einmal gelernte Stimulus-Belohnungs-Assoziation umzulernen. Diese Beobachtung aus der vorliegenden Arbeit bestätigte vorangegangene Ergebnisse von Bohn und Kollegen, die trotz einer etwas verlängerten Lern- und Habituationsphase (siehe 6.4.) die gleiche Beobachtung machten (Bohn et al. 2003). Auch Murray und Kollegen kamen zu diesem Schluß und diskutierten den OFC als ein Hirnareal, welches bei der Steuerung der Verhaltensflexibilität essentiell ist und dessen Dysfunktion die Anpassung des Verhaltens an geänderte Stimulus- Belohnungs-Beziehungen verhindert (Murray et al. 2007). Eine mögliche Erklärung wäre, daß die für die Steuerung des Lernverhaltens wichtigen, belohnungsrelevanten motivationalen/emotionalen Informationen in der BLA zwar verarbeitet werden (Balleine et al. 2003; Blundell et al. 2001; Tye and Janak 2007), aber dann die Weitergabe der Informationen an den OFC unterbrochen und die Anpassungsfähigkeit des Verhaltens eingeschränkt ist. Weitere Unterstützung erfährt diese Hypothese durch Beobachtungen aus humanen Studien, in denen gezeigt werden konnte, daß Defizite, die durch Schädigungen des OFC hervorgerufen werden oft sozialer/emotionaler Natur sind (Kolb 1984). Das rührt vermutlich daher, daß durch diese Schädigungen wichtige emotionale Signal nicht verarbeitet werden können. Auch zeigten Affen mit OFC-Läsionen in einem Test auf soziale Interaktion mit Artgenossen ein deutlich reduziertes Sozialverhalten. Die Effekte glichen denen, die durch eine Läsion der Amygdala ausgelöst wurden (Kolb and Nonneman 1974). Eine weitere mögliche Erklärung für die im Versuch beobachteten Defizite im Lernverhalten wäre, daß Glutamat im OFC die Unterdrückung einer ehemals korrekten Antwortstrategie vermittelt und dadurch das Umlernen einer Stimulus- Belohnungs-Assoziation ermöglicht. Mit anderen Worten, Tiere mit NMDA-Rezeptor- Blockade verhalten sich nach Änderung der Stimulus-Belohnungs-Beziehungen weiterhin nach den ursprünglich gelernten Regeln und sind nicht in der Lage, ihr Verhalten entsprechend den neuen Regeln anzupassen. Diese Hypothese wurde allerdings in jüngerer Vergangenheit in Frage gestellt. So zeigten Chudasama und Zusammenfassende Diskussion 106 Kollegen, daß es Rhesusaffen trotz läsionierten OFC gelang, die vormals korrekte Antwortstrategie nach Änderung der Stimulus-Belohungs-Beziehung zu unterdrücken und die gestellte Aufgabe umzulernen (Chudasama et al. 2007). Eine Aussage zu möglichen Verhaltensdefiziten durch einen dysfunktionalen OFC ist allerdings aus der von Chudasama durchgeführten Studie nur schwer möglich, da nicht die glutamaterge Transmission im OFC temporär blockiert war, sondern die Affen eine komplette Ablation des OFC erhielten. Es bedarf daher weiterer Studien, die die Verhaltensdefizite näher beleuchten, welche durch dysfunktionale glutamaterge Transmission im OFC ausgelöst werden. Neben starken glutamatergen Afferenzen aus der BLA und dem mediodorsalen Thalamus (Reep et al. 1996) erreichen den OFC massive dopaminerge Afferenzen aus der VTA. Dies läßt vermuten, daß auch DA eine nicht unwesentliche Rolle bei der Steuerung von Lernverhalten spielt. Studien von Schultz (Schultz 2006) und Roesch (Roesch et al. 2007) zufolge geben DA-Neurone Informationen über belohnungsprädiktive Stimuli mit Hilfe eines Vorhersagefehlersignals weiter (Roesch et al. 2007; Schultz 2006). Dieses Signal wird natürlich auch an den OFC über DAerge Projektionen aus dem Mittelhirn weitergegeben und dort verarbeitet (O'Doherty 2003). Devaluationsexperimente, bei denen der Wert einer Belohnung durch „Überfütterung“ oder „Vergällung“ des betreffenden Futters absichtlich herabgesetzt war, wiesen nach, daß Tiere mit Läsionen im OFC in ihrem Lernverhalten inflexibel waren. So ließ man Ratten zunächst lernen, daß die Betätigung eines Hebels zu einer Futterbelohnung führt. Danach wurde das Futter zusammen mit einer Substanz, die Übelkeit auslöst, verabreicht; das Futter wurde auf diese Weise devaluiert. Testete man Ratten danach wieder in der Versuchskammer, stellte man überraschenderweise fest, daß sie dennoch den Hebel betätigten, der die devaluierte Futterbelohnung versprach. Die Flexibilität des Lernverhaltens war bei Tieren mit OFC-Läsionen deutlich beeinträchtigt. Ein ähnliches Phänomen beobachteten wir möglicherweise nach Injektionen von D1/D2- Antagonisten in den OFC während des Umlernens. Behandelte Tiere zeigten nach Injektion ein deutlich beeinträchtigtes Umlernverhalten, während entsprechende Kontrolltiere ihr Verhalten normalerweise nach 3-4 Tagen an die neuen Regeln anpaßten. Die behandelten Tiere waren also nicht mehr in der Lage, ihr Verhalten den sich ändernden Stimulus-Belohnungs-Beziehungen anzupassen. Zusammenfassende Diskussion 107 Die vorliegenden Befunde stehen in Einklang mit der Hypothese, wonach DA Vorhersagefehlersignale übermittelt. Die Blockade von DA im OFC während des Umlernens verhinderte möglicherweise die Weitergabe solcher Signale im OFC. D.h., die Information, daß ein vormals mit einer hohen Belohnung assoziierter Stimulus nunmehr mit niedriger Belohnung verknüpft ist, wurde unterdrückt. Die Tiere reagierten daher nach den ursprünglichen Stimulus-Belohnungs-Beziehungen, ihre Lernflexibilität war reduziert. Demgegenüber sind die Ursachen einer verminderten Lernflexibilität nach einer NMDA-Rezeptorblockade andere: Den OFC erreichen Signale über die Belohnungsmenge nicht mehr, die mit unterschiedlichen Stimuli assoziiert sind. Die Tiere „verwechseln“ die Stimuli und die denen zugeordneten Belohnungsmengen, ihre Diskriminationsleistung ist beeinträchtigt (Bohn et al. 2003; Winter et al. 2009). Dem gegenüber steht eine Studie von Clarke und Kollegen, die 5-HT und nicht DA- oder Glutamat-vermittelte Signale eine Rolle beim Umkehrlernen zuordnet (Clarke et al. 2007). Die Arbeitsgruppe beobachtete nach einer DAergen Läsion des OFC keine Beeinträchtigung des Umlernverhaltens. Die Ergebnisse der vorliegenden Arbeit und die von Clarke und Kollegen gemachten Beobachtungen sind allerdings insofern schwierig zu vergleichen, weil bei Clarke ein Tier aus jeweils zwei gleichzeitig gegebenen Stimuli jenen wählen mußte, der mit der Belohnung assoziiert war. Die Bewältigung solcher Aufgaben, bei der eine belohnte und eine nicht belohnte Handlung diskriminiert werden müssen, kann nach Arbeiten von Philmore ohne Beteiligung des DA-Systems erfolgen (Phillmore 2008). Die hier verwendete Aufgabe scheint also etwas andere Anforderungen an den OFC zu stellen. Von großem Interesse wäre bei zukünftigen Studien, ob eventuell die gleichzeitige Blockade von D1- und D2-Rezeptoren einen additiven Effekt auf das Umlernverhalten der Tiere hätte. Um diese Fragen abschließend zu klären, wären jedoch weitere Studien notwendig, die sich mit den genauen Abläufen während des Umlernens beschäftigten und den Effekt einer gleichzeitige Gabe eines D1- und D2-Antagonisten auf das Umlernverhalten untersuchten. Dem OFC scheint den hier gezeigten Ergebnissen zufolge eine essentielle Rolle bei der Steuerung des Umlernverhaltens zuzukommen. Dabei beeinträchtigt sowohl die Blockade der D1- und D2-Rezeptoren, als auch die Blockade der NMDA-Rezeptoren im OFC die Fähigkeit der Tiere, ihr Verhalten geänderten Stimulus-Belohnungs- Zusammenfassende Diskussion 108 Beziehungen anzupassen. Bei der Betrachtung zukünftiger Ergebnisse sollte darauf geachtet werden, ob die Tiere bei den verwendeten Verhaltenstests eine Unterscheidung zwischen viel/wenig oder ja/nein-Belohnung treffen müssen, da beide Prozesse offenbar unterschiedliche Anforderungen an die Verhaltenssteuerung und die beteiligten neuronalen Signale stellen. 6.9 Die Rolle von Dopamin im posterioren dorsomedialen Striatum Aus den Ergebnissen von Experiment 3 geht hervor, daß das pDMS maßgeblich an der Steuerung des zielgerichteten Verhaltens beteiligt ist. Eine DAerge Läsion des pDMS verhinderte, daß Tiere ihr Verhalten entsprechend dem Unterschied zwischen zwei Belohnungsstärken anpassen können. Dagegen ist die generelle Diskriminationsfähigkeit nicht gestört, d.h., die Fähigkeit, zwei verschiedene Lichthelligkeiten oder andere visuelle Stimuli per se zu unterscheiden, ist weiterhin intakt. Das pDMS ist also diesen Ergebnissen zufolge für eine Modulation des Verhaltens und Anpassung einer Handlung an unterschiedliche Belohnungsstärken notwendig und DA scheint dabei eine essentielle Rolle zu spielen. Die Beteiligung des DS an der Steuerung des Verhaltens ist in den letzten Jahren vermehrt in den Fokus des Interesses gerückt. So vermuteten viele Studien einen unterschiedlichen Einfluß der verschiedenen Subregionen des DS (siehe 4.4) auf die Steuerung von Lernverhalten (z.B. Graybiel 1998; Hikosaka et al. 2000). Elektrophysiologische Untersuchungen konnten zeigen, daß die Aktivität von DMS- Neuronen, deren Feuermuster mit der Ausführung erlernter Handlungen korrelierte, durch die Erwartung eines bestimmten Ereignisses moduliert werden konnte (Hassani et al. 2001; Kawagoe et al. 1998). Im Gegensatz dazu zeigten DLS-Neurone keinerlei Korrelation zwischen ihrer Aktivität und der Erwartung einer Belohnung (Carelli and Deadwyler 1997; Jaeger et al. 1993; Jog et al. 1999; Kimura 1990; Kimura 1992; White and Rebec 1993). Dies konnten Yin und seine Kollegen ebenfalls belegen (Yin et al. 2004; Yin et al. 2005b). Während Läsionen des DLS in Lernaufgaben die Verknüpfung einer Handlung mit einem spezifischen Stimulus verhinderten, unterbanden Läsionen des DMS die Ausbildung von Assoziationen zwischen einer Handlung und dem dazugehörigen Ergebnis. Basierend auf diesen Befunden führten Zusammenfassende Diskussion 109 Corbit und Janak Verhaltensstudien durch, bei denen sie den Einfluß von klassischen Stimuli auf instrumentelles Lernverhalten untersuchten (Corbit and Janak 2007) (PIT). Dabei stellten sie ebenfalls fest, daß Läsionen beider Subregionen unterschiedliche Auswirkungen auf das Verhalten hatten. Während ein dysfunktionales DLS die Verstärkung des instrumentellen Verhaltens durch klassisch konditionierte Stimuli verhinderte, verschwand nach einer Läsion des DMS die Selektivität dieser Verstärkung. D.h., die Tiere zeigten eine Verstärkung des instrumentellen Verhaltens durch klassisch konditionierte Stimuli. Das DMS scheint also eine entscheidende Rolle bei der Diskrimination unterschiedlicher Stimuli und damit bei der Verhaltensflexibilität zu spielen (Ragozzino 2007). Unklar war bis dato allerdings, welche Neurotransmitter an der Vermittlung dieser Informationen im DMS beteiligt sind. Einen ersten Hinweis darauf, daß DA dabei eine wichtige Aufgabe übernimmt, ergaben Studien von O`Neill und Brown (O'Neill and Brown 2007). Diese beobachteten, daß eine DA-Läsion im DMS die Verhaltensflexibilität in einer räumlichen Umlernaufgabe beeinträchtigte, dabei aber die generelle Diskriminationsfähigkeit der Tiere intakt ließ. Das Erlernen von Handlungen, wie sie bei den Studien von O´Neill und Brown, aber auch in der vorliegenden Arbeit untersucht wurden, läßt sich in mehrere Prozesse aufteilen. Lerntheoretische und experimentelle Modelle (Dickinson and Balleine 1994) sprechen von drei Teilvorgängen: Die Assoziation von 1.) Stimulus – Ergebnis (S-O), 2.) Stimulus – Handlung (S-R), und 3.) Handlung – Ergebnis (R-O). Da in der vorliegenden Aufgabe alle Prozesse zum Erlernen der Aufgabe notwendig sind und der Zusammenhang zwischen einem Stimulus, einer Handlung und einem Ergebnis gelernt werden muß, stellt sich die Frage, welcher der oben genannten Teilprozesse durch eine DA-Läsion des pDMS beeinträchtigt ist. Bereits 2005 konnten Yin und Kollegen in einer ihrer Studien zeigen, daß sowohl das gesamte DMS (Featherstone and McDonald 2004; Ragozzino 2007), als auch das pDMS (Yin and Knowlton 2004; Yin et al. 2005b) keine entscheidende Rolle beim Lernen von S-R Assoziationen spielt. Dies bestätigten auch unsere Teilexperimente 2 und 3, da die generelle Diskriminationsfähigkeit der Tiere nach einer 6-OHDA-Läsion nicht beeinträchtigt war. Bleibt also die Frage, ob eine beeinträchtigte S-O, oder R-O Assoziation für das hier beobachtete Verhaltensdefizit verantwortlich sein könnte. Aus unseren Ergebnissen geht hervor, daß pDMS DA-Tiere beide Assoziationen bilden Zusammenfassende Diskussion 110 können, da sie in der Lage sind, sowohl eine instrumentelle Handlung (Hebeldruck), als auch einen Lichtstimulus mit einer Belohnungsgabe zu assoziieren. Jedoch können die Tiere verschiedene Stimuli, die mit verschiedenen Belohnungsstärken assoziiert sind, nicht unterscheiden. Mit anderen Worten: Möglicherweise ist doch das S-O-Lernen der Tiere in irgendeiner Form beeinträchtigt. Dieser Annahme widersprechen Beobachtungen von O´Neill und Brown bei denen Tiere Stimuli, die Belohnung anzeigen, von solchen unterscheiden lernen, die keine Belohnung anzeigen (O'Neill and Brown 2007). Diese unterschiedlichen Ergebnisse beruhen vermutlich auf der Verwendung unterschiedlicher Aufgaben. So untersuchen O´Neill und Brown Entscheidungsprozesse, die bei der Diskrimination zwischen Belohung und Nicht-Belohnung ablaufen. Diese sind jedoch, wie unser Experiment 3 und andere Studien (Phillmore 2008) zeigen, DA-unabhängig. Andererseits spielt DA aber in Situationen, in denen zwischen viel und wenig diskriminiert werden muß, eine entscheidende Rolle (Costa et al. 2007; Tobler et al. 2005). Die Diskrimination von Stimuli, die Belohnung gegenüber Nicht-Belohnung, sowie von Stimuli, die viel gegen wenig Belohnung anzeigen, findet also unter Beteiligung von unterschiedlichen Schaltkreisen statt. Erste Hinweise darauf, daß Unterscheidungen zwischen Stimuli, die viel/wenig Futter und Futter/kein Futter anzeigen, durch verschiedene Mechanismen gesteuert werden, liefert eine Studie von Matsumoto und Hikosaka 2007 (Übersicht in Phillmore 2008). Diese untersuchten den Einfluß der Aktivierung von Neuronen der lateralen Habenula in einer Belohnungs - nicht- Belohnungs - Situation auf die Aktivierung der DA-Neurone in der Substantia nigra. Bemerkenswert war, daß eine Aktivierung der Habenula-Neurone in der Belohnung- „nein“- Situation eine Hemmung der DA-Neurone in der VTA und der Substantia nigra zur Folge hatte. Diese Hemmung führte zu einer Reduktion der DA-Freisetzung an den DA-Terminalen einschließlich des pDMS. Demzufolge scheint die Diskrimination von Stimuli, die eine Belohnung oder keine anzeigen, nicht „innerhalb“ des DA-Systems abzulaufen, sondern in den der Substantia nigra und der VTA vorgeschalteten Hirnarealen. Zusätzlich gelang es Cromwell und Schultz in Aufgaben, die eine Unterscheidung von Stimuli verlangten, die hohe bzw. niedrige Belohnung anzeigten, daß sich die neuronale Aktivität striataler Neurone in Abhängigkeit von der vorab signalisierten Belohnungsstärke änderte (Cromwell and Schultz 2003). Die Vermutungen gehen Zusammenfassende Diskussion 111 dahin, daß diese Informationen von DA-Neuronen übermittelt werden. Ein solches DA-vermitteltes Vorhersagefehlersignal wird im Striatum weiterverarbeitet und hat dadurch wesentlichen Anteil an der Steuerung des belohnungsgerichteten Verhaltens. Dem Vorhersagefehlersignal wird im Striatum eine entscheidende Rolle bei der Bewertung einer Handlung, bzw. einer getroffenen Entscheidung zugesprochen (Lau and Glimcher 2007; Lau and Glimcher 2008). Das instrumentelle Verhalten in unserer Reaktionszeit-Aufgabe wird wesentlich vom Wert der von den visuellen Stimuli angezeigten Belohnung bestimmt. Möglicherweise ist nach einer 6- OHDA-Läsion des pDMS die Übermittlung des Vorhersagefehlersignals unterbrochen. Demzufolge kann das Tier keine Vorhersagen über den Wert einer mit dem Stimulus assoziierten Belohnung treffen, das Erlernen der Diskriminationsaufgabe ist deshalb beeinträchtigt. Auch Untersuchungen von Nakamura und Hikosaka an Primaten konnten zeigen, daß Injektionen von DA-Antagonisten in den N. caudatus (homolog zum DMS bei Ratten) zu einer Einschränkung der Fähigkeit der Primaten führten, ihr Verhalten in Erwartung unterschiedlicher Belohnungsstärken anzupassen (Nakamura and Hikosaka 2006). Injektionen von D1- und D2-Antagonisten hatten dabei offenbar unterschiedliche Auswirkungen auf das Verhalten. Während die Injektion eines D1- Antagonisten, sowohl die Reaktionszeit, als auch das Umlernverhalten der Tiere verlangsamte, waren die Reaktionszeiten nach Injektion von D2-Antagonisten deutlich erhöht. In vielen Arealen, die starke Projektionen zum pDMS haben - wie dem OFC (z.B. Tremblay and Schultz 1999), oder auch der BLA (Schoenbaum et al. 2000) - konnte belohnungsassoziierte neuronale Aktivität nachgewiesen werden. Speziell die Verbindung BLA-pDMS scheint maßgeblich an der Weitergabe von Informationen über den Wert der zu erwarteten Belohnung beteiligt zu sein (Yin et al. 2005a). Dies überrascht nicht weiter, denn seit langem ist bekannt, daß die Amygdala belohnungsprädiktive Stimuli verarbeitet und diese Informationen an andere Hirnareale wie das pDMS weitergibt. Auf diesem Wege könnten also Informationen über die belohnende Qualität eines Stimulus an das pDMS weitergegeben werden. DA ist demnach nicht direkt an der Verhaltenssteuerung beteiligt, sondern vielmehr indirekt, indem es eine Art Aktivierungssignal weitergibt, das belohnungsassoziierte Informationen aus anderen Hirnarealen im pDMS verstärkt; möglicherweise ausgelöst durch die phasische Aktivität DAerger Neurone (s. Kap. 4.5). Dies wäre ein anderer Zusammenfassende Diskussion 112 DA-abhängiger Mechanismus, der zur Steuerung des hier gemessenen instrumentellen Verhaltens beiträgt. Die Rolle des pDMS und speziell die Funktionen von DA im pDMS bei der Verarbeitung belohnungsprädiktiver Informationen ist bislang weitgehend unklar. Ergebnissen der vorliegenden Arbeit zufolge scheint DA im pDMS eine entscheidende Rolle bei der Steuerung instrumentellen Verhaltens durch belohnungsprädiktive Stimuli zu spielen. Die Beteiligung von DA im pDMS an der Steuerung des Verhaltens scheint darüber hinaus von der Art der Diskriminationsaufgabe abhängig zu sein. Nur bei viel Belohnung/wenig Belohnung-Diskiminationen wird ein DAerges Signal im pDMS benötigt. Dagegen läuft eine Steuerung durch Stimuli, die prädiktiv für Belohnung gegenüber Nicht-Belohnung sind, ohne Beteiligung von DA im pDMS ab. Weitere Aufklärung über die belohnungsassoziierten Abläufe im pDMS könnten Studien bringen, die phasische und tonische Aktivitätsänderungen der DA-Neurone in einer Belohnung - Nicht-Belohnung - Situation im Gegensatz zu einer Entscheidungssituation zwischen viel Belohnung und wenig Belohnung untersuchen würden. 6.10 Die Rolle von Dopamin beim zielgerichteten Verhalten Wie aus den durchgeführten Experimenten hervorgeht, ist der Beitrag, den DA in den verschiedenen untersuchten Hirnarealen bei der Steuerung von Lernvorgängen leistet, unterschiedlich. Einen Überblick über die verschiedenen Funktionen liefert Tabelle 1. Dabei fällt auf, daß DA offenbar sowohl beim Erlernen eines zielgerichteten Verhaltens eine essentielle Rolle spielt (Experiment 3), als auch bei der Vermittlung der Verhaltensflexibilität (Experiment 1 und 2). Zusammenfassende Diskussion 113 Untersuchtes Hirnareal Defizit nach DA-Läsion/Blockade Funktion von DA Umlernen gelernter S-O Assoziationen Æ NAC Handlungsintensität È Steuerung moti- vationaler Aspekte Umlernen gelernter S-O Assoziationen È OFC Handlungsintensität Æ Umlernen Erlernen von S-O Assoziationen È pDMS Handlungsintensität Æ Erlernen Tabelle 1: Kurze Zusammenfassung der möglichen Funktionen von DA in den verschiedenen untersuchten Hirnarealen auf Grundlage der hier durchgeführten Verhaltenstests. Im NAC scheint DA unseren Ergebnissen zufolge eine essentielle Rolle bei der motivationalen Steuerung von instrumentellem Verhalten zu spielen. Eine Injektion von DA-Rezeptorantagonisten in den NAC während der Umlernphase verhindert nicht, daß die Tiere eine instrumentelle Aufgabe umlernen können, verringert jedoch die Motivation der Tiere für die zu erwartenden Belohnungen zu „arbeiten“. Die Verhaltensflexibilität ist jedoch nach Injektionen von DA-Rezeptorantagonisten in den OFC während der Umlernphase einer instrumentellen Lernaufgabe deutlich beeinträchtigt, wohingegen die Motivation, für die Belohnung zu arbeiten, davon unbeeinträchtigt bleibt. Sowohl im NAC, als auch im OFC treten die beobachteten Verhaltensdefizite nach Injektion von D1- als auch D2-Antagonisten auf. Zahlreiche Arbeiten in der Vergangenheit konnten jedoch zeigen, daß beide Rezeptortypen auch unterschiedliche Beiträge zur Verhaltenssteuerung leisten können (Floresco et al. 2006; Nakamura and Hikosaka 2006). Das pDMS dagegen scheint eine wichtige Aufgabe bei der Anpassung des Verhaltens an Stimuli, prädiktiv für unterschiedliche Belohnungsstärken zu erfüllen. DA hat also in Strukturen der limbischen und assoziativen Funktionsschleife keine einheitliche Funktion. Wäre dies der Fall, müßten Eingriffe in die DAerge Transmission des NAC und des OFC, die beide der limbischen Funktionsschleife angehören, ähnliche Verhaltensdefizite auslösen. Dies ist jedoch, wie hier und in anderen Studien gezeigt werden konnte, nicht der Fall (Cagniard et al. 2006; Robinson et al. 2005; Yin et al. 2006). So gelang es z.B. Robinson mit Hilfe von transgenen DA-defizienten Mäusen in einem Labyrinth-Versuch zu zeigen, daß zielgerichtete Verhaltensweisen trotz fehlenden Dopamins gelernt werden konnten (Robinson et al. 2005). Ebenso wurde an hyperdopaminergen Mäusen im Vergleich Zusammenfassende Diskussion 114 zu Kontrolltieren kein gesteigertes Lernverhalten beobachtet (Cagniard et al. 2006; Yin et al. 2006). Dieses würde man erwarten, wenn DA das Erlernen zielgerichteten Verhaltens vermitteln würde. Auch unterscheiden sich die Verhaltensdefizite, die man nach Eingriffen in die DAerge Transmission der verschiedenen Hirnareale beobachten kann, deutlich voneinander. Außerdem korrespondieren sie meist nicht mit allen bekannten Funktionen des betreffenden Hirnareals (z.B. Robinson et al. 2005; Salamone and Correa 2002; Schweimer and Hauber 2006; Wise and Schwartz 1981). So ist bekannt, daß z.B. das pDMS an der Steuerung zielgerichteter Verhaltensweisen beteiligt ist (Yin et al 2005; Yin et al. 2006). Neuere Arbeiten konnten jedoch zeigen, daß eine 6-OHDA-Läsion im pDMS das zielgerichtete Verhalten nicht beeinträchtigt, da die Tiere noch sensitiv auf eine Ergebnisdevaluation reagieren (Lex and Hauber 2009b). Die DAerge Transmission scheint vielmehr daran beteiligt zu sein Kontextinformationen, die das pDMS aus dem entorhinalen Kortex erreichen weiterzuverarbeiten (Lex and Hauber 2009a). Welche Informationen übermittelt das DA-Signal in den betreffenden Strukturen? Wie schon in der Einleitung erwähnt, existieren zur Funktion von DA zum Teil widersprüchliche Hypothesen (Berridge 2007; Wise 2004). Die Vorhersagefehler- Hypothese (Schultz 1998) oder die „incentive salience“-Hypothese (Berridge and Robinson 1998) stellen die Aufgaben, die DA bei der Steuerung zielgerichteter Verhaltensweisen spielt, am besten dar. Im folgenden werden beide Hypothesen näher beleuchtet und auf die hier erzielten Ergebnisse angewendet. Nach Eingriffen in die DAerge Transmission im NAC waren Tiere in der Lage, neue Zusammenhänge zu erlernen, d.h. ihre Fähigkeit, umzulernen, war nicht beeinträchtigt. Der NAC und seine DA-Innervation scheint also beim Umlernen keine essentielle Rolle zu spielen. Die Blockade des DA-vermittelten Vorhersagefehlers (siehe 4.5.6) blieb ohne Auswirkungen auf das Umlernen. Demgegenüber war die Handlungsausführung der Tiere deutlich langsamer. Dafür sind keine motorischen Beeinträchtigungen verantwortlich, sondern mutmaßlich motivationale Faktoren. Zahlreiche weitere Arbeiten zeigen ebenfalls, daß Eingriffe in das accumbale DA-System der Tiere das motivationale Verhalten beeinflußten (Di Ciano 2008; Salamone et al. 2005; Salamone et al. 1997; Wyvell and Berridge 2000). Dies steht in Einklang mit der „incentive salience“-Hypothese. Sie besagt, daß DA den subjektiven Wert vermittelt, den ein Stimulus besitzt. Dabei geht der Anreiz, den eine erwartete Belohnung auf Zusammenfassende Diskussion 115 das Verhalten hat, auf den Stimulus, der diese Belohnung vorhersagt, über. Es werden viele Faktoren in die „Bewertung“ dieses Stimulus einbezogen. Dazu gehören z.B. die Wahrscheinlichkeit, mit der der Stimulus zu einer Belohnung führt, oder der aktuelle physiologische Zustand des Organismus (z.B. Hunger), sowie der biologischen Wert (z.B. Nährwert) der zu erwartenden Belohnung (z.B. Aragona et al. 2006; Everitt and Robbins 2005; Roitman et al. 2004; Volkow et al. 2005). Beide Einflußgrößen haben jedoch wenig Auswirkung auf die beobachteten Defizite. Die Wahrscheinlichkeit der Gabe einer Futterbelohnung nach Betätigung des Hebels lag bei 100%. Auch der Hungerzustand der Tiere war annähernd gleich, da alle Tiere während des Versuchszeitraums gleichermaßen restriktiv mit Futter versorgt wurden. Möglich wäre aber ebenso, daß die Tiere nicht mehr in der Lage sind, Informationen über die geänderten Stimulus-Belohnungs-Beziehungen mittels des Vorhersagefehlersignals der DA-Neurone an nachfolgende Neurone weiterzugeben und damit das zielgerichtete Verhalten entsprechend zu verstärken oder abzuschwächen. Eine DA-Blockade im OFC dagegen ist ein Spiegelbild der Auswirkungen einer DA- Blockade im NAC. Die Fähigkeit der Tiere, einmal gelernte Zusammenhänge umzulernen, ist nach Injektion von DA-Rezeptorantagonisten in den OFC während der Umlernphase beeinträchtigt. Die Intensität der Handlungsausführung bleibt dagegen davon unbeeinflußt. Diese Beobachtungen stehen in Einklang mit der Vorhersagefehlertheorie. Demnach ist das Umlernen einer einmal gelernten Stimulus- Belohnungs-Beziehung von DA im OFC abhängig. Durch die Beeinträchtigung der dopaminergen Transmission ist das Umlernen nicht mehr möglich, und den Tieren gelingt es folglich nicht, ihr Verhalten den neuen Zuordnungsregeln anzupassen. Wie zuvor beim NAC könnte allerdings auch hier das beobachtete Verhaltensdefizit durch die Hypothese des „incentive salience“ erklärt werden. Das fehlende DA-Signal über den Anreizwert der zu erwartenden Belohnung, nämlich die belohnenden Qualitäten von fünf bzw. einem Sucrosepellet(s), kann nicht mehr zur Steuerung des Verhaltens verwendet werden. Etwas schwieriger gestaltet sich die Einordnung der Ergebnisse aus Experiment 3. Neueste Arbeiten zur Vorhersagefehlertheorie besagen, daß nicht die absolute Menge einer Belohnung darin codiert wird, sondern die relative Veränderung der erhaltenen zur vorausgesagten Belohnungsstärke (Schultz 2007a; Tobler et al. 2005). Das Zusammenfassende Diskussion 116 Gehirn macht nach dieser Hypothese bei der Wahrnehmung eines Stimulus eine Vorhersage auf die zu erwartende Belohnungsmenge. Dazu dient die in der Vergangenheit erhaltene Belohnungsstärke als eine Art Referenzwert. Diese Informationen über unterschiedliche Belohnungsstärken bzw. das Vorhersagefehlersignal können in unserem Fall aber nicht in die Verhaltenssteuerung im pDMS einfließen, da die dopaminerge Transmission im pDMS von Beginn des Verhaltenstestes an durch die 6-OHDA Läsion unterbrochen ist. Interessanterweise können die Tiere die Stimuli aber trotzdem diskriminieren. Sie sind allerdings nicht in der Lage, ihr Verhalten entsprechend den Zuordnungsregeln an die unterschiedlichen Belohnungsstärken anzupassen. Überraschend ist die Tatsache, daß die beeinträchtigte Verhaltensanpassung „zurückkehrt“, sobald zwischen einem belohnten und einem nicht belohnten Stimulus unterschieden werden muß. DA scheint demzufolge im pDMS nur am viel Belohnung - wenig Belohnung- Diskriminationsverhalten beteiligt zu sein. Sowohl die Vorhersagefehler-Hypothese, als auch die Theorie des „incentive salience“ ist in der Lage, die beobachteten Ergebnisse zu erklären. Zusammenfassend läßt sich sagen, daß derzeit leider keine allgemein gültigen Theorien zur Funktion von DA existieren, die mit allen in der Vergangenheit beobachteten Verhaltenseffekten korrespondiert. Offenbar ist die Funktion von DA an der Steuerung zielgerichteter Verhaltensweisen und der Vermittlung der Verhaltensflexibilität abhängig vom untersuchten Hirnareal. Dabei scheint die Zeit, in der diese Funktionen ablaufen, ein weiteres wichtiges Kriterium zu sein (Übersicht in Schultz 2007a). Die Zeitspanne geht dabei von einigen ms bis hin zu größeren Perioden von bis zu mehreren Stunden. In der kürzesten Zeitspanne spielt DA eine Rolle beim Belohnungslernen und der Bewertung einer erwarteten Belohnung. In den größeren Perioden erreicht der DA-Spiegel einen steady-state Zustand, der für ein „Enabling“ der Signale in postsynaptischen Strukturen wie dem Striatum oder frontalen Kortex sorgt. In dem dazwischen liegenden Zeitraum sind verschiedene andere Funktionen codiert, wie z.B. die Vermittlung der Wahrscheinlichkeit eines Ereignisses (Schultz et al. 2008; St Onge and Floresco 2009; Tan and Bullock 2008a; Tan and Bullock 2008b), oder die - über Voltametrie oder Mikrodialyse gemessene - Antwort der DA-Neurone auf aversive Reize (z.B. Anstrom et al. 2009; Jeanblanc et al. 2002; Martinez et al. 2008). Zusammenfassende Diskussion 117 Allerdings bietet die im Vergleich mit anderen Neurotransmittersystemen recht geringe Zahl an DA-Neuronen bei weitem nicht genügend Kapazitäten, um alle vermuteten Funktionen selber auszuführen. Vielmehr scheint DA für eine Art Aktivierung zu sorgen, die es den jeweils am Verhalten beteiligten Arealen ermöglicht ihre Funktionen adäquat auszufüllen. Das führt dazu, daß ein Fehlen von DA im Falle von gezielten Eingriffen am Gehirn, oder bei spezifischen Krankheiten wie z.B. Parkinson so gravierende Auswirkungen auf ganz verschiedene Arten von Verhalten hat. 6.11 Zusammenfassung DA moduliert auf vielfältige Weise instrumentelles Verhalten. Betrachtet man die Aktivität von DA-Neuronen, so fällt auf, daß Signale in unterschiedlichen Zeitfenstern übermittelt werden, die unterschiedliche Informationen beinhalten. Sog. Vorhersagefehlersignale sind in kurzfristigen, wenige Millisekunden dauernden Aktivitätsänderungen verschlüsselt. Auch die Wahrscheinlichkeit, mit der bestimmte Ereignisse auftreten, ist in kurzfristigen Aktivitätsänderungen DAerger Neurone kodiert. Aktivitätsänderungen von DA-Neuronen in Minutenbereichen (ca. 10-30min) kodieren das Auftreten signifikanter Ereignisse in der Umwelt, z.B. von Nahrung. Darüber hinaus spielt die basale DA-Freisetzung per se eine wichtige Rolle. Die Präsenz einer basalen DA-Konzentration ist vielfach Vorraussetzung dafür, daß bestimmte Hirnfunktionen - wie z.B. die Motorik realisiert - werden können. Das ist deutlich an den Ausfallserscheinungen zu erkennen, wie sie bei Morbus Parkinson zu Tage treten. Diese DA-Signale in verschiedenen Zeitfenstern steuern auf komplexe Weise instrumentelles Verhalten. Verschiedene Hypothesen spezifizieren den Beitrag, den DA hierbei leistet. Einige wesentliche Hypothesen wurden angesprochen. Die Vorhersagefehlertheorie schreibt DA-Signalen eine bedeutsame Rolle bei instrumentellen Lernvorgängen zu. Die „incentive salience“-Hypothese dagegen besagt, daß DA-Signale für die Übertragung der motivationalen Eigenschaften einer Belohnung auf den zugehörigen belohnungsprädiktiven Stimulus verantwortlich sind. Zusammenfassende Diskussion 118 DA erfüllt diese verhaltenssteuernde Funktion durch die Modulation v.a. von zwei Schaltkreisen: der limbischen und der assoziativen Funktionsschleife. Die limbische Funktionsschleife steuert motivationale Funktionen, die assoziative Schleife verschiedene Lernfunktionen. Dabei sind v.a. Signale relevant, die über die D1 und die D2-Rezeptoren übermittelt werden. Ein wesentliches, noch weitgehend offenes Problem war, auf welche Weise DA- Signale in der limbischen und assoziativen Schleife zur Steuerung instrumentellen Verhaltens beitragen. Bisherige Untersuchungen legten nahe, daß der Beitrag von DA in den einzelnen Teilstrukturen der Schleifen nicht einheitlich ist und das Muster der beteiligten DA-Rezeptoren ebenfalls heterogen zu sein scheint. In der vorliegenden Untersuchung wurde die Rolle von DA-Signalen in 2 Strukturen der limbischen und einer Teilstruktur der assoziativen Schleifen untersucht. Eine Blockade der D1- und D2-Rezeptoren im OFC, der Teil der limbischen Funktionsschleife ist, beeinträchtigte eine spezielle Form des instrumentellen Lernens, nämlich das Umlernen einmal gelernter S-O-Assoziationen. Dieser Befund konnte mit Hilfe der von Schulz erstmalig postulierten Vorhersagefehlerhypothese erklärt werden. Die Intensität des instrumentellen Verhaltens blieb jedoch von der Blockade unbeeinträchtigt. D.h., DA scheint im OFC keine motivationalen Aufgaben bei der Steuerung des instrumentellen Verhaltens der Tiere zu erfüllen, und beide DA-Rezeptor-Subtypen sind gleichermaßen an der Vermittlung dieses Verhaltens beteiligt. Im NAC führt demgegenüber eine Blockade der D1- und der D2-Rezeptoren zu keiner Störung des Umlernverhaltens, vielmehr war hier die Intensität des Verhaltens generell verringert. DA-Signale im NAC über sowohl die D1- als auch die D2- Rezeptoren dienen also der Steuerung der motivationalen Komponente des instrumentellen Verhaltens. Eine mögliche Erklärung wäre, daß die motivationale Wirkung, die von den Stimuli ausgeht, reduziert war („incentive salience“). Hierfür sind vermutlich DA-Signale relevant, die in einem „mittleren“ Zeitfenster, d.h. Minutenbereich, übermittelt werden. Interessanterweise führte die Blockade der D1- und D2-Rezeptoren nicht zu Störungen des instrumentellen Lernverhaltens. Dies stimmt mit der Annahme überein, daß der NAC eine untergeordnete Rolle bei assoziativen Lernvorgängen spielt. Betrachtet man die DA-Modulation von OFC und NAC, wird deutlich, daß DA in unterschiedlichen Teilbereichen derselben Funktionsschleife abweichende Funktionen erfüllt. Während DA im OFC vornehmlich Zusammenfassende Diskussion 119 an der Steuerung des Umlernverhaltens beteiligt ist, steuern DA-Signale im NAC hauptsächlich motivationale Komponenten des Verhaltens. Bei Betrachtung des pDMS wird deutlich, daß die DA-Modulation eine Anpassung des instrumentellen Verhaltens an belohnungsprädiktive Stimuli ermöglicht. Die Tiere waren beeinträchtigt, ihr instrumentelles Verhalten an Signale anzupassen, die verschiedene Belohnungsmengen signalisierten. Auch wenn einige Details dieser Modulation noch der genaueren Klärung bedürfen, bleibt festzuhalten, daß DA- Signale im pDMS an der Steuerung kognitiver Verhaltensweisen mitwirken und nicht wie im NAC die motivationale Komponenten des Verhaltens steuern. Eine mögliche Erklärung für die beobachteten Verhaltensbeeinträchtigungen nach einer DA-Läsion im pDMS könnte ebenfalls die schon erwähnte Vorhersagefehlerhypothese von Schultz liefern. Hier scheinen DA-Signale im Subsekunden- bis Millisekundenbereich zu der Anpassung des Verhaltens an belohnungsprädiktive Stimuli beizutragen. Dies ist eine der ersten Arbeiten, die zeigen konnte, daß eine DA-Modulation der assoziativen Schleife für die von ihr erbrachten kognitiven Leistungen wichtig ist. Aus all diesen Beobachtungen lassen sich abschließend folgende Punkte zusammenfassen: 1. Die DA-Modulation in unterschiedlichen Zielgebieten DAerger Neurone erfüllt unterschiedliche Funktionen. 2. Selbst wenn die Zielgebiete derselben Funktionsschleife angehören, können diese Funktionen verschieden sein. 3. Die funktionelle Unterteilung der Funktionsschleifen in eine assoziative und eine limbische ist in manchen Fällen nicht eindeutig. Es gibt einige funktionelle Überlappungen, die eine strikte Trennung der beiden Funktionsschleifen schwierig machen. Literaturverzeichnis 120 7 Literaturverzeichnis Adams, S., R. P. Kesner and M. E. Ragozzino (2001). "Role of the medial and lateral caudate-putamen in mediating an auditory conditional response association." Neurobiol Learn Mem 76(1): 106-116. Agnati, L. F., M. Zoli, I. Stromberg and K. Fuxe (1995). "Intercellular communication in the brain: wiring versus volume transmission." Neuroscience 69(3): 711- 726. Aktories, K., U. Förstermann, F. Hofmann and K. Starke (2005). "Allgemeine und Spezielle Pharmakologie und Toxikologie." Urban & Fischer München 9. Auflage. Albin, R. L., A. B. Young and J. B. Penney (1989). "The functional anatomy of basal ganglia disorders." Trends Neurosci 12(10): 366-375. Alexander, G. E. and M. D. Crutcher (1990). "Functional architecture of basal ganglia circuits: neural substrates of parallel processing." Trends Neurosci 13(7): 266- 271. Anstrom, K. K., K. A. Miczek and E. A. Budygin (2009). "Increased phasic dopamine signaling in the mesolimbic pathway during social defeat in rats." Neuroscience 161(1): 3-12. Balleine, B. W., A. S. Killcross and A. Dickinson (2003). "The effect of lesions of the basolateral amygdala on instrumental conditioning." J Neurosci 23(2): 666- 675. Barbeau, A. (1972). "Role of dopamine in the nervous system." Monogr Hum Genet 6: 114-136. Berg, J. M., L. Stryer and J. L. Tymoczko (2007). "Biochemie." Spektrum Akademischer Verlag. Berridge, K. C. (2000). "Measuring hedonic impact in animals and infants: microstructure of affective taste reactivity patterns." Neurosci Biobehav Rev 24(2): 173-198. Berridge, K. C. (2007). "The debate over dopamine's role in reward: the case for incentive salience." Psychopharmacology (Berl) 191(3): 391-431. Literaturverzeichnis 121 Berridge, K. C. and T. E. Robinson (1998). "What is the role of dopamine in reward: hedonic impact, reward learning, or incentive salience?" Brain Res Rev 28: 309-369. Berridge, K. C. and T. E. Robinson (2003). "Parsing reward." Trends Neurosci 26(9): 507-513. Birrell, J. M. and V. J. Brown (2000). "Medial frontal cortex mediates perceptual attentional set shifting in the rat." J Neurosci 20(11): 4320-4324. Bjorklund, A. and S. B. Dunnett (2007). "Dopamine neuron systems in the brain: an update." Trends Neurosci 30(5): 194-202. Blundell, P., G. Hall and S. Killcross (2001). "Lesions of the basolateral amygdala disrupt selective aspects of reinforcer representation in rats." J Neurosci 21(22): 9018-9026. Bohn, I., C. Giertler and W. Hauber (2003). "NMDA receptors in the rat orbital prefrontal cortex are involved in guidance of instrumental behaviour under reversal conditions." Cereb Cortex 13(9): 968-976. Brennan, A. R. and A. F. Arnsten (2008). "Neuronal mechanisms underlying attention deficit hyperactivity disorder: the influence of arousal on prefrontal cortical function." Ann N Y Acad Sci 1129: 236-245. Cagniard, B., P. D. Balsam, D. Brunner and X. Zhuang (2006). "Mice with chronically elevated dopamine exhibit enhanced motivation, but not learning, for a food reward." Neuropsychopharmacology 31(7): 1362-1370. Caille, I., B. Dumartin and B. Bloch (1996). "Ultrastructural localization of D1 dopamine receptor immunoreactivity in rat striatonigral neurons and its relation with dopaminergic innervation." Brain Res 730(1-2): 17-31. Cakmakli, G. Y., H. Oruckaptan, E. Saka and B. Elibol (2009). "Reversible acute cognitive dysfunction induced by bilateral STN stimulation." J Neurol (epub ahead of print) Cardinal, R. N., D. R. Pennicott, C. L. Sugathapala, T. W. Robbins and B. J. Everitt (2001). "Impulsive choice induced in rats by lesions of the nucleus accumbens core." Science 292(5526): 2499-2501. Carelli, R. M. and S. A. Deadwyler (1997). "Cellular mechanisms underlying reinforcement-related processing in the nucleus accumbens: Literaturverzeichnis 122 electrophysiological studies in behaving animals." Pharmacol Biochem Behav 57(3): 495-504. Carlson, N. R. (2004). "Physiologische Psychologie." Pearson Studium 8. Ausgabe. Chamberlain, S. R., L. Menzies, A. Hampshire, J. Suckling, N. A. Fineberg, N. del Campo, M. Aitken, K. Craig, A. M. Owen, E. T. Bullmore, T. W. Robbins and B. J. Sahakian (2008). "Orbitofrontal dysfunction in patients with obsessive- compulsive disorder and their unaffected relatives." Science 321(5887): 421- 422. Chase, H. W., L. Clark, C. E. Myers, M. A. Gluck, B. J. Sahakian, E. T. Bullmore and T. W. Robbins (2008). "The role of the orbitofrontal cortex in human discrimination learning." Neuropsychologia 46(5): 1326-1337. Cheng, J. and M. G. Feenstra (2006). "Individual differences in dopamine efflux in nucleus accumbens shell and core during instrumental learning." Learn Mem 13(2): 168-177. Christoph, G. R., R. J. Leonzio and K. S. Wilcox (1986). "Stimulation of the lateral habenula inhibits dopamine-containing neurons in the Substantia nigra and ventral tegmental area of the rat." J Neurosci 6(3): 613-619. Chudasama, Y., J. D. Kralik and E. A. Murray (2007). "Rhesus monkeys with orbital prefrontal cortex lesions can learn to inhibit prepotent responses in the reversed reward contingency task." Cereb Cortex 17(5): 1154-1159. Clarke, H. F., S. C. Walker, J. W. Dalley, T. W. Robbins and A. C. Roberts (2007). "Cognitive inflexibility after prefrontal serotonin depletion is behaviorally and neurochemically specific." Cereb Cortex 17(1): 18-27. Collingridge, G. (1987). "The role of NMDA receptors in learning and memory." Nature 330(17): 604. Cooper, J. R., F. E. Bloom and R. H. Roth (2004). "The Biochemical Basis of Neuropharmacology." Oxford Univ. Pr. 8. Auflage. Corbit, L. H. and P. H. Janak (2007). "Inactivation of the lateral but not medial dorsal striatum eliminates the excitatory impact of Pavlovian stimuli on instrumental responding." J Neurosci 27(51): 13977-13981. Costa, R. M., R. Gutierrez, I. E. de Araujo, M. R. Coelho, A. D. Kloth, R. R. Gainetdinov, M. G. Caron, M. A. Nicolelis and S. A. Simon (2007). "Dopamine Literaturverzeichnis 123 levels modulate the updating of tastant values." Genes Brain Behav 6(4): 314- 320. Cromwell, H. C. and W. Schultz (2003). "Effects of expectations for different reward magnitudes on neuronal activity in primate striatum." J Neurophysiol 89(5): 2823-2838. Dahlstrom, A. and K. Fuxe (1964). "Localization of monoamines in the lower brain stem." Experientia 20(7): 398-399. Delgado, M. R. (2007). "Reward-related responses in the human striatum." Ann N Y Acad Sci 1104: 70-88. Devoto, P. and G. Flore (2006). "On the Origin of Cortical Dopamine: Is it a Co- Transmitter in Noradrenergic Neurons?" Curr Neuropharmacol 4(2): 115-125. Di Ciano, P. (2008). "Distinct contributions of dopamine receptors in the nucleus accumbens core or shell to established cocaine reinforcement under a second- order schedule." Eur Neuropsychopharmacol 18(12): 888-896. Dickinson, A. and B. Balleine (1994). "Motivational control of goal-directed action." Animal Learn Behav 22: 1-18. Emson, P. C. (1993). "In-situ hybridisation as a methodological tool for the neuroscientist." Trends Neurosci 16(1): 9. Fallon, S., E. Shearman, H. Sershen and A. Lajtha (2007). "Food reward-induced neurotransmitter changes in cognitive brain regions." Neurochem Res 32(10): 1772-1782. Featherstone, R. E. and R. J. McDonald (2004). "Dorsal striatum and stimulus- response learning: lesions of the dorsolateral, but not dorsomedial, striatum impair acquisition of a simple discrimination task." Behav Brain Res 150(1-2): 15-23. Floresco, S. B., O. Magyar, S. Ghods-Sharifi, C. Vexelman and M. T. Tse (2006). "Multiple dopamine receptor subtypes in the medial prefrontal cortex of the rat regulate set-shifting." Neuropsychopharmacology 31(2): 297-309. Furuyashiki, T., P. C. Holland and M. Gallagher (2008). "Rat orbitofrontal cortex separately encodes response and outcome information during performance of goal-directed behavior." J Neurosci 28(19): 5127-5138. Fuxe, K., L. F. Agnati, M. Kalia, M. Goldstein, K. Andersson and A. Härfstrand (1985). Dopaminergic systems in the brain and pituitary, Springer Sandoz. Literaturverzeichnis 124 Gallagher, M., R. W. McMahan and G. Schoenbaum (1999). "Orbitofrontal cortex and representation of incentive value in associative learning." J Neurosci 19(15): 6610-6614. Garris, P. A., E. L. Ciolkowski, P. Pastore and R. M. Wightman (1994). "Efflux of dopamine from the synaptic cleft in the nucleus accumbens of the rat brain." J Neurosci 14(10): 6084-6093. Gauntlett-Gilbert, J. and V. J. Brown (1998). "Reaction time deficits and Parkinson's disease." Neurosci Biobehav Rev 22(6): 865-881. Gerfen, C. R. (2000). "Molecular effects of dopamine on striatal-projection pathways." Trends Neurosci 23(10 Suppl): 64-70. Giertler, C. (2003). “Die Rolle des Nucleus accumbens bei der Akquisition und Expression von instrumentellem Verhalten der Ratte. Giertler, C., I. Bohn and W. Hauber (2005). "Involvement of NMDA and AMPA/KA receptors in the nucleus accumbens core in instrumental learning guided by reward-predictive cues." Eur J Neurosci 21(6): 1689-1702. Grace, A. A. (2008). "Physiology of the normal and dopamine-depleted basal ganglia: insights into levodopa pharmacotherapy." Mov Disord 23 Suppl 3: 560-569. Grace, A. A., S. B. Floresco, Y. Goto and D. J. Lodge (2007). "Regulation of firing of dopaminergic neurons and control of goal-directed behaviors." Trends Neurosci 30(5): 220-227. Grahn, J. A., J. A. Parkinson and A. M. Owen (2009). "The role of the basal ganglia in learning and memory: neuropsychological studies." Behav Brain Res 199(1): 53-60. Graybiel, A. M. (1998). "The basal ganglia and chunking of action repertoires." Neurobiol Learn Mem 70(1-2): 119-136. Groenewegen, H. J. and M. Trimble (2007). "The ventral striatum as an interface between the limbic and motor systems." CNS Spectr 12(12): 887-892. Groenewegen, H. J. and H. B. Uylings (2000). "The prefrontal cortex and the integration of sensory, limbic and autonomic information." Prog Brain Res 126: 3-28. Hanser, H. (2001). "Lexikon der Neurowissenschaften." Spektrum Akademischer Verlag. Literaturverzeichnis 125 Hassani, O. K., H. C. Cromwell and W. Schultz (2001). "Influence of expectation of different rewards on behavior-related neuronal activity in the striatum." J Neurophysiol 85(6): 2477-2489. Hikosaka, O., Y. Takikawa and R. Kawagoe (2000). "Role of the basal ganglia in the control of purposive saccadic eye movements." Physiol Rev 80(3): 953-978. Holland, P. C. and M. Gallagher (2004). "Amygdala-frontal interactions and reward expectancy." Curr Opin Neurobiol 14(2): 148-155. Hollerman, J. R. and W. Schultz (1998). "Dopamine neurons report an error in the temporal prediction of reward during learning." Nat Neurosci 1(4): 304-309. Jaeger, D., S. Gilman and J. W. Aldridge (1993). "Primate basal ganglia activity in a precued reaching task - preparation for movement." Exp Brain Res 95(1): 51. Janhunen, S. and L. Ahtee (2007). "Differential nicotinic regulation of the nigrostriatal and mesolimbic dopaminergic pathways: implications for drug development." Neurosci Biobehav Rev 31(3): 287-314. Jeanblanc, J., A. Hoeltzel and A. Louilot (2002). "Dissociation in the involvement of dopaminergic neurons innervating the core and shell subregions of the nucleus accumbens in latent inhibition and affective perception." Neuroscience 111(2): 315-323. Ji, H. and P. D. Shepard (2007). "Lateral habenula stimulation inhibits rat midbrain dopamine neurons through a GABA(A) receptor-mediated mechanism." J Neurosci 27(26): 6923-6930. Joel, D. and I. Weiner (2000). "The connections of the dopaminergic system with the striatum in rats and primates: an analysis with respect to the functional and compartmental organization of the striatum." Neuroscience 96(3): 451-474. Jog, M. S., Y. Kubota, C. I. Connolly, V. Hillegaart and A. M. Graybiel (1999). "Building neural representations of habits." Science 286(5445): 1745-1759. Kalivas, P. W. and M. Nakamura (1999). "Neural systems for behavioural activation and reward." Curr Opp Neurobiol 9: 223-227. Kandel, E. R., J. H. Schwartz and T. M. Jessel (2000). "Principles of Neural Science." McGraw-Hill, New York. Karnath, H. O. (2006). "Neuropsychologie." Springer, Berlin 2. Auflage. Literaturverzeichnis 126 Kawagoe, R., Y. Takikawa and O. Hikosaka (1998). "Expectation of reward modulates cognitive signals in the basal ganglia." Nature Neurosci 1(5): 411- 416. Kawaguchi, Y., C. J. Wilson, S. J. Augood and P. C. Emson (1995). "Striatal interneurones: chemical, physiological and morphological characterization." Trends Neurosci 18: 527-535. Kimura, M. (1990). "Behaviorally contingent property of movement-related activity of the primate putamen." J Neurophysiol 63(6): 1277. Kimura, M. (1992). "Behavioral modulation of sensory responses of primate putamen neurons." Brain Res 578(1-2): 204. Kolb, B. (1984). "Functions of the frontal cortex of the rat: a comparative review." Brain Res 320(1): 65-98. Kolb, B. and A. J. Nonneman (1974). "Frontolimbic lesions and social behavior in the rat." Physiol Behav 13(5): 637-643. Koob, G. F. (1982). "The dopamine anhedonia hypothesis: a pharmacological Phrenology" Behav Brain Sci 5: 63-64. Kreitzer, A. C. and R. C. Malenka (2008). "Striatal plasticity and basal ganglia circuit function." Neuron 60(4): 543-554. Kruk, Z. L. and C. J. Pycock (1991). "Neurotransmitters and Drugs." Kluwer Academic Pub. Lacey, C. J., J. Boyes, O. Gerlach, L. Chen, P. J. Magill and J. P. Bolam (2005). "GABA(B) receptors at glutamatergic synapses in the rat striatum." Neuroscience 136(4): 1083-1095. Lau, B. and P. W. Glimcher (2007). "Action and outcome encoding in the primate caudate nucleus." J Neurosci 27(52): 14502-14514. Lau, B. and P. W. Glimcher (2008). "Value representations in the primate striatum during matching behavior." Neuron 58(3): 451-463. Lecourtier, L., A. Defrancesco and B. Moghaddam (2008). "Differential tonic influence of lateral habenula on prefrontal cortex and nucleus accumbens dopamine release." Eur J Neurosci 27(7): 1755-1762. Lex, B. and W. Hauber (2009a). "Disconnection of the entorhinal cortex and the dorsomedial striatum impairs the sensitivity to instrumental contingency degradation." Cereb Cortex (submitted). Literaturverzeichnis 127 Lex, B. and W. Hauber (2009b). "The Role of Dopamine in the Prelimbic Cortex and the Dorsomedial Striatum in Instrumental Conditioning." Cereb Cortex (epub ahead of print). Martinez, R. C., A. R. Oliveira, C. E. Macedo, V. A. Molina and M. L. Brandao (2008). "Involvement of dopaminergic mechanisms in the nucleus accumbens core and shell subregions in the expression of fear conditioning." Neurosci Lett 446(2-3): 112-116. McDannald, M. A., M. P. Saddoris, M. Gallagher and P. C. Holland (2005). "Lesions of orbitofrontal cortex impair rats' differential outcome expectancy learning but not conditioned stimulus-potentiated feeding." J Neurosci 25(18): 4626-4632. McGeorge, A. J. and R. L. M. Faull (1987). "The organization and collateralization of corticostriate neurons in the motor and sensory cortex of the rat brain." Brain Res 423: 318. McGeorge, A. J. and R. L. M. Faull (1989). "The organization of the projection from the cerebral cortex to the striatum in the rat." Neuroscience 29(3): 503-537. Murray, E. A., J. P. O'Doherty and G. Schoenbaum (2007). "What we know and do not know about the functions of the orbitofrontal cortex after 20 years of cross-species studies." J Neurosci 27(31): 8166-8169. Nakamura, K. and O. Hikosaka (2006). "Role of dopamine in the primate caudate nucleus in reward modulation of saccades." J Neurosci 26(20): 5360-5369. Nakanishi, H. and K. Yamamoto (1991). "NMDA receptor mediated neurotransmission in the basal ganglia and limbic system of the rat." NMDA Receptor related Agents: 141. Nakano, K. (2000). "Neural circuits and topographic organization of the basal ganglia and related regions [In Process Citation]." Brain Dev 22 Suppl 1: 5-16. O'Doherty, J. (2003). "Can't learn without you: predictive value coding in orbitofrontal cortex requires the basolateral amygdala." Neuron 39(5): 731- 733. O'Neill, M. and V. J. Brown (2007). "The effect of striatal dopamine depletion and the adenosine A2A antagonist KW-6002 on reversal learning in rats." Neurobiol Learn Mem 88(1): 75-81. Oades, R. D. and G. M. Halliday (1987). "Ventral tegmental (A10) system: neurobiology. 1. Anatomy and connectivity." Brain Res 434(2): 117-165. Literaturverzeichnis 128 Pan, W. X. and B. I. Hyland (2005). "Pedunculopontine tegmental nucleus controls conditioned responses of midbrain dopamine neurons in behaving rats." J Neurosci 25(19): 4725-4732. Parent, A. and L.-N. Hazrati (1993). "Anatomical aspects of information processing in primate basal ganglia." Trends Neurosci 16(3): 111. Pellegrini-Giampietro, D., J. A. Gorter, M. V. L. Bennett and R. S. Zukin (1997). "The GluR2 (GluR-B) hypothesis: Ca 2+-permeable AMPA receptors in neurological disorders." Trends Neurosci 20(10): 464-470. Phillmore, L. S. (2008). "Discrimination: from behaviour to brain." Behav Processes 77(2): 285-297. Pickens, C. L., M. P. Saddoris, M. Gallagher and P. C. Holland (2005). "Orbitofrontal lesions impair use of cue-outcome associations in a devaluation task." Behav Neurosci 119(1): 317-322. Pickens, C. L., M. P. Saddoris, B. Setlow, M. Gallagher, P. C. Holland and G. Schoenbaum (2003). "Different roles for orbitofrontal cortex and basolateral amygdala in a reinforcer devaluation task." J Neurosci 23(35): 11078-11084. Ragozzino, M. E. (2007). "The contribution of the medial prefrontal cortex, orbitofrontal cortex, and dorsomedial striatum to behavioral flexibility." Ann N Y Acad Sci 1121: 355-375. Ramirez, D. R. and L. M. Savage (2007). "Differential involvement of the basolateral amygdala, orbitofrontal cortex, and nucleus accumbens core in the acquisition and use of reward expectancies." Behav Neurosci 121(5): 896-906. Reep, R. L., J. V. Corwin and V. King (1996). "Neuronal connections of orbital cortex in rats: topography of cortical and thalamic afferents." Exp Brain Res 111(2): 215-232. Rice, M. E. and S. J. Cragg (2004). "Nicotine amplifies reward-related dopamine signals in striatum." Nat Neurosci 7(6): 583-584. Robinson, S., S. M. Sandstrom, V. H. Denenberg and R. D. Palmiter (2005). "Distinguishing whether dopamine regulates liking, wanting, and/or learning about rewards." Behav Neurosci 119(1): 5-15. Roesch, M. R., D. J. Calu and G. Schoenbaum (2007). "Dopamine neurons encode the better option in rats deciding between differently delayed or sized rewards." Nat Neurosci 10(12): 1615-1624. Literaturverzeichnis 129 Rolls, E. T. (2000). "The orbitofrontal cortex and reward." Cereb Cortex 10(3): 284- 294. Rosenblatt, A. and I. Leroi (2000). "Neuropsychiatry of Huntington's disease and other basal ganglia disorders." Psychosomatics 41(1): 24-30. Rosenkilde, C. E., R. H. Bauer and J. M. Fuster (1981). "Single cell activity in ventral prefrontal cortex of behaving monkeys." Brain Res 209(2): 375-394. Salamone, J. D. (1994). "The involvement of nucleus accumbens dopamine in appetitive and aversive motivation." Behav Brain Res 61(2): 117. Salamone, J. D. (2009). "Dopamine, effort, and decision making: theoretical comment on Bardgett et al. (2009)." Behav Neurosci 123(2): 463-467. Salamone, J. D. and M. Correa (2002). "Motivational views of reinforcement: implications for understanding the behavioral functions of nucleus accumbens dopamine." Behav Brain Res 137(1-2): 3-25. Salamone, J. D., M. Correa, S. M. Mingote and S. M. Weber (2005). "Beyond the reward hypothesis: alternative functions of nucleus accumbens dopamine." Curr Opin Pharmacol 5(1): 34-41. Salamone, J. D., M. S. Cousins and B. J. Snyder (1997). "Behavioral functions of nucleus accumbens dopamine: empirical and conceptual problems with the anhedonia hypothesis." Neurosci Biobehav Rev 21(3): 341-359. Schilman, E. A., H. B. Uylings, Y. Galis-de Graaf, D. Joel and H. J. Groenewegen (2008). "The orbital cortex in rats topographically projects to central parts of the caudate-putamen complex." Neurosci Lett 432(1): 40-45. Schoenbaum, G., A. A. Chiba and M. Gallagher (2000). "Changes in functional connectivity in orbitofrontal cortex and basolateral amygdala during learning and reversal training." J Neurosci 20(13): 5179-5189. Schoenbaum, G., M. R. Roesch and T. A. Stalnaker (2006). "Orbitofrontal cortex, decision-making and drug addiction." Trends Neurosci 29(2): 116-124. Schoenbaum, G., B. Setlow, S. L. Nugent, M. P. Saddoris and M. Gallagher (2003a). "Lesions of orbitofrontal cortex and basolateral amygdala complex disrupt acquisition of odor-guided discriminations and reversals." Learn Mem 10(2): 129-140. Schoenbaum, G., B. Setlow, M. P. Saddoris and M. Gallagher (2003b). "Encoding Predicted Outcome and Acquired Value in Orbitofrontal Cortex during Cue Literaturverzeichnis 130 Sampling Depends upon Input from Basolateral Amygdala." Neuron 39(5): 855-867. Schultz, W. (1998). "Predictive reward signal of dopamine neurons." J Neurophysiol 80(1): 1-27. Schultz, W. (2006). "Behavioral theories and the neurophysiology of reward." Annu Rev Psychol 57: 87-115. Schultz, W. (2007a). "Behavioral dopamine signals." Trends Neurosci 30(5): 203-10. Schultz, W. (2007b). "Multiple dopamine functions at different time courses." Annu Rev Neurosci 30: 259-288. Schultz, W., P. Apicella, E. Scarnati and T. Ljungberg (1992). "Neuronal activity in monkey ventral striatum related to the expectation of reward." J Neurosci 12(12): 4595. Schultz, W., P. Dayan and P. R. Montague (1997). "A neural substrate of prediction and reward." Science 275(5306): 1593-1599. Schultz, W., K. Preuschoff, C. Camerer, M. Hsu, C. D. Fiorillo, P. N. Tobler and P. Bossaerts (2008). "Explicit neural signals reflecting reward uncertainty." Philos Trans R Soc Lond B Biol Sci 363(1511): 3801-3811. Schultz, W., L. Tremblay and J. R. Hollerman (2003). "Changes in behavior-related neuronal activity in the striatum during learning." Trends Neurosci 26(6): 321- 8. Schweimer, J. and W. Hauber (2006). "Dopamine D1 receptors in the anterior cingulate cortex regulate effort-based decision making." Learn Mem 13(6): 777-782. Seeburg, P. (1993). "The moleclar biology of mammalian glutamate receptor channels." Trends Pharm Sci 14(6): 297. Sesack, S. R., V. A. Hawrylak, C. Matus, M. A. Guido and A. I. Levey (1998). "Dopamine axon varicosities in the prelimbic division of the rat prefrontal cortex exhibit sparse immunoreactivity for the dopamine transporter." J Neurosci 18(7): 2697-2708. Sesia, T., Y. Temel, L. W. Lim, A. Blokland, H. W. Steinbusch and V. Visser- Vandewalle (2008). "Deep brain stimulation of the nucleus accumbens core and shell: Opposite effects on impulsive action." Exp Neurol 214 (1): 135-139. Literaturverzeichnis 131 Setlow, B., M. Gallagher and P. C. Holland (2002). "The basolateral complex of the amygdala is necessary for acquisition but not expression of CS motivational value in appetitive Pavlovian second-order conditioning." Eur J Neurosci 15(11): 1841-1853. Snowden, J. S., D. Bathgate, A. Varma, A. Blackshaw, Z. C. Gibbons and D. Neary (2001). "Distinct behavioural profiles in frontotemporal dementia and semantic dementia." J Neurol Neurosurg Psychiatry 70(3): 323-332. Squire, L. R. (2008). "Fundamental Neuroscience." Academic Press 3. Auflage. St Onge, J. R. and S. B. Floresco (2009). "Dopaminergic modulation of risk-based decision making." Neuropsychopharmacology 34(3): 681-697. Stefani, M. R. and B. Moghaddam (2006). "Rule learning and reward contingency are associated with dissociable patterns of dopamine activation in the rat prefrontal cortex, nucleus accumbens, and dorsal striatum." J Neurosci 26(34): 8810-8818. Stern, C. E. and R. E. Passingham (1995). "The nucleus accumbens in monkeys (Macaca fascicularis). III. Reversal learning." Exp Brain Res 106(2): 239-247. Suaud-Chagny, M. F., K. Chergui, G. Chouvet and F. Gonon (1992). "Relationship between dopamine release in the rat nucleus accumbens and the discharge activity of dopaminergic neurons during local in vivo application of amino acids in the ventral tegmental area." Neuroscience 49(1): 63-72. Tan, C. O. and D. Bullock (2008a). "A local circuit model of learned striatal and dopamine cell responses under probabilistic schedules of reward." J Neurosci 28(40): 10062-10074. Tan, C. O. and D. Bullock (2008b). "Neuropeptide co-release with GABA may explain functional non-monotonic uncertainty responses in dopamine neurons." Neurosci Lett 430(3): 218-223. Thorpe, S. J., E. T. Rolls and S. Maddison (1983). "The orbitofrontal cortex: neuronal activity in the behaving monkey." Exp Brain Res 49(1): 93-115. Tobler, P. N., C. D. Fiorillo and W. Schultz (2005). "Adaptive coding of reward value by dopamine neurons." Science 307(5715): 1642-1645. Tremblay, L. and W. Schultz (1999). "Relative reward preference in primate orbitofrontal cortex." Nature 398(6729): 704-708. Literaturverzeichnis 132 Tye, K. M. and P. H. Janak (2007). "Amygdala neurons differentially encode motivation and reinforcement." J Neurosci 27(15): 3937-3945. van Dongen, Y. C., J. M. Deniau, C. M. Pennartz, Y. Galis-de Graaf, P. Voorn, A. M. Thierry and H. J. Groenewegen (2005). "Anatomical evidence for direct connections between the shell and core subregions of the rat nucleus accumbens." Neuroscience 136(4): 1049-1071. van Dongen, Y. C., P. Mailly, A. M. Thierry, H. J. Groenewegen and J. M. Deniau (2008). "Three-dimensional organization of dendrites and local axon collaterals of shell and core medium-sized spiny projection neurons of the rat nucleus accumbens." Brain Struct Funct 213(1-2): 129-147. White, I. M. and G. V. Rebec (1993). "Responses of rat striatal neurons during performance of a lever-release version of a conditioned avoidance response task." Brain Res 616: 71. Wickelgren, I. (1997). "Getting a grasp on working memory." Science 275: 1580- 1582. Winkler, C., D. Kirik, A. Bjorklund and S. B. Dunnett (2000). "Transplantation in the rat model of Parkinson's disease: ectopic versus homotopic graft placement." Prog Brain Res 127: 233-265. Winstanley, C. A., D. E. Theobald, J. W. Dalley, R. N. Cardinal and T. W. Robbins (2006). "Double dissociation between serotonergic and dopaminergic modulation of medial prefrontal and orbitofrontal cortex during a test of impulsive choice." Cereb Cortex 16(1): 106-114. Winter, S., M. Dieckmann and K. Schwabe (2009). "Dopamine in the prefrontal cortex regulates rats behavioral flexibility to changing reward value." Behav Brain Res 198(1): 206-213. Winters, B. D., T. W. Robbins and B. J. Everitt (2004). "Selective cholinergic denervation of the cingulate cortex impairs the acquisition and performance of a conditional visual discrimination in rats." Eur J Neurosci 19(2): 490-496. Wise, R. A. (1978). "Catecholamine theories of reward: a critical review." Brain Res 152(2): 215-247. Wise, R. A. (1994). "Cocaine reward and cocaine craving: the role of dopamine in perspective." NIDA Res Monogr 145: 191-206. Literaturverzeichnis 133 Wise, R. A. (2004). "Dopamine, learning and motivation." Nat Rev Neurosci 5(6): 483-494. Wise, R. A. (2008). "Dopamine and reward: the anhedonia hypothesis 30 years on." Neurotox Res 14(2-3): 169-183. Wise, R. A. and H. V. Schwartz (1981). "Pimozide attenuates acquisition of lever- pressing for food in rats." Pharmacol Biochem Behav 15(4): 655-656. Wise, S. P. and P. L. Strick (1984). "Anatomical and physiological organization of the non-primary motor cortex." Trends Neurosci 7(11): 442-446. Wyvell, C. L. and K. C. Berridge (2000). "Intra-accumbens amphetamine increases the conditioned incentive salience of sucrose reward: enhancement of reward "wanting" without enhanced "liking" or response reinforcement." J Neurosci 20(21): 8122-8130. Yin, H. H. and B. J. Knowlton (2004). "Contributions of striatal subregions to place and response learning." Learn Mem 11(4): 459-463. Yin, H. H. and B. J. Knowlton (2006). "The role of the basal ganglia in habit formation." Nat Rev Neurosci 7(6): 464-476. Yin, H. H., B. J. Knowlton and B. W. Balleine (2004). "Lesions of dorsolateral striatum preserve outcome expectancy but disrupt habit formation in instrumental learning." Eur J Neurosci 19(1): 181-189. Yin, H. H., B. J. Knowlton and B. W. Balleine (2005a). "Blockade of NMDA receptors in the dorsomedial striatum prevents action-outcome learning in instrumental conditioning." Eur J Neurosci 22(2): 505-512. Yin, H. H., S. B. Ostlund, B. J. Knowlton and B. W. Balleine (2005b). "The role of the dorsomedial striatum in instrumental conditioning." Eur J Neurosci 22(2): 513- 523. Yin, H. H., X. Zhuang and B. W. Balleine (2006). "Instrumental learning in hyperdopaminergic mice." Neurobiol Learn Mem 85(3): 283-288. Zahm, D. S., S. L. Jensen, E. S. Williams and J. R. Martin (1999). "Direct comparison of projections from the central amygdaloid region and nucleus accumbens shell." Eur J Neurosci 11(4): 1119-1126. Zoli, M., C. Torri, R. Ferrari, A. Jansson, I. Zini, K. Fuxe and L. F. Agnati (1998). "The emergence of the volume transmission concept." Brain Res Brain Res Rev 26(2-3): 136-147. Danksagung 134 8 Danksagung Abschließend danke ich allen, die zum Gelingen dieser Dissertation beigetragen haben. Zuallererst möchte ich mich bei Herrn Prof. Dr. Hauber für die hervorragende Betreuung meiner Dissertation bedanken. Er stand mir jederzeit mit Rat und Tat zur Seite und nahm sich sehr viel Zeit zur Korrektur der eingereichten Publikationen und dieser Arbeit. Die anregenden Diskussionen über verschiedenste Lerntheorien erweiterten meinen „neurobiologischen Horizont“ in großem Maße. Einen nicht minder wichtigen Anteil am Gelingen dieser Arbeit hatte Frau Prof. Dr. Franziska Wollnik, die jederzeit ein offenes Ohr für meine Anliegen hatte und vieles möglich gemacht hat, um einen reibungsloses Gelingen dieser Promotion zu gewährleisten. Ein ganz besonderer Dank gilt meinen Mitpromovenden Anja und Björn Lex. Nicht nur die vielen „durchgetesteten“ Wochenenden, auch die Bereitschaft einander zu helfen wenn Not am Mann war, hat uns fest zusammengeschweißt. Ganz herzlich möchte ich mich bei Angeline Votteler bedanken, die mich in der leider viel zu kurzen Zeit der Zusammenarbeit bei vielen molekularbiologischen und immunhistologischen Methoden tatkräftig unterstützte. Darüber hinaus danke ich allen Mitarbeiterinnen und Mitarbeitern der Abteilung für Tierphysiologie sowie des Biologischen Institutes für die kollegiale Zusammenarbeit und die immerwährende Hilfsbereitschaft. Den finanziellen Rahmen für diese Arbeit lieferte die Friedrich-Naumann-Stiftung für die Freiheit, deren Stipendien-begleitendes interdisziplinäres Seminarprogramm immer eine Bereicherung für meine berufliche Laufbahn darstellen wird. Mein größter Dank gilt jedoch Dir, Judith. Ohne Deine Liebe und bedingungslose Unterstützung wäre diese Arbeit niemals zustande gekommen. Danke. Lebenslauf 135 9 Lebenslauf Persönliche Daten Carsten Calaminus geboren am 28. Oktober 1975 in Köln verheiratet, eine Tochter Staatsangehörigkeit: deutsch Studium/Promotion 2005 – 2008 Stipendiat der Friedrich-Naumann-Stiftung 2004 – 2009 Promotion in der Abt. Tierphysiologie der Universität Stuttgart. „Die Rolle von Dopamin bei instrumentellen Lernvorgängen der Ratte.“ 2002 – 2003 Diplomarbeit am Institut für Immunologie der Universität Stuttgart. „Fluoreszenz-Mikroskopische Charakterisierung der Fas-FasL-Interaktion“ 1996 –2003 Diplomstudium der Technischen Biologie an der Universität Stuttgart. Abschluß mit der Note „gut“ (1,7) Hauptfächer: Genetik/Virologie; Nebenfächer: Bioverfahrenstechnik, Immunologie, Biochemie Zivildienst 1995 – 1996 Zivildienst bei der Arbeiterwohlfahrt Sindelfingen als Fahrer und Betreuer im Mobilen Sozialen Dienst Schulausbildung 1986 - 1995 Max-Planck-Gymnasium in Böblingen 1982 - 1986 Friedrich-Silcher-Grundschule Böblingen