Kongress Die Zukunft des Menschen Dokumentation 8./9. Juli 2002, Stuttgart Impressum Akademie für Technikfolgenabschätzung in Baden-Württemberg Industriestr. 5, 70565 Stuttgart Tel.: 0711/9063-0 Fax: 0711/9063-299 Internet: http://www.ta-akademie.de E-Mail: info@ta-akademie.de Redaktion: Iris Lehmann Verantwortlich für den Inhalt: Ulrich Mack Gestaltung: Hartmaier & Mangold, Kirchentellinsfurt Bei Nachdruck und sonstiger Verbreitung bitten wir um Zusendung von zwei Belegexemplaren ISBN-Nr. 3-932013-05-0 1 Vorwort Ulrich Mack 2 Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen Ortwin Renn 10 Chancen und Risiken neuer Technologien und die politische Verantwortung Peter Frankenberg 14 Zäsuren der Technikentwicklung: Kränkung oder Herausforderung – Bruder Robot Norbert Bolz Die Maschinisierung des Menschen: Gen- und Nanotechnologie und die Würde des Individuums 22 Gen- und Nanotechnologie und die Würde des Individuums Christiane Ziegler 27 Ist Gentechnologie überhaupt noch ein Streitfall? Hans Mohr 31 Kommentar Regine Kollek 35 Kommentar Dietmar Mieth Die Vermenschlichung der Maschine: Chancen und Risiken Künstlicher Intelligenz 43 Die Vermenschlichung der Maschine: Chancen und Risiken künstlicher Intelligenz Thomas Christaller 49 Kommentar Helge Ritter 57 Kommentar Joseph Weizenbaum 60 Technische Entwicklung, Globalisierung und Wirtschaft – einige systemare Aspekte Bruno Fritsch 65 Das Zukunftspotenzial Baden-Württembergs und seiner Regionen aus wirtschaftsgeographischer Sicht Michael Thiess Von der Vision zur konkreten Entwicklungsperspektive für Baden-Württemberg Workshop 1: Gentechnologie 70 Gentechnologie für die Gesundheit des Menschen Ernst-Dieter Jarasch 74 Bio-Leads – Berührungspunkte zur Gentechnik Fritz Hansske Workshop 2: Nanotechnologie 76 Nanotechnologie für Hochleistungs-Baugruppen der Automobiltechnik Christoph Treutler 78 Rastersondenmikroskope: Werkzeuge und Mess-Sonden für die Nanotechnologie Thomas Schimmel 84 Nanotechnologische Werkstoffe heute und morgen: Chemische Nanotechnologie Helmut Schmidt Workshop 3: Künstliche Intelligenz 90 Humanoide Roboter: Entwicklungstendenzen Rüdiger Dillmann Inhalt 1 Die Lebenswissenschaften haben einen Forschungs- stand erreicht, der es ihnen erstmals erlaubt, an den Grundfesten des Menschseins zu rühren. Erwartungs- haltung und Wirklichkeit klaffen jedoch weit ausein- ander. Zudem ist es oft schwierig, das Machbare von der Fiktion zu unterscheiden, angesichts der häufig emotional geführten Diskussion und dem unge- hemmten Drang zur Selbstdarstellung bei manchen Beteiligten. Die „Durchbrüche“ auf diesem Gebiet sind außerdem noch wenig belastbar, wie man an dem frühen Tod des Klonschafs Dolly unschwer erkennen kann. Orientierungswissen und -hilfe ist daher mehr denn je gefragt. Die Entschlüsselung des menschlichen Genoms hat die unterschiedlichsten Akteure auf den Plan gerufen. Sie liefern sich wie früher, als es darum ging, als erster den Nord- oder Südpol zu erreichen, einen Wettlauf um neue Sensationsmeldungen – da bleiben Wahrheit und Seriosität häufig auf der Strecke. Motivation und Ziele dieser Akteure sowie ihre moralischen Beweg- gründe sind höchst unterschiedlich. Neben dem seriö- sen Forscher, der etwa genetisch bedingte Krankhei- ten heilen und seine Erkenntnisse zum Wohle der All- gemeinheit einsetzen will, tummeln sich auf diesem Feld Sektierer, die den idealen Menschen oder schlim- mer noch typisierbare Menschen nach ihren eigenen Vorstellungen formen wollen. Entweder ist das Ziel ein kommerzialisiertes Produkt „Mensch“, am besten noch abgesichert durch ein exklusives Patent, oder ein Kunstwesen nach dem Willen des jeweiligen „Machers“. Die Achtung vor der Schöpfung spielt, wenn überhaupt, nur noch eine sekundäre Rolle. Auch wenn sich solche Zielvorstellungen heute noch nicht realisieren lassen, so lehrt die Erfahrung, dass es nur eine Frage der Zeit sein wird, bis der wissen- schaftliche Fortschritt Wege und Möglichkeiten bereit stellen wird, um die Allmachtsphantasien von wenigen zumindest ansatzweise in die Wirklichkeit umzusetzen. Die Frage „Dürfen wir alles tun, was wir können oder müssen der wissenschaftlichen Freiheit, wie schon ver- schiedentlich geschehen, Grenzen gesetzt werden?“ beantwortet sich damit fast von selbst. Die Entscheidung, wo solche Grenzen zu ziehen sind, darf nicht allein der Politik und diversen Ethikkom- missionen überlassen bleiben, die ex cathedra über die Zukunft des Menschen bestimmen. Bei solch fun- damentalen Entscheidungen muss der aufgeklärte, mündige und kritisch begleitende Bürger, der um die Chancen und Risiken dieser Technologien weiß, in glei- chem Maße seine Werteordnung, sein moralisches Empfinden und seine Erwartungen und Ängste ein- bringen können. Schließlich geht es um die Zukunft von uns allen und Fehlentwicklungen werden kaum mehr reversibel sein. Die Akademie für Technikfolgenabschätzung in Baden- Württemberg trägt gemäß ihrem Auftrag zu Informati- on, Dialog und Beteiligung bei dieser Thematik bei. Durch die 2001 erschienene, inzwischen in 2. Auflage vorliegende Publikation „Klonen“ leistet sie einen wichtigen Beitrag zu einer fundierteren und sachbezo- generen Diskussion. Der gemeinsam mit der Landes- stiftung Baden-Württemberg im Juli 2002 durchge- führte Kongress „Die Zukunft des Menschen“ war ein weiterer Meilenstein auf diesem Weg. Er hatte zum Ziel, renommierte Experten aus den Fachbereichen Gen- technik, Biotechnologie und Künstliche Intelligenz zu einem intensiven Austausch und Dialog mit Multipli- katoren und der interessierten Öffentlichkeit zusam- menzubringen. Dankeines hochkarätigen Programms, hervorragenden Referenten und einer großen Zahl hoch qualifizierter und motivierter Teilnehmer konnte dieser Anspruch in jeder Hinsicht eingelöst werden. Denjenigen, die an dem Kongress teilgenommen haben, soll diese Publikation Erinnerung und Nach- schlagewerk sein und all denen, die diese Möglichkeit nicht hatten, eine hoffentlich informative, inspirieren- de und richtungsweisende Hilfestellung, wenn es dar- um geht, die eigene Position auf diesem schwierigen Feld zu bestimmen. Stuttgart, im März 2003 Geschäftsführer Vorwort Ulrich Mack 1. Einleitung Die Geschwindigkeit des technischen Wandels hat inzwischen schwindelnde Ausmaße erreicht. Kommt das Designer-Baby, kann die Maschine intelligente Entscheidungen treffen, wird die Bio- technologie unsere Ernährung revolutionieren, werden wir in Zukunft von Biochips in unserem Gehirn gesteuert, können wir mit Hilfe der Medi- zintechnik unser Leben weiter verlängern? Fragen nach Fragen, die nicht nur die technische Ent- wicklung, sondern alle Dimensionen des sozialen, politischen und psychischen Lebens berühren. Um die Interdependenzen dieser verschiedenen Entwicklungen zu beleuchten, werde ich mich im ersten Teil dieser Rede mit einigen Makrotrends der globalen Entwicklung auseinander setzen. Dann gehe ich spezifisch auf die zur Zeit zu beob- achtenden Techniktrends ein, um dann zum Schluss auf die Möglichkeiten und Grenzen der Technikfolgenabschätzung hinzuweisen. 2. Makrotrends der globalen Entwicklung Bei der schon angesprochenen Unübersichtlichkeit der modernen (oder besser gesagt postmoder- nen) Entwicklung mag es vermessen erscheinen, anhand weniger Zentralbegriffe die Makrotrends zu identifizieren. Die hier vorgenommene Auswahl an Trends erhebt deshalb weder den Anspruch auf Vollständigkeit noch stellt sie eine Reihenfolge der Wichtigkeit dar. Sie ist vielmehr als ein Versuch zu verstehen, verschiedene Farbtupfer eines kom- plexen Gemäldes zu beschreiben, aus deren Kennt- nis man zumindest die Umrisse des Gesamt- gemäldes erahnen kann. 2.1 Basistrend: Bevölkerungsentwicklung und Siedlungsdichte Die Bevölkerung der Welt wächst ständig – jedes Jahr um rund 85 Millionen Erdenbürger: Das sind mehr Menschen als die Gesamtbevölkerung der Bundesrepublik Deutschland. Heute sind es bereits rund sechs Milliarden, die unsere Erde bevölkern. 2 Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen Die Gefährdung der heutigen Menschheit ent- springt nicht so sehr ihrer Macht, physikalische Vorgänge zu beherrschen, als ihrer Ohnmacht, das soziale Geschehen vernünftig zu lenken. Konrad Lorenz Zur Verantwortbarkeit der technologischen Entwicklungen Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen Ortwin Renn Prof. Dr. Ortwin Renn ist Leitender Direktor der Akademie für Technikfolgenab- schätzung in Baden-Württemberg und dort für den For- schungsbereich „Technik, Gesellschaft und Umweltökono- mie“ zuständig. Gleichzeitig ist er seit 1994 Inhaber des Lehrstuhls Soziologie II (Umwelt- und Techniksoziologie) an der Universität Stuttgart. Renn studierte Volkswirt- schaftslehre, Soziologie und Journali- stik an der Universität Köln und am Insti- tut für Publizistik in Rodenkirchen. Sei- ne berufliche Laufbahn führte ihn über das Forschungszentrum Jülich, eine Pro- fessur an der Clark University in den USA und eine Professur an der ETH Zürich nach Stuttgart. Die Vereinten Nationen rechnen mit über neun Mil- liarden Menschen im Jahre 2050, von denen aller Voraussicht nach über die Hälfte in Großstädten leben werden 1. Die Spezies Mensch hat inzwischen eine Siedlungsdichte erzielt, die um den Faktor tau- send bis zehntausend mal größer ist, als das, was uns die Natur freiwillig geben würde, wenn wir auf Kultivierung verzichten würden. Ein „Zurück zur Natur” kann es für den Menschen nicht mehr geben. So sehr man von der Natur noch lernen kann, so sehr brauchen wir neue Technologien und Verfahren, die weiterhin die Versorgung der Menschheit unter der Bedingung einer unnatürlich großen Bevölkerungsdichte sicherstellen können, ohne die natürlichen Grundlagen, auf der die Exi- stenzfähigkeit der Menschen beruht, zu zerstören. Die technische Entwicklung ist damit unabdingbare Voraussetzung für die Existenzfähigkeit der Menschheit in ihrer jetzigen Populationsdichte. 2.2 Kultur und Natur: Gefährdung auf globalem Niveau Die Menschheit verändert seit vierzigtausend Jah- ren die Umwelt und hat damit Tausende von Umweltkatastrophen verursacht, die aber lokal begrenzte Katastrophen waren. Diese Situation hat sich heute grundlegend geändert. Erstmals in der Geschichte der Menschheit beeinflussen wir näm- lich die globalen geo- und biochemischen Kreis- läufe der Erde 2. Die Emissionen von Industrie und Landwirtschaft haben in solchen Ausmaßen zugenommen, dass wir in signifikanter Weise, d.h. im Prozentbereich, die globalen Stoffkreisläufe verändern. Dies gilt beispielsweise für den Kohlenstoffkreislauf. Seit Beginn der Industrialisierung stieg der Gehalt an Kohlendioxid in der Atmosphäre durch den vom Menschen verursachten Kohlenstoffeintrag (durch Verbrennung fossiler Brennstoffe, Waldrodung und veränderte Bodennutzung) um ca. 30 Prozent. Vie- le Experten rechnen mit einer Verdoppelung der Kohlendioxidkonzentration ab Mitte des nächsten Jahrhunderts 3. Auch wenn bis heute nicht restlos geklärt ist, welche klimatischen Auswirkungen mit diesem Konzentrationsanstieg verbunden ist, so besteht jedoch kein Zweifel daran, dass wir damit ein Großexperiment mit der gesamten Erde durch- führen, aus dem es für niemanden ein Entrinnen mehr gibt. Für die Zukunft ist es entscheidend, die Eingriffstiefe des Menschen in Natur und Umwelt einzudämmen oder zumindest konstant zu halten, sie darf unter keinen Umständen noch weiter aus- gedehnt werden. Wie dies bei einer wachsenden Bevölkerung und weiter wachsenden individuel- len Ansprüchen umzusetzen ist, bleibt eine offe- ne Frage. Mit dem Leitbegriff der Nachhaltigkeit ist weltweit ein ernsthafter Versuch unternommen worden, die Entwicklung von Technik, Wirtschaft und Gesellschaft mit den Bedingungen einer Exi- stenz im Rahmen der natürlichen Gegebenheiten in Einklang zu bringen. 2.3 Der Siegeszug der globalen Marktkräfte Was bedeutet Globalisierung? Dass Güter weltweit ausgetauscht werden und man weltweit mitein- ander kommunizieren kann, ist seit vielen Jahr- zehnten eine Tatsache. Die Möglichkeiten der Inter- nationalisierung haben sich sicher in den letzten Jahren erheblich ausgeweitet, aber sie sprechen nicht den Kern der Globalisierung an. Mir diesem Begriff verbindet sich der Bedeutungsverlust von Ort und Zeit für Produktion, Handel und Kommu- nikation. Das globale Dorf ist nicht nur im Inter- net Wirklichkeit geworden. Transportkosten sind praktisch unerheblich geworden. Räumliche Bin- dungen spielen so gut wie keine Rolle mehr im kommerziellen Austausch; wer irgendwo auf der Welt preiswerter oder qualitätsbewusster produ- ziert, erhält den Vorzug. Der Verlust von Ort und Zeit ist dabei nicht auf das Wirtschaftsleben beschränkt. Die Ereignisse der Welt sind zeitgleich überall und potenziell jedem verfügbar. Alle Kul- turansprüche auf Einzigartigkeit und Exklusivität, alle Religionen mit Alleinvertretungsanspruch, alle Machtsysteme, die auf Isolierung gegenüber der Außenwelt bauen, brechen zunehmend auseinan- 3Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen 1 Vgl. World Resources Institute/United Nations Environment Programme/Uni- ted Nations Development Programme/World Bank (1996): World Resources 1996- 97. A Guide to the Global Environment. Oxford., S. 3 und S. 174. 2 Schulze, E.D. (2000): Der Einfluss des Menschen auf die biogeochemischen Kreisläufe der Erde. Sonderdruck des Festvortrages auf der 51. MPG-Jahres- versammlung. Max Planck Forschung. Das Wissenschaftsmagazin der Max- Planck-Gesellschaft, JV/2000, S. 77-89 3 Vgl. Riebesell, U./D. Wolf-Gladrow (1993): Das Kohlenstoffrätsel. In: Biologie unserer Zeit, Jg. 23, Nr. 2, S. 97-101, hier S. 97, Weinheim und Enquete-Kom- mission „Schutz der Erdatmosphäre“ des Deutschen Bundestages (1995): Mehr Zukunft für die Erde. Nachhaltige Energiepolitik für dauerhaften Klimaschutz. Bonn., S. 24. 4 Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen der. Pluralität und postmoderne Vielfalt bestim- men das globale Bild und ersetzen traditionelle Verwurzlungen in umfassende Sinnsysteme. Gegen diese Form der globalen Modernisierung mit ihren relativistischen Begleiterscheinungen regt sich natürlich auch Widerstand: die ökonomischen Verlierer, die Traditionalisten, die Moralisten, die alte Linke, die neue Rechte, die Vertreter von Leit- kulturen, die Anhänger der „Zurück zur Natur“- Bewegung – sie alle fühlen sich durch die Globa- lisierung bedroht. Andere dagegen begrüßen sie euphorisch – die neuen Business-Eliten, die von Kontinent zu Kontinent jettenden Kulturfürsten, die universalistisch ausgerichteten Weltgelehrten und all die anderen Gewinner der Modernisierung. Kon- flikte sind also vorprogrammiert. 2.4 Schlüsselvariable: Wissen Alles systematisch zusammengetragene Wissen, das seit Beginn der Aufzeichnung von Wissen ange- sammelt worden ist, hat sich in den letzten Jahr- zehnten rein quantitativ immer schneller vermehrt. Die explosionsartige Zunahme des Wissens ist aber nicht einmal der Kernpunkt der vielfach beschwo- renen Wissensgesellschaft. Entscheidend ist viel- mehr, dass sich die Halbwertszeit des angewand- ten Wissens ständig verringert. Mit Halbwertszeit ist die Zeitspanne gemeint, in der sich das einmal gelernte Wissen als überholt erweist. Heutzutage veraltert nichts so schnell wie dieses Wissen. Ohne ständige Erneuerung des eigenen Wissens ist die wirtschaftliche Zukunft weder individuell noch in der Gesellschaft als Ganzes zu meistern. Wissen muss ständig aufgebessert und erneuert werden. Daraus folgt, dass wir für eine langfristige Siche- rung unserer wirtschaftlichen und sozialen Lei- stungsfähigkeit zunehmend Investitionen in Bil- dung und Wissen benötigen. Die kostbarste Res- source in unserem Lande ist weder Wasser noch Gold oder Platin, es ist das Wissen, das in den Gehir- nen der Menschen und in Datenbanken wie Büchern und Computern gespeichert ist. 2.5 Die Gerechtigkeitslücke: eine tickende Zeitbombe Der Zugriff auf die Ressourcen in dieser Welt ist von wachsender Ungleichheit geprägt. Die armen Länder verbrauchen nur einen Bruchteil der Res- sourcen, die wir als Bewohner eines Industrielan- des wie selbstverständlich in Anspruch nehmen. Wäre es aber physisch überhaupt möglich, den Lebensstil der Industrienationen auf alle Regionen dieser Welt zu übertragen? Jedem wird sofort einleuchten, dass eine Verallgemeinerung des Lebensstils der reichsten Erdenbürger auf alle Menschen dieser Welt die Ressourcenbasis inner- halb von wenigen Jahrzehnten aufbrauchen wür- de. Das gleiche gilt auch für die Einkommensver- teilung. Die Kluft zwischen den Reichen und den Armen innerhalb eines Landes wie auch zwischen den armen und den reichen Ländern weitet sich aus. Der Wirtschaftswissenschaftler Rademacher hat in einer großen internationalen Untersuchung festgestellt, dass nicht nur die Kluft zwischen den Ärmsten und den Reichsten wächst, es wächst auch die Kluft zwischen dem Durchschnittseinkommen einer Gesellschaft und dem Einkommen der zehn Prozent reichsten Menschen 4. Diese Kluft ist inso- fern von besonderer Bedeutung, weil Gesell- schaften, in denen die Masse der Menschen kei- nen wirtschaftlichen Bewegungsspielraum haben, immobil bleiben und sich nicht weiterentwickeln können. Sie bleiben auf dem Feudalstatus stehen. 2.6 Individualisierung der Lebensansprüche bei gleichzeitiger Universalisierung von Teilkulturen Wir leben in einer Welt, die zunehmend Wert auf individuelle Lebensplanung und eigene Entfaltung legt. Jeder möchte nach eigener Fasson nicht nur selig sondern schon auf Erden glücklich werden. Die moderne Industrie- und Dienstleistungsge- sellschaft hat die Möglichkeiten der Individuali- sierung geschaffen mit ihren unbestreitbaren Vor- teilen, aber auch ihren Problemen. Die Akademie für Technikfolgenabschätzung hat gemeinsam mit der Universität von Melbourne (Australien) einen Sammelband zum Thema „Wahr- nehmungen von Technik, Risiken und Einstellun- gen“ in sehr unterschiedlichen Ländern und Kul- turen zusammengestellt 5. Es wurden Einzelgrup- pen weltweit in Australien, Südamerika, Europa und Kanada befragt. Dabei stellte sich heraus, dass jede der befragte Einzelgruppen vom Pflegeper- sonal in Krankenhäusern bis hin zu Obdachlosen mehr miteinander gemein hatten, gleichgültig aus welchem Land oder welcher Kultur sie stammten, als Personen aus unterschiedlichen Gruppen inner- 4 Rademacher, F. J. (2000): Zukunftsfragen der Menschheit: Technische, gesell- schaftliche und ethische Aspekte. Manuskript FAW, Ulm 5 Renn, O. und Rohrmann, B. (2000): Cross-Cultural Risk Perception. Dordrecht und Boston. 5Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen halb eines Landes. Um es kurz zu sagen: Die Ban- ker dieser Welt verstehen sich wesentlich besser untereinander, als jeder einzelne Banker mit sei- nen eigenen Kindern. Das ist eine neue Entwick- lung. Alte Bindungskräfte etwa des nationalen Zusammengehörigkeitsgefühls schwinden zugun- sten von neuen Lebensentwürfen, die über die Grenzen der eigenen Nation hinaus wirksam wer- den, weil sich Gleichgesinnte dank Internet und anderen globalen Medien weltweit zusammenfin- den. Nationale Integration setzt dabei immer weni- ger Bindungskraft frei. Politik muss sich auf die- se Aufweichung nationaler Bindungskräfte zugun- sten einer Aufsplitterung in subkulturelle aber welt- weit agierende Sinngruppen einstellen. 2.7 Die kulturelle Dimension des technischen Wandels: Die Identität des Menschen Als Sigmund Freud auf die großen Kränkungen der Menschheit hinwies, hatte er vor allem den Stel- lenwert des Menschen im natürlichen Kosmos und in der kulturellen Evolution im Visier. Die Erkennt- nis, dass die Erde nicht Mittelpunkt des Sonnen- systems war, die Einsicht, dass der Mensch in evo- lutiver Abfolge von den Tieren abstammt, und die Wahrnehmung der Begrenztheit der eigenen Hand- lungsfreiheit durch die Kräfte des Unbewussten zog er als wesentliche Belege dafür heran, dass das Selbstbild des Menschen, ein einzigartiges und souveränes Geschöpf zu sein, schmerzlich erschüt- tert wurde 6. Die weitere Entwicklung von Natur- wissenschaft und Technik ist in diesem Sinne noch ein Schritt weitergegangen: Mit den Erkenntnis- sen der neuen Gehirnforschung und den damit ver- bundenen Möglichkeit der externen Steuerung von menschlichen Denkprozessen auf der einen und den zunehmend intelligenteren Maschinensyste- men auf der anderen Seite steht nun die Identität des Menschen selbst zur Debatte. Die verbale Gegenüberstellung von „Vermenschlichung der Maschine“ und „Maschinisierung des Menschen“ ist ein beredter Ausdruck für diese Grundhaltung. In dieser Situation sind alle Technologien, die das Selbstbild des Menschen infrage stellen, auf einem besonderen Prüfstand. Es ist schon schwer zu ver- kraften, dass der Mensch in seinen genetischen Anlagen weitgehend mit der Bäckerhefe identisch ist 7. Die Debatten um Stammzellenforschung, um Präimplementationsdiagnostik, um Biochips im Gehirn, um neue bewusstseinsverändernde Medi- kamente, um menschenähnliche Roboter drehen sich bei aller Unterschiedlichkeit ihrer wissen- schaftlichen Fundierung um die Grundfrage nach der Identität des Menschen. Diese Frage erledigt sich nicht von selbst. Gleichzeitig kann sie auch nicht gelöst werden wie eine mathematische Gleichung oder wie ein Verteilungskonflikt. Der Umgang mit dieser Frage setzte eine behutsame Ko-Evolution von technischer Entwicklung und Bewusstseinsentwicklung voraus. Ko-Evolution (in der auch die ökologische Komponente einbezogen werden muss) bedeutet keine Einladung zur post- modernen Beliebigkeit von Moral. Die Grundsät- ze der Menschenwürde und das Verbot der Instru- mentalisierung des Menschen zu menschlichen Zwecken, wie es Kant formuliert hat, haben uni- verselle Geltungskraft – über Ort und Zeit 8. Wie diese Grundsätze aber im Wechselverhältnis von technologischer Entwicklung und kulturellem Selbstverständnis umgesetzt und konkretisiert werden sollen, lässt sich nur im ständigen und kon- tinuierlichen Dialog zwischen den an dieser Ent- wicklung beteiligten und betroffenen Personen- gruppen festlegen. 3. Auswirkungen auf die Dynamik der Technik- entwicklung Die hier vorgestellten sieben Makrotrends bilden die Begleitmusik, die für die technische Entwick- lung und den sozialen Wandel den Ton angibt. Bevölkerungsdichte und Umweltgefahren sind die eher externen Rahmenbedingungen, die weitge- hend dem menschlichen Zugriff entzogen und bei denen im Wesentlichen Anpassungsprozesse gefragt sind. Globale Märkte und Wissensexplo- sion sind bestimmende Elemente der ökonomi- schen Entwicklung, die eher als interne, d.h. aus dem Vollzug menschlichen Handelns sich erge- bende Phänomene anzusehen sind. Auch diese sind für den einzelnen Akteur zunächst einmal von außen her vorgegeben; sie bieten jedoch für kol- lektive Akteursgruppen Gestaltungsspielräume und Freiheitsgrade, die konstruktiv genutzt wer- 6 Freud, S. (1972): Studienausgabe, Band 1. Frankfurt am Main, S. 283f. 7 dazu: Orzessek, A. (2001): Braucht uns die Zukunft? Universitas, 56. Jahrgang, Heft 1, S. 55 8 Höffe, O. (1992): Immanuel Kant. München. 6 Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen den können. Die drei letzten Trends, ungerechte Verteilung, die Entstehung neuer funktionaler und global wirksamer Teilkulturen und die Bedrohung der menschlichen Identität charakterisieren we- sentliche Entwicklungen im sozialen und kulturel- len Bereich, die ebenfalls als intern generiert ange- sehen werden können. In beiden Fällen sind in begrenztem Maße Einflussmöglichkeiten durch aktive politische oder soziale Steuerung gegeben. Im Folgenden sollen diese sieben Trends auf ihre Implikationen für technische Entwicklung und Gestaltungsräume hin untersucht werden. 3.1 Externe Rahmenbedingungen und Technik- entwicklung Die Zunahme der Bevölkerungsdichte und die Gefährdungen globaler Stoffkreisläufe durch menschliche Aktivitäten sind bestimmende Ein- flussgrößen der zukünftigen Entwicklung von Tech- nik, Wirtschaft und Gesellschaft. Mit beiden Trends werden wir leben und uns daran anpassen müs- sen. Natürlich können und sollten wir die umwelt- bedingten Gefährdungen der Menschheit nicht tatenlos hinnehmen: die Gefährdung als solche ist aber aufgrund der Bevölkerungsdichte nicht mehr rückgängig zu machen, es sei denn, wir wollten die Menschheit zwangsweise um mehr als die Hälfte reduzieren. Das will, so hoffe ich wenig- stens, niemand. Im Rahmen einer nachhaltigen Entwicklung wird es deshalb darauf ankommen, Risikobegrenzungen vorzunehmen. Allein dieses eher bescheiden anmutende Ziel wird von den Menschen viel abverlangen. Denn Risikobegren- zung setzt eine konsequente Politik der Nachhal- tigkeit voraus. Eine gesellschaftliche Entwicklung hin zur Nachhaltigkeit kann an vier Enden an- setzen: der Erhöhung der Umwelteffizienz, der Schließung von Stoffkreisläufen, der Förderung von ressourcen- und umweltschonenden Innovationen und der Anpassung von Lebensstilen an eine nach- haltige Wirtschaftsweise (Suffizienz) 9. Alle vier Strategien müssen parallel verfolgt werden, wenn man dem Ziel der Nachhaltigkeit näher kommen will. Die externen Rahmenbedingungen der Bevölke- rungsdichte und der ökologischen Gefährdungen erfordern dazu eine Entwicklung der Technik, die auf der einen Seite eine erweiterte Transformati- on von Natur- in produktive Kulturlandschaft ermöglicht, zum anderen aber die Knappheit der Naturgüter durch verbesserte Effizienz, Schließung von Stoffkreisläufen, umweltgerechte Innovatio- nen und „entmaterialisierten“ Konsum widerspie- geln muss. 3.2 Interne Rahmenbedingungen und technische Entwicklung Kommen wir als Nächstes zu den zwei wirtschaft- lichen Trends: Globalisierung und Wissensorien- tierung. Beide bestimmen heute weitgehend den wirtschaftlichen Ablauf in der Welt. Sie sind einer- seits Reaktionen auf technische Neuerungen, die sich als Folge der Bedeutungslosigkeit von Ort und Zeit entwickelt haben. Diese Form der Technik- entwicklung wird weiter fortschreiten; denn mit der Aufhebung von Ort und Zeit lässt sich viel Geld ver- dienen. Globalisierung und Wissensorientierung sind aber andererseits Auslöser neuer Entwick- lungen, die auf den Humus der globalen Wissens- vermehrung angewiesen sind. In welche Richtung wird sich der technische Wandel angesichts die- ses Innovationsmotors weiter entwickeln? Auch wenn der technische Wandel dem Zugriff progno- stischer Instrumente weitgehend entzogen ist, so lassen sich dennoch auf der Basis der vorherseh- baren Strukturänderungen und der kollektiven Aufgabenerfüllung innerhalb der Gesellschaft Bedarfsfelder ausfindig machen, für deren Deck- ung neue technologische oder organisatorische Angebote erforderlich sind. Dazu zwei Beispiele: – Unsere Gesellschaft wird zunehmend älter. Für ältere Menschen werden einige Techniken an Bedeutung verlieren, andere an Einfluss gewin- nen. Gesundheitsschutz, Freizeitgestaltung, Rei- sen, Geselligkeit, soziale Aktivitäten und Unter- haltung sind nur einige der Stichworte, die in einer älter werdenden Gesellschaft expandie- rende Märkte kennzeichnen. Dazu gehören auch Techniken, die dazu geeignet sind, diese Bedürf- nisse effizient und altersgerecht zu stillen. – Wenn auch niemand weiß, in welchem Umfang Wanderungsbewegungen in den nächsten Jahr- 9 Renn, O (2001).: Ethische Anforderungen an eine Nachhaltige Entwicklung: Zwischen globalen Zwängen und individuellen Handlungsspielräumen. In: G. Altner und G. Michelsen (Hrsg.): Ethik und Nachhaltigkeit. Grundsatzfragen und Handlungsperspektiven im universitären Agendaprozess. Frankfurt am Main, S. 64-99 7Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen zehnten auftreten werden, so sind sich doch alle Prognostiker darin einig, dass sich Gesellschaf- ten, die einen hohen Lebensstandard genießen, mit einer konstanten Immigration von Auslän- dern rechnen müssen. Dies schafft die Notwen- digkeit der Integration und der Qualifikation die- ser Menschen. Sekundäre Bildungsangebote müssen verbessert und neue organisatorische Formen der Eingliederung gefunden werden. Auch in diesen, zunächst technikfernen Berei- chen werden neue Anwendungen der Informati- ons- und Kommunikationstechnik eine wesent- liche Rolle spielen. Mit den strukturellen Veränderungen, von denen ich hier nur zwei herausgegriffen habe, gehen gesellschaftliche Probleme und Anforderungen einher, die neue kollektive Leistungen der Politik und innovative technische Entwicklungen erfor- dern. Zur Illustration können auch hier zwei Bei- spiele herausgegriffen werden: – Die Ereignisse des 11. September 2001 haben die hohe Verwundbarkeit der technisch orien- tierten Zivilisation deutlich herausgestellt. Letzt- lich konnten die Attentäter mit drei Teppich- messern eine Katastrophe auslösen, indem sie systematisch das Risikopotenzial ziviler Tech- nologien als Waffen eingesetzt haben. Gleich- gültig ob dieses Attentat zu weiteren ähnlich gelagerten Übergriffen von Terroristen oder Saboteuren führen wird, die bislang vorgenom- mene Unterscheidung in zivile und militärische Technologien ist zunehmend brüchig geworden. Staudämme, Chemieanlagen, Flugzeuge, Gen- technik-Labors, Kernkraftwerke und andere mehr stellen Risikopotenziale dar, die bei entspre- chendem Willen und der Bereitschaft, das eige- ne Leben einzusetzen, zu Massenvernichtungs- waffen werden. Nicht nur die großen Versiche- rungsgesellschaften schlagen inzwischen Alarm. Auch Hersteller und Betreiber solcher Anlagen sowie die Hüter von Infrastruktureinrichtungen befinden sich in einer intensiven Diskussion um die Reduzierung von technischen Verwundbar- keiten unabhängig vom kalkulierten Versagens- risiko. In Zukunft wird die technische Entwick- lung zunehmend auf Reduktion von Verwund- barkeiten bei gleichzeitiger Beachtung von Ver- dichtungsfunktionen (etwa im Siedlungsbereich) ausgerichtet sein. – In Zukunft wird der Bedarf nach kollektiver Ori- entierung angesichts der Zunahme von pluralen Lebensstilen und Werten ansteigen. Schon heu- te erleben wir eine Zersplitterung der modernen Gesellschaft in Lebensstilgruppen mit eigenem Wissenskanon, eigenen Überzeugungen, Nor- men, Gewohnheiten und Konsumbedürfnissen, wie dies im sechsten Trend der universellen Teil- kulturen schon angeklungen ist. Die Präferenzen dieser Gruppen sind in der Tat schwer vorher- sehbar, aber die Tendenz zur Abschottung und eigenständigen Lebensweise scheint auch in der Zukunft anzuhalten. Damit wächst die Notwen- digkeit der Koordination, da in dicht besiedel- 8 Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen ten Räumen die Handlungen des einen die Hand- lungsmöglichkeiten des anderen beeinträchti- gen. Koordination und Orientierung sind beides Aufgaben, die auf der einen Seite bessere Kom- munikationskanäle voraussetzen, auf der ande- ren Seite neue organisatorische Formen der Mit- bestimmung und Selbstbestimmung erforder- lich machen. Hier gehen soziale und technische Innovationsanforderungen Hand in Hand. Das schon erwähnte Leitbild der nachhaltigen Ent- wicklung bietet sich für diesen Prozess der gegen- seitigen Abstimmung sozialer, wirtschaftlicher und technischer Wandlungsprozesse an, da es den Anspruch auf Integration von ökologischen, öko- nomischen und sozio-kulturellen Aspekten erhebt und explizit auf kommunikative und partizipative Formen der Zukunftsgestaltung aufbaut 10. Die Entwicklung eines gemeinsamen Leitbildes der Nachhaltigkeit allerdings wird nichts an der Tatsache ändern, dass einzelne Technologiefelder soziale und kulturelle Konflikte auslösen werden. Konflikte gehören zu einer demokratischen und offenen Gesellschaft und sind oft die Motoren für technischen und sozialen Wandel. Solche Kon- flikte werden dort besonders virulent, wo Men- schen sich von den Entwicklungen „abgehängt“ oder sogar aufs Abstellgleis gedrängt sehen oder wo die eigene Identität infrage gestellt ist. Beides, so haben wir gesehen, ist mit der Entwicklung der modernen Technik verbunden. An diesem Punkt hilft es wenig, auf noch neuere Technikentwick- lungen der x-ten Generation hinzuweisen; vielmehr ist gerade hier eine neue Kultur der Konfliktbear- beitung gefragt. Folgende Merkmale prägen die- se neue Kultur: – Menschen dürfen nicht von Techniknutzungen abgeschnitten werden, die sie zur Aufrechter- haltung ihrer Lebensfunktionen benötigen. Tre- ten neue effektivere oder effizientere technische Lösungen auf den Markt, so hat die Gesellschaft darauf zu achten, dass die alten Angebote noch so lange fortbestehen, bis sich die Nutzer haben umstellen können. Das gilt vor allem für den Ersatz von lebenswichtigen Dienstleistungen wie die Ausführung von Bankgeschäften oder Tele- fonieren, bei denen effiziente Internet-basierte Lösungen vorliegen, ohne dass aber eine Groß- zahl der traditionellen Nutzer diese neue Mög- lichkeiten in Anspruch nehmen (können). Hier greift der etwas altmodische Begriff der Daseins- vorsorge, der sicherstellt, dass grundlegende Lei- stungen für alle Bürger verfügbar gemacht wer- den müssen. – Zum Zweiten benötigen wir ein ergebnisoffenes Kommunikationskonzept, das nicht darauf be- ruht, möglichst viel Sachwissen über Technik an möglichst viele Menschen zu vermitteln. Viel- mehr sollten alle Anstrengungen zur Technik- kommunikation von dem Leitbild der Technik- mündigkeit getragen sein. Kommunikation soll allen interessierten Bürgern die Möglichkeit ver- schaffen, auf der Basis der Kenntnis der faktisch nachweisbaren Auswirkungen, der verbleiben- den Unsicherheiten und der vertretbaren Inter- pretationsspielräume eine persönliche Beurtei- lung der jeweiligen technischen Entwicklungen vornehmen zu können, die den eigenen oder den von einem selbst als für die Gesellschaft ethisch gebotenen Kriterien entspricht. Kommunikation ist dabei als ein offener Prozess des gegenseiti- gen Abgleichs von Informationen und Argumen- ten zu verstehen. Wie immer das letztendliche Urteil der Kommunikationspartner ausfallen mag, ob Akzeptanz erzeugt oder verweigert wird, ist dabei zweitrangig. Wichtig ist, dass Transpa- renz, Nachvollzug und – zumindest gedankliche – Teilhabe am Innovationsprozess das Geschehen bestimmen und dadurch den Tendenzen der sozialen und kulturellen Ausgrenzung entge- gengewirkt werden kann. Das gilt im nationalen wie internationalen Maßstab. – Schließlich benötigen wir neue Konfliktschlich- tungsverfahren. Dass Konflikte auftreten und Positionen aufeinanderprallen, ist kein Problem. Konflikte müssen aber sozial und kulturell bear- beitet werden; ob sie dann gelöst werden, ist eine andere Frage. Zunehmend sind die traditionel- len Formen der Konfliktlösung, vor allem was Nutzung und Regulierung technischer Entwick- lungen anbetrifft, in Legitimationsnöten geraten. Nicht umsonst sprießen zur Zeit Runde Tische, Konsensuskonferenzen, Enquete-Kommissio- nen, Ethik-Räte und anderes mehr wie Pilze aus dem Boden, sobald die Frage nach dem „richti- gen“ Umgang mit neuen Technikentwicklungen 10 Renn, O (2001): Nachhaltige Entwicklung- Eine kommunikative Reise in eine reflexive Zukunft. In: Umweltbundesamt (Hrsg.): Perspektiven für die Veranke- rung des Nachhaltigkeitsleitbildes in der Umweltkommunikation. Chancen, Bar- rieren und Potenziale der Sozialwissenschaften. Berln, S. 240-256 9Zur Verantwortbarkeit der technologischen Entwicklungen: Bedingungen und Reflektionen ansteht. Die Gefahr bei all diesen neuen zivil- gesellschaftlichen Gremien besteht darin, dass der Konflikt professionalisiert wird, also die Berufsfunktionäre und die neue Kaste der „Zeit- geistdeuter“ stellvertretend für alle kollektiv wirksame Entscheidungen vorbereiten, die letzt- lich an den eigentlichen Nutzern und Betroffe- nen vorbeigehen. Auch die demokratische Legi- timation der Teilnehmer solcher Runden ist oft unklar. Die TA-Akademie bemüht sich deshalb seit ihrer Gründung vor 10 Jahren um innovative Beteiligungsverfahren, die vorrangig die von den Technikfolgen betroffenen Menschen in die Urteils- und Entscheidungsfindung einbinden 11. All diese Bemühungen bleiben aber Makulatur, wenn es nicht gelingt, den bislang ausgesparten Trend, die zunehmende Gerechtigkeitslücke zwi- schen arm und reich, zu überwinden. Hier spielt die weitere Technikentwicklung im Sinne der Bereitstellung von Lösungsansätzen nur eine mar- ginale Rolle. Denn die Gerechtigkeitslücke ist nicht durch technische Innovationen, nicht einmal durch besseren Techniktransfer zu beheben. Hier geht es allein um die Bereitschaft der Reichen, den Armen einen gerechten Anteil an der Wertschöp- fung einzuräumen. Dabei ist der direkte Geld- transfer im Sinne der Entwicklungshilfe nicht das Hauptproblem, wenn auch die reichen Länder hier seit Jahren hinter den selbst gesteckten Zielen hin- terherhinken. Zum einen erschweren die Barrie- ren, die von den reichen Ländern aufgebaut wor- den sind, angefangen von den Handelsrestriktio- nen bis hin zu den Rechten an genetischen Res- sourcen, die Chancen für einen wirtschaftlichen Ausgleich. Zum anderen fließen zu wenig Investi- tionsmittel in die armen Ländern, um eine wirt- schaftliche Entwicklung voranzutreiben. Die Bereit- stellung sogenannter angepasster Technologien wie auch der Transfer an Wissen und Technik bil- den dann eher das Beiwerk eines umfassenden Ausgleichsprogramms. Die Frage nach einer gerechten Verteilung der Reichtümer dieser Welt ist in erster Linie eine Frage des politischen Wil- lens und der sozialen Akzeptanz; alles andere ist zweitrangig. 4. Schlussfolgerung In meinen Augen ist die Bewältigung der Dynamik in der globalen Entwicklung auf einen diskursiven Prozess der Erfassung, Orientierung und Optio- nenbewertung angewiesen 12. Um adäquat mit den Problemen der Entwicklungsdynamik umzugehen, sind Gestaltungsdiskurse auf der lokalen, regio- nalen, nationalen und globalen Ebene erforderlich. Diese Diskurse müssen geprägt sein von der Erkenntnis der Ko-Evolution von Technik, Umwelt und Kultur. Erst im Gleichklang dieser drei Ent- wicklungen kann so etwas wie Zuversicht in den technischen Wandel entstehen. Zudem brauchen wir mehr Transparenz, Nachvollzug und Mitwir- kungsmöglichkeiten bei der Gestaltung des tech- nischen und sozialen Wandels. Dabei geht es nicht um Verbot oder Technikfeindlichkeit. Im Gegenteil, der angestrebte Diskurs soll die Teilnehmer zu mehr „Technikmündigkeit“ befähigen, d.h. sie auf- geschlossen machen gegenüber den Möglichkei- ten des technischen Wandels, sie aber gleichzei- tig sensibel machen gegenüber den Risiken, die damit verbunden sind. Technikmündigkeit ist ein integraler Bestandteil einer veränderten Konflikt- kultur, in der die Nutzer und die von Technikfol- gen betroffenen Menschen gemeinsam mit den Entwicklern und den Regulierungsbehörden die Bedingungen und Auswirkungen des technischen Wandels reflektieren und mit gestalten. Ob es gelingen wird, den Problemen der Globali- sierung in diskursiven Verfahren zu begegnen, ohne sie damit gleich lösen zu wollen bzw. zu kön- nen, hat nicht nur Einfluss auf die Zukunft der wis- senschaftlichen Technikfolgenabschätzung als Mittel der Zukunftsvorsorge, sondern wird auch maßgeblich die Möglichkeiten bestimmen, ob und in wie weit moderne Gesellschaften in Zeiten schnellen technischen Wandels in eigener Verant- wortung und mit Blick auf die als wesentlich erkannten Werte des Menschseins handlungsfähig bleiben können. 11 Renn, O. und Webler, Th. (1998): Der kooperative Diskurs - Theoretische Grund- lagen, Anforderungen, Möglichkeiten. In: O. Renn, H. Kastenholz, P. Schild und U. Wilhelm (Hrsg.): Abfallpolitik im kooperativen Diskurs. Bürgerbeteiligung bei der Standortsuche für eine Deponie im Kanton Aargau. Zürich, S. 3-103 12 Eine ausführliche Argumentation für eine diskursive Form der Technikfolgen- abschätzung findet sich zum Beispiel bei: Evers, A. und Nowotny, H. (1987): Über den Umgang mit Unsicherheit. Die Entdeckung der Gestaltbarkeit von Gesellschaft. Frankfurt/Main, S. 244ff. Oder: Baron, W. (1995) (Hrg.): Technikfolgenabschätzung - Ansätze zur Institutionalisierung und Chancen der Partizipation. Opladen. 10 Chancen und Risiken neuer Technologien und die politische Verantwortung Chancen und Risiken neuer Technologien Chancen und Risiken neuer Technologien und die politische Verantwortung Peter Frankenberg Es gibt kein Thema, das interessanter oder wich- tiger wäre als die Zukunft des Menschen selbst. Die gewählten Themen des Kongresses „Quo vadis homine?“ zeigen, dass hier ein umfassender Ansatz verfolgt wird und die wichtigen Entwick- lungsströmungen in ihrem Potenzial für die Zukunftsgestaltung erfasst werden sollen. Ange- sichts dieser in ihrer rasanten Dynamik beein- druckenden Themen stellen sich folgende Fragen: Ich werde versuchen, diese Thematik wenigstens anzureißen und mit Beispielen zu illustrieren. Ausgangslage Wir sehen uns heutzutage mit einer zunehmenden Entwicklungsgeschwindigkeit neuer Technologien konfrontiert. Eine immer größer werdende Ein- dringtiefe in die biologische und kulturelle Iden- tität des Menschen stellt uns vor neue ethische und sozialpolitische Fragestellungen (neue Dimen- sion des technischen Wandels).Dabei verlieren feste Bezugsgrößen ihre Orientierungsfunktion. Die Reaktion der Menschen sind Unsicherheit, Skepsis und Zukunftsangst. Eine mangelhafte gesellschaftliche Auseinan- dersetzung kann in diesem Zusammenhang zu Abwehrreaktionen bzw. zu einer sich vergrößern- den Technikablehnung führen. Dabei herrschen nahezu gleichzeitig euphorische Erwartungen und blinde Technikbegeisterung bei Entwicklern und Nutzern der Technik vor. Diese beiden Einschät- zungen stehen in einer großen Diskrepanz zuein- ander und müssen durch einen Dialog zwischen den einzelnen Gruppierungen überwunden wer Welchen Gestaltungsspielraum hat die Politik bei den wirklich zukunfts- relevanten Fragen? Kann die Politik ihrer Verantwortung für das Wohl der Menschen und des Gemein- wesens noch gerecht werden? Prof. Dr. Peter Frankenberg ist seit 13.6.2001 Minister für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg. Seit 1.9.2001 ist er Aufsichtsrat der Landesstiftung Baden-Württemberg gGmbH. Frankenberg studierte Geschichte, Geografie, Geo- logie und Botanik an der Universität Bonn. Promotion zum Dr. rer. nat. an der Universität Bonn. 1982 Habilitation an der Universität Bonn. 1983 Berufung zum Profes- sor für Physische Geografie an der Kath. Univer- sität Eichstätt. 1986 Berufung auf den Lehrstuhl für Physische Geografie und Länderkunde an der Uni- versität Mannheim. 1991-94 Prorektor für Forschung der Universität Mannheim. 1994-01 Rektor der Uni- versität Mannheim. 1997-01 Vizepräsident For- schung der Hochschulrektorenkonferenz. 11Chancen und Risiken neuer Technologien und die politische Verantwortung den. Die Politik spielt hierbei eine Mittlerfunkti- on. Sie diskutiert diese Themen auf einer breiten Basis. Dabei gilt es zu bedenken, dass beide Hal- tungen, die technikfreundliche wie auch die tech- nikfeindliche in ihrer Reinform gefährlich sind, da sie zu Fehleinschätzungen und damit zu Fehlent- wicklungen führen können. Bereits kleine Fehlentwicklungen können in unse- rer globalisierten und zunehmend vernetzten Welt zu unübersehbaren sozialen Kosten führen. Für langfristige Entwicklungsperspektiven sind daher folgende Parameter erforderlich: – Reflektierter und verantwortungsbewusster Umgang mit Chancen und Risiken neuer Tech- nologien (auch Gebot nachhaltiger Politikge- staltung) – Formen des Dialogs und der Verständigung, die auch psychologisches und soziales „Schritthal- ten“ mit Fortschrittsdynamik erlauben – Orte, an denen Entwickler, Nutzer und Beobach- ter neuer Technologien kritisch und konstruktiv mit den Herausforderungen neuer Potenziale umgehen (z. B. dieser Kongress). Dabei muss die fachwissenschaftliche Informati- on mit einer kulturwissenschaftlichen Reflektion verbunden werden. Die „großen Kränkungen der Menschheit“ nach Freud Nach Freud gibt es „Kränkungen der Menschheit“, die durch die Technisierung des Menschen und die Vermenschlichung der Maschinen entstehen: – Wende (Abkehr von der Erde als Mittelpunkt des Kosmos), – Evolutionstheorie (Einsicht in die natürliche Ent- stehung des Menschen aus dem Tierreich), – Psychoanalyse (Verhaltenssteuerung durch das Unbewusste). Heute stehen wir vor der Tatsache, dass die Ein- griffsmöglichkeiten der Gentechnik in die biologi- sche Identität des Menschen sowohl Bestürzung als auch Beglückung auslösen. Die medizinische Anwendung der Gentechnik verspricht Heilung für viele Krankheiten. Zugleich sehen wir uns mit einer Schreckensvision von „Designer-Babies“ und anderen Formen der Manipulation der Natur kon- frontiert. Der Mensch als Manipulator nicht nur seiner Umwelt, sondern auch seiner eigenen bio- logischen Evolution stellt uns vor eine gänzlich neue Qualität unserer Handlungsoptionen. Wir müssen uns in diesem Zusammenhang neuen Fragen stellen: Ist dies die klassische Hybris? Oder ist es Auftrag des Menschen, seine Fähigkeiten zu nutzen, um als Mitschöpfer seiner selbst zu agieren? 12 Chancen und Risiken neuer Technologien und die politische Verantwortung Für eine ausgewogene Entscheidungs- und Urteils- findung bedarf es daher des notwendigen Sach- wissens und der richtig angesetzten Maßstäbe. Das Sachwissen verhilft uns dabei dazu Möglich- keiten, Grenzen und Unsicherheiten in Bezug auf neue technische Potenziale aufzuzeigen. Die Maß- stäbe, aus den grundlegenden Menschenrechten abgeleitet und auf einem breiten gesellschaftli- chen Konsens fußend, helfen uns, diese Möglich- keiten bewerten zu können. Die derzeitige Diskussion ist gekennzeichnet durch einen Mangel an beidem: Die Grenzen von Wis- senschaft und Wissen werden verkannt, gleich- zeitig vertreten manche den Fehlschluss, der Mensch sei ethisch aufgefordert, alles zu tun, was technisch möglich sei. Es gibt aus meiner Sicht in diesem komplexen Ent- wicklungsfeld keine Patentrezepte, und somit auch keine einfachen Lösungen. Die Konflikte, die sich vor uns auftun, müssen ausgehalten werden. Aus diesem Grunde sind für mich Kongresse wie dieser heute wichtig. Sie vermitteln Orientierung und mehr Handlungssicherheit in einer unsiche- ren und ambivalenten Welt. Auswirkungen auf das politische Handeln Die Gesellschaft befindet sich momentan in einem Prozess der gemeinsamen Suche nach Möglich- keiten der Integration wissenschaftlicher, politi- scher, wirtschaftlicher, ethischer und gesell- schaftlicher Aspekte bei der Bewertung neuer tech- nischer Entwicklungen. Ziel ist es, Orientierungsangebote zu finden, die dazu beitragen, Chancen richtig wahrzunehmen, Risiken und Begrenzungen deutlich zu identifizie- ren, Handlungsspielräume erkennbar zu machen. Anders ausgedrückt: Freudsche „Kränkungen der Menschheit“ sollen nicht als Schicksalsschläge, sondern als Herausforderung an den Menschen, über sich selbst hinauszuwachsen, gesehen wer- den. Sowohl in der Forschungsleistung als auch in der ethischen Bewältigung der immer weitrei- chenderen Folgen. Dieser Kongress bietet einen interdisziplinäres Forum hierfür mit Entscheidungsträgern, Wissen- schaftlern und Vertretern der breiten Öffentlichkeit. Am Ende aller Diskussionen muss politisch gehan- delt werden. Jede Entscheidung hat positive und negative Auswirkungen. Das Problem vor dem wir stehen: Wegen der Ein- dringtiefe heutiger Technologien in unsere Natur und Kultur ist der traditionelle Weg von trial and error (Versuch und Irrtum) nur noch begrenzt trag- fähig, da Irrtümer globale und irreversible Folgen haben können. Deshalb bedienen wir uns heute eines ganzheitli- chen Ansatzes, um erfolgreiche (Forschungs-)poli- tik zu betreiben. Eine wichtige Leitschnur auf dem Weg zur verant- wortbaren politischen Entscheidung kann die „Heu- ristik der Furcht“ sein, die Hans Jonas empfahl: „Erst die vorausgesehene Verzerrung des Menschen verhilft uns zu dem davor zu bewahrenden Begriff des Menschen.“ Beispiel Forschung an humanen embryonalen Stammzellen Die Forschung an embryonalen Stammzellen ist hierfür ein besonders gutes Beispiel, da es den medizinischen Forschern und den Ethikern um den Menschen geht. Die Mediziner wollen Menschen heilen. Wenn aber Fortschritte bei der Heilung von Patienten in Berei- che eingreifen, in denen die Würde oder die Rech- te anderer Menschen betroffen sind, kann die „Heuristik der Furcht“ deutlich machen, dass es letztlich immer darum geht, den Begriff des Men- schen zu bewahren: beim Patienten und beim Embryo. Gerade das Zerrbild kann uns einen Begriff vom Menschen geben, eine grundlegende Vorstellung, die weder beim Menschen noch beim Embryo auf- gegeben werden darf. 13Chancen und Risiken neuer Technologien und die politische Verantwortung In der Konsequenz heißt dies, dass sich das Land Baden-Württemberg gegen die Förderung der For- schung an humanen embryonalen Stammzellen in Deutschland ausgesprochen hat. Für uns gilt die Prämisse „Das Menschsein beginnt mit Ver- schmelzung von Ei- und Samenzelle“, es kann aus moraltheologischer Sicht keine Abwägung geben. Die Begriffe „Menschenwürde“ und „Person“ sind nicht steigerungsfähig und damit auch nicht ver- handelbar. Die entscheidende Frage ist allerdings: Lässt sich diese Definition relativieren, nach der menschli- ches Leben mit Verschmelzung von Ei- und Samen- zelle beginnt? Für die derzeitige Auslegung der Definition spricht, dass ab diesem Zeitpunkt nicht die Entwicklung zum Menschen, sondern die Entwicklung als Mensch stattfindet; danach gibt es keine Zäsur mehr, die in ihrem Ausmaß eine ähnliche Dimen- sion hätte. Die Abstufung „je jünger, je älter, je kränker, desto weniger Mensch“ darf es nicht geben. Die Zerle- gung des Embryos zur Heilung von Patienten wäre ein Zerrbild, das die Grenze des Verantwortbaren aufzeigt. Politisches Handeln heißt in diesem Zusammen- hang aber auch, die Chancen neuer Technologien unter Wahrung ethischer Grenzen konsequent zu ergreifen. Deshalb gibt es in Baden-Württemberg, finanziert von der Landesstiftung, das For- schungsprogramm „Adulte Stammzellen“. Damit stellt die Landesstiftung erheblich mehr Mittel für die gezielte Forschung im „ethisch grünen Bereich“ bereit, als es die DFG getan hat. Ausblick Dieses Beispiel gibt Antwort auf die Frage der abschließenden Podiumsdiskussion „Findet die Zukunft ohne uns statt?“: Es geht nicht darum, jeder Zukunft blind zu folgen, es geht darum, Zukunft selbst mitzuprägen. Dabei gilt die Aussage von Hans Jonas: „Das Wissen muss dem kausalen Ausmaß unseres Handelns größengleich sein. Die Tatsache aber, dass es ihm nicht wirklich größengleich sein kann, das heißt, dass das vorhersagende Wissen hinter dem technischen Wissen, das unserem Handeln die Macht gibt, zurückbleibt, nimmt selbst ethische Bedeutung an. Die Kluft zwischen Kraft des Vorher- wissens und Macht des Tuns erzeugt ein neues ethi- sches Problem.“ Schluss Gerade deswegen sollten wir nicht jeder Zukunft, jedem Tun nachrennen und damit die Kluft zwi- schen Vorherwissen und Tun nur vergrößern, son- dern versuchen, so früh und so klar wie möglich zu erkennen, was auf uns zukommt. Dafür ist eine Akademie für Technikfolgenabschätzung unab- dingbar, die schon jetzt darüber nachdenkt, wel- che kategorial neuen Probleme auf uns zukommen, wenn sich die drei Themenfelder dieses Kongres- ses, Gentechnologie, Nanotechnologie und Künst- liche Intelligenz, verbinden. Dann werden wir vor ethischen Fragen stehen, die die Probleme bei den humanen embryonalen Stammzellen weit in den Schatten stellen werden. Wird die Hochzeit von Gentechnik, Nanotechnologie und künstlicher Intelligenz am Ende doch den Homunkulus gebären, vor dem wir seit Jahrhunderten wohlig schaudern in der Annahme, er werde niemals Wirk- lichkeit? Ich bin der Akademie für Technikfolgenabschät- zung und der Landesstiftung zu Dank verpflichtet, dass sie den Entscheidungsträgern aus Politik, Wirtschaft, Wissenschaft und Gesellschaft diese Gelegenheit zur sachkundigen Information und umfassenden Reflektion an den folgenden beiden Tagen bietet. Ich bin mir sicher, dass wir alle auf der Basis des hier gebotenen Programms nach die- sen beiden Tagen mit besserem Hintergrundwis- sen und mehr Orientierungssicherheit in diesen schwierigen Fragen nach Hause gehen können. Damit wir uns nicht in folgender Situation wieder- finden, um ein letztes Mal Hans Jonas zu zitieren: „Nun zittern wir in der Nacktheit eines Nihilismus, in der größte Macht sich mit größter Leere paart, größtes Können mit geringstem Wissen davon, wozu.“ 14 Zäsuren der Technikentwicklung: Kränkung oder Herausforderung Zäsuren der Technikentwicklung Zäsuren der Technikentwicklung: Kränkung oder Herausforderung – Bruder Robot Norbert Bolz Was auch immer mit Künstlicher Intelligenz gemeint sein mag – stets geht es um die Konstruktion von Maschinen, deren Leistung als funktionales Äqui- valent für menschliche Intelligenz akzeptiert wer- den kann. Und die Schlüsselattitüde dieses Pro- jekts lässt sich genau bestimmen: Künstliche Intel- ligenz subsumiert Mensch und Computer unter informationsverarbeitenden Systemen. In ihrer noch jungen Geschichte lassen sich immerhin schon drei entscheidende Etappen markieren. – Die Universalmaschine Alan Turings ist die prin- zipielle Konstruktion eines „mind“, eine Imitati- on der Funktionsprinzipien des menschlichen Geistes; es geht also nur um Software. – Der Konnektionismus macht dann Ernst mit der Einsicht, dass wir zwar linear denken, das Gehirn aber parallel prozessiert. Deshalb versucht er, ein „brain“ zu modellieren, d.h. die Schaltungen des menschlichen Gehirns zu imitieren; es geht also um hard wiring, um Hardware. – Die Robotik ist die neueste Variante der Kritik des Leib-Seele-Dualismus. Nicht das Wissen, son- dern das Verhalten ist entscheidend. Der Robo- ter soll nicht primär denken wie ein Menschen- geist oder funktionieren wie ein Gehirn, sondern eine „illusion of life“ stabilisieren; es geht also letztlich um Wetware. Um die Dynamik dieser kurzen Geschichte der Künstlichen Intelligenz zu verstehen, muss man sich zunächst klar machen, dass schon für Turing die Frage, ob Maschinen denken können, völlig belanglos ist. An die Stelle des „Denkens“ und der „Intentionalität“ tritt ganz pragmatisch die Bewähr- ung im Turingtest. Alan Turing gibt also dem Com- puter-Anthropomorphismus keine Nahrung; ihn interessieren einzig und allein die mathematischen Funktionsanalogien zwischen Mensch und Maschi- ne. Hier tut sich eine neue Welt auf, in der allein Unterschiede Unterschiede machen – Hardware spielt keine Rolle. Mensch und Computer werden subsumiert unter: informationsverarbeitende Systeme. Das Physikalisch-Chemische des Gehirns ist demnach nur ein Medium für die Verkörperung diskreter Zustände; andere Verkörperungen sind möglich. „The mind is not in the head“ (Varela) – sondern in der Organisation, bzw. in der Maschine, die einen Algorithmus abarbeitet. Und Maschine heißt: von Verhaltensgesetzen gelenkt sein, ein Prozess nach Faustregeln. Der Geist in der Maschine unterstellt, wie wohl erstmals Thomas Hobbes, ein Denken als Rechnen mit symbolischen Repräsentationen. In Turings Universalmaschine, die jede andere Maschi- Prof. Dr. Norbert Bolz ist seit 2002 Inhaber des Lehrstuhls für Medienberatung an der TU Berlin und war von 1992 bis 2002 Inhaber des Lehrstuhls für Kommunikations- und Medientheorie an der Universität Essen und stellvertretender Leiter des Instituts für Kunst- und Designwissenschaften (IKUD). Er studierte in Mannheim, Heidelberg und Berlin Philosophie, Anglistik, Germanistik und Reli- gionswissenschaft. Promotion und Habilitation in Philosophie an der FU Berlin 15Zäsuren der Technikentwicklung: Kränkung oder Herausforderung ne emulieren kann, kommt diese Entzauberung des Menschengeistes als Rechenmaschine mit Feed- backschleifen dann zu sich. Weil es nur um die Soft- ware geht, muss man nicht wissen, wie das Gehirn funktioniert, um zu wissen, wie der Geist funktio- niert. Entsprechend genügt es, einen Geist zu bau- en – es ist nicht nötig, ein Gehirn zu modellieren. Die mathematische Funktionsanalogie zwischen Mensch und Maschine bewährt sich aber nicht nur als Geist in der Maschine, sondern auch als Com- puter-Bild des Menschen. Altvertraut ist die Rede von der digitalen Maschine als Elektronengehirn. Aber genau so selbstverständlich versteht man heute den Menschengeist als eine Art Computer. Mit anderen Worten: Mensch und Maschine meta- phorisieren sich wechselseitig. Und die sogenannte Strong AI unterscheidet sich von den weicheren Varianten lediglich darin, dass sie die Metaphern wortwörtlich nimmt. So bekanntlich schon Turing: „Ein Mensch, ausgestattet mit Papier, Bleistift und Radiergummi sowie strikter Disziplin unterworfen, ist in der Tat eine Universalmaschine.“ 1 Der Geist in der Maschine ist der Geist als virtuelle Maschine, ein System von Systemen, wie es der deutsche Idealismus vor 200 Jahren vorausgedacht hat. Man könnte auch sagen, Kybernetik, Automa- tentheorie, Kognitionswissenschaften und Artifici- al Intelligence arbeiten daran, den Hegelschen Geist zu operationalisieren. Den entscheidenden Schritt über die reine Philosophie hinaus macht eigentlich schon Norbert Wieners Kybernetik mit ihrem neu- en Begriff von Maschine, der auch biologische Syste- me umfasst. Im Anschluss daran hat dann G.Günther eine radikale, vom „Lokalpatriotismus des mensch- lichen Gehirns“ emanzipierte Geistesgeschichte gefordert, d.h. eine Logik des Lebens, für die der Mensch nur eine kontingente Verkörperungsform unter anderen ist. Diese Vision wird heute von der Robotik eingelöst. Wir können deshalb sagen: Wer vor Robotern Angst hat, wird eigentlich von der „metaphysischen Irrelevanz des Menschen erschüttert“ 2. Alle Angst vor Robotern konzentriert sich auf die Fra- ge, ob Menschen irgendwann einmal Maschinen gegenüberstehen werden, die sie nicht selbst ent- worfen haben. Dass das prinzipiell möglich ist, weiß man, seit John von Neumann eine sich selbst repro- duzierende Maschine skizziert hat. Das Grundkon- zept ist einfach: Man konstruiert eine Maschine, die nicht nur aus einem klassischen, physische Arbeit verrichtenden Teil und einem mechanischen Gehirn zusammengesetzt ist, sondern auch noch einen algorithmischen Schwanz hat. Dieser Schwanz ent- hält eine mathematisch-logische Beschreibung des gesamten Mechanismus. Das mechanische Gehirn übersetzt den Algorithmus in Instruktionen, die dann vom klassischen Teil der Maschine ausgeführt werden. Damit reproduziert sich die Maschine aber auch selbst. Nun muss man dem algorithmischen Schwanz nur noch Zufallselemente einfügen, um beim Bau der neuen Maschinen zu unvorherseh- baren Variationen zu gelangen. Was so entsteht, hat kein Mensch entworfen. Wenn aber Maschinen über eine mathematisch- logische Beschreibung ihres eigenen Mechanismus verfügen können, dann können sie auch die Effek- te ihres eigenen Operierens beobachten und dar- aus „lernen“. Die lernende Maschine hat sich selbst zum Gegenstand; sie beobachtet die Ergebnisse des eigenen Verhaltens und kann so die eigenen Programme modifizieren. Deshalb ist so etwas wie „Selbstreflexion“ bei Robotern durchaus möglich, wenn man ihnen ein Modell ihrer eigenen Opera- tionen zur Steuerung dieser Operationen einkon- struiert; ähnlich wie sie ein Weltmodell brauchen, um überhaupt erfolgreich in „ihrer Welt“ (z.B. aus Lego-Bausteinen) operieren zu können. Gewiss, der Sieg von Deep Blue über Kasparow hat uns beeindruckt - aber das Hantieren mit Baustei- nen? Ein Buchtitel von Marvin Minsky, The Society of Mind, signalisiert, was man bisher aus dem Scheitern der Robotik gelernt hat: Etwas scheinbar so einfaches wie zum Beispiel „Sehen“ lässt sich nur durch das Zusammenspiel einer Vielzahl unter- schiedlicher Prozesse implementieren. Skills, 1 A.Turing, Intelligence Service 91 2 G.Günther, Beiträge Bd. I , S.XV 16 Zäsuren der Technikentwicklung: Kränkung oder Herausforderung Geschicklichkeiten sind – mit Michael Polanyis Wort – „tacit“. Sie werden parallel prozessiert und verlaufen unbewußt, also ohne zentrale Kontrolle. Daraus folgt aber: Nur ein Roboter mit parallel dis- tributed processing könnte „wahrnehmen“. Hier und nicht im Denken liegt das große Problem der künstlichen Intelligenz. Immer wieder scheitert sie an der technischen Implementierung des gesunden Menschenverstandes. Der Umgang mit Alltagspro- blemen unter Bedingungen der Unsicherheit scheint rätselhafter als Hegels Große Logik. „In general, we're least aware of what our minds do best.“ 3 Man könnte das Projekt der Robotik auch so for- mulieren: Es geht für die Künstliche Intelligenz dar- um, den Schritt vom Schachbrett zum Fußballplatz zu wagen, d.h. von der bloßen Semiose zum Zusam- menspiel von Wahrnehmung und Verstand. Die kommunikationsunbedürftige Koordination von frei beweglichen Körpern zu simulieren, ist nämlich eine unendlich viel komplexere Aufgabe als das Durchrechnen möglicher Stellungen auf dem Schachbrett. Deshalb spricht man heute vielfach schon von post-algorithmischen Computern, ja sogar von „organischem Rechnen“. Was auch immer im Einzelnen damit gemeint sein mag – in jedem Fall soll eine konnektionistische Wende von der Artificial Intelligence der Turingmaschine zum Artificial Life markiert werden. Artificial Life will nicht den Menschengeist nach- konstruieren, sondern von der Evolution lernen. Und die erste Lektion lautet: „The brain evolved to act, not to think.“ 4 Das ist die entscheidende Dif- ferenz, die alle bisherigen Theoriedesigns der Com- puter Science von der neuen Robotik trennt: Es geht darum, Systeme auf Aktivität, statt auf Funktion hin zu betrachten. Der General Problem Solver, der ganz in der Logik der Universal Turing Machine steht, funktioniert nach dem Prinzip der Repräsentation. Dagegen folgt das künstliche Leben dem Prinzip des „enactment“, der inszenierenden Kognition. Man denkt nun also ganz anders über das Denken. Kognition wird nicht mehr als Problemlösung, son- dern als Inszenierung, als verkörpertes Handeln verstanden. Es geht um die technische Implemen- tierung von Intelligenz im evolutionären Kontext. So ist wohl auch Varelas Satz zu verstehen: „dass die kognitiven Fähigkeiten untrennbar mit Lebens- geschichten verbunden sind, die Wegen ähneln, welche erst im Gehen gebahnt werden.“ 5 Wohlgemerkt handelt es sich hier um eine Evoluti- on ohne Anpassung. Humberto Maturana hat dafür den Begriff der Autopoiesis geprägt. Im Blick auf unsere Fragestellung besagt er, daß komplexe kybernetische Systeme auf die Umwelt nicht mit „adaption“ sondern mit „enactment“ reagieren. Roboter, die das könnten, wären Computer zweiter Ordnung, also Roboter ohne Fernsteuerung, d.h. ohne Menschen; Maschinen, die sich selbst ent- wickeln. An dieser Stelle sieht man sehr deutlich, daß „Maschine“ eigentlich ein unglücklicher Begriff für nicht-triviale Maschinen ist. Jeder Mensch denkt bei dem Wort „Maschine“ ja automatisch (!) an tri- viale Maschinen, die dadurch charakterisiert sind, daß sie ihr Verhältnis zur Außenwelt nicht regulie- ren können. Autos zum Beispiel. Der Roboter dage- gen ist als autonomes kybernetisches System gera- de auch in dieser Hinsicht nicht trivial. Der Robo- ter steht für das Autonomwerden des Computers; er „verkörpert“ eine operative Intelligenz ohne Menschen. Und um sich davon zu überzeugen, muss man nicht mehr in Science Fiction-Filme gehen. Längst kennt die militärische Realität „smart bombs” oder Panzer ohne Besatzung. Die konnektionistische Wende von der geistorien- tierten Artificial Intelligence zum evolutionsorien- tierten Artificial Life ermöglicht also ein neues Kon- zept von Robotern jenseits der klassischen Steue- rungswissenschaft. Man arbeitet an komplexen, evolvierenden Systemen ohne menschliche Kon- trolle. Entscheidend ist dabei, dass an die Stelle zentraler Fernsteuerung nun die Kommunikation zwischen den Elementen der Roboter tritt. Ihr künst- liches Leben beginnt nicht mit Schachpartien, son- dern eher mit einem „insect-like behavior by res- ponding locally to their environment“ 6. Ganz in die- 3 M.Minsky, The Society of Mind, S. 29 4 L.Tiger, The Pursuit of Pleasure, S. 206 5 Varela/Thompson, Der Mittlere Weg der Erkenntnis, S. 279 6 S.Turkle, Life on the Screen, S. 98 17Zäsuren der Technikentwicklung: Kränkung oder Herausforderung 7 S.Lem, Waffensysteme des 21.Jahrhunderts, S. 8 8 A.Gehlen, ASU, S. 158 sem Sinne hat S. Lem im Modus des Futur II rück- blickend auf das 21.Jahrhundert die interessante These entwickelt, dass die künstliche Intelligenz „gerade dadurch Weltmacht erlangte, dass sie nicht zu einer Intelligenz im Sinne des einer Maschine einverleibten Verstandes wurde.“ 7 Diese Fiction ist wohl schon Science geworden. Es spricht also einiges für den Erfolg von Robotern, die gerade nicht anthropomorph gedacht sind. Man weiß ja, dass Flugzeuge möglich wurden, als man die Nachahmung der Vögel aufgab. Und man könn- te daraus lernen, dass Roboter möglich werden, sobald man die Nachahmung des Menschen auf- gibt. Doch gleichgültig, ob man die Erfolgsge- schichte der Universal Turing Machine fortschreibt, oder die konnektionistische Wende zum künstli- chen Leben mitmacht – wir können hier definito- risch festhalten: Roboter sind Formen im Medium der künstlichen Intelligenz. Und diese mobilen intelligenten Artefakte werden der zentrale Gegen- stand einer neuen Wissenschaft vom Künstlichen sein. Schon heute ist die Robotik die pragmatische Dimension der Artificial Intelligence. Doch zumeist wird – und mit einigem Recht – der Ursprung der Robotik viel weiter zurückdatiert. Es gibt eine lange Geschichte des Jahrmarktzaubers mechanischer Enten und Schachspieler, mit dem sich die stupende Ingenieurskunst der Moderne ihre verdiente Anerkennung beim Volk geholt hat. Doch die Faszination dieser Artefakte verdankt sich nicht nur der ingenieurstechnischen Spitzenlei- stung. Man könnte sogar sagen: Der Automat fas- ziniert unabhängig von seiner Leistung. Der Anthro- pologe Arnold Gehlen hat das als „Resonanzphä- nomen“ beschrieben. Am Automaten erfährt der Mensch sich selbst. Alles Habitualisierte und Rhy- thmische, Routinierte des Alltagslebens, Gewohn- heiten, soziales Rollenverhalten, kritikfeste Denk- figuren, aber auch Herzschlag und Atmung sind ja Automatismen. Kurzum, das, was man den Hand- lungskreis des Menschen nennt, also „die plasti- sche, gesteuerte, am rückempfundenen Erfolg oder Misserfolg korrigierte und schließlich gewohn- heitsmäßig automatisierte Bewegung“ 8, entspricht präzise dem Rückkopplungsprinzip der kyberneti- schen Maschine. Deshalb träumen Ingenieure von einer Maschine, die den Menschen erfolgreich vorspielt, ein Mensch zu sein. Schon der Turing-Test setzt diesen Traum in Kommunikationspragmatik um. Und der logisch nächste Schritt lautet dann: „More human than human is our motto.“ So formuliert es Mastermind Tyrell in Ridley Scotts „Bladerunner“. Das Dämo- 18 Zäsuren der Technikentwicklung: Kränkung oder Herausforderung nische dieses Films liegt ja genau darin, dass die Unterscheidung Mensch/Replikant undarstellbar wird. Beide erfüllen das Goethe-Kriterium: gepräg- te Form, die lebend sich entwickelt 9. Doch diese Kinotraumperfektion der Technik ist gar nicht nötig, um Menschen dazu zu bringen, Maschi- nen als lebendig zu erfahren. Feedbackschleifen genügen nämlich schon, um das Gefühl der Belebt- heit zu schaffen. Wir haben es hier mit einer moder- nen Form von Animismus zu tun, den die bloße Zuschreibung von Intentionalität initiiert. Mit ande- ren Worten: Weil der Mensch das Tier ist, das stän- dig Bedeutung produziert (sensemaking), genügt schon der „effort after meaning“ (Frederic C. Bart- lett), um den Animismus der Artefakte in Gang zu halten. Irgendetwas gibt Zeichen – und schon unter- stellen wir Geist. Doch der moderne Animismus begnügt sich nicht mehr mit Geistern, die in Bäumen hausen, sondern erwartet „Subjektivität“. Und auch diese Erwartung lässt sich maschinell befriedigen. In der kalten Pro- sa des Mathematikers taucht das Subjekt bekannt- lich nur als das Rauschen auf, das die formale Logik stört. Also muss man umgekehrt „noise“ in die maschinelle Abarbeitung des Algorithmus ein- führen, um den Eindruck von Subjektivität zu pro- duzieren. Menschliche Intelligenz stellt sich dann als ein Rechnen zwischen Zufall und Wiederholung dar. Es genügt deshalb ein Digitalrechner mit einem zufälligen Element, um den Eindruckvon freiem Wil- len zu erzeugen. Denn diese Kombination ist dem Gleichgewicht zwischen Kenntnis und Unkenntnis seiner selbst, das das Gefühl des freien Willens erzeugt, funktional äquivalent. More human than human? Mag man auch Denken, Entscheiden und Kreativität maschinell imitieren können, so scheint den Robotern doch nie die Stun- de der wahren Empfindung zu schlagen. Oder kön- nen Roboter Gefühle haben? Affective modelling nennt man die Versuche, Programme zu schreiben, die eine Simulation emotionaler Effekte ermögli- chen. Und das ist gerade deshalb nicht aussichts- los, weil wir uns über unsere Gefühle ohnehin nicht analytisch klar werden können. Wir haben Gefüh- le immer nur als inszenierte, in Situationen, gehal- ten von Frames – und die lassen sich beschreiben. „Since basic feelings are signals that have no sym- bolic structure, there cannot be analytical con- cepts of them. There can be concepts only of the scenarios into which they typically enter“ 10. Gera- de daraus folgt aber, dass Signale über den inne- ren Zustand des Roboters, z.B. Warnsignale, genau wie Gefühle funktionieren können. Die Antwort lau- tet also: Roboter können ein funktionales Äquiva- lent für Gefühl haben. Und das genügt zumeist, um die Erwartung emo- tionaler Zuwendung zu erfüllen. Auf dem sozialen Feld, das sich hier auftut, wird man wohl die killer applications der Robotik erwarten dürfen. Die lei- tende Frage lautet ganz einfach: Wie weit kann man human service durch Roboter ersetzen? Als Indu- strieroboter und Expertensysteme haben sie ja längst ihren festen Platz im Wirtschaftsleben. Doch nun übernehmen die Roboter nach Symbolanalyse und Routine auch noch das „Care“. Und zwar nicht nur in der Gestalt von Pflegerobotern im Kranken- haus. Bruder Robot wird Subjekt und Objekt der Sorge sein. Ein immer mehr wachsender „market of care“ wird dafür sorgen, dass das Pflegen von Robotern zur alltäglichen Beschäftigung derer wird, die niemanden (mehr) haben, um den sie sich sor- gen könnten. Um Roboter kann man sich „sorgen“ – und der Roboterhund, den Sony ja schon gebaut hat, hat jedem realen Hund gegenüber den un- schätzbaren Vorteil, dass seine Pflegebedürftigkeit berechenbar ist. Man kann deshalb prognostizie- ren: Roboter ersetzen die Haustiere als „lebendi- ge Psychopharmaka“ 11. Es geht also gar nicht um die Frage, ob Maschinen Geist und Gefühl haben, sondern ob wir sie ihnen zuschreiben müssen. Wir müssen ja auch Menschen Geist, Gefühl und Freiheit zuschreiben, um mit ihnen kooperieren zu können. Und Maschinen Bewusstsein zuzuschreiben wird für Menschen gefühlsmäßig immer leichter, weil das Ausmaß der Reflexion im Mechanismus immer mehr anwächst. Die durch Feedbackschleifen implementierte Reak- tionsfähigkeit der Maschine empfinden wir als Lebendigkeit. Schon heute scheinen lernfähige Roboter aus Searles Chinese Room auszubrechen. Dazu genügt im Grunde schon ein Moment der Über- 9 Vgl. hierzu die eindringliche Analyse von R. Zons, Die Zeit des Menschen 10 P.N.Johnson-Laird, The Computer and the Mind, S. 382 19Zäsuren der Technikentwicklung: Kränkung oder Herausforderung raschung. Die Minimalanforderung an Maschinen, die uns überraschen, kann man so formulieren: „Es gilt ein geschlossenes System (Äquivalent zu Orga- nismus) zu konstruieren, das regulierte Kontakt- stellen mit der Außenwelt besitzt. Jeder solche Kontakt muss als Information verarbeitet werden können. Und das geschlossene System muss ein Informationssystem von in sich reflektiertem Cha- rakter sein.“ 12 Ob man diese Operationen dann als Fühlen und Verstehen empfindet und versteht, ist eine empirische Frage. Wie sein menschliches Pen- dant kann sich der Roboter als Hochstapler jeden- falls darauf verlassen, dass die Betrogenen betro- gen werden wollen. Diese Auskunft kann Philosophen natürlich nicht befriedigen. Ihnen müssen wir das Projekt der Robo- tik anders schmackhaft machen. Etwa so: Vicos Axi- om „verum et factum convertuntur“ besagt im Kern, dass der Mensch nur versteht, was er macht. Er ver- steht die Welt genau in dem Maße, als er sich frei handelnd in ihr bewegt. Will er sich aber selbst ver- stehen, so muss er seinen handelnden Körper in einer Maschine wiederholen. Entscheidend ist hier- bei folgendes: Das Projekt der Robotik ist technisch möglich, weil „Bewusstseinsakte [...] in Hand- lungsformen deponiert“ 13 werden können. Und es ist dann eine Frage des menschlichen Gefühls, bzw. des „effort after meaning“, ob die technisch nach- gebauten Handlungsformen von uns als Manife- stationen von Bewusstsein empfunden werden. Ein anderes, objektiveres Kriterium gibt es nicht, denn Bewußtsein ist das an einem System, was man nur erkennen kann, wenn man das System ist. Doch Maschinen Bewusstsein zuzuschreiben, heißt nicht auch schon, ihnen Selbstbewusstsein zuzu- schreiben. Denn um einem mechanischen Gehirn Selbstbewusstsein anzukonstruieren, müsste man es in einer Sprache programmieren, die auf einer Metaebene gegenüber Begriffen wie Ich, Du und Selbst liegt – diese Metaebene gibt es aber nicht. Wenn wir Menschen „über“ Ich, Du und Selbst sprechen, nehmen wir Paradoxien in Kauf. „Para- doxien aber sind nicht als technische Objekte kon- struierbar.“ 14 Und daraus folgt, dass sich der Ein- druck der Lebendigkeit von Robotern immer nur der technischen Implementierung von icherlebnisfrei- en Bewusstseinszuständen verdankt. Speichern, Rechnen, Lernen und pattern recognition sind auch ohne Icherlebnis möglich (so ist Searles Chinese Room zu verstehen). Das Fazit für Philosophen wür- de dann lauten: Roboter haben Bewusstsein, aber kein Selbstbewusstsein – ähnlich wie Kleinkinder und Tiere. Der ideelle Gesamtprogrammierer wäre dann das Ich des Roboters, dessen Bewusstsein letztlich immer ein ferngesteuertes bliebe. Raimar Zons hat eine Kritik (im Kantischen Sinne des Grenzenziehens) des Posthumanismus vorge- legt, in der die Geisteswissenschaften von sich selbst Abschied nehmen und den Platz frei machen für eine neue Wissenschaft vom Künstlichen. Ihr Motto könnte Nietzsches Grundüberzeugung sein, dass der Mensch etwas sei, was überwunden wer- den müsse. Das Interessanteste an ihm ist das, was ihm fehlt; denn dieser Mangel öffnet den Menschen auf die Welt der Maschinen. Im Jargon der Philo- sophie heißt das: Um den Menschen als das Wesen, dem Wesentliches mangelt, in seinem Wesen zu denken, muss man vom Menschen wegdenken. Weg vom Menschen, d.h. hin zum Programm, das sein Wesen formt. Dieser neue Weg des Denkens weg vom Menschen war aber von der hartnäckigen Fehlleitung der Anthropologie durch die Mensch-Tier-Unterschei- dung verbaut. Schon der Computer als neue Leit- metapher, erst recht aber Bruder Robot bieten uns heute die Chance einer radikalen Umorientierung. Wir müssten wieder (wieder!) begreifen, dass der Mensch den Göttern und Maschinen ähnlicher ist als den Tieren. Man könnte hier anschließen an Des- cartes, der den Körper als Maschine modelliert hat; an Freud, der die Seele als Apparat entzaubert hat; und schließlich an Turing, der Menschen wie Com- puter gleichermaßen unter der Rubrik „datenver- arbeitende Maschine“ subsumiert. Ganz in diesem Sinne findet sich in Raimar Zons Kritik des Posthu- manismus der nüchternste aller Sätze: „Der Mensch ist die Gesamtsumme seiner Daten.“ 15 Menschen mit Maschinen, Apparaten und Rechnern zu vergleichen, ist aber mehr als bloßer Meta- phernzauber. Denn soweit der Mensch von Verhal- tensgesetzmäßigkeiten gelenkt ist, ist er in der Tat 11 G.Staguhn, Tierliebe, S.250 12 G.Günther, a.a.O., S. 111 13 A.a.O. , S. 112 14 A.a.O., S. 99 Anm 15 R.Zons, a.a.O., S. 253 20 Zäsuren der Technikentwicklung: Kränkung oder Herausforderung eine Art Maschine. Der ganze Sinn einer Wissen- schaft wie der Soziologie besteht ja darin, zu zei- gen, dass und wie Menschen Regeln folgen, weil es sie gibt. Dass das Geschehen dennoch als Frei- heit erscheint, liegt daran, dass der Mensch eine Maschine ist, dessen Algorithmus man nicht kennt. Und dieses Nichtwissen ist sozial funktional. Man könnte diesen faszinierenden Sachverhalt vielleicht so zusammenfassen: Der Mensch ist eine Maschi- ne, die von der Kultur so programmiert wurde, dass sie sich selbst nicht als solche erkennt. Früher hat man Götter erfunden, um die Frage nach dem Wesen des Menschen zu beantworten; heute konstruiert man Roboter. Die beliebte Frage, ob Rechner denken, Sätze verstehen oder fühlen kön- nen, ist sinnvoll nur als die Frage nach der funk- tionalen Äquivalenz von Menschen und Computern. Heute stellt sich der Mensch die Frage nach sich selbst mit Hilfe des Roboters. Bruder Robot ist die Frage nach dem Menschen als Gestalt. Oder nüch- terner formuliert: Im Roboter wird die Einsicht, dass der Mensch eine durch und durch technisches Wesen ist, zur Gestalt. Indem wir Roboter kon- struieren, ersetzen wir stellengenau die unlösba- re Aufgabe der Selbsterkenntnis durch ein image matématique im Sinne Valerys. Könnten Philoso- phen ihre Technikangst abstreifen, so würden sie sehen, dass in diesem mathematischen Bild genau das geboten wird, worum das Denken des Denkens seit 2500 Jahren vergeblich ringt: „Je mehr das Ich von sich selbst abgibt und in den Mechanismus ver- bannt, desto reicher wird es an reflexiven Einsich- ten in sich selbst.“ 16 Alle Roboter sind Computer, alle Computer sind Pro- gramme, und alle Programme sind Text, Geschrie- benes. Das tritt zutage, wenn der Roboter kaputt- geht und der Schein seiner Autonomie zerreißt. Der wahrhaft autonome Roboter wäre ja ein Text, der 16 G.Günther, a.a.O., S. 88 21Zäsuren der Technikentwicklung: Kränkung oder Herausforderung sich selbst schreibt – ähnliches hat man bisher nur von Gott erwartet. So lange alles gut geht, genügt die staunende Beobachtung der Oberflächen; wir nehmen alles at face value, d.h. at interface value. Hier erweist sich der autonome Roboter als das genaue Komplement zum computerilliteraten User – nichts erinnert mehr an die Schreibarbeit der Pro- gramme. Auf beiden Seiten also, beim Menschen wie bei sei- nem Bruder Robot, wird das Entscheidende im Namen der Benutzerfreundlichkeit verhüllt. Das kann man kritisch beklagen und mehr Computer Literacy fordern. Man kann diese Entwicklung zur totalen Benutzerfreundlichkeit aber auch ganz anders interpretieren. Schon vor fünfzig Jahren hat Gotthart Günther den Verdacht geäußert, dass sich die Menschen der westlichen Welt nicht mehr mit den Formen des klassischen Denkens identifizie- ren, denen sie doch ihre technischen Triumphe ver- danken. Die abendländische Rationalität ist dem modernen Menschen zur lästigen Bürde geworden. „Er sucht diese Formen dadurch von sich abzu- stoßen und sie innerlich zu überwinden, dass er versucht, sie aus seinem Seelenleben zu entlassen und in die Maschine, den denkenden Robot, zu ver- bannen.“ 17 Hier schließt sich ein Kreis. Der Animismus war ein vorrationales Wissen von Leben und Seele, das uns der stolze Prozess der Aufklärung ausgetrieben hat. Ein Wissen von Leben und Seele unter Aufklär- ungsbedingungen zu reformulieren, war dann das Projekt der (unübersetzbar deutschen) Geistes- wissenschaften. Und als alle Wissenden glaubten, man müsse den Geist als animistischen Rest aus den Geisteswissenschaften austreiben, um ihnen Anschluss an die triumphal erfolgreichen hard sciences zu verschaffen, rettete die Kybernetik die- sen Geist im Konzept der Rückkopplung. Seither formiert sich eine neue Wissenschaft vom Künstli- chen, in deren Paradies der Baum des Wissens vom Baum des Lebens nicht mehr zu unterscheiden ist. Gleichzeitig aber schreitet die Entzauberung der Welt weiter fort – ohne unsere, der User, bewus- ste Teilnahme. Im Roboter hat die abendländische Rationalität ihr endgültiges Gehäuse gefunden, in dem sie von Menschen ungestört funktionieren kann; er nimmt die Last des klassischen Denkens von unseren Schultern. Der Mensch lebt in seinen künstlichen Paradiesen – Bruder Robot kümmert sich um die Details. Literatur: Bolter, David Jay: Writing Space: The Computer Hypertext, and the History of Writing, Hillsdale (1991) Gehlen, Arnold: Anthropologische und sozialpsychologische Untersu- chungen, Rowohlt Taschenbuch (1986) Günther, Gotthard: Beiträge zu einer operationsfähigen Dialektik, Bd. 1. Meiner (1980) Johnson-Laird, Philip N.: The Com- puter and the Mind, Harvard Univer- sity Press (1989) Zimmerli, Walther Ch./Wolf, Stefan: Künstliche Intelligenz. Phillipp Reclam (1994) Lem, Stanislaw: Waffensysteme des 21. Jahrhunderts oder die verkehrte Evolution. Suhrkamp-Taschenbuch (1983) Minsky, Marvin L.: The Society of Mind, Touchstone Books (1988) Staguhn, Gerhard: Tierliebe. Eine einseitige Beziehung, Carl Hanser (1996) Tiger, Lionel: The Pursuit of Pleasure. Transaction Press (2000) Turing, Alan Mathison: Intelligence Service. Schriften, Brinkmann, (1996) Turkle, Sherry: Life on the Screen, Weidenfeld & Nicholson (1996) Varela, F. J./ Thompson E./Rosch , E.: Der Mittlere Weg der Erkenntnis. Goldmann (1995) Zons, Raimar Stefan: Die Zeit des Menschen. Zur Kritik des Posthu- manismus, Suhrkamp (2001) 17 A.a.O., S. 114 22 Die Maschinisierung des Menschen: Gen- und Nanotechnologie und die Würde des Individuums Gen- und Nanotechnologie und die Würde des Individuums Gen- und Nanotechnologie und die Würde des Individuums Prof. Dr. Christiane Ziegler Ich will Sie heute in ein Spezialgebiet der Nano- technologie, nämlich in die Nanobiotechnologie entführen, weil ich das Gefühl hatte, das ist der Bereich, der am besten zu der Thematik dieses Kon- gresses hier passt. Dazu muss ich Ihnen erst mal erklären, was Nanotechnologie überhaupt ist. Nanotechnologie heißt, sich mit sehr kleinen Dimensionen zu beschäftigen. Ein Moskito, das wis- sen Sie selbst, ist einige Millimeter groß. Die roten Blutkörperchen, auf die es dieser Moskito abge- sehen hat, sind schon um den Faktor 100 kleiner, das heißt, sie sind nur noch 10 Mikrometer groß. Die Membranen auf diesen Zellen sind kleiner als 100 Nanometer. Definitionsgemäß beschäftigt sich die Nanotechnologie mit all den Dingen, die min- destens in einer Dimension weniger als 100 Nano- meter Ausdehnung haben. Einzelne Moleküle und Atome haben gerade die Größe von einzelnen Nanometern, das heißt, wir beschäftigen uns hier mit etwas, was ein Millionstel Millimeter groß ist und die Größenordnung von ein- zelnen Bausteinen unserer Materie hat. Es gibt nicht nur eine Nanotechnologie, es gibt eine ganze Reihe. Doch zuerst müssen Sie Nanostruk- turen herstellen können. Das können Sie auch für die Nanoelektronik, da geht es um Strukturierun- gen, Selbstanordnung. Sie müssen einfach etwas aktiv herstellen können, was eine Größe in Nano- meterdimensionen hat. Das Zweite ist, dass Sie gerne Materialien entwickeln wollen. Sie wollen ja nicht nur irgendwas haben, was nanometergroß ist, sondern Sie wollen sehr häufig etwas mit einer bestimmten Funktion haben, zum Beispiel eine Antireflexschutzschicht auf Ihrem Auto oder eine easy-to-clean-Beschichtung für Ihr Waschbecken oder eine bessere Prothese, das sind makroskopi- sche Materialien, die Sie aber über Nanotechnolo- gie modifizieren wollen und das beschreibt diesen zweiten Bereich. Das Dritte ist, Sie können her- stellen was Sie wollen, wenn Sie nicht wissen, dass Sie es hergestellt haben, dann haben Sie ein Pro- blem. Das heißt also, der Analytik von diesen Nano- strukturen kommt eine ganz große Rolle zu, denn Sie müssen wirklich einzelne Atome auch anschau- en können. Eines der Hauptgeräte dazu ist das Rasterkraftmi- kroskop. Ich habe hier etwas makroskopisch mit- gebracht. Es ist so eine etwas schlabbrige Zunge und Sie sehen: Wenn ich da dagegendrücke oder ziehe, also Kräfte ausübe, dann verbiegt sich die- se Zunge und dieses Verbiegen können Sie sehr empfindlich in ganz kleinen Größenordnungen messen. Wenn Sie jetzt über irgendeine Oberfläche Prof. Christiane Ziegler ist Professorin für Technische Physik an der Universität Kai- serslautern. Sie ist Leiterin des Kompetenzzentrums „Nano- technologie: Funktionalität durch Chemie“, Leiterin des Steinbeis-Transferzentrums „Grenzflächenanalytik und Sensorik“, wissenschaftliche Leiterin des Instituts für Oberflächen- und Schichtanalytik (IFOS) GmbH und von „NanoBioNet“ Netzwerk der Region Saar-Rheinhes- sen-Pfalz sowie Direktorin des Nano+Bio Zentrums der Universität Kaiserslautern. Ziegler studierte Chemie in Tübingen, promovierte und habilitierte am Institut für Physikalische und Theoretische Chemie. 23Die Maschinisierung des Menschen: Gen- und Nanotechnologie und die Würde des Individuums drüberfahren, dann kriegen Sie allein durch diese Wechselwirkungen eine Auslenkung und können so eine Abbildung von Oberflächen darstellen. Sie können das allerdings auch ganz anders einsetzen, und zwar können Sie sich vorstellen, wenn Sie die- se Zunge nehmen und damit nicht über eine Ober- fläche drüberrastern, sondern sie in etwas ganz Weiches reindrücken wie meine Haut, dann sehen Sie – sehen Sie wahrscheinlich nicht, aber Sie kön- nen sich vorstellen – dass das meine Haut eindellt, das heißt, auch so etwas wie Elastizitäten, Weich- heiten können Sie nachweisen. Wenn ich jetzt einen Klebstoff hätte, dann würden Sie feststellen, wenn ich diese Spitze zurückziehen will, dass dann Kleb- oder Adhäsionskräfte wirken, das heißt Sie kön- nen über so einen ganz einfachen Biegebalken, wenn der nur klein genug und vorne nur scharf genug ist, ganz viele Eigenschaften über ein System auf der atomaren Skala charakterisieren. Ein Beispiel, das Ihnen vielleicht erst mal etwas exo- tisch vorkommt, aus meiner Zeit in Tübingen, als ich mit Stas Gorp beim MPI zusammengearbeitet habe. Der interessiert sich vor allem dafür, warum Fliegen eigentlich an verschiedensten Oberflächen entlang laufen können, und zwar sowohl an Blät- tern, die wachsig sind, also wasserabstoßend, als auch an Blättern, die nicht wachsig sind und Was- ser eher anziehen. An den Fliegenfüßchen sind feine Härchen. Und wenn man sich das genau anguckt, dann stellt man fest, dass da ein Sekret rauskommt aus diesen Flie- genhärchen an den Füßen. Und man hat das Gefühl, dieses Sekret spielt irgend eine besondere Rolle. Ein Problem ist, dass Sie diese Tröpfchen, diese Fußspur, die die Fliege hinterlässt – manchmal sehen Sie sie auch als Dreck an Ihrer Fenster- scheibe, meistens sind die aber so fein, dass Sie die kaum sehen können – sehr schlecht untersu- chen können. Eine Möglichkeit ist das Rasterkraft- mikroskop. Ich will jetzt hier nicht auf Einzelheiten eingehen, aber Sie können damit sozusagen die Klebrigkeit und die Eigenschaften von diesem Sekret feststellen und sehen, dass die Fliege etwas ganz Intelligentes macht, die macht nämlich eine Emulsion, so wie Milch, das heißt also, sie hat öli- ge Tröpfchen und wässrige Tröpfchen und je nach- dem, welche Unterlage diese Härchen benetzen soll, spielt mehr das Eine oder das Andere die Ver- mittlerrolle, macht dann eine große Oberfläche und führt so dazu, dass die Fliege optimal haften kann, aber auch optimal sich wieder ablösen kann. Das ist nicht nur für die Biologen interessant, son- dern ist natürlich auch interessant, wenn Sie neue Klebmaterialien entwickeln wollen, neue Pflaster zum Beispiel oder verschiedenste adhäsive oder antiadhäsive Systeme. Es gibt noch einen ganz anderen Bereich, den Sie ebenfalls mit dem Rasterkraftmikroskop bearbei- ten können: Dabei bilden Sie gar nichts ab, son- dern lassen diesen Cantilever, wie dieser Balken heißt, einfach nur schwingen. Und wenn Sie den jetzt schwerer machen, indem Sie was draufbrin- gen, dann stellen Sie fest, dass er viel langsamer schwingt. Das heißt, Sie können Masseänderun- gen ganz einfach über diese sogenannte Reso- nanzfrequenz von diesem Balken ausmessen. Das ist dann sehr interessant, wenn Sie auf diesen Bal- ken bestimmte Erkennungsstrukturen, zum Bei- spiel Antikörper aufbringen, die dann ein bestimm- tes Antigen erkennen. Das ist insbesondere inter- essant für die Medizindiagnostik. Sie alle wissen, wenn Sie irgendwie eine Probe an ein Labor ein- schicken, dauert es typischerweise einige Tage bis Sie ein Ergebnis bekommen. Aber es wäre sehr wichtig, dass man mit kleinsten Mengen in mög- lichst kurzer Zeit möglichst online sofort eine Dia- 24 Die Maschinisierung des Menschen: Gen- und Nanotechnologie und die Würde des Individuums gnostik bekommt. Und genau daran arbeiten wir, das mit solchen Cantilevern als Sensoren hinzu- bekommen. Für die, die sich ein bisschen ausken- nen: Eine Methode, mit der man das bisher auch machen kann, ist der Einsatz von sogenannten Schwingquarzen. Das sind die Quarze, die Sie in Ihren Quarzuhren haben, die schwingen auch ganz genau, so misst nämlich Ihre Uhr die Zeit. Und auch da können Sie Veränderungen der Resonanzfre- quenz sehen, allerdings makroskopisch. Diese Can- tilever sind sehr klein, das heißt das Ganze ist mikroskopisch und Sie sehen, dass das Kleiner- machen von dem System das Ganze tausendmal empfindlicher macht. Das bedeutet, dass Sie mit tausendmal weniger Material auskommen, außer- dem können Sie ganz viele von diesen Systemen nebeneinander haben und so nicht nur auf einen Krankheitserreger, sondern auf ganz vieles neben- einander testen. Dann gibt es noch einen ganz anderen Sensor: Elek- troden, im Prinzip ein Chip, der Ihnen elektrische Signale auslesen kann und darauf die Bausteine, die bei uns die elektrischen Signale liefern und bei uns die Daten verarbeiten, nämlich Nervenzellen. Da können Sie in so einem Invitro-System, also in so einer Art Petrischale hier das Gezucke von die- sen Nervenzellen messen, ohne dass Sie irgend- etwas tun, das heißt, die vernetzen sich von allei- ne und werden von alleine spontan aktiv und geben irgendwelche Signale ab. Gut, das ist erstmal ganz interessant, aber für die praktische Anwendung noch nicht besonders spannend. Wenn Sie jetzt aber irgendwas Neuroaktives zugeben, also zum Beispiel eine Droge oder ein Neuropharmakon, dann sehen Sie plötzlich ein geändertes Signal- muster in diesen Nervenzellen und es ist natürlich sehr interessant, dass Sie in der Pharmaforschung nicht nur feststellen, ob ein neues Pharmakon bestimmte Bindeeigenschaften hat. Das wird Ihnen jetzt erstmal nichts sagen, wenn Sie nicht aus dem Fach sind, aber es sind ganz einfache Reaktionen, ob A mit B reagiert oder nicht, was heutzutage in der pharmazeutischen Industrie getestet wird. Und anschließend muss man dann in den Tierversuch gehen, um zu testen, ob es tatsächlich die phar- makologische Wirkung im Organismus auch gibt, dass A an B angedockt hat. Man kann hier etwas, was zumindest ähnlich ist, zu einer In vivo-Reaktion mal als Vortest nehmen, ob sich tatsächlich die erwartete, die gewünschte Reaktion ergibt. Außerdem könnte es interessant sein als Drogentest für Ecstasy, LSD oder ähnliche neuroaktive Substanzen. Nun, was hat das mit Nanotechnologie zu tun? Da ist es besonders inter- essant für verschiedene technologische Anwen- dungen – auf die ich jetzt auch nicht näher einge- hen kann – diese Zellen tatsächlich an bestimm- ten Stellen anzuhaften. Sie möchten die nämlich dort haben, wo die Signale auch abgegriffen wer- den und an diese Elektroden angebunden werden. Jetzt wollen diese Nervenzellen aber alles, bloß nicht an diese Elektroden ran. Also diese Verhei- ratung der Biologie mit der Technik ist nicht so ein- fach, wie es im Schema aussieht. Sie brauchen dazwischen so eine Art Wohlfühlteppich, der Ihnen die Bindung überhaupt vermittelt. Und seit 15 bis 20 Jahren sind die Leute daran, dieses so einfache Problem wie Zellhaftung an den Elektroden zu opti- mieren und ich muss sagen, wir sind immer noch alle miteinander verdammt weit weg davon, allein nur dieses In vitro-Anhaften von den Zellen lang- zeitstabil hinzubekommen. Es ist aber in gewissem Maße in solchen Hundert- bis Zweihundert-Nano- meter-Strukturen möglich. Diese kleinen Knubbel- chen hier, das sind die Nervenzellen, hier drunter ist so eine Elektrodenstruktur, die Nervenzellen tatsächlich an bestimmte Orte zu bringen, und auch das ist ein wichtiger Punkt. Nun, die Vision ist natürlich, so etwas wie eine Pro- these zwischen den Nervenzellen tatsächlich her- stellen zu können. Auch hier haben Sie noch das ganz einfache Problem, dass Sie diesen Nerven- zell-Elektroden Kontakt nicht gut herstellen kön- nen, rein technisch schon mal nicht. Geschweige denn, dass Sie bisher genau wissen, wie Sie die- se Signale verstehen oder auslesen sollen. Man hat in der Zwischenzeit ganz einfache Systeme wie ein Hör-, ein sogenanntes Cochleaimplantat entwickelt. In 10 bis 20 Jahren gibt es vielleicht für bestimm- te blinde Patienten, die eine bestimmte Degene- ration der Netzhaut haben, die Möglichkeit, dass so kleine Chips die Netzhautfunktion ersetzen. Das wird dann aber nur so weit helfen, dass jemand, der komplett blind ist, überhaupt wieder ein bis- schen Schwarz-Weiß-Kontrast sehen kann und sich ohne Blindenstock und Hund bewegen kann, aber 25Die Maschinisierung des Menschen: Gen- und Nanotechnologie und die Würde des Individuums ohne Möglichkeit wirklich scharf zu sehen. Man ist also extrem weit davon entfernt, überhaupt nur unser jetziges Sehvermögen wieder herzustellen, geschweige denn irgendetwas so Utopisches wie diese Sehfunktion zu verbessern. Nun, man kann auch Nanomaterialien ganz anders in der Medizin einsetzen, zum Beispiel kann man Nanopartikel für den Transport verschiedenster Dinge, zum Beispiel Medikamente im Körper benut- zen. Nanopartikel sind dafür prädestiniert. Sie sind nämlich so klein, dass sie von einem Teil unseres Immunsystems, nämlich den Makrophagen, nicht als Fremdkörper erkannt werden. Erst Teilchen, die größer sind als die Nanopartikel, werden von dem Immunsystem erkannt, ansonsten hätten wir ja sofort eine Abwehrreaktion. Zum anderen sind sie auch so klein, dass sie zum Teil von den Zellen direkt über die Zellmembran aufgenommen werden kön- nen. Andere Möglichkeiten sind neue Biomaterial- oberflächen, zum Beispiel für Prothesen, zum Bei- spiel in der Zahnmedizin. Nun ein spezielles Bei- spiel, das ein Mitglied bei uns im Kompetenzzen- trum, Herr Jordan von der Charité in Berlin ent- wickelt hat und das im Moment auch sehr durch die Medien geht. Das sind magnetische Nanopar- tikel. Die haben gar nichts Besonderes, außer dass sie aus Eisenoxid sind, und das ist magnetisch. Wenn man die in die Nähe von Tumorzellen bringt, dann stellt man fest, dass diese Tumorzellen, wenn diese Nanopartikel eine bestimmte Beschichtung haben, diese besonders gern aufnehmen. Nun, Eisenoxid ist absolut nicht toxisch, das stört die Zellen erstmal gar nicht, aber Sie können jetzt ein magnetisches Wechselfeld einschalten und immer sozusagen die Magnetisierung hin und her schal- ten. Vielleicht haben Sie noch aus Ihrer Physikvor- lesung so was wie eine Hysteresekurve im Kopf, und das, was da an Hysterese, wenn Sie die Magne- tisierung einschalten, als Fläche übrig bleibt, wird einfach in Wärme umgewandelt. Das heißt, Sie haben Verluste und da wird es warm. Aber Zellen mögen es nicht besonders, wenn es warm ist, Sie alle wissen, bei 42 Grad Fieber fühlen Sie sich ziem- lich schlapp und diese Krebszellen sind noch tem- peraturempfindlicher als normale Zellen. Das ist jetzt keine eigene Therapie, allerdings wenn Sie die zusammen anwenden, zum Beispiel mit der Che- motherapie, dann ist das eine Möglichkeit, um die- sen Krebszellen zusätzlich noch einen gewissen Kick zu geben und sie dadurch abzutöten. Diese Hyperthermie wird schon seit langem gemacht, aber über diese magnetischen Nanopartikel kann man dies wirklich nur gezielt in dem Tumor machen. Über Nanotechnologie kann man Biomaterialien modifizieren: Wenn Sie sich eine Zelle vorstellen, dann hat die Zelle selber nicht Nanometer-Aus- maße, sondern eher Mikrometer-Ausmaße. Wenn Sie das Andocken an die Elektrode betrachten, sind das lauter Prozesse, die entlang von dieser Zellmembran ablaufen und es sind Abstände und Größenordnungen von einigen Nanometern bis einigen hundert Nanometern. Ein sehr schönes biokompatibles Material wie Kohlenstoff können Sie eventuell so nanostrukturieren, dass Sie ganz gezielt solche Adhäsionsstrukturen einbringen können. Zellen mögen manchmal lieber raue Ober- flächen, die also ein bisschen wellig sind, manche Zellen mögen lieber glatte Oberflächen. Auch hier gilt: Diese Adhäsionsstrukturen sind bei weitem noch nicht bekannt, auch hier ist noch eine enor- me Menge an Grundlagenforschung nötig, um über- haupt festzustellen, welche Zelle eigentlich was mag. Und dann können Sie anschließend, wenn Sie 26 Die Maschinisierung des Menschen: Gen- und Nanotechnologie und die Würde des Individuums etwas produziert haben und vielleicht irgendwann mal die Mechanismen verstanden haben, zwei Sachen optimieren: Das eine ist, Sie wollen Zell- adhäsion, das ist für alle Implantate wichtig. Sie wollen, dass Ihr Hüftgelenk einwächst oder dass ein Zahnimplantat einwächst. Auf der anderen Sei- te wollen Sie außen am Zahn keine Zahnbeläge haben, Sie wollen in einem Lebensmittelkessel kei- ne Beläge haben, Sie wollen außen am Schiff kei- ne Algen haben, Sie wollen insbesondere in den Klimaanlagen weder hier noch in Ihrem Auto irgend- einen Bakterienbefall haben, weil es dann so komisch müffelt, das heißt überall dort wollen Sie keine Zelladhäsion haben. Und deswegen kann man die Sachen, die man in der Medizin entwickelt, wie diese bioziden Ober- flächen, zum Beispiel auch in der Lebensmittelin