Zum Hauptinhalt springen

Forschung unter einem Zeltdach

Eine – nicht nur für Schweizer Verhältnisse – gewagte Ausstellung ist noch bis zum 3. November vor den Toren Zürichs zu bewundern. Auf 60.000 Quadratmeter Fläche präsentiert sich die Crème de la crème der eidgenössischen Wissenschaft. Rund 300 aktuelle Forschungsprojekte, von der Tiefbohrung über sprechende Maschinen bis zur Atmosphärenforschung, werden vorgestellt. Neben „harten“ Themen wie Mathematik und Physik gibt es nachdenkliche Beiträge zur Rolle der Naturwissenschaften in unserer Welt.

Geradezu abenteuerlich mutet die Architektur der Ausstellungsgebäude an: Ein achtteiliges Ringzelt, aufgespannt an ebenso vielen Masten, ähnelt dem Münchner Olympiadach. Vier der Masten sind begehbar, allerdings nur für schwindelfreie Besucher. Denen präsentiert sich Europas größte Zeltanlage.

Unter 46 Tonnen schweren Kunststoffs kann der wissenschaftlich interessierte Laie das Ergebnis einer einzigartigen Kraftanstrengung der gesamten Schweizer Forschungsszene bewundern: Über 1000 Personen aus öffentlichen Hochschulen und privaten Forschungsanstalten haben sich auf Anregung von Georg Müller bereit erklärt, jedem, der es möchte, ihre Arbeit zu erklären. Müllers Initiative ist es zu verdanken, daß die Heureka nach langem Tauziehen um die Baugenehmigung mit der Stadt Zürich doch noch zustande kam.

Erst Ende November 1990 konnte mit dem Bau begonnen werden drei Monate später als geplant. In einem Gewaltakt wurden dann bei Wind und Wetter waghalsige Montagen durchgeführt. Noch am Tage der Eröffnung wurde im Akkord gearbeitet. Ein guter Teil der Schwierigkeiten, mit denen die Heureka zu kämpfen hat, ist durch die anfangs zögerliche Haltung der Behörden begründet.

So gab es erst Ende August einen Ausstellungskatalog, in dem sämtliche Projekte verzeichnet sind. Damit hätten sich die Besucher, die zunächst eher spärlich erschienen, abfinden können. Was den Veranstaltern aber beißende Kritik einbrachte, war die peinliche Tatsache, daß ein Großteil der Ausstellungsgegenstände schon nach kurzer Zeit defekt war. Viele der Projekte zum „Anfassen und Selbermachen“ leiden darunter.

Dies ist besonders ärgerlich, weil immerhin ein Drittel der Gesamtkosten (mehr als 30 Millionen Franken) über den Eintrittspreis finanziert wird. Der schlägt denn auch mit saftigen 20 Franken zu Buche. Immerhin ein Drittel der Mittel kommt von der öffentlichen Hand, der Rest von der Industrie. Die lange Liste der Gönner reicht vom Aargauischen Elektrizitätswerk bis zu den Zürcher Ziegeleien, und auch die Nasa oder die sowjetische Tiblisi-Universität haben ihr Scherflein beigetragen.

Schon am Eingang wird der Besucher mit dem Prinzip vertraut gemacht, das den größeren Teil der Ausstellung prägt. Unbefangen erklimmt er ein montiertes Lawinenstützwerk. Schweift dann sein Blick zur Anzeigetafel, so kann er unversehens sein aktuelles (Über-)Gewicht ablesen. Für manchen Wissenschaftsfreund ist damit das Streben nach Erkenntnis bereits beendet.

Einer kleinen, aber umso wißbegierigeren Minderheit werden umfangreiche Erklärungstafeln angeboten. Dort ist unter anderem nachzulesen, daß die typisch Schweizer Konstruktion einen Druck von bis zu 80 Tonnen pro Quadratmeter aushalten kann. Auch die relativ simple Meßvorrichtung, die es erlaubt, ganze Schulklassen zu wiegen, ist mit Grafiken anschaulich erklärt.

In Zelt 1 drängen sich Schüler vor einem Lithophon. Das Musikinstrument enthält keinerlei elektronische Elemente, stattdessen sind dunkle Platten aus Serpentin auf Resonatoren montiert, die mit einer verstärkten Klaviermechanik angeschlagen werden. Nach anfänglichem Zögern spielt ein Schüler etwas holprig „Oh when the saints“.

Damit ist das Eis gebrochen, der nächste Besucher schwingt sich hinter das Lithophon und improvisiert munter vor sich hin. Bei einem Triller kommt der Zuruf aus Kindermund: „Machen Sie das noch einmal!“ Und jetzt erst kommen die ersten Fragen: „Wie funktioniert denn das?“

Immer wieder beeindruckt die Geduld, mit der selbst gestandene Professoren und hochkarätige Spezialisten die Fragen der Besucher beantworten. Auch kritischen Fragen gehen die Veranstalter nicht aus dem Weg: So reflektiert eine Projektgruppe aus Genf – Theologen, die gleichzeitig Physiker sind – über die Versuche der Wissenschaft, in die Schöpfungsgeschichte einzugreifen. Vier Studenten der Sozialwissenschaften untersuchen Entscheidungskriterien und Vorgänge bei Gen- und Fortpflanzungstechnologien.

Wer will, kann auf der Heureka mehr über Geschichte und Gegenwart der Forschung erfahren als in jedem multidisziplinären Studium. Der vielbeschworene Elfenbeinturm, in dem sich die Wissenschaftler nach landläufiger Meinung so gerne verstecken – hier ist er jedenfalls nicht zu finden.

(erschienen in „DIE WELT“ am 22. Oktober 1991)

Richard Ernst: Nobelpreis für die NMR-Spektroskopie

Richard Ernst, der diesjährige Nobelpreisträger für Chemie, war unmittelbar nach der Bekanntgabe des schwedischen Karolinska-Instituts auch für die eifrigsten Pressevertreter nicht zu erreichen. Der Grund: der 58jährige Schweizer befand sich gerade in der Luft, irgendwo zwischen Moskau und New York. Ernst, der an der Eidgenössischen Technischen Hochschule in Zürich als Professor für Physikalische Chemie tätig ist, will in New York an der Columbia-Universität eine weitere Auszeichnung entgegennehmen.

In der Begründung des Nobelpreiskomitees heißt es, Ernst erhalte die Auszeichnung, die in diesem Jahr mit 1,65 Millionen Mark dotiert ist, für die Entwicklung der „kraftvollsten instrumentalen Meßmethode in der Chemie“. Gemeint ist damit die NMR-Spektroskopie, eine Methode, mit der die Lage einzelner Atomkerne innerhalb eines Moleküls bestimmt werden kann.

Die Kernspinresonanzspektroskopie– so der ungekürzte Name – erlaubt es auch, die Struktur von Molekülen in einer Lösung zu bestimmen. Dies ist deshalb von besonderer Bedeutung, weil viele der biologisch aktiven Substanzen, für die Mediziner und Biochemiker sich heute besonders interessieren, normalerweise in wässriger Lösung vorliegen.

Auch die Wechselwirkungen zwischen verschiedenen Molekülarten und die Bewegung dieser winzigen Teilchen lassen sich mit Hilfe der NMR-Spektroskopie beobachten. Schließlich können die Chemiker aus den so gewonnen Daten Rückschlüsse ziehen, die es ihnen erlauben, die Geschwindigkeit chemischer Reaktionen abzuschätzen.

Ernst, der als letzter der diesjährigen Nobelpreisträger nominiert wurde, ist bereits der 22. Schweizer, der diese höchste aller wissenschaftlichen Auszeichnungen erhält. Sämtliche Nobelpreise in den Naturwissenschaften gehen damit in diesem Jahr an europäische Forscher, die sonst so dominanten Amerikaner gehen zum ersten Mal seit 1970 leer aus.

In Winterthur zeigte sich die Ehefrau des frischgekürten Preisträgers zwar überrascht, meinte allerdings auch, die Nobel-Vergabe kommen nicht ganz so unerwartet. Der Architektensohn Ernst hatte bereits seine Doktorarbeit an der renommierten Eidgenössischen Technischen Hochschule (ETH) in Zürich über Kernresonanzspektroskopie geschrieben.

„Die Kernresonanzspektroskopie hat in den letzten 20 Jahren eine erstaunliche Entwicklung erlebt“, erläuterte der Physiker kürzlich vor Kollegen. In der Tat habe sie sich von einer recht nützlichen, beschränkt einsetzbaren analytischen Methode zu der wohl leistungsfähigsten molekularen Untersuchungsmethode überhaupt in den verschiedensten Disziplinen von der Physik bis hin zu der Medizin ausgeweitet.

Vor der Entwicklung der Kernspinresonanz war man darauf angewiesen, Kristalle derjenigen Moleküle herzustellen, die man untersuchen wollte, und diese Moleküle mit Röntgenstrahlen zu analysieren. Zum Leidwesen der Chemiker schließen sich aber nur verhältnismäßig einfache Moleküle zu den regelmäßigen Gittern eines Kristalls zusammen. Ein weiterer Nachteil dieser Röntgenstrukturanalyse besteht darin, daß gerade biologisch aktive Substanzen im Kristall oft nicht ihre „natürliche“ Form einnehmen. Aussagen über die Funktion dieser Stoffe etwa im menschlichen Körper waren daher nur in engen Grenzen möglich.

Auch als die beiden Amerikaner Felix Bloch und Edward Mills Purcell 1945 erstmals über erfolgreiche NMR-Experimente berichteten, war dies noch nicht möglich. Dennoch wurde auch die eigentliche Entdeckung, daß man mit Hilfe von Radiowellen Aufschluß über die Lage von Atomkernen bekommen kann, mit einem Nobelpreis ausgezeichnet.

Für die Anwendung auch in der Physik, der Biologie und der Medizin wurde die NMR-Spektroskopie aber erst interessant, nachdem Ernst 1966 einen mathematischen Trick fand, um die Empfindlichkeit der Methode zehn- bis hundertfach zu verbessern. Nur wenige Jahre später gelang es ihm, auch die Auflösung zu steigern. Immer feinere Details der Moleküle konnten jetzt analysiert werden. Damit nicht genug: Mitte der 70er Jahre schlug Ernst auch eine Methode für den Empfang NMR-tomographischer Bilder vor, die große Verbreitung fand. Sowohl zur Steigerung der Empfindlichkeit als auch der Auflösung hat Ernst „mehr beigetragen als jeder andere“ befand das Nobelpreiskomitee.

Wenn heute beispielsweise der Stoffwechsel im menschlichen Gehirn mittels eines Computers sichtbar gemacht werden kann, werden wohl die wenigsten Patienten an die Prinzipien der NMR-Spektroskopie denken. Und doch verdanken sie den bahnbrechenden Arbeiten des Schweizers eines der modernsten Diagnosegeräte, das heute zum Einsatz kommt.

(erschienen in „DIE WELT“ am 17. Oktober 1991 unter dem Titel „Eine Brille enthüllt tanzende Moleküle“)

In der Welt der elektrischen Düfte

Elektrische Düfte durchziehen das Labor von Garry Lynch an der University of California in lrvine bei Los Angeles. Elektrische Düfte? Dr. Ursula Stäubli, die vor Jahren aus der Schweiz hierhergekommen ist, um den Geheimnissen des Lernens auf die Schliche zu kommen, muß etwas weiter ausholen.

Bei trainierten Ratten war es ihr gelungen, die Erinnerung an einen gelernten Geruch wieder wachzurufen; und zwar indem sie mit einer feinen Elektrode im Gehirn der Tiere an bestimmten Stellen einen winzig kleinen Strom anlegte. Dies ist möglich, weil die Hirnstrukturen, die an der Geruchserkennung beteiligt sind, schon recht genau kartiert sind.

Der Geruch war ursprünglich in fast schon klassischen Versuchen erlernt worden: Eine Ratte, die in einem Labyrinth sitzt, hat die Wahl zwischen zwei Düften. Geht sie dem einen nach – Rosenwasser etwa -, so erhält sie als Belohnung am Ziel einen Schluck Wasser. Verfolgt das Tier dagegen den anderen Geruch – Schweizer Käse vielleicht – so wird es am Ende des Ganges mit Lichtblitzen „geärgert“.

Innerhalb von einigen Dutzend Durchgängen lernen die Ratten zwischen den beiden Gerüchen zu unterscheiden. Auch beim nächsten oder übernächsten Geruchspaar lernen die Tiere die Lektion nach der 20 oder 30 Wiederholungen. „Wenn die Ratte dann wieder im Labyrinth sitzt; kann man beispielsweise einen unbekannten Geruchsstoff einsetzen, und einen anderen, der einmal gelernt wurde, nur elektrisch simulieren. Die Ratte wird dann dem gelernten Geruch nachgehen, obwohl der eigentlich gar nicht ‚wirklich‘ vorhanden ist.“

Bis zu 180 verschiedene Gerüche können so im Gehirn der Tiere gespeichert werden. Interessanterweise erfolgt das Lernen dabei immer schneller. Schon nach kurzer Zeit genügen den Ratten weniger als fünf Versuche, um den Unterschied zwischen „guten“ und „bösen“ Düften zu begreifen. Das einmal Gelernte bleibt dann über Monate hinweg präsent und kann sogar mit einer Elektrode abgerufen werden, wie Stäublis Experimente zeigen.

Dabei kommt der Biologin zugute, daß die betroffenen Hirnregionen verhältnismäßig einfach organisiert sind. Der „olfaktorische Kortex“, wo die Wahrnehmung des Geruchs erfolgt, enthält „nur“ vier Schichten von Nervenzellen; die Geruchsrezeptoren in der Nase leiten ihre Signale über nur eine Zwischenstation hierher. Die – verhältnismäßig – einfache Verkabelung ermöglicht es nicht nur, einzelne Neurone zu reizen; sie erlaubt es auch, anderen Fragestellungen gezielt nachzugehen.

Wie Professor Lynch bemerkt, hat man zwar eine ungefähre Vorstellung davon, wie sich bestimmte Verbindungen zwischen den beteiligten Nervenzellen beim Lernen „einschleifen“, das erklärt aber noch lange nicht alle Leistungen, die mit Lernen und Gedächtnis in Verbindung gebracht werden. So ist es beispielsweise noch völlig ungeklärt, wie Erinnerungen in eine zeitliche und räumliche Ordnung gebracht werden, wie sie ins Gedächtnis „zurückgeholt“ werden (wo waren sie denn in der Zwischenzeit?), oder wie es möglich sein kann, dem einmal Gelernten ständig neues hinzuzufügen, ohne alte Gedächtnisinhalte zu zerstören.

„Wir beanspruchen, mit unserer Arbeit eine biologische Theorie des Lernens und des Gedächtnisses zu errichten, die wohl mit den bisher existierenden psychologischen Erklärungsversuchen nicht viel gemeinsam haben wird. Da wird zum Beispiel über Kurzzeitgedächtnis und Langzeitgedächtnis gesprochen, aber unsere Ergebnisse und die anderer Arbeitsgruppen zeigen, daß es für diese Konzepte vielleicht gar keine biologische Entsprechung gibt. Wahrscheinlich handelt es sich stattdessen um einen kontinuierlichen Prozeß, dessen einzelne Elemente wir noch nicht lokalisieren können, weil die hier verwirklichten Vorgänge unserer Intuition zuwieder laufen.

Das ist wie in der Quantenphysik. Viele der Dinge, die man dort gefunden hat, sind in unserer alltäglichen Umgebung nicht zu beobachten. Aber wenn man das immer weiterverfolgt, dann kommt man schließlich zu einer Art Offenbarung, die die Art und Weise, wie wir die Welt sehen, völlig verändert. Wenn wir erst einmal am Ziel sind, werden wir nicht nur erkennen, wie Netzwerke von Nervenzellen miteinander arbeiten. Wir könnten ebenso eine Offenbarung erfahren. Vielleicht denken wir gar nicht, was wir denken.“

Diese tiefschürfenden Erkenntnisse hinderten Lynch allerdings nicht daran, zusammen mit dem Computerwissenschaftler Richard Granger die bei Ratten gefundenen Verschaltungsregeln in einem Computerprogramm zu simulieren. Wird dem Programm nun das elektronische Äquivalent eines neuen Duftes eingegeben, so können Lynch und Granger am Bildschirm verfolgen, wie die Software eine elektronische Antwort gibt, und immer wieder die gleichen Kunstneuronen aktiviert. Die große Überraschung kam, als das Programm begann, die Daten selbstständig in verschiedene Kategorien einzuordnen: die beiden hatten ihrer Software die Fähigkeit zur Erkenntnis mit auf den Weg gegeben…

(erschienen in „DIE WELT am 16. Oktober 1991)

Ozon: Oben gut, unten schlecht

Während Hiobsbotschaften aus der Antarktis das Augenmerk auf das dortige Ozonloch lenken, will Umweltminister Klaus Töpfer mit strengeren Grenzwerten ein Zuviel an Ozon am Boden bekämpfen. In 30 bis 50 Kilometer Höhe bildet dieses Gas einen Schutzschild, der vor den UV-Strahlen der Sonne schützt – und damit auch vor Sonnenbrand, Hautkrebs und Augenkatarakten. In diesen Luftschichten ist Ozon daher ausdrücklich erwünscht.

Unerwünscht ist Ozon dagegen in Bodennähe. Dort bilden sich die Moleküle unter dem Einfluß energiereicher Strahlung – also vorwiegend im Sommer – aus Vorläufersubstanzen wie Stickoxiden (NOx) und ungesättigten Kohlenwasserstoffen. Beide Substanzen werden zum größten Teil durch den Kraftverkehr freigesetzt; der Anteil der Industrie an diesen Schadstoffen ist dagegen in den letzten Jahren rückläufig.

Die Ozonbildung am Boden soll vermieden werden, weil das Gas die menschlichen Atemwege reizt. Professor Michael Wagner vom Berliner Bundesgesundheitsamt warnt vor Hysterie, doch müsse man den kleinen Teil der Bevölkerung schützen, der auf Ozon besonders empfindlich reagiert.

Töpfer will nun bereits Alarm schlagen, wenn die Konzentration dieser Vorläufersubstanzen die Grenzwerte übersteigt. Berechnungen, die auf der komplizierten Chemie des Ozons beruhen, zeigen nämlich, daß beispielsweise ein Fahrverbot kaum noch wirksam ist, wenn die Ozongrenzwerte bereits überschritten sind.

Schwefeldioxid (SO2) spielt vor allem beim Wintersmog eine Rolle; das stinkende Gas, das bei fast allen Verbrennungsvorgängen frei wird, führt zu Kratzen im Hals und ist auch für den sauren Regen mitverantwortlich.

Die angestrebte Reduktion von Benzol und Dieselrußpartikeln soll dagegen die Belastung der Atemluft mit krebserregenden Substanzen verringern. Besonders Benzol, das in verhältnismäßig hohen Konzentrationen vorkommt, verursacht in Deutschland jährlich Tausende zusätzlicher Leukämiefälle.

(erschienen in „DIE WELT“ am 12. Oktober 1991 auf Seite 1)

Hirnforschung von der Keule bis zur Gentechnik

„Hirnschäden sind so alt wie die Menschheit“, sagt Stanley Finger, Professor für Psychologie an der Washington University im amerikanischen St. Louis. Er deutet dabei auf den drei Millionen Jahre alten Schädel eines Australophitecus, der offensichtlich von hinten mit einer Keule erschlagen wurde.

Vor etwa zehntausend Jahren, noch während der Steinzeit also, wurden bereits „Operationen“ durchgeführt, bei denen man die Schädeldecke öffnete. Neues Knochenwachstum im Bereich um die Wunde beweist, daß die Primitiv-Patienten derartige Eingriffe in vielen Fällen überlebten. „Wahrscheinlich haben die prähistorischen Mediziner Kopfweh und Geisteskrankheiten behandeln wollen“, meint Finger und verweist darauf, daß auch die alten Griechen Löcher in die Schädeldecke bohrten, um „böse Geister“ freizusetzen.

Nach derlei Pioniertaten brachte dann erst die Zeit der Aufklärung differenziertere Einsichten zutage. Emanuel Swedenborg postulierte 1734, daß verschiedene Gebiete der Großhirnrinde, in der die „höheren“ Hirnfunktionen angesiedelt sind, unterschiedliche Teile des Körpers kontrollieren.

Der Neurochirurg Paul Broca war es vermutlich, der den Anstoß zur der gruseligen Geschichte von Dr. Jekyll und Mr. Hyde gab. Im Jahre 1863 konnte er nämlich zeigen, daß die beiden Hälften des Gehirns teilweise unterschiedliche Funktionen ausüben. Weil das Sprachvermögen offensichtlich in der linken Hemisphäre lokalisiert war, glaubte man, die rechte Hälfte des Gehirns müsse die unzivilisierte – tierische – Komponente beherbergen.

Damit hatte man aber gerade erst an der Oberfläche gekratzt – und das im wahrsten Sinne des Wortes. Schaut man im Mikroskop auf die nur zwei bis drei Millimeter dicke Hirnrinde, so finden sich dort rund 100.000 Zellen auf einem Quadratmillimeter, geordnet in sechs Schichten, die auf zunächst undurchschaubare Weise miteinander verdrahtet sind.

Hätten nicht der spanische Hirnanatom Ramon y Cajal und sein italienischer Konkurrent Camillo Golgi gegen Ende des 19. Jahrhunderts eine neue Färbetechnik entwickelt – dieser „gordische Knoten“ in unserem Kopf wäre wohl noch immer ungelöst. Die Metallsalze des Farbstoffes färben scheinbar zufällig nur jeweils eine unter hunderten von Zellen an und machen damit das entsprechende Neuron erst wirklich sichtbar.

Jetzt konnte man die Zellen des Gehirns in ihrer verwirrenden Vielfalt zwar sehen; wie sie funktionierten wußte man aber immer noch nicht. Durch nach heutigen Maßstäben ziemlich rüde Experimente am offenen Gehirn von Epileptikern wußte man immerhin, daß das Ganze wohl etwas mit elektrischer Aktivität zu tun hatte.

Erst die vergleichsweise riesigen Neuronen des Tintenfischs erlaubten es, das Verhalten einzelner Nervenzellen zu untersuchen. Bei einem Durchmesser von bis zu einem Millimeter und mehreren Zentimetern Länge konnte man Elektroden in Form einer Glaskapillare entlang der Längsachse dieser Zellen einschieben. Setzte man jetzt einen kurzen elektrischen Reiz an einem Ende der Zelle, so konnte man beobachten, daß ein „Aktionspotential“ an der Elektrode vorüberzog. Nur wenn der Reiz eine gewisse Schwelle überschreitet, so pflanzt sich diese Spannungsdifferenz zwischen Zellinnen- und Außenseite über die ganze Zelle fort.

Aber wie? Heute weiß man durch die Arbeiten der frischgekürten Nobelpreisträger Bert Sakmann und Erwin Neher, daß winzig kleine Eiweißmoleküle in der Zellhülle – die Ionenkanäle – sich der Reihe nach öffnen. Innerhalb einer tausendstel Sekunde strömen pro Kanal rund 8000 geladene Teilchen (Ionen) ins Zellinnere, dann schließt sich der Kanal und andere Eiweiße befördern die eingedrungenen Ionen wieder nach draußen. Unterdessen wird der gleiche Vorgang am nächsten Kanal eingeleitet, so daß der Reiz sich innerhalb von Sekundenbruchteilen von einem Ende der Zelle zum anderen fortpflanzen kann.

Dort kann die Zelle das Signal dann auf das nächste Neuron übertragen. Das Aktionspotential führt dazu, daß am Zellende kleine Bläschen mit Neurotransmittern platzen. Diese Botenstoffe des Nervensystems überwinden dann den synaptischen Spalt, der zwei Nervenzellen voneinander trennt. Auf der nachgeschalteten Zelle wird die chemische Botschaft durch Rezeptormoleküle empfangen und – wenn der Reiz stark genug ist – ein neues Aktionspotential ausgelöst.

Gentechnische Methoden haben es in den letzten Jahren möglich gemacht, die Erbinformationen für eine Vielzahl von Ionenkanälen und Rezeptoren aufzuspüren und die entsprechenden Gene zu isolieren. Erst kürzlich wurde auch die Struktur eines Eiweißes aufgeklärt, das den Neurotransmitter Acetylcholinesterase zerlegt.

Diese Methoden erlauben es, die Schlüsselmoleküle des Nervensystems in großen Mengen herzustellen, für weitere Experimente ebenso wie für die Entwicklung dringend benötigter Medikamente. Geschätzte 800.000 Patienten, die unter der Alzheimer´schen Krankheit leiden und deren Angehörige warten ebenso dringend auf neue Arzneien, wie die ungefähr 3,2 Millionen Menschen, die in Deutschland zumindest zeitweilig unter Krankheiten des Nervensystems leiden.

Vielleicht können die bösen Geister, die man schon in der Steinzeit beschwor, dann doch noch verjagt werden. Und vielleicht lassen sich die Wunder, die ein gesundes Gehirn vollbringt, auch einmal mit Maschinen erzielen, von denen die Ingenieure heute nur träumen können.

(erschienen in „DIE WELT“ am 11. Oktober 1991)

Die fantastische Welt in unseren Köpfen

Die Vergabe des Medizinnobelpreises an zwei deutsche Wissenschaftler zu Beginn dieser Woche rückt einen Forschungszweig ins Licht der Öffentlichkeit, der bisher trotz gewaltiger Fortschritte eher ein Schattendasein führte. Zwar hatte der amerikanische Kongreß die neunziger Jahre vollmundig zur „Dekade des Gehirns“ erklärt; für den Mann auf der Straße aber blieb diese Verlautbarung ebenso bedeutungslos wie millionenschwere Förderproramme der Bundesregierung oder er Europäischen Gemeinschaft.

Unterdessen fahren ganze Heerscharen von Wissenschaftlern damit fort, in mühseliger Kleinarbeit dem Gehirn seine Geheimnisse zu entwinden und die oft widersprüchlichen Ergebnisse wie Mosaiksteinchen zu einem gewaltigen Fresko zu verarbeiten. Für diese Minderheit in unserer Gesellschaft steht längst zweifelsfrei fest: Das „Ich“ hat einen Sitz im Gehirn.

Denken, Lernen, Vergessen, ja selbst Gefühle wie Freude und Schmerz, Angst und Hoffnung, Lust und Liebe erwachsen aus dem unendlich komplizierten Zusammenspiel mikroskopisch kleiner Einheiten. Die Rede ist von Nervenzellen (Neuronen), und die Tatsache, daß die Resultate der Neurowissenschaftler von so wenigen nachvollzogen werden können, rührt sicherlich auch daher, daß wir unser Gehirn tagtäglich zu Tausenden von verschiedenen Arbeiten heranziehen, ohne jemals über die ungeheure Leistung dieses Gebildes nachzudenken.

In unseren Köpfen tragen wir rund 100 Milliarden Nervenzellen mit uns herum (* die jüngste Schätzung sagt 86 Milliarden). Jede einzelne dieser Zellen hat Kontakt zu durchschnittlich 1000 Nachbarn, manche spezialisierte Neuronen pflegen sogar über 100.000 Beziehungen gleichzeitig. Summa sumarum kommt man somit auf rund 100 Billionen (100.000.000.000.000) Verbindungen (Synapsen) zwischen den grauen Zellen.

Die mikroskopischen Dimensionen dieses Netzwerkes erlauben es beispielsweise, eine Vielzahl von Funktionen wie den Gehörsinn, das Gleichgewichtsempfinden und den Richtungssinn in einem Raum unterzubringen, der nicht größer ist als eine Murmel. Töne, die nur wenige Tausendstelsekunden aufeinanderfolgen, können mit diesem Präzisionsinstrument noch unterschieden werden. Im empfindlichsten Hörbereich genügt eine Auslenkung des Trommelfells um wenig mehr als den Durchmesser eines Wasserstoffatoms, um ein Geräusch wahrzunehmen. In absoluter Dunkelheit reichen schon fünf Lichtteilchen (Photonen) aus, um vom Auge als Lichtblitz wahrgenommen zu werden.

All diese fantastischen Leistungen beruhen letztendlich auf der Funktion einzelner Nervenzellen oder von ganzen Netzwerken zusammengeschalteter Neuronen. Während man früher zu der simplen Gleichung tendierte Gehirn gleich Computer, weiß man heute, daß jedes einzelne Neuron einen kleinen Computer für sich darstellt. Eingehende Daten wie Licht, Schall oder ein Botenstoff des Körpers können von verschiedenen Spezialisten – den Sinneszellen – erkannt werden.

Die Daten werden gesammelt, auf ihre „Wichtigkeit“ überprüft und gegebenenfalls in Form eines elektrischen Reizes weitergeleitet. Nachgeordnete Nervenzellen, die Interneuronen, können mit ihren feinverästelten Armen, den Dendriten, diese Signale von bis zu 100.000 Nachbarn empfangen. Dann beginnt die Rechenarbeit: Treffen die elektrischen Reize gleichzeitig ein oder in kurzer Folge hintereinander? Ist das, was da gemeldet wird, wichtig genug, um den nächsten Neuronen auf der Befehlsleiter Meldung zu erstatten?

Wird letztere Frage mit ja beantwortet, so meldet die betreffende Zelle das Rechenergebnis weiter, indem über einen einzigen, großen Zellfortsatz, das Axon, wiederum ein elektrisches Signal abgesandt wird. Dabei werden Spitzengeschwindigkeiten von über 100 Metern in der Sekunde erreicht. Über mehrere Stufen wird so aus dem Rohmaterial der Daten das Wesentliche herausgearbeitet. Wie mit einem Filter wird ein Gesicht in einem Muster aus Hell und Dunkel erkannt, ein Wort aus dem Geräuschpegel herausgehört.

Noch erstaunlicher werden diese Leistungen, wenn man bedenkt, daß die Nervenzellen ja keine festgefügten Bausteine sind, sondern lebende Einheiten, die auf ihre Umgebung reagieren. Schon vor der Geburt bahnen sie sich ihren Weg durch die verschiedenen Gewebe, einmal angelockt und dann wieder abgestoßen von chemischen Botenstoffen oder dem Kontakt zu Gliazellen, die wie Fluglotsen den nur scheinbar chaotischen Verkehrsfluß regeln.

Diese Erkenntnisse sind nicht nur von theoretischer Bedeutung, sie schaffen auch die Voraussetzung für gezielte Eingriffe in die Biochemie des Gehirns. In dem Kinofilm „Zeit des Erwachens“ wird diese Möglichkeit dem Zuschauer drastisch vor Augen geführt. Der Neurologe Oliver Sacks, nach dessen authentischen Erfahrungen der Film gedreht wurde, erprobte im Jahr 1969 das Medikament L-Dopa an insgesamt 80 Patienten, die durch eine mysteriöse Nervenkrankheit an den Rollstuhl gefesselt waren und teilweise über Jahrzehnte stumm vor sich hin starrten.

Dank des L-Dopas wurden die völlig apathischen Patienten aus ihrer Trance geholt; allerdings dauerte dieses „Erwachen“ für die meisten nur einen Sommer. Heute weiß man, daß L-Dopa eine Vorstufe für einen der wichtigsten Botenstoffe des Gehirns (Dopamin) darstellt. Für Menschen, die an der Parkinsonschen Krankheit leiden, ist dies alles andere als trivial, denn durch das Verständnis dieser Vorgänge konnten neue Arzneimittel gezielt entwickelt werden.

Erklärtes Ziel vieler Forscher ist es, die Krankheiten des zentralen Nervensystems in den Griff zu bekommen. Ein bis zwei Prozent der Bevölkerung leiden beispielsweise unter Depressionen oder Schizophrenie, aber noch immer beruhen Therapieansätze vorwiegend auf Versuch und Irrtum. „Die bisherigen Eingriffe in das Gehirn gleichen dem Wurf einer Handgranate in eine Telefonzentrale“, meint einer der bekanntesten Hirnforscher Deutschlands, der Frankfurter Professor Wolf Singer.

(erschienen in „DIE WELT“ am 9. Oktober 1991)

Giftkunde für Anfänger

Ein Großteil aller Gifte, Drogen und Psychopharmaka wirkt direkt auf das Gehirn. Durch so prominente Vertreter der Gattung wie Strychnin, Curare und Valium wird die Signalleitung zwischen den Nervenzellen gestört – mit den bekannten Folgen. Erst kürzlich fand man auf der Oberfläche der grauen Zellen auch einen Ankerplatz für das Rauschgift Cannabis.

Der Ankerplatz (Rezeptor) ist typisch für eine Gruppe von Eiweißen, welche bei der Signalübertragung von einer Nervenzelle zur nächsten eine entscheidende Rolle spielen. Ohne diese hochspezialisierten Moleküle und deren Gegenstücke, die Neurotransmitter, könnte sich ein elektrischer Reiz nicht von einer Nervenzelle zur nächsten fortpflanzen, weil auch benachbarte Nervenzellen durch eine winzige Lücke voneinander getrennt sind. Dieser „synaptische Spalt“ ist zwar nur wenige Milliardstel Meter breit. dient aber dennoch als Isolator.

Erreicht ein elektrischer Reiz das Ende einer Nervenfaser, muß die Zelle daher ihre Botenstoffe ausschicken, um die Nachricht weiterzureichen. Kleine Bläschen mit chemischen Botenstoffen entleeren ihren Inhalt in den synaptischen Spalt und binden anschließend an ihren Partnermolekülen, den Rezeptoren auf der gegenüberliegenden Seite – solange kein Gift ins Gehirn gelangt. Denn genau dieser Prozeß wird von einer Reihe von Substanzen verhindert, vom Pilzgift Muscarin bis zum Bungarotoxin, einem Schlangengift.

Im störungsfreien Betrieb aber sind es die Rezeptoren, von denen ständig neue Typen entdeckt werden, die das chemische Signal der Botenstoffe wieder in ein elektrisches Signal zurückübersetzen – ein Vorgang, der sich bei jedem Umschalten von einer Nervenzelle zur nächsten wiederholt.

(erschienen in „DIE WELT“ am 9. Oktober 1991)

Schraubenwurmfliege ausgerottet

Einen Triumph bei der biologischen Schädlingsbekämpfung konnten Vertreter der Ernährungs- und Landwirtschaftsorganisation (FAO) der Vereinten Nationen gestern in Washington feiern: Gänzlich ohne Chemikalien ist es gelungen, die gefährliche Schraubenwurmfliege (Eintrag in der Encyclopedia of Live: Cochliomyia hominivorax) in Afrika auszurotten.

„Wir haben eine Katastrophe verhindern können“, erklärte Patrick Cunningham, Leiter der FAO-Schraubenwurmbekämpfung in Nordafrika, in Rom. „Wäre uns das nicht gelungen, hätte sich der Schädling womöglich von Libyen über ganz Afrika, in den Nahen Osten, nach Südeuropa und eventuell Asien ausgebreitet.“

Fiese Fliege: Cochliomyia hominivorax, deren Larven sich auch in menschlichen Wunden vermehren. (Quelle: The Mexican-American Commission for the Eradication of the Screwworm via Wikipedia)

Der Parasit befällt Warmblüter und kann damit Haus- und Wildtieren, aber auch dem Menschen gefährlich werden. Die Weibchen der Fliege legen jeweils bis zu 400 Eier in selbst kleinsten Wunden und Hautkratzern ihrer Opfer ab. Binnen kurzer Zeit entschlüpfen den Eiern fleischfressende Larven, die sich tief in die Wunde hineinfressen und gefährliche Infektionen auslösen können, denen selbst ausgewachsene Rinder innerhalb weniger Tage erliegen können.

Die Gefahr scheint nun gebannt, nachdem FAO-Experten die Fliegen erfolgreich mit – Fliegen – an der Fortpflanzung gehindert haben. Dazu wurden über eine Milliarde männlicher Schraubenwurmfliegen in Mexiko gezüchtet, mit radioaktiver Strahlung sterilisiert, nach Afrika geflogen und schließlich über Libyen aus Transportflugzeugen geworfen.

Ganz nach Plan paarten sich die Weibchen mit den impotenten Männchen und legten sogar Eier. Allerdings schlüpften aus diesen Eiern keine Larven mehr, der Fortpflanzungszyklus der Tiere wurde so unterbrochen. Innerhalb von sechs Monaten hatte die Kampagne, die lange Zeit aufgrund fehlender Geldgeber gefährdet war, rund 50 Millionen Dollar verschlungen; auch die Bundesrepublik beteiligte sich mit 3,6 Millionen. Zumindest für Afrika dürfte die Gefahr jetzt vorüber sein, dennoch wird die Überwachung der Region fortgesetzt.

(erschienen in „Die WELT“ am 8. Oktober 1991. Veranstaltung besucht auf Einladung der FAO)

Kommentar: Formel für den Erfolg

Gestern haben – wieder einmal – Wissenschaftler der deutschen Max-Planck-Gesellschaft einen Nobelpreis erhalten, diesmal den Preis für Medizin und Physiologie. Es handelt sich um die Professoren Bert Sakmann und Erwin Neher, Nummer 27 und 28 auf der langen Liste der Preisträger, die diese Organisation hervorgebracht hat. Es drängt sich die Frage auf, warum die Max-Planck-Gesellschaft so viele, die Großforschungseinrichtungen des Bundes mit ihren Heerscharen von Wissenschaftlern dagegen noch keinen einzigen Preisträger vorweisen können.

Mein Kommentar zum Medizin-Nobelpreis 1991 für Bert Sakmann und Erwin Neher. Kurz darauf sagte man mir, Forschungsminister Heinz Riesenhuber sei darüber „nicht erfreut“ gewesen.

Mehrere Direktoren der Gesellschaft geben auf diese Frage die gleiche Antwort: Die besondere Organisationsstruktur dieser Einrichtung macht Forschung zum Vergnügen. Valentin Braitenberg, Direktor des Institutes für Biokybernetik in Tübingen spricht gar von einer „Insel der Seeligen“, auf der Wissenschaftler verschiedener Fachrichtungen ihre Ideen austauschen können. Da lohnt es sich die Formel für den Erfolg etwas nähert anzuschauen, vielleicht sogar auf die eher ein wenig träge wirkenden Großforschungseinrichtungen zu übertragen, die manchmal eine verblüffende Ähnlichkeit mit Beamtenverwahrungsanstalten haben.

Gelder werden bei der MPG nur nach gründlicher Überprüfung verteilt, dann aber über einen längeren Zeitraum. Ohne Hast (und auch ohne Lehrverpflichtungen) können die Direktoren junge Nachwuchsforscher um sich scharen, ohne ständig ihre Energie auf das Schreiben neuer Anträge verschwenden zu müssen. Vielleicht würde es sich ja lohnen, einige Millionen aus prestigeträchtigen, aber wissenschaftlich eher zweifelhaften Großprojekten wie der bemannten Raumfahrt abzuziehen. Das eingesparte Geld könnte man dann in die Hände derjenigen legen, die bewiesen haben, daß sie damit meßbare Resultate zu erreichen vermögen.

Mehr Reis mit weniger Pestiziden

Das überraschende Ergebnis langjähriger Versuche in den Reisfeldern Indonesiens präsentierte Dr. Peter Kenmore jetzt auf einem Seminar der Ernährungs- und Landwirtschaftsorganisation (FAO) der Vereinten Nationen in Rom. Demnach führt der Einsatz von Insektiziden in dieser Region nicht wie bisher angenommen zu einer besseren Ernte, sondern vermindert sogar die Erträge der Reisbauern.

„Statt wie früher üblich Insektizide, Düngemittel und Saatgut blind auf einen Haufen zu werfen, verfolgt man in diesem Land jetzt eine andere Politik“, erklärte Kenmore. Dies sei das Resultat von Untersuchungen, wonach der Hauptschädling beim Reisanbau, die Braunrückige Reiszikade (Eintrag in der Encyclopedia of Live: Nilaparvata lugens), vom undifferenzierten Insektizideinsatz profitiert, weil deren natürliche Freßfeinde wie Spinnen und verschiedene Käferarten stark dezimiert werden.

Zäher Schädling: Die Braunrückige Reiszikade (Quelle: CSIRO via Wikipedia)

Die Reiszikade mit ihren kurzen Generationszeiten kann nämlich nach jeder Sprayaktion binnen weniger Wochen neuen Nachwuchs hervorbringen, wohingegen die nützlichen Insekten mehrere Monate brauchen, um sich von der Vergiftung zu erholen. Diese Beobachtungen wurden unterstützt durch statistische Analysen, wonach in Indonesien der Verbrauch von – staatlich subventionierten – Insektiziden ständig anwuchs, während die Erträge der Reisbauern zurückgingen.

Im bevölkerungsmäßig fünftgrößten Land der Erde wurde daraufhin 1986 der Einsatz von Insektiziden stark eingeschränkt, und stattdessen ein Programm der FAO angewandt, das auf intensiven Instruktion der Reisfarmer vor Ort basiert und ökologische Zusammenhänge aufzeigt. Mittlerweile, so wurde jetzt bekannt, erwirtschaftet das Land 13 Prozent mehr Reis als 1986; gleichzeitig ist der Pestizidverbrauch um 60 Prozent zurückgegangen.

(erschienen in „DIE WELT“ am 7. Oktober 1991. Veranstaltung besucht auf Einladung der FAO)