Zum Hauptinhalt springen

Kommentar: Gentechnik-Verhinderungsgesetz

Das Gentechnikgesetz, das am 1. Juli 1990 in Kraft trat, hat sich nicht bewährt. Nicht, daß irgendein Vorfall bekannt geworden wäre, bei dem wegen laxer Sicherheitsvorkehrungen Menschen zu Schaden gekommen wären. Auf Beispiele dafür, wie genetisch veränderte Organismen tiefgreifende Veränderungen unserer „natürlichen“ Umwelt bewirken können, wartet man ebenfalls seit fast zwanzig Jahren gespannt, aber vergeblich.

Nur gut, daß die greifbaren Resultate dieser Art von angewandter Wissenschaft trotz aller Unkenrufe auch in Deutschland auf Rezept erhältlich sind. Humaninsulin für Diabetiker, Erythropoietin für Dialysepatienten, Interleukin und Interferon für Krebspatienten, TPA für Bluterkranke sind beispielhaft für eine lange Reihe von Wirkstoffen aus gentechnischer Produktion, die zehntausende Menschenleben gerettet und Leid gelindert haben.

Allein: In Deutschland hergestellt werden ganze drei Substanzen. Bei unserem kleinen Nachbarn Dänemark finden wir dagegen sieben große Produktionsstätten, in Japan sind es mehr als 130 und in den USA bald mehr als tausend. Das verwundert, denn abgesehen von rund tausend Laboratorien, in denen hierzulande mit gentechnischen Methoden gearbeitet wird, beherbergt Deutschland auch noch eine Anzahl von Pharma- und Chemieunternehmen, die sich durchaus mit den weltgrößten Konzernen messen können.

Bei einer öffentlichen Anhörung des Ausschusses für Forschung, Technologie und Technikfolgenabschätzung wurde jetzt im Bonner Bundeshaus Bilanz gezogen über die Erfahrungen mit dem Gentechnikgesetz (GTG). Wie der Ausschußvorsitzende, der SPD-Abgeordnete Wolf-Michael Catenhusen, berichtete, sind vom 30. Juli 1990 bis 31. Dezember 1991 insgesamt 510 Anmeldungen und Anträge auf Genehmigung gentechnischer Arbeiten eingereicht worden. 451 Verfahren wurden abgeschlossen, bisher kein einziger Antrag abgelehnt.

Doch die Zahlen täuschen über die Realität hinweg. Catenhusen wies darauf hin, daß es seit Einführung des Gesetzes keine Ereignisse oder Störfälle gegeben habe, die das Ziel des Gesetzes in Frage stellten, Mensch und Umwelt wirksam vor Risiken und Gefahren der Gentechnologie zu schützen. Er verschwieg allerdings, daß dies auch in den siebzehn Jahren der Fall war, die zwischen den ersten „gentechnischen“ Experimenten und der Einführung des GTG liegen.

In den USA ist für Experimente der Sicherheitsstufe 1 keine Dokumentation erforderlich, weil diese Arbeiten per Definition „kein Risiko“ enthalten. Diese Definition gilt auch in Deutschland. Doch auch für die 90 Prozent der Experimente, die hierzulande in diese Klasse fallen, und somit risikofrei sind, müssen jeweils rund hundert Seiten an Formularen ausgefüllt und in sechs- bis elffacher Ausführung an die Behörden geschickt werden. Eine Antwort trifft bestenfalls nach zwei Monaten ein. Manchmal müssen die entnervten Grundlagenforscher sich aber auch ein halbes Jährchen gedulden – in etwa die Dauer einer Diplomarbeit.

Damit nicht genug: Alle Experimente müssen lückenlos dokumentiert werden. Dazu gehört auch das Einfrieren von biologischen Materialien für mindestens zehn Jahre. Für Experimente der Sicherheitsstufe zwei, wie sie in jedem Anfängerseminar üblich sind, müßten Blutproben der Studenten gar über dreißig Jahre bei minus 80 Grad in Spezialkühlschränken mit Alarmanlagen gelagert werden. Die jährlichen Kosten, die ebenso wie die Papierkriege mit den Behörden aus den knappen Forschungsmitteln bestritten werden müssen, belaufen sich etwa für die Tiefkühlaktion im Genzentrum München auf 5000 Mark.

Der Steuerzahler aber darf aufatmen, denn der frustrierte Institutsdirektor Ernst-Ludwig Winnacker hat den Kurs mittlerweile abgesagt. „Das schlimmste ist, daß mir keiner sagen kann, wofür die Blutproben überhaupt gebraucht werden“, klagt Winnacker.

Der Vorgang ist längst kein kurioser Einzelfall mehr. Ob Winnacker und seine Kollegen sich damit trösten lassen, daß das Gentechnikgesetz „zu mehr Rechtssicherheit für alle Beteiligten“ geführt hat (so ein Ergebnis der Anhörung, zu der die Vertreter der Grundlagenforschung gar nicht erst eingeladen wurden), darf bezweifelt werden. Ebenso die Behauptung des Ausschußvorsitzenden, die deutsche Wissenschaft habe ihren hohen Leistungsstand gehalten.

Nur ausländische Forscher und Pharmaunternehmen können über eine Szene lachen, die sich kürzlich in Heidelberg abspielte: Dort saß Hermann Bujard, Direktor des angesehenen Zentrums für Molekulare Biologie (ZMBH) zusammen mit hundertfünfzig weiteren Laborchefs in einem dreitägigen Pflichtseminar zum Thema „Gentechnikgesetz und Sicherheit im Labor“.

Der vielbeschäftige Mann verfügt über dreißig Jahre Berufserfahrung. Als die Versammlung nach vierzig Minuten noch immer nicht über die Definition diverser Fachbegriffe hinausgelangt war, stürmte er aus dem Saal – und riskierte mit der spektakulären Aktion seine Arbeitserlaubnis als Projektleiter.

Die Gängelei durch ein nach seiner Ansicht überflüssiges Gesetz will der zornige Professor nicht länger hinnehmen: „Die Freiheit der Lehre ist eingeschränkt, der Generationenvertrag wird gebrochen, das ganze Gesetz ist im Ansatz falsch. Das schlimmste aber ist, daß die deutschen Wissenschaftler sich das alles gefallen lassen.“ Letztlich ist die Anwendung von gentechnischen Methoden – oder deren Verbot – nicht nur eine Frage von Freiheit für die Forscher oder Profiten für die Wirtschaft. Es geht hier auch um Menschenleben.

(erschienen auf der Meinungsseite in „DIE WELT“ am 14. Februar 1992)

Wasser bleibt Mangelware

Wollte man die Wassermassen unseres Planeten gerecht verteilen, so stünde jedem Erdenbürger die unvorstellbare Menge von 300 Milliarden Litern zur Verfügung. Doch die Realität sieht anders aus. Nach Schätzungen der Weltgesundheitsorganisation WHO leben 1200 Millionen Menschen ohne das für uns so selbstverständliche saubere und sichere Trinkwasser. 1800 Millionen sogar leiden unter mangelhaften bis katastrophalen sanitären Verhältnissen. Die Folgen sind verheerend. Alleine fünf Millionen Kinder unter fünf Jahren sterben in jedem Jahr.

,,80 Prozent aller Krankheiten und mehr als ein Drittel aller Todesfälle in den Entwicklungsländern werden durch verseuchtes Wasser verursacht“, erklärte Maurice Strong, der Generalsekretär der UN-Konferenz über Umwelt und Entwicklung (UNCED), jetzt anlässlich eines Wassergipfels in der irischen Hauptstadt Dublin.

Die ,,Internationale Konferenz über Wasser und Umwelt“ tagt noch bis Freitag und soll die Weichen stellen für verbindliche Abkommen zum Schutz des kostbaren Nasses. Den über 500 Experten aus mehr als 100 Ländern erläuterte der Exekutiv-Direktor des UN-Umweltprogrammes Mostafa Tolba die Zielsetzung der Veranstaltung. ,,Was wir brauchen ist eine konkrete handlungsorientierte und ausführbare Empfehlung. Was wir brauchen sind Angaben darüber, was getan werden kann, von wem, innerhalb welchen Zeitraumes, zu welchem Preis und wer diesen Preis bezahlen soll.“ All diese Empfehlungen sollen zusammengefasst und am Freitag als ,,Dublin-Statement“ bekannt gegeben werden. Diese Erklärung wiederum soll auf dem Umweltgipfel in Rio de Janeiro in die Tat umgesetzt werden. Die im Juli 1992 stattfindende UN-Konferenz über Umwelt und Entwicklung (UNCED) wird das bislang mit Abstand größte umweltpolitische Ereignis aller Zeiten sein.

Optimisten erhoffen sich globale und verbindliche Vereinbarungen, die der fortschreitenden Umweltzerstörung einen Riegel vorschieben würden. Außer dem Trinkwasser wird sich die UNCED auch mit der weltweiten Klimaveränderung, mit der Zerstörung der Wälder, der bedrohten Artenvielfalt und der Gefährdung der Ozeane auseinander setzen müssen.

Wasser – erst bei längerem Nachdenken wird klar, was sich alles hinter dem Stoff mit der simplen chemischen Formel H2O verbirgt. Unser Körper selbst besteht zu 70 Prozent aus Wasser und benötigt täglich runde zwei Liter der Substanz. Auch bei Gesamtvorräten von 1,5 Milliarden Kubikkilometern wird Wasser manchmal knapp. Nur zwei Prozent liegen nämlich als Süßwasser vor und von diesen rund 30 Millionen Kubikkilometern ist der Großteil in den polaren Eiskappen und großer Tiefe dem menschlichen Zugriff entzogen. Für die Erdbevölkerung stehen damit ,,nur“ noch eine Million Kubikkilometer zur Verfügung. Das ist weniger als ein hundertstel Prozent der Gesamtmenge, ungleichmäßig und ungerecht verteilt in Zeit und Raum.

Kein Wunder also, dass schon Adam Smith auf das Paradoxon hinwies, dass Wasser als Essenz allen Lebens fast nichts kostet, während Diamanten, die für das Überleben völlig entbehrlich sind, Spitzenpreise erzielen. Nur selten gerät das Thema Wasser in die Schlagzeilen, wie etwa im letzten Jahr, als eine gewaltige Cholera-Epidemie durch Lateinamerika und Afrika fegte. Exakt 332.828 Infektionen zählte die Weltgesundheitsorganisation bis zum 8. August 1991. Ursache: Mit Bakterien verseuchtes Wasser und miserable sanitäre Verhältnisse. Doch diese Epidemie ist nur die Spitze des Eisbergs. Typhus, Kinderlähmung und infektiöse Hepatitis, Diarrhoe, Malaria und eine Reihe unappetitlicher Wurmerkrankungen verursachen unermessliches Leiden überall da, wo die Jahrhunderte alten Erkenntnisse der Hygienekunde nicht konsequent umgesetzt werden.

In den letzten Jahrzehnten ist zu den biologischen Verseuchungen noch eine neue Kategorie hinzugekommen: Nitrit und Nitrat, Schwermetalle und Pestizide haben als Rückstände einer intensiven Landwirtschaft und Produkte der Industriegesellschaften Einzug in das Grundwasser gehalten. Auch in Deutschland werden die EG-Grenzwerte mit unschöner Regelmäßigkeit überschritten; die Wasserwerke sind machtlos.

Allein die UN hat 24 Körperschaften, die sich mit dem Problem auseinander setzen, wobei der medizinische Aspekt nur einer von vielen ist. Die Landwirtschaft beispielsweise ist fast völlig abhängig von einem gleichmäßig strömenden Fluss an frischem Wasser. Zwei Drittel des Gesamtverbrauchs geht auf ihr Konto. Neue Bewässerungstechniken werden es erlauben, bei gleichem oder reduziertem Verbrauch mehr Land zu nutzen oder auf derselben Fläche höhere Erträge zu erwirtschaften.

,,Meine eigene Familie benutzt noch die gleichen Methoden, die bereits vor 7000 Jahren entwickelt wurden“, erklärte UNEP-Exekutivdirektor Tolba. Hier wäre noch reichlich Raum für Verbesserungen. Aber die Verbreitung Wasser sparender Bewässerungsverfahren kostet Geld und, so Tolba, ,,finanzielle Engpässe sind das Hauptproblem“.

Jährlich 36 Milliarden Dollar, so schätzt das Kinderhilfswerk der Vereinten Nationen, wären erforderlich, um bis zum Ende des Jahrzehnts allen Erdbewohnern sauberes Trinkwasser und akzeptable sanitäre Verhältnisse zu verschaffen. Aber obwohl ein rapides Bevölkerungswachstum, zunehmende Verstädterung, Kriege, Hunger- und Dürrekatastrophen auch in Zukunft die Aufgaben der Hilfsorganisationen erschweren werden, könnten, so die Prognose, 80 Prozent der Bedürftigen versorgt werden, wenn man die Verbreitung von billigen Technologien vorantreiben würde. Dies würde nur 30 Prozent der geforderten 36 Milliarden Dollar jährlich kosten.

Schon einmal, im November 1980, hatte man eine Kampagne gestartet mit dem Ziel, den flüssigen Lebensspender für alle erreichbar zu machen. Die ,,International Drinking Water Supply and Sanitation Decade“ ging 1990 zu Ende, konnte ihr Ziel aber nicht erreichen. So groß waren die Probleme, dass die Vereinten Nationen diese Periode heute noch als die ,,verlorene Dekade der Entwicklung“ bezeichnen. Dennoch ist die Bilanz nicht nur negativ. Immerhin erhielten 1,6 Milliarden Menschen erstmals Wasser an ihrem Wohnort und fast 800 Millionen erlebten erstmals die Segnungen sanitärer Anlagen. Besonders erfolgreich war das Programm in ländlichen Gegenden. Dort erhalten jetzt 63 Prozent der Einwohner das kostbare Nass frei Haus. Zuvor waren es nur 30 Prozent.

Ob das Drittel der Menschheit, das noch immer ohne eigenes Wasser auskommen muss, und die 43 Prozent ohne sanitäre Anlagen bald unter menschenwürdigeren Umständen leben werden, wird nicht auf dem Wassergipfel in Dublin entschieden. Erst im Sommer, wenn auf dem Weltumweltgipfel von Rio de Janeiro die politischen Entscheidungen getroffen werden – oder nicht – wird sich erweisen, ob das Rennen gegen die Uhr doch noch gewonnen werden kann.

(erscheinen in redigierter / gekürzter Form in „DIE WELT“, 28. Januar 1992)

Technik gegen Dioxine

Die Technik der Abfallverbrennung hat in den letzten zwölf Jahren rapide Fortschritte gemacht. Bei mehreren derzeit laufenden Müllverbrennungsanlagen bleibt die Konzentration der in den Abgasen freigesetzten Schadstoffe schon jetzt unter den Werten, die gemäß der 17. Bundesimmissionsschutzverordnung erst 1995 erreicht werden sollen. Diese Angaben machte Professor Hubert Vogg vom Kernforschungszentrum Karlsruhe (KfK) gestern vor der Wissenschaftspressekonferenz in Bonn.

Erfolge wurden demnach vor allem erzielt bei der Reduktion von Chlorwasserstoffen, Staub, Cadmium und Quecksilber, ebenso bei Dioxinen und der verwandten Stoffklasse der Furane. Bei allen Substanzen können mit verbesserten V erfahren die Emissionen auf mindestens ein Vierzigstel, im Falle des Dioxins sogar auf ein Vierhundertstel der Werte von 1980 gedrückt werden.

Beim Dioxin kamen den Forschem neue Erkenntnisse über die Entstehung des Seveso-Giftes. Dioxine und Furane, so fand man, bilden sich in den Abkühlzonen der Rauchgase bei Temperaturen zwischen 250 und 400 Grad Celsius in Anwesenheit von unvollständig verbranntem Kohlenstoff. Dies führte zu der Empfehlung, die Verbrennung strömungstechnisch sanfter und bei erhöhter Temperatur durchzuführen. Ein Ratschlag, der, so Vogg, „inzwischen von der Industrie voll in die Praxis umgesetzt wurde“.

Die Grenzwerte können jetzt unterboten werden

Noch vor zwei Jahren war kritisiert worden, daß der in der Bundesimmissionsschutzverordnung festgelegte Grenzwert utopisch und mit dem damaligen Stand der Technik nicht zu erreichen sei. In einem Kubikmeter Abgas darf danach ab 1995 nur noch ein zehnmilliardstel Gramm Dioxin (genauer Dioxintoxizitätsäquivalente) enthalten sei. Mittlerweile wird dieser weltweit strengste Richtwert in jeder zehnten der 50 westdeutschen Müllverbrennungsanlagen (MVA) unterschritten.

Diese Anlagen verarbeiten im Schnitt jeweils 200 000 Tonnen Hausmüll pro Jahr. In den neuen Ländern dagegen gibt es – mit einer Ausnahme – keine Hausmüllverbrennung. Stattdessen werden die gewaltigen Abfallmengen auf Deponien gelagert. Die Investitionen für eine MVA, die sich technisch auf dem neuesten Stand befindet, belaufen sich auf 80 bis 100 Millionen Mark.

Bei der Verbrennung von Hausmüll ergeben sich Probleme vor allem aus der weitgehend unbekannten Zusammensetzung der Abfälle. „Bei Hausmüll ist man vor Überraschungen nicht gefeit. Die Situation ist anders als beim Sondermüll, wo die Zusammensetzung in der Regel genau bekannt ist und die Verbrennung dementsprechend optimiert werden kann“, erläuterte Manfred Popp, Vorstandsvorsitzender des KfK.

Doch nicht nur die Abgase, sondern auch die in fester Form anfallenden Reststoffe stellen eine gewaltige Umweltbelastung dar. In Schlacken, Salzen und vor allem in Filterstäuben finden sich nämlich ein Großteil der Schadstoffe aus den häuslichen Abfällen wieder. Deren Anteil läßt sich mit einer chemisch-physikalischen Nachbehandlung verringern, die in Karlsruhe als 3R-Verfahren (Rauchgasreinigung mit Rückstandsbeseitigung) entwickelt wurde.

Trotz der Erfolge der letzten Jahre hegen die Karlsruher Wissenschaftler keine Zweifel an der Prioritätsreihenfolge „Vermeidung-Verwertung-Verbrennung“. In diesem Zusammenhang kritisierte Popp, daß derzeit einer ausgefeilten Produktionstechnik für alle Bedarfsgegenstände keine vergleichbare Verwertungstechnologie gegenüberstehe. Popp forderte ein stärkeres Engagement der Industrie auf diesem Sektor. „Es ist ein Armutszeugnis, wenn 70 Prozent aller Abfälle heute unbehandelt bleiben.“

Hier sieht der Vorstandsvorsitzende auch eine Chance für das KfK, das sich in Zukunft stärker auf den Gebieten Umweltforschung und Umwelttechnik engagieren will. Die Grundfinanzierung dieser größten deutschen Forschungseinrichtung war für das laufende Jahr deutlich reduziert worden.

(erschienen in „DIE WELT“ am 22. Januar 1992)

Anmerkung: Nach mehreren Umbenennungen ist aus dem KfK inzwischen das „Karlsruher Institut für Technologie“ geworden.

Klima-Kommentar: Bittere Erkenntnis

Sechs Monate vor der UNO-Konferenz „Umwelt und Entwicklung“ in Rio de Janeiro schrillen – wieder einmal – die Alarmglocken. „Wissenschaftlich gesichert“ und damit aktenkundig ist jetzt die Erkenntnis, daß die zunehmende globale Erwärmung, der schwindende Ozonschild, die Zunahme verheerender Wirbelstürme und die sich ständig ausbreitenden Waldschäden auf die Aktivitäten von rund sechs Milliarden Menschen zurückzuführen sind.

Wer hätte das gedacht? Während bisher von Befürchtungen und Wahrscheinlichkeiten die Rede war, sind sich die Wissenschaftler jetzt einig. Eine internationale Expertenrunde hat für die Enquetekommission des Bundestages zum Schutz der Erdatmosphäre den derzeitigen Stand der Forschung dargelegt. Dabei fiel das Wörtchen „sicher“, eine Vokabel, die Wissenschaftler nur äußerst selten benutzen.

Die Folgen anhaltender Tatenlosigkeit schilderte der Kommissionsvorsitzende in eindrucksvollen Worten. Hautkrebs, Sturmflut, Dürre, verseuchtes Wasser, Hunger und Krieg zählen zu den Faktoren, mit denen die Weltpolitik in nicht allzu ferner Zukunft rechnen muss.

Unterdessen sieht George Bush die Vereinigten Staaten in einer Rezession. Japaner und Europäer glauben ihre wirtschaftliche Konkurrenzfähigkeit gefährdet. Eine Milliarde Chinesen hätten gerne einen Kühlschrank. Ungezählte Hungernde wären gerne satt. Der Ruf nach einer politischen Lösung wird immer lauter, die Erfolgschancen des Umweltgipfels sinken.

Während fast jeder gewillt ist, der eigenen Gesundheit zuliebe auch einmal eine bittere Pille zu schlucken, scheint die Vernunft beim Thema Umwelt auf der Strecke zu bleiben. Es ist höchste Zeit für die Einsicht, daß saubere Luft, klares Wasser und eine intakte Tier- und Pflanzenwelt nicht zum Nulltarif zu haben sind.

(erschienen auf Seite 1, „DIE WELT“, 18. Januar 1992)

Experten: Klimakatastrophe droht

Die globale Klimasituation, besonders der Treibhauseffekt, hat sich nach wissenschaftlichen Erkenntnissen dramatisch zugespitzt. Als gesichert gilt, daß die Erwärmung der Erde nicht auf natürliche Schwankungen zurückzuführen, sondern das Resultat menschlicher Aktivitäten ist. „Damit sind die letzten Zweifel an der Dringlichkeit von Sofortmaßnahmen ausgeräumt“, teilte der Vorsitzende der Bundestags-Enquetekommission zum Schutz der Erdatmosphäre, Klaus Lippolt (CDU), am Freitag in Bonn mit.

Seite 1 der „Welt“ vom 18. Januar 1992: Vor den Folgen des menschgemachten Klimawandels und der globalen Erwärmung warnten Experten bereits in den 1990er Jahren. Geschehen ist seitdem wenig, und für meinen Kommentar – geschrieben 11 Jahre vor Greta Thumbergs Geburt – wurde ich auch nicht ins Kanzleramt eingeladen.

Lippolt präsentierte das alarmierende Ergebnis einer zweitägigen Anhörung „Wissenschaftlicher Sachstand“ zur weltweiten Klimaveränderung. Neben einem weltweiten Temperaturanstieg von 0,6 Grad in den letzten 100 Jahren stellten internationale Fachleute eine Erhöhung des Wasserdampfgehaltes in der Atmosphäre und eine „dramatische Zunahme der Windenergie um 10 bis 20 Prozent“ fest.

Die Erderwärmung steigt / Stürme, Überflutung und Dürre sind die Folgen

Die Windgeschwindigkeit habe um fünf bis zehn Prozent zugenommen, so Lippolt. „Ich glaube, daß das vermehrte Auftreten von Wirbelstürmen mit teilweise katastrophalen Auswirkungen wohl auf diese Phänomene mit zurückgeht.“ Im letzten Jahr waren bei einer gewaltigen Sturmflut in Bangladesch mehr als 100000 Menschen gestorben. Experten sagten jetzt voraus, daß die Zahl der Stürme, besonders in den Wintermonaten, um 25 Prozent zunehmen werde.

In der Kommissionssitzung sei ausdrücklich betont worden, daß „die gemessenen Werte signifikant sind und außerhalb der natürlichen Variabilität liegen“, betonte Lippolt. Im wissenschaftlichen Sprachgebrauch werden Resultate dann als signifikant bezeichnet, wenn auszuschließen ist, daß das Ergebnis auf einem Zufall basiert. Zuvor waren Prognosen zur globalen Erwärmung von Seiten der Politik und der Wirtschaft immer wieder kritisiert worden, weil die Klimatologen natürliche Schwankungen als Ursache der gemessenen Temperaturerhöhungen nicht mit Sicherheit ausschließen konnten.

Besonders dramatisch ist die Situation nach Ansicht der Wissenschaftler deshalb, weil die derzeit wahrnehmbaren Klimaveränderungen auf menschliche Eingriffe zurückgehen, die bereits mehr als 20 bis 30 Jahre zurückliegen. Eine Entwicklung, die auch für Deutschland gravierende Folgen haben könnte, ist die Verlagerung ganzer Klimazonen. Hier liegen neue Erkenntnisse vor, wonach eine zunehmende Erwärmung (für die nächsten 100 Jahre werden mittlerweile sechs bis neun Grad befürchtet) binnen 60 Jahren zu einer Austrocknung von Feuchtgebieten führen könnte.

Betroffen wären unter anderem weite Teile Norddeutschlands, aber auch die Niederlande. Der Kommissionsvorsitzende machte die möglichen Folgen deutlich: „Das funktioniert nicht nach dem Motto: ´Dann wird es eben ein paar Grad wärmer, und wir bauen statt der einen die andere Frucht an.‘ So einfach ist das nicht.“ Stattdessen würden Schwermetalle freigesetzt, die sonst im Boden in gebundener Form vorliegen. „Dadurch bekommen wir Cadmiumkonzentrationen ungeahnten Ausmaßes“, so Lippolt. Eine Verseuchung des Grundwassers wäre die Folge.

(erschienen auf Seite 1, „DIE WELT“, 18. Januar 1992)

Quellen: Pressekonferenz und Erster Bericht der Enquete-Kommission „Schutz der Erdatmosphäre“ (Download als pdf)

Forschung für die Ärmsten der Armen

Im Forschungsinstitut Icrisat nahe dem indischen Hyderabad kämpfen Forscher gegen den Hunger in der Welt. Wichtigste Waffe sind dabei uns unbekannte Pflanzen wie Sorghum und Perlhirse. Sie ermöglichen – im Gegensatz zu den Hochleistungsgewächsen der grünen Revolution – auch in einer unerbittlichen Umwelt noch akzeptable Ernten für eine weiter wachsende Weltbevölkerung. 750 Millionen Menschen, die in den semiariden Tropen täglich mit primitivsten Mitteln ums Überleben kämpfen müssen, profitieren von der Arbeit des Instituts, das vorwiegend aus den Steuergeldern der wichtigsten Industrieländer finanziert wird.

Vier Pflanzenarten bilden heute die Nahrungsgrundlage für den größten Teil der Menschheit: Mais und Reis, Kartoffeln und Weizen heißen die Gewächse, die in gemäßigten Klimazonen Rekordernten bringen – dank regelmäßiger Niederschläge, dem Einsatz von Düngemitteln und Pestiziden, dank künstlicher Bewässerung und einer weitgehend technisierten Landwirtschaft.

Dort aber, wo die Natur weniger freigebig ist, wo die Böden ebenso arm sind an Nährstoffen wie die Bauern an Geld, dort wo der Regen – wenn überhaupt – nur sporadisch fällt, sind die Menschen auf Pflanzen angewiesen, die auf europäischen Märkten nur selten zu finden sind. Die Rede ist von Sorghum und Perlhirse, von Hühner- und Taubenerbsen (Cicer arietinum und Cajanus cayan) sowie der immerhin als Snack verbreiteten Erdnuß.

Ohne diese fünf Pflanzen jedoch wären 750 Millionen Menschen in den semiariden Tropen ihrer Nahrungsgrundlage beraubt. Die semiariden Tropen (SAT) umfassen rund 20 Millionen Quadratkilometer in 50 Ländern beiderseits des Äquators, von Angola und Australien bis Zaire und Zimbabwe.

Zwar liegen die meisten SAT-Länder auf dem afrikanischen Kontinent, in einem über 1000 Kilometer breiten Gürtel um den zentralafrikanischen Regenwald, doch werden auch weite Teile Mexikos, Boliviens, Thailands und Pakistans zu dieser Landschaft gerechnet, in der erratische Regenfälle und nährstoffarme Böden den Bauern das Leben schwermachen. Diesen Bauern zu helfen ist das Hauptanliegen von Icrisat (International Crops Research Institute for the Semi-Arid Tropics), einem gewaltigen Forschungsinstitut im indischen Patancheru. „Wir arbeiten für die Ärmsten der Armen“, erklärt der leitende Direktor Dr. James Ryan. „Unser Ziel ist es, als Weltzentrum zur Verbesserung der Erträge und Qualität von Sorghum, Hirse, Hühnererbsen, Taubenerbsen und Erdnüssen zu dienen.“

Doch damit nicht genug: Icrisat soll außerdem als Genbank für diese Pflanzen fungieren, ebenso wie als Ausbildungsstätte und Koordinationszentrum für den Technologietransfer. Icrisat, das in diesem Jahr mit über 60 Millionen Mark finanziert wird, bietet hierfür ideale Voraussetzungen, denn auch Indien gehört zum größten Teil zu den semiariden Tropen.

Die rund 100 Top-Wissenschaftler der Forschungsstation werden in ihrer Arbeit von etwa 1500 Angestellten unterstützt – ein Verhältnis, das europäischen und amerikanischen Wissenschaftlern traumhaft erscheinen muß. Pflanzenzüchter und Insektenforscher, Landwirte und Botaniker, Genetiker und Mikrobiologen, Biochemiker und Virologen arbeiten hier in fachübergreifenden, problemorientierten Teams zusammen. Ziel ist es, die günstigen Eigenschaften verschiedener Rassen zu kombinieren und auch unter erschwerten Bedingungen, bei minimalem Einsatz von Düngemitteln und Pestiziden, noch akzeptable Ernten zu erreichen.

Ein unverzichtbares Hilfsmittel ist dabei die Icrisat-Genbank mit ihren über 100.000 lsolaten, die in weltweiten Sammelaktionen aufgespürt oder von Forschem in den Ländern der SAT direkt nach Hyderabad geschickt wurden.

Die Genbank beherbergt in ihren Tiefkühlschränken und wohlklimatisierten Lagerräumen jeweils mehrere tausend Nachkommen einer Pflanze, die in Samenform aufbewahrt werden. In mehrjährigen Abständen wird überprüft, ob die Samen noch keimungsfähig sind. Sobald der Anteil der „toten“ Samen die 15-Prozent-Marke übersteigt, muß das jeweilige Isolat aufgezogen und bis zur Samenreife hochgepäppelt werden. Diese „Enkel“ der ursprünglich gesammelten Pflanzen wandern dann wieder in peinlich genau gekennzeichnete Plastikbüchsen oder werden in Aluminiumfolien eingeschweißt – der Kreislauf beginnt von neuem.

Der gewaltige Arbeitsaufwand macht sich bezahlt, denn versteckt im Erbgut all dieser Pflanzen finden sich die Gene, die zahllosen Ernteschädlingen – von Pilzen und Würmern über Fliegen, Käfer und Raupen bis hin zu den verschiedensten Arten von Viren – den Appetit verderben. Auch andere Eigenschaften, wie Hitze- und Kälteresistenz sowie die Fähigkeit, auch längere Dürreperioden zu überstehen, schlummern in den Kühlschränken der Genbank.

Sogar die Zeit, welche die Pflanzen zum Wachstum von der Aussaat bis zur Ernte benötigen, unterliegt weitgehend dem Regime der Gene. Hühnererbsen, die in Südasien einen wichtigen Eiweißlieferanten darstellen, benötigen zwischen 75 und 150 Tage, wobei die längste Wachstumszeit häufig die größten Erträge bringt. Für die Taubenerbse, die zusätzlich noch als Windschutz, Brennstoff, Düngemittel und Viehfutter Verwendung findet, liegt die Wachstumszeit zwischen 110 und 180 Tagen.

Da beide Pflanzen erst nach der Regenperiode gesät werden, steht, besonders in trockenen Gebieten, oft nur wenig Zeit für das Wachstum der Frucht zur Verfügung. Aufgabe der Icrisat-Forscher ist es dann, für jeden Standort die „optimale“ Pflanze zu finden und der Natur gegebenenfalls durch Züchtung auf die Sprünge zu helfen.

„Jede Pflanze, die wir in die Genbank aufnehmen, wird genauestens auf ihre Eigenschaften überprüft“, erläutert Dr. Prasado Rao. Aus diesem Eignungstest gewinnen die Forscher der Genbank 30 bis 40 Meßwerte, die Aufschluß geben sollen über den optimalen Einsatz der Gewächse auf den Feldern der Welt. Auch für Versuche, bei denen günstige Eigenschaften verschiedener Wildstämme in weitverbreitete Rassen eingekreuzt werden, sind die Daten der Genbank unverzichtbar.

„Wir haben eine Politik der offenen Tür. Auf Anfrage kann jeder auf die hier registrierten Pflanzen zugreifen. Wir schicken ihm dann den Samen mit den gewünschten Eigenschaften zu“, betont Ryan die Richtlinien seines Instituts, das vorwiegend aus dem Steueraufkommen der industrialisierten Länder finanziert wird. Die Gesamtzahl der Proben, die von Hyderabad aus in die ganze Welt verschickt wurden, dürfte noch in diesem Jahr die Millionengrenze überschreiten.

Den finanziellen Nutzen dieser Aktionen kann Ryan nicht pauschal beziffern, doch zwei besonders erfolgreiche Icrisat-,“Produktionen“, die Perlhirsen ICMH 451 und WC-C75, brachten alleine den indischen Bauern einen Ertragszuwachs, dessen Wert den Jahresetat des Instituts übersteigt. Dennoch wäre es unrealistisch, auf eine zweite grüne Revolution zu hoffen, um die katastrophalen Folgen einer anhaltenden globalen Bevölkerungsexplosion zu mildern.

Zwar konnten in den sechziger Jahren mit hochgezüchteten Varietäten auf den Reisfeldern Asiens gewaltige Ertragssteigerungen erzielt werden; dies wurde jedoch erkauft durch eine starke Abhängigkeit von (teuren) Düngemitteln und (gefährlichen) Insektiziden. Nur wenn beides in reichem Maße vorhanden war, konnten die Rekordernten, die auf landschaftlichen Versuchsstationen erzielt wurden, auch in der Praxis erreicht werden. Dann kam die große Ernüchterung:

„Der unmäßige Gebrauch von Insektiziden im asiatischen Raum hat zu einer großen Anzahl von Schädlingsplagen geführt“, so Ryan. „Wir wissen, daß wir uns im Umgang mit der Natur nicht gerade mit Ruhm bekleckert haben.“ Diese Einsichten haben zum Umdenken geführt. Integrierter Pflanzenbau heißt die neue Philosophie, bei der biologische und chemische Methoden der Schädlingsbekämpfung sorgfältig aufeinander abgestimmt werden.

Im Zusammenspiel von schädlingsresistenten Pflanzen, Fruchtwechsel und variablen Saat- und Erntezeiten will man die Zahl der Mitesser unter einer wirtschaftlich akzeptablen Schwelle halten. Das offensichtlich unrealistische Vorhaben, die Schädlinge komplett auszurotten, gehört somit der Vergangenheit an. Ryan glaubt auch, den Grund für diesen Sinneswandel zu kennen: „Eine zunehmend kritische Öffentlichkeit hat in der agrochemischen Industrie zu einer gewissen Nervosität geführt. Man sorgt sich um Profite und das Image. In zehn Jahren werden die Vorräte an Insektiziden erschöpft sein, die im Westen längst verboten sind, aber immer noch ihren Weg in die Entwicklungsländer finden.“

Der integrierte Pflanzenbau werde daher eine immer wichtigere Rolle bei gemeinnützigen Instituten wie Icrisat spielen, prophezeit der Direktor. Dafür aber braucht man Geld, und das, bemängelt Ryan, wird zunehmend knapper. „Die Geberländer sind ziemlich selbstzufrieden geworden. Wahrscheinlich liegt das daran, daß es in den letzten Jahren keine wirklich großen Hungersnöte gegeben hat.“

(erschienen in „DIE WELT“ am 27. Dezember 1991. ICRISAT wurde besucht auf Einladung der Welternährungsorganisation der UNO (FAO))

Wenn die Neuronen im Gleichtakt schlagen

Wie schafft es unser Gehirn, Objekte, die beispielsweise auf dem Arbeitstisch herumliegen, überhaupt als Objekte zu erkennen? Für die meisten Menschen existiert dieses Problem überhaupt nicht, denn man „sieht“ ja die Kaffeetasse und den Kugelschreiber, kann diese Gegenstände mit großer Selbstverständlichkeit greifen und von der Unterlage unterscheiden.

Für die Hirnforscher ist dies allerdings keine gültige Erklärung. Denn „eigentlich“ bekommen die Nervenzellen der menschlichen Netzhaut ja nur ein zweidimensionales – flaches – Abbild der Umgebung geboten, eine Fläche, die sich aus unterschiedlich hellen oder dunklen Grautönen zusammensetzt.

Erschwerend kommt noch hinzu, daß dieses Bild durch das Zusammenspiel von Pupille und Augenlinse auf den Kopf gestellt wird. Doch damit nicht genug; schließlich haben wir zwei Augen und somit zwei Abbilder zu berücksichtigen, die ähnlich, aber nicht identisch sind.

Nochmals komplizierter wird die Angelegenheit, wenn man bedenkt, daß die in Blickrichtung rechts außen liegenden Gegenstände schlußendlich in der Sehrinde der linken Hirnhälfte registriert werden und umgekehrt. Dies ist nur möglich, weil jeweils die Hälfte der Nerven einer Netzhaut über eine „Kreuzung“ – das Chiasma opticum – im Zwischenhirn laufen muß. Nachdem die einlaufenden Nervenreize noch eine „Umspannstation“ überwinden müssen, entsteht schließlich in der Sehrinde der Eindruck eines Bildes.

Die Kaffeetasse, die halblinks vor uns steht, wird somit von Nervenzellen im linken und im rechten Auge registriert. Bemerkenswerterweise laufen diese Meldungen dann in einer Hirnregion, der Sehrinde, wieder zusammen; die zwei gemeldeten Kaffeetassen verschmelzen zu einer.

Genaugenommen könnte dieser Schaltplan der Nervenzellen aber nur erklären, wie die Bildpunkte, aus denen unsere Tasse besteht, von der Netzhaut bis in die Sehrinde gelangen. Die eigentliche Abgrenzung des Objekts „Kaffeetasse“ von der Unterlage besorgt das Zusammenspiel mehrerer Gruppen von Nervenzellen, die bei Säugetieren in der Sehrinde zu finden sind. Durch Teamwork erkennen diese Zellen, daß hier ein Gegenstand vorliegt.

Die Information, die vom Auge kommt, wird auf schätzungsweise 20 oder 25 Regionen parallel verteilt. Jeder Abschnitt beschäftigt sich dann mit einem Aspekt des Bildes, etwa mit Farbe, Form oder Lokalisation im Raum. Eine dieser Gruppen wird beispielsweise nur dann aktiv, wenn mehrere Bildpunkte gleicher Lichtstärke auf einer Linie liegen.

Eine andere Gruppe von Nervenzellen registriert vielleicht den Kontrast, das heißt den Unterschied in der Lichtstärke, zwischen der weißen Tasse und der grünen Schreibunterlage. Wieder eine andere Gruppe von Nervenzellen reagiert überhaupt nicht, weil sie auf Bewegung „geeicht“ ist. Diese Sensoren sind besonders hilfreich, wenn ein Objekt, das sich kaum vom Untergrund abhebt (ein Chamäleon etwa), sich zu regen beginnt.

Das allgemeine Prinzip, nach dem Figuren von ihrem Hintergrund unterschieden werden können, beruht also auf dem Erkennen von zusammengehörigen (kohärenten) Merkmalen. Die Gruppen von Nervenzellen aber, die beispielsweise die Farbe oder die Orientierung eines Gegenstandes registrieren, sind im Gehirn relativ weit verstreut. Die Entfernung beträgt bei Zellgruppen in einer Hirnhälfte bis zu sieben Millimeter, ein gewaltiger Abstand, zumindest nach dem Maßstab der Neuroanatomen.

Erst in jüngster Zeit ist man dahintergekommen, wie verschiedene Zellgruppen, die auf das gleiche Merkmal ansprechen, miteinander in Verbindung bleiben: Offensichtlich entladen diese Zellen sich im Gleichtakt, wenn sie auf den gleichen Gegenstand reagieren. Sie „feuern“ ihre Impulse dann jeweils zum gleichen Zeitpunkt, und das 40 bis 60 Mal in einer Sekunde. Mißt man dagegen Zellen, die ihre Reize nicht von einem abgrenzbaren Gegenstand empfangen, so ergibt sich ein wildes Durcheinander von aktiven und ruhigen Phasen. Offensichtlich sprechen diese Zellen nicht miteinander.

Diese Ergebnisse aus dem Labe des Frankfurter Neurobiologen Wolf Singer stießen ursprünglich auch auf Skepsis in der Forschergemeinde. Im Gegensatz zu philosophischen Erklärungsversuchen konnten verschiedene Vorhersagen des Modells allerdings im Experiment überprüft werden. Bisher hat dieses Modell zur Entstehung des menschlichen Bewußtseins jedenfalls alle Prüfsteine überwinden können.

(erschienen in „DIE WELT“ am 22. November 1991)

Der lange Weg zum intelligenten Roboter

Der erste Schritt ist getan: Deutsche Wissenschaftler haben eine Nervenzelle und einen Transistor miteinander verbunden. Die Nervenzelle als biologische Einheit erzeugt einen äußerst schwachen Stromimpuls, der an das elektronische Bauteil weitergeleitet und dort tausendfach verstärkt wird. Während die Ulmer Forscher ausgehend von der „biologisch-technischen Synapse“ langfristig an die Entwicklung neuer Sensoren denken, ist die Fantasie mancher Zeitgenossen den technischen Möglichkeiten bereits weit vorausgeeilt.

Sie träumen davon, die Fähigkeiten von Mensch und Maschine zu vereinen und so die biologisch gesetzten Grenzen des eigenen Daseins zu überwinden. Zeuge dieser Träume ist eine Fülle von mehr oder weniger gut gemachten Büchern und Kinofilmen, vom Science-Fiction-Klassiker „2001 – Odyssee im Weltraum“ mit dem eigensinnigen Bordcomputer HAL 9000 bis hin zum Kampf zwischen guten und bösen Androiden in der Hollywood-Produktion Terminator II.

Noch aus der Zeit des kalten Krieges stammt der Vorschlag, Raketen mit Taubenhirnen auszustatten. Wenn es irgendwie gelänge, die Zellen eines Tieres „umzuprogrammieren“, könnte man eine intelligente Waffe schaffen, die dann fähig sein sollte, ihr Ziel selbstständig aufzuspüren. Natürlich, so argumentierte man, wären solche Geschosse auch in der Lage, Freund von Feind zu unterscheiden und lohnende Ziele ausfindig zu machen.

Ob derartige Ausgeburten der Ingenieurskunst jemals Realität werden, steht in den Sternen. Cruise-Missiles jedenfalls weichen heutzutage auch ohne Taubenhirn nur wenige Meter von ihrem Ziel ab, und die ehemals aufsehenerregende Idee wurde zu den Akten gelegt. Dennoch ist die Leistungsbilanz moderner Computer im Vergleich zum Tierreich eher ernüchternd. Die Rechenkraft eines Schneckenhirns beispielsweise wird heute gerade von den neuesten Bürocomputern bewältigt. Die schnellsten Supercomputer können es immerhin schon mit einem Mäusegehirn aufnehmen, sind allerdings selten unter zehn Millionen Mark zu haben.

Doch obwohl diese Wunderwerke (die Supercomputer) schon gut 100 Milliarden Informationseinheiten (Bit) pro Sekunde verarbeiten können, bleibt es doch in aller Regel bei der stumpfsinnigen Rechenarbeit. Noch immer sind alle „gewöhnlichen“ Computer bewegungsunfähig. Nur wenige Roboter können heute bereits zwei Treppenstufen überwinden, ohne auf die Nase zu fallen.

Diese Prototypen wie der 220 Kilogramm schwere „Asshy“ im Shibaura Institut für Technologie, Tokyo, sind hingegen zu sehr damit beschäftigt, die Balance zu halten, als daß man sie auch noch mit Rechenaufgaben belästigen könnte. Mit seiner stattlichen Größe von 210 Zentimetern vermag Asshy zwar durchaus zu beeindrucken, Gehversuche sind aber auch nach über zwanzig Jahren Forschung noch mit einem großen Risiko behaftet, wie Asshys geistiger Vater, Akira Sato bereitwillig einräumt.

Eine Ausnahme bilden lediglich die insektenähnlichen Roboter, die am Massachusetts Institute of Technology von Rodney Brooks entwickelt werden. Das bisher erfolgreichste Modell, der sechsbeinige „Genghis“ hat etwa die Größe eines Schuhkartons und schafft es immerhin seine Bewegungen zu koordinieren. Was fehlt ist allerdings nach immer ein Roboter – ob in Menschengestalt oder nicht – der die Fähigkeit zur freien Bewegung kombiniert mit einer akzeptablen Rechenleistung.

Doch wäre es nicht wunderbar, wenn man einer Maschine auch Entscheidungen zumuten könnte, die ein gewisses Urteilsvermögen voraussetzen? Wenn diese Maschinen in der Lage wären, Probleme selbsttätig zu erkennen und zu lösen? Wäre dies nicht ein weiterer Schritt hin zu ein Gesellschaft, in der die Menschen nur noch das tun, was ihnen zusagt?

In diese Richtung bewegen sich die Vorstellungen von Hans Moravec, Direktor des Labors für mobile Roboter an der amerikanischen Carnegie Mellon Universität. Er eröffnet sein unter Wissenschaftlern heiß diskutiertes, Buch „Mind Children“ mit den Worten: „Ich glaube, daß Roboter mit menschlicher Intelligenz in fünfzig Jahren weit verbreitet sei werden.“

Über die Frage, ob derartige Maschinen jemals ein „Bewußtsein“ entwickeln können, gehen die Ansichten ebenfalls stark auseinander. Moravec ist der Meinung, daß alles was dafür gebraucht wird, ein Modell der Außenwelt sei, das komplex genug ist um die Konsequenzen verschiedener Entscheidungen durchzuspielen. Er glaubt, dass der Zeitpunkt schon abzusehen ist, an dem jede wichtige körperliche oder geistige Funktion des Menschen ein künstliches Pendant haben wird. „In spätestens fünfzig Jahren haben wir den intelligenten Roboter, eine Maschine die denken und handeln wird wie ein Mensch.“

(erschienen in „DIE WELT“ am 13. November 1991)

Ethische Fragen drängen sich auf

Im jüngsten Kino-Kassenschlager, dem „Terminator II„, wird der Zuschauer mit einer recht gewalttätigen Vision geschockt: Intelligente Maschinen, von Menschen erdacht und gebaut, sollen im Jahr 1997 die amerikanische Verteidigung übernehmen. Als die Militärs feststellen, daß die Supercomputer ein eigenes Bewußtsein entwickeln, versucht man den Stecker zu ziehen. Die Maschinen antworten mit einem atomaren Gegenschlag; drei Milliarden Menschenleben werden ausgelöscht.

Die Geschichte von den Robotern, die durchdrehen und die Kontrolle an sich reißen, ist zwar alles andere als neu, dennoch gibt es Grund zur Vorsicht. Als die Computer des amerikanischen Lenkwaffenkreuzers Vincennes am 3. Juli 1988 einen iranischen Airbus nicht von einem Militärjet zu unterscheiden vermochten, verloren 290 Zivilisten ihr Leben. Wenn schon „gewöhnliche“ Technologie zu derartigen fatalen Verwechselungen führen kann, ist dann die Gefahr durch denkende, lernfähige und somit auch unberechenbare Computer nicht ungleich größer?

Eine neue Broschüre des Bundesforschungsministeriums räumt hierzu ein, daß die Anwendungsmöglichkeiten neuronaler Netzcomputer „natürlich auch den Keim zu unkontrollierbarer Eigendynamik“ in sich bergen. Aus diesem Grunde sei eine die technische Entwicklung begleitende Technikbewertung erforderlich, formulierte eine zehnköpfige Expertenkommission. An eine Einschränkung der Forschungstätigkeit oder gar an ein Verbot der Entwicklung neuronaler Netze wird aber nicht gedacht. Zu vielfältig sind offensichtlich die Vorteile der neuen Technologie, die von medizinischen Anwendungen über Spracherkennung und -übersetzung bis hin zur Erkundung des Weltalls reichen, um nur einige Beispiele zu nennen.

Schon länger als die Neuroinformatiker machen sich Biologen und Mediziner Gedanken über die Konsequenzen ihres Tuns. Denn einerseits finden die Resultate der Neurobiologie ja unmittelbaren Eingang bei der Entwicklung künstlicher Neuronaler Netze; andererseits bringt die Erforschung des menschlichen Gehirns auch eine Vielzahl eigener ethischer Probleme mit sich.

Schon die Experimente selbst, die ja in den weitaus meisten Fällen an Versuchstieren durchgeführt werden, stoßen oft auf heftige Kritik in der Öffentlichkeit. Bilder von jungen Katzen oder von Menschenaffen, deren Hirnströme mit Hilfe von implantierten Elektroden gemessen werden, haben – nicht nur auf den Tierfreund – eine stark emotionalisierende Wirkung. Ob die Tiere bei diesen Experimenten nun Schmerz empfinden oder nicht, ob die Experimente zu meßbaren Fortschritten in der Medizin führen und ob diese Art der Nutzung von Mitgeschöpfen mehr oder weniger grausam ist als die gemeinhin akzeptierte Massentierhaltung, danach wird nur in Ausnahmefällen gefragt.

Der Frankfurter Hirnforscher Wolf Singer ist sicher kein Einzelfall: „Wenn Rundfunk oder Fernsehen anrufen, heißt es immer nur: Hier haben wir was gegen Sie vorliegen. Sie können, wenn Sie wollen, um fünf vorbeikommen und noch schnell ein Statement zu Ihrer Verteidigung abgeben.“ Zu komplex sind wohl die Probleme, mit denen die Neuroforscher zu kämpfen haben, zu gering der „Unterhaltungswert“, um die notwendige öffentliche Diskussion anzustoßen, an der beide Seiten brennend interessiert sein sollten.

Denn je mehr wir über die Funktion der grauen Zellen herausfinden, umso größer werden auch die Chancen zur Manipulation. Einer Ratte, der man die Möglichkeit gegeben hatte, durch Tastendruck eine Elektrode im eigenen Hirn zu stimulieren, betätigte den „Lustschalter“ an die 5000-mal in der Stunde – bis sie erschöpft zusammenbrach.

Buchautor Johannes Holler („Das neue Gehirn“) bezeichnet das Hirn zu Recht als den größten Drogenhersteller und -Konsumenten. Die dort hergestellten Botenstoffe verändern im Zusammenspiel mit ihren Ankerplätzen in jeder Sekunde unsere Wirklichkeit; erzeugen Liebe und Lust, Haß und Depression. Rund 70 Botenstoffe und 50 Ankerplätze sind bisher bekannt, und ständig werden neue dazu entdeckt.

Durch die gezielte Entwicklung neuer Medikamente könnte beispielsweise die Wirkung des Rauschgiftes Cannabis aufgehoben werden, indem man den seit kurzem bekannten Ankerplatz blockiert. Auch einem Eiweiß, an dem Kokain seine Wirkung entfaltet, sind die Forscher auf der Spur. Ein Ersatzstoff für Nikotin, das ebenfalls bestimmte Rezeptoren im Gehirn aktiviert, könnte Millionen Raucher von ihrer Sucht befreien.

Doch nicht nur Suchtkranke, sondern auch Millionen von Patienten, die alleine in Deutschland an Depressionen, Schizophrenie, Epilepsie und der Alzheimer´schen Krankheit leiden, wollen die Möglichkeiten der Neuroforschung nutzen. Sie vertrauen darauf, daß unsere Gesellschaft mit den Risiken und Versuchungen dieser Wissenschaft besser zurechtkommt als lustbesessene Laborratten.

(erschienen in „DIE WELT“ am 8. November 1991)

Fleißig arbeiten und wissenschaftlich denken

Der Robert-Koch-Preis, einer der höchsten deutschen Wissenschaftspreise, wurde gestern in Bonn verliehen. Preisträger der mit 100.000 Mark dotierten Auszeichnung sind der Belgier Walter Fiers und der Japaner Tadatsugu Taniguchi. Die Robert-Koch-Medaille in Gold für das Lebenswerk eines Forschers erhielt Professor Werner Schäfer, „einer der großen Pioniere der Virusforschung in Deutschland“, wie der Laudatio zu entnehmen war.

Alljährlich ehrt die Robert-Koch-Stiftung mit der Preisvergabe Wissenschaftler, die sich besondere Verdienste bei der Erforschung von Infektions- und anderen Volkskrankheiten erworben haben. Diese Anforderung trifft auf den 79jährigen Schäfer sicherlich in besonderem Maße zu. Professor Rudolf Rott, Direktor des Instituts für Virologie der Universität Gießen, lobte den gebürtigen Westfalen: „Bei ihm haben wir gelernt, nicht nur fleißig und sauber zu arbeiten, sondern auch naturwissenschaftlich zu denken.“

Einer von vielen Influenza-Viren: Der Erreger der Schweine-Grippe unter dem Elektronenmikroskop (Photo: C. S. Goldsmith and A. Balish, CDC / Public domain)

Ausgehend vom Hühnerpestvirus und anderen Vertretern aus der Gruppe der Myxoviren wandte sich Schäfer bald auch den Krankheitserregern beim Menschen zu. Am Tübinger Max-Planck-Institut für Virusforschung fand er heraus, daß seine Geflügelviren nahe verwandt waren mit den Partikeln, welche die Volksseuchen Influenza, Mumps und Masern hervorrufen. Die Influenza oder echte Grippe war bis zur Einführung weltweiter Impfkampagnen eine der großen Geißeln der Menschheit; alleine bei der Epidemie der Jahre 1918 und 1919 starben über 20 Millionen.

Schäfer war es, der aus seinen Untersuchungen die – richtige – Vermutung ableitete, daß bestimmte Geflügelviren ein unerschöpfliches Reservoir für die Entstehung immer neuer Influenzavarianten sein könnten. Auch die Überlegung, daß sich ein vollständiger Impfschutz erreichen ließe, wenn man dem menschlichen Immunsystem bestimmte Eiweiße von der Oberfläche der Viren präsentieren würde, erwies sich im Nachhinein als richtig.

Anfang der sechziger Jahre begann sich der gelernte Tierarzt dann mit Retroviren zu beschäftigen, zu denen auch das damals noch unerkannte Aidsvirus HIV gehört. Für diese Gruppe von Krankheitserregern entwickelte Schäfer ein Strukturmodell, das heute allgemein anerkannt ist. „Häufig stehen allerdings Schäfer und Mitarbeiter nicht mehr als Quellenangabe unter diesen Modellen“, monierte der Preisträger.

Bahnbrechende Erfolge bei der Erforschung von tierischen Viren hat auch Walter Fiers von der Universität Gent vorzuweisen. Er entschlüsselte 1978 als erster die komplette Erbinformation eines Tumorvirus. SV 40, so der Name des Erregers, kann bei Hamstern bösartige Geschwüre verursachen. Auch das dafür verantwortliche Gen konnte Fiers isolieren. Dieser Triumph führte dann unmittelbar zur Entdeckung eines menschlichen Gens – p 53 -, das eine genau entgegengesetzte Wirkung hat. Das p 53 ist ein sogenanntes Suppressorgen; eine von vielen Erbanlagen, deren Beschädigung zur Krebsentstehung führen kann.

Ende der siebziger Jahre wandte sich Fiers ebenso wie der japanische Preisträger Taniguchi der Erforschung von Botenstoffen zu, die innerhalb eines Organismus bereits in kleinsten Mengen die Entwicklung von Geweben und Zellen beeinflussen können. Während Fiers die Interferone untersuchte, von denen man sich anfangs große Hoffnungen für eine Krebstherapie gemacht hatte, erforschte Taniguchi die Wirkung einer anderen Stoffklasse, der Interleukine.

Besonders Interleukin-2, so weiß man heute, wirkt auf mehrere verschiedene Typen von Immunzellen. Für detaillierte Untersuchungen stand aber zunächst nicht genug an diesem Eiweiß zur Verfügung. Das änderte sich erst, als Taniguchi das Gen, also den molekularen Bauplan, für Interleukin-2 isolierte und mit Hilfe von bakteriellen Zellen in größeren Mengen herstellen konnte. Aus dem Zusammenspiel mit anderen Botenstoffen, so hofft der Japaner, könnten sich bald schon neue Ansätze zur Krebstherapie ergeben.

(erschienen in „DIE WELT“ am 5. November 1991)