Zum Hauptinhalt springen

Freilandversuche für „Gen-Rüben“ genehmigt

Rund 14.000 Zuckerrüben und exakt 384 Kartoffeln sollen im Laufe der nächsten Wochen auf niedersächsischen und bayrischen Ackern angepflanzt werden. Nichts Besonderes, sollte man meinen, doch die Pflänzchen haben es in sich: beide Gewächse sind gentechnisch verändert.

Für Reinhard Nehls, Laborchef bei der Kleinwanzlebener Saatzucht (KWS) in Einbeck, liegen die Vorteile der modernen Biologie buchstäblich auf der Hand: In der Rechten hält er eine fette, schwere und offensichtlich gesunde Zuckerrübe, „so wie sie der Bauer haben will“. In der Linken dagegen ein kleines, schwarzes, mit Wurzelhaaren übersätes Gewächs, das sich bei näherer Betrachtung als infizierter Artgenosse der Vorzeigerübe entpuppt. „So kann es aussehen, wenn die Rizomania zuschlägt.“

Dem mittelständischen Unternehmen ist es gelungen, Zuckerrüben mit Hilfe gentechnischer Methoden vor der Viruskrankheit zu schützen. Die Rizomania, auch „Wurzelbärtigkeit“ genannt, hat sich in den letzten Jahren in ganz Europa ausgebreitet und verursacht deutschen Landwirten jährliche Ernteverluste in Millionenhöhe. Hauptbetroffene sind Familienbetriebe, für die die Zuckerrüben eine der wichtigsten Einnahmequellen darstellen.

Rund 5000 Landwirte waren es auch, die in einer Unterschriftenaktion den Antrag der KWS unterstützten, die genmanipulierten Pflanzen dort zu testen, wo sie gebraucht werden – auf dem Acker. Wie berichtet, hat das Berliner Bundesgesundheitsamt jetzt nach einem halbjährigen Genehmigungsverfahren die Einsprüche von rund 3000 Einwendern zurückgewiesen, weil von dem Experiment „nach dem Stand der Wissenschaft keine schädlichen Einwirkungen auf Leben und Gesundheit von Menschen, Tieren und. Pflanzen sowie die sonstige Umwelt“ zu erwarten seien.

Um die Pflanzen gegen den Angriff der schädlichen Viren immun zu machen, isolierten die KWS-Wissenschaftler zunächst ein Gen aus dem Ernteschädling, welches die Informationen zur Herstellung eines Eiweißes der Virushülle enthüllt. Die Anwesenheit dieses, für den Menschen ungiftigen Moleküls in der Zuckerrübe verhindert die Vermehrung des Parasiten in der Pflanze. Ziel der Bemühungen war es deshalb, Zuckerrüben zu züchten, die neben Tausenden eigener Inhaltsstoffe zusätzlich das fremde Eiweiß produzieren. Dabei kam den Forschern die Tatsache zugute, daß die Erbinformationen aller Lebewesen in der gleichen „Sprache“ geschrieben sind. Die virale „Gebrauchsanleitung“ zur Herstellung des Eiweißes kann somit auch von der Zuckerrübe gelesen und in ein fertiges Produkt umgesetzt werden. Einzige Voraussetzung: das entsprechende Gen muß auf die Rübe übertragen und dort möglichst dauerhaft ins eigene Erbgut integriert werden.

Die Molekularbiologen bedienten sich dazu eines Bodenbakteriums, welches auch unter natürlichen Bedingungen in der Lage ist, Erbsubstanz in Pflanzen einzuschmuggeln. Agrobacterium tumefaciens, so der wissenschaftliche Name der Mikrobe, ist deshalb rund um den Globus als „Genfähre“ im Einsatz. Die in Einbeck entwickelten Rüben trotzen – zumindest in Labors, Klimakammern und Gewächshäusern – schon seit Jahren dem Rizomania-Virus. Dort erklärte jetzt inmitten Tausender von Pflanzen der Vorstandsprecher der KWS, Andreas Büchting: „Jetzt ist der Zeitpunkt gekommen, die transgenen Zuckerrüben auch unter den praktischen Bedingungen der Landwirtschaft – in freier Natur also – zu testen.“

Ähnliche Versuche haben im Ausland bisher über l000 mal stattgefunden, in zwanzig Fällen wurde dabei mit Zuckerrüben experimentiert. Gemeinsam mit der KWS erhielt auch das Institut für Genbiologische Forschung Berlin (IGF) die Erlaubnis, gentechnisch veränderte Kartoffeln im Freiland zu testen. Durch das gezielte Abschalten einer Erbanlage ist es den Molekularbiologen gelungen, die Erdäpfel zu potenziellen Rohstofflieferanten für die Stärke-Industrie umzufunktionieren. Sobald die letzten Nachtfröste vorbei sind, sollen exakt 384 transgene Kartoffeln den Zuckerrüben im Freiland Gesellschaft leisten.

Stärke ist ein besonders vielseitiger Rohstoff, der unter anderem in der Papier- und Pappeherstellung, für Chemikalien und‘ Arzneimittel, für Klebstoffe und im Textilbereich benötigt wird. Auch für die Produktion umweltfreundlicher, biologisch abbaubarer Kunststoffe wird Stärke gebraucht. Dieser „Kunststoff“ könnte zukünftig auf dem Acker wachsen, hofft Professor Lothar Willmitzer vom IGF. Besser als gewöhnliche Kartoffeln seien dafür die genmanipulierten Pflanzen geeignet, weil diese nur noch eine statt der üblichen zwei verschiedenen Stärkeformen produzieren.

Der Bauer erhält so einen einheitlichen Rohstoff mit klar definierten Eigenschaften, dem auf dem freien Markt gute Absatzchancen eingeräumt werden. Doch bis dahin ist es für die transgenen Kartoffeln und Zuckerrüben noch ein weiter Weg: vermarktungsfähige Produkte, so heißt es in einer Erklärung der KWS, stehen frühestens um das Jahr 2000 zur Verfügung.

(mein erster Artikel für die „Stuttgarter Zeitung“, erscheinen am 17. April 1993)

Grüne Gentechnik hat viele Schwellenländer erreicht

Während in Deutschland noch heftig darüber gestritten wird, ob gentechnisch veränderte Nutzpflanzen unter freiem Himmel angebaut werden dürfen, erfreuen sich die Produkte der grünen Gentechnik weltweit zunehmender Akzeptanz. Mehr als 800 Genehmigungen wurden seit 1985 allein in den OECD-Staaten für Freilandversuche erteilt. Auch viele Schwellenländer setzen die Gentechnik mittlerweile in der Pflanzenzucht ein; nicht zuletzt erhoffen sie sich davon einen Beitrag zur Ernährung ihrer wachsenden Bevölkerung.

Die Liste der freigesetzten Gewächse reicht heute schon von Alfalfa und Apfelbäumen über Kohl und Kartoffeln, Papayas und Petunien bis zur Zuckerrübe. Mindestens 26 Arten von Kulturpflanzen wurden bisher gentechnisch verändert. Die Ziele der Züchter und Chemiekonzerne, die sich an dieser Art von Forschung beteiligen, sind dabei ebenso vielfältig wie die Probleme der weltweiten Landwirtschaft.

Spitzenreiter der Entwicklung sind die Vereinigten Staaten und Kanada, wo jeweils über 300 Freilandversuche genehmigt wurden. Schlagzeilen machte in jüngster Zeit die Firma Calgene, die unter dem Namen „Flavr savr“ eine Tomate mit verlängerter Haltbarkeit entwickelte. Der „Geschmacksretter“ der kalifornischen Molekularbiologen stieß jedoch beim Verbraucher auf wenig Gegenliebe; die Markteinführung wurde zunächst verschoben.

Erfolgreicher war die Firma Monsanto aus dem Bundesstaat Missouri mit ihren Versuchen, Baumwollpflanzen vor verschiedenen Schmetterlingsraupen zu schützen. Per Gentransfer übertrugen die Wissenschaftler die Fähigkeit, ein insektentötendes Eiweiß herzustellen, vom Bacillus thuringiensis auf die Baumwolle.

Der „Genuß“ der Blätter wird für die gefräßigen Raupen des Eulenfalters so zur Henkersmahlzeit. Nach dem gleichen Prinzip wehren transgene Kartoffeln ihren ganz speziellen Freßfeind ab, den Kartoffelkäfer. Für andere Insekten ist das Bacillus-Toxin ebenso ungefährlich wie für den Menschen. Der Einsatz von Schädlingsbekämpfungsmitteln ließe sich mit dieser Methode deutlich reduzieren und gilt deshalb in Forscherkreisen als umweltfreundliche Alternative.

Umstritten ist dagegen der Nutzen Herbizid-resistenter Pflanzen. Neben Baumwolle ist man hier auch bei Tomaten, Sojabohnen, Raps und Mais schon weit fortgeschritten. Durch die Übertragung von Erbanlagen, die aus natürlich vorkommenden Bakterien stammen, trotzen diese Pflanzen verschiedenen Breitbandherbiziden, die sämtlichen Wild- und Unkräutern den Garaus machen.

Bei Monsanto und Calgene, aber auch bei Hoechst, Du Pont und der belgischen Firma Plant Genetic Systems wird argumentiert, der Gesamtverbrauch an so nannten Pflanzenschutzmitteln würde beim Einsatz Herbizid-resistenter Pflanzen zurückgehen. Unter dem Strich, so heißt es, würden mehrere Herbizide mit jeweils begrenztem Wirkungsspektrum durch ein einziges Breitbandherbizid ersetzt. Zudem seien Substanzen wie „Roundup“ (Monsanto) und „Basta“ (Hoechst) umweltverträglicher als heutige Herbizide, weil sie im Boden schnell zu ungefährlichen Verbindungen zerfallen.

Dem widersprechen praktisch sämtliche Umweltverbände, von Greenpeace über das Freiburger Öko-Institut bis zum Bund für Umwelt- und Naturschutz Deutschland. Sie erwarten einen deutlichen Mehrverbrauch an Unkrautvernichtungsmitteln und halten die neue Technik für eine bloße Rationalisierungsmaßnahme. Zur Hungerbekämpfung in der Dritten Welt könne der Einsatz Herbizid-resistenter Pflanzen ebenfalls keinen nennenswerten Beitrag leisten.

Auch wenn einzelne Anwendungen weiter umstritten sind, kann die Sicherheitsbilanz der grünen Gentechnik sich durchaus sehen Jassen. Über Zwischenfälle, bei denen Mensch oder Umwelt zu Schaden kamen, ist bisher nichts bekannt. Befürchtungen, wonach transgene Pflanzen sich unkontrolliert ausbreiten oder die Existenz einheimischer Wildpflanzen gefährden könnten, haben sich ebenfalls nicht bewahrheitet.

„Die Wissenschaft ist sich einig darüber, daß die Risiken der Gentechnik denen herkömmlicher Zuchtmethoden vergleichbar sind“, bilanzierten deshalb die Veranstalter des 2. Internationalen Symposiums zur Sicherheit genmodifizierter Organismen, das letztes Jahr in Gosslar stattfand. In den USA wird sogar geprüft, ob die Genehmigungsverfahren für Freilandexperimente teilweise durch eine schriftliche Anmeldung ersetzt werden können.

Innerhalb Europas erstreckt sich das Spektrum transgener Pflanzen von Raps und Kartoffeln, die als Quelle hochwertiger nachwachsender Rohstoffe dienen sollen, bis zu gelben, violetten und cremefarbenen Chrysanthemen der Varietät „Moneymaker“. In der Statistik führt Frankreich mit bisher 77 genehmigten Freisetzungen, gefolgt von Belgien (62), Großbritannien (45) und den Niederlanden (22).

Die flächenmäßig größten Freisetzungen genmanipulierter Organismen aber fanden bisher in der Volksrepublik China statt, wie Professor Zhang-Liang Chen, Pflanzengenetiker an der Universität Peking, seinen staunenden Kollegen in Gosslar berichtete.

Im Reich der Mitte hielt man sich dabei nicht lange mit Überlegungen zum Risikopotential der neuen Technik auf. Genehmigungsverfahren oder einschlägige Gesetze gibt es bisher nicht. Die ohnehin schon positive Haltung der chinesischen Behörden gegenüber der Gentechnik wurde noch verstärkt, seit beim Aufbau von Reis und Sojabohnen Ertragssteigerungen zwischen 5 % und 10 % erzielt wurden.

Erreicht wurde dies auf Versuchsflächen von über einer Million Hektar durch genmanipulierte Bakterien der Gattung Rhizobium. Die Mikroben, die auch als „Knöllchenbildner“ bekannt sind, können Luftstickstoff zu Ammonium reduzieren. Sie liefern der Pflanze dadurch einen lebenswichtigen Nährstoff und ersetzen teuren Kunstdünger.

Allerdings funktionierte die Symbiose zwischen natürlich vorkommenden Bakterien und Pflanzen bisher fast ausschließlich bei Gewächsen aus der Familie der Leguminosen wie Luzerne, Klee, Bohnen und Erbsen.

Englische und australische Arbeitsgruppen mühten sich bisher vergebens, die Rhizobien auch zur „Zusammenarbeit“ mit Reis, Raps und Weizen zu bewegen. Sollten die Chinesen tatsächlich beim Reis erfolgreich gewesen sein, käme dies einer wissenschaftlichen Sensation gleich. Langfristig könnten dann eine Milliarde Menschen, die weltweit ihre Reisfelder bewirtschaften, von der grünen Gentechnik profitieren.

(erschienen in den „VDI-Nachrichten am 2. April 1993)

Nachgefragt: Was UV-Strahlung mit Pflanzen macht

In meinem ersten Beitrag für „Bild der Wissenschaft“ hatte ich jede Menge Platz, um ein ziemlich komplexes Thema ausführlich darzustellen. Hintergrund war die steigende UV-Belastung infolge des Ozonloches und die Frage: „Wie reagieren eigentlich Pflanzen auf die veränderten Bedingungen?“. Die kurze Antwort: Unter starker Sonnenbestrahlung wachsen viele Pflanzen nicht nur schlechter, auch ihre Bestandteile verändern sich. Teilweise extrem: Grüne Bohnen werden unversehens zum Verhütungsmittel.

Die Pflanzenwelt wird überleben, auch wenn die Hälfte des schützenden Ozons über unseren Köpfen verschwinden sollte, da ist sich Prof. Eckard Wellmann vom Biologischen Institut II der Universität Freiburg sicher. Allerdings – ob wir die Pflanzen dann noch essen können, bezweifelt er.

Solche Bedenken hat auch Prof. Manfred Tevini am zweiten Botanischen Institut der Universität Karlsruhe. Beide Wissenschaftler beschäftigen sich seit Jahrzehnten mit den Auswirkungen verstärkter ultravioletter Strahlung auf Pflanzen. Die größte Rolle spielt dabei das sogenannte kurzwellige UV-Licht – jener Anteil des Sonnenlichts, der Eiweiße und Erbsubstanz aller Lebewesen massiv schädigen könnte, wenn nicht der Ozonschild in zehn bis vierzig Kilometer Höhe davor schützen würde.

Wegen der fortschreitenden Verdünnung der Ozonschicht wird aber der Bruchteil dieser Strahlung, der den Erdboden erreicht, ständig größer. UV-B, mit einer Wellenlänge zwischen 280 und 320 Nanometern, auch als „biologisch aktive“ UV-Strahlung bezeichnet, steht daher im Mittelpunkt der Umwelt-Forschung.

Ob die Schutzmechanismen von Tieren und Pflanzen, die sich im Laufe von etwa drei Milliarden Jahren an die zum Erdboden gelangende Reststrahlung angepaßt haben, auch in Zukunft noch wirken werden, scheint zweifelhaft. Gleichzeitig ist aber noch so wenig über die Bandbreite natürlicher UV-Toleranz bekannt, daß die meisten Wissenschaftler nur hinter vorgehaltener Hand darüber spekulieren, wieviel Prozent Ozonschwund verkraftet werden kann, bevor ganze Ökosysteme zusammenbrechen.

Schon die Messung der auf dem Erdboden ankommenden UV-B-Strahlung mache große Schwierigkeiten. Auf der Tagung „UV-B Monitoring Workshop“ die im März 1992 in Washington stattfand, mußten die versammelten Experten einräumen, daß befriedigende Meßwerte bislang fehlten. „Es gibt die nötigen Meßgeräte nicht, und die Auswirkung von Wolken ist bis heute in keinem Modell berücksichtigt“, formuliert Wellmann das Problem.

Auch exakte Labor-Experimente sind nicht möglich. Das natürliche UV-Licht der Sonne ist – trotz Speziallampen und Filter – noch immer nicht genau simulierbar: Die UV-Strahlung, die uns erreicht, ist das Ergebnis komplexer Wechselwirkungen zwischen Sonnenlicht und Atmosphäre mit ihren verschiedenen Schichten und läßt sich daher nicht exakt nachahmen.

Erschwert wird die Vorhersage auch dadurch, daß nicht alle Pflanzen auf vermehrte UV-Bestrahlung gleich reagieren: Wellmann hat bei seinen Experimenten „riesige Unterschiede in der Empfindlichkeit“ festgestellt.

Von etwa 200 Arten, die Wellmann, Tevini und andere untersucht haben, erwiesen sich etwa 130, darunter Erdbeeren, als UV-B-empfindlich: Sie blieben im Wachstum deutlich hinter unbestrahlten Artgenossen zurück.

Jede dritte Art aber kommt auch mit einer Reduktion der Ozonschicht um vierzig Prozent noch gut zurecht. „Wie hoch die Toleranz der Pflanzen entwickelt ist, sieht man allein schon daran, daß manche in Deutschland heimische Gewächse auch am Äquator gut gedeihen“, sagt Wellmann. Und tropische Gewächse müssen seit jeher mit einer UV-B-Strahlung fertig werden, die fünfmal so stark ist wie in gemäßigten Breiten.

Was aber passiert, wenn die Strahlung in unseren Breiten noch weiter zunimmt? Für Prof. Tevini stellt sich die Frage, ob die UV-Resistenz nicht schon jetzt am Umschlagen ist. Doch er hält die Auslese von UV-resistenten Sorten prinzipiell für möglich. Das ist allerdings aufwendig, kostet viel Geld – und das ist derzeit knapp. Tevini fordert daher ein mit Geldmitteln gut ausgerüstetes Schwerpunktprogramm, um die biologischen Konsequenzen vermehrter UV-B-Strahlung zu erforschen.

Möglicherweise wird man schon in wenigen Jahren gezwungen sein, südliche Sorten, die UV-toleranter sind als einheimische, auch im Norden zu pflanzen. Ein Problem ist, daß nicht nur die Arten, sondern auch die verschiedenen Sorten derselben Art auf UV-Strahlung verschieden reagieren. Außerdem sind die verschiedenen Entwicklungsstadien einer Pflanze mehr oder weniger empfindlich: Mal sind die Keimlinge besser geschützt, mal sind es die fruchttragenden Pflanzen.

Eine der wenigen detaillierten Studien hat Dr. Alan Teramura, Botaniker an der amerikanischen University of Maryland, an Sojabohnen vorgenommen. Von 23 Sorten erwiesen sich 7 als unempfindlich gegenüber erhöhter UV-Strahlung, 2 Sorten brachten sogar höhere Erträge. Mit niedrigerem Trockengewicht, reduziertem Wachstum und verringerter Blattfläche reagierten dagegen14 der 23 Sorten. Die Ernteverluste im Feld betrugen für diese UV-sensitiven Pflanzen bis zu einem Fünftel. Ausgerechnet die ertragreiche Sorte „Essex“, die derzeit von amerikanischen Farmern bevorzugt wird, erwies sich als besonders empfindlich. Die UV-toleranten Sojabohnen vom weniger ertragreichen Typ „Williams“ dagegen wurden in den letzten Jahren immer seltener angebaut.

Sorgen machen sich die Forscher aber weniger um die amerikanische oder europäische Landwirtschaft mit ihren gewaltigen Überschüssen. Für Tevini sind Hungerkatastrophen durch Ernteverluste in den Entwicklungsländern die größte Bedrohung. Vielleicht, so die Hoffnung einer Handvoll Optimisten, lassen sich wichtige Kulturpflanzen eines Tages aber auch mit Hilfe der Gentechnik derart manipulieren, daß die Hungerkatastrophe vermieden werden kann.

Das Interesse an den natürlichen Schutzmechanismen landlebender Pflanzen ist daher mehr als nur Grundlagenforschung. Etwa zwölf Millionen Mark hat das Bundesforschungsministerium seit 1978 bereitgestellt, um die Auswirkung von UV-B-Strahlung auf lebende Organismen zu ergründen – zu wenig, urteilt der Freiburger Biologe Wellmann. Ein geeignetes Schwerpunktprogramm, so schätzen die Experten, würde zehn bis zwanzig Millionen Mark im Jahr kosten.

Die bisherigen Ergebnisse bei Labor-, Treibhaus- und freiwachsenden Pflanzen: Landlebende Pflanzen wehren sich gegen vermehrte UV-Strahlung. Erst werden in der äußersten Zellschicht, der Epidermis, Schutzpigmente gebildet, die zur Gruppe der Flavonoide gehören. Von besonderer Bedeutung sind dabei die farblosen oder gelben Flavone, Pflanzenfarbstoffe, die ultraviolette Strahlung absorbieren und so die empfindlichen Zellbestandteile, einschließlich der Erbsubstanz in Zellkern und Chloroplasten schützen.

In der Natur beginnt die Farbstoffproduktion schon, ehe die Keimlinge den Boden durchstoßen. Wenige Lichtquanten, die in den Boden eindringen, reichen aus, die Flavonoid-Synthese zu starten. Ema dreißig Gene sind daran beteiligt. Auch die zugehörigen Eiweiße sind bekannt. Im Experiment läßt sich die Folge erhöhter UV-Strahlung gut beobachten. Keine halbe Stunde nach Beginn der Bestrahlung bezeugt die Anwesenheit von Boten-RNA die vermehrte Genaktivität. Wieder eine halbe Stunde später finden sich die ersten Eiweiße und nach insgesamt zwei Stunden läuft die Flavonoid-Synthese auf Hochtouren. Offensichtlich wird der gesamte Block von Flavonoid-bildenden Enzymen gleichzeitig angeworfen.

Für die Praxis bedeutet dies, daß die Genmanipulation für die Flavonoid-Synthese viel zu kompliziert und wenig erfolgversprechend ist. Ein einziges Kontrollgen, dessen Aktivität die Bildung von Schutzpigmenten reguliert, wäre den Pflanzenzüchtern lieber gewesen. Durch züchterische Auswahl oder Gentransfer hätte man UV-sensitive Pflanzen dann eher schützend manipulieren können.

Tevini arbeitet zurzeit daran, das Bindeglied zwischen einfallenden UV-Strahlen und vermehrter Flavonoid-Synthese aufzuspüren. Woher „wissen“ die Pflanzen, daß Gefahr droht? Prof. Tevini hat eine vorläufige Antwort: In Roggenkeimlingen isolierte er eine Substanz – Zimtsäure -, die in zwei verschiedenen Spielarten auftritt. Als trans-Zimtsäure hemmt das Molekül mit Hilfe eines komplizierten Kontrollmechanismus die Synthese der Flavonoide. Bestrahlt man die trans-Zimtsäure jedoch mit ultraviolettem Licht, so verwandelt sich das Molekül in cis-Zimtsäure.

Der Clou: die cis-Zimtsäure hebt die Blockade der Flavonoid-Synthese wieder auf, möglicherweise werden sogar einige Gene aktiviert, die an der Bildung des pflanzlichen Schutzschildes mitwirken.

Ob das Prinzip, das Tevini am Roggen untersucht hat, auch bei anderen Pflanzen gilt, ist jedoch keineswegs sicher. Und selbst wenn sich die beobachtete Wechselwirkung zwischen Zimtsäure und UV-Strahlung als ein in der Pflanzenwelt weitverbreitetes Prinzip erweisen sollte, ist damit noch nicht viel gewonnen. Zum einen ist derzeit nicht klar, wo der Schutzmechanismus an seine Grenzen stößt, zum anderen muß das, was für die Pflanze gut ist, für den Menschen noch lange nicht gut sein.

Denn Flavonoide und andere Substanzen, die als Reaktion auf „Umweltstreß“ gebildet werden, können die Inhaltsstoffe einer Pflanze drastisch verändern. So weisen amerikanische Untersuchungen darauf hin, daß die halluzinogenen Wirkstoffe der Cannabis-Pflanze zunehmen und der Proteingehalt bei Sojabohnen drastisch reduziert wird.

Während Basilikum mehr ätherische Öle produziere, was von Vorteil wäre, könnte der Genuß von Bohnen bei erhöhter UV-Strahlung unerwünschte Folgen haben. Denn Bohnen bilden nach UV-Bestrahlung Cumestrol, eine Substanz, die in der Wirkung dem Schwangerschaftshormon Östrogen vergleichbar ist. Die Konzentration von Cumestrol kann so hoch werden, daß der menschliche Hormonhaushalt durcheinandergebracht wird – die Bohne könnte unversehens zum Verhütungsmittel werden.

Die Problematik läßt sich auf einen Nenner bringen: Unsere Ernährungsgewohnheiten haben sich in Jahrtausenden auf die Inhaltsstoffe unserer Kulturpflanzen eingestellt. Wie unser Körper mit den „Sonnen-manipulierten“ Pflanzen umgehen wird, weiß niemand genau zu sagen.

Neben der Bildung von Flavonoiden verfügen die Pflanzen allerdings noch über einen zweiten Schutzmechanismus, der für den Menschen ungefährlich ist. Das Enzym Photolyase kann geschädigte Erbsubstanz reparieren, ohne die Zusammensetzung der Pflanzen zu verändern: Die Photolyase löst Verbindungen zwischen den DNA-Bausteinen, den Thymidin-Dimeren, die als Folge der UV-Strahlung entstehen und für den Tod der getroffenen Zelle verantwortlich sind.

Voraussetzung ist auch hier, daß das solare Trommelfeuer nicht allzu stark wird. Ab einer gewissen Schwelle ist auch die Photolyase nutzlos. Allerdings wären Pflanzen, die größere Mengen Photolyase produzieren, vor vermehrter UV-Strahlung besser geschützt. Bevor die Pflanzengenetiker das verantwortliche Gen verändern können, muß es allerdings erst einmal gefunden werden. Anders als bei den Genen für die Flavonoid-Synthese tappt man hier derzeit noch im Dunkeln.

Die Chancen, daß Züchter und Molekularbiologen noch rechtzeitig Mittel und Wege finden, um die Folgen des Ozonschwundes für die Pflanzenwelt in Grenzen zu halten, sind daher äußerst gering.

(erschienen in „Bild der Wissenschaft“, Februar 1993)

Literatur:

Beschleunigter Abschied von den Ozonkillern

Vertreter von 91 Nationen haben in der vergangenen Woche den Ausstieg aus der Anwendung und Produktion der ozonzerstörenden Fluorchlorkohlenwasserstoffe (FCKW) beschlossen – und zwar bereits zum Ende des Jahres 1995 und damit fünf Jahre früher als bisher vorgesehen.

Was sich zunächst wie ein großer Erfolg anhört, ist beim näheren Hinsehen eine Vereinbarung mit zahlreichen Lücken. Ursprünglich hatte Bundesumweltminister Klaus Töpfer bis 1995 ein weltweites Verbot der FCKW angestrebt – in Kopenhagen wurde den Entwicklungsländern jedoch eine Übergangsfrist bis zum Jahr 2010 eingeräumt. Ursprünglich sollten in den strikten Ausstiegsplan auch die weniger gefährlichen, sogenannten teilhalogenierten FCKW (H-FCKW) einbezogen werden, stattdessen sind H-FCKW noch bis zum Jahr 2030 erlaubt; bis 2004 muß der Einsatz von H-FCKW um ein Drittel gesenkt werden. Nicht zuletzt fiel auch das Schädlingsbekämpfungsmittel Methylbromid durch das Ausstiegsraster. Die ebenfalls ozonzerstörende Substanz erhielt in Kopenhagen kein Zeitlimit verpaßt. Die Produktionsmengen – derzeit jährlich rund 20 000 t – sollen vielmehr ab 1995 auf das Niveau von 1991 eingefroren werden.

Entsprechend enttäuschend fielen die Kommentare aus. „Unzureichend und unbefriedigend“ beurteilte Bundesumweltminister Töpfer nach seiner Rückkehr die Ergebnisse von Kopenhagen. „Die H-FCKW sind kein wirklicher Ersatz, ihr Verbot muß beschleunigt werden“, bemängelte er, vor allem weil H-FCKW als Treibhausgase zur Erwärmung der Erdatmosphäre beitragen. Vertreter der Umweltschutzorganisation Greenpeace sprachen von einem „eleganten Scheitern“ der Konferenz, als „halbherzig und unverantwortlich“ kritisierte die SPD in einer Stellungnahme die Kopenhagener Beschlüsse.

Wie schnell ein Ende der FCKW-Produktion realisierbar ist, hängt nicht zuletzt von den zur Verfügung stehenden finanziellen Mitteln ab. Bis zum Jahr 2010 müssen die Industrienationen voraussichtlich mehrere Milliarden Dollar bereitstellen, um den Übergang zu ozonfreundlichen Technologien zu fördern. Aus einem „Interim Multilateralen Fonds“, der im Juni 1990 in London eröffnet worden war, wurden den Entwicklungsländern für die Jahre 1991 bis 1993 insgesamt 240 Mio. Dollar zugesagt. Weitere 350 bis 500 Mio. Dollar sollen 1994 bis 1996 folgen. Harte Kritik übte allerdings der Generalsekretär der UNO-Umweltorganisation UNEP, Mostafa Tolba, an der schlechten Zahlungsmoral: Eine ganze Reihe von Industriestaaten seien ihren Verpflichtungen für 1991 noch immer nicht nachgekommen.

Der Weltverbrauch von FCKW, der 1987 noch über 1 Mio. t lag, hat seit der Verabschiedung des Montrealer Protokolls zum Schutz der Ozonschicht um 40 % abgenommen. In Deutschland, forciert durch die FCKW-Halon-Verbotsverordnung, nach Angaben des Bundesumweltministeriums gar um 60 %. Noch im Laufe des kommenden Jahres will die Industrie in Deutschland „nahezu vollständig“ aus Verbrauch und Produktion von FCKW aussteigen, heißt es in einer Vereinbarung zwischen einheimischen Herstellern, Anwendern und dem Bundesumweltminister.

Mit den Beschlüssen von Kopenhagen ist das FCKW-Problem aber noch lange nicht aus der Welt. „Das Maximum der Ozonschichtzerstörung wird erst um das Jahr 2005 erreicht werden“, prognostiziert Prof. Paul Crutzen vom Mainzer Max-Planck-Institut für Chemie. Mittlerweile schwindet nicht nur über der Antarktis, sondern auch über Europa und Nordamerika der vor gesundheitsschädlichen UV-Strahlen schützende Ozonschild. Für die Winter- und Frühlingsmonate wurde laut Crutzen in den 80er Jahren ein Rückgang von etwa 8% registriert. „Wenn dieser Trend sich fortsetzt, müssen wir mit einer weiteren Abnahme um 10 % bis 15 % rechnen.“

Auch der Atmosphärenchemiker ist mit den Ergebnissen aus Kopenhagen nicht so recht zufrieden. „Ich ärgere mich, daß alles so lange dauert.“ Dafür sind nach Ansicht Crutzens nicht nur die Politiker verantwortlich. „Auch die Industrie hätte schneller reagieren können“, kritisiert er, „und beispielsweise die Forschung in nennenswertem Umfang unterstützen müssen.“

(mein erster Artikel für die VDI-Nachrichten, erschienen am 4. Dezember 1992)

Wie Japan seine Umwelt schützt

Seveso, Bhopal, Tschernobyl – in Japan heißt das Synonym für Umweltkatastrophe Minamata. In den frühen fünfziger Jahren starben in der gleichnamigen Bucht vor dem Distrikt Kumamoto erst die Fische, dann die Katzen. Die Warnzeichen blieben unbeachtet; erst Jahre darauf erkrankten die ersten Menschen. „Hirnschäden unbekannter Herkunft“ lautete die Diagnose; schockierende Bilder gingen um die Welt.

Erst 1968, also zwölf Jahre nach dem Auftreten der ersten Fälle, gab die Regierung offiziell zu Protokoll, daß es sich bei der Minamata-Krankheit um eine schwerwiegende Quecksilbervergiftung handelt, hervorgerufen durch die Abwässer einer nahegelegenen Chemiefabrik.

Die Tatsache, daß Japan mit seinen 120 Millionen Einwohnern heute auf dem Gebiet des Umweltschutzes beträchtliche Erfolge vorzuweisen hat, mag für die 2900 anerkannten langzeitgeschädigten Anwohner von Minamata nur ein kleiner Trost sein. Dennoch steht fest: Im Land der aufgehenden Sonne wird der Himmel nur noch in seltenen Ausnahmen von Schmutzwolken verschleiert, die großen Umweltskandale sind Geschichte. Wie kein anderes Land hat Japan es verstanden, seit den siebziger Jahren das Wirtschaftswachstum vom Energieverbrauch zu entkoppeln.

Der Schadstoffausstoß für die weitaus meisten Umweltgifte konnte drastisch reduziert werden, gleichzeitig erklommen die einheimischen Multis Spitzenpositionen im internationalen Wettbewerb. Im Großraum Tokyo leben fast 30 Millionen Einwohner auf engstem Raum. Nirgendwo sonst verursachen so viele Menschen so wenige Umweltschäden. Meßbar sind diese Erfolge nicht zuletzt an der Lebenserwartung: Für Männer liegt sie bei  76, für Frauen gar bei 82 Jahren, in Deutschland sind es jeweils vier Jahre weniger.

Die Zahlen sprechen für sich: Heute verbraucht der Durchschnittsjapaner nicht einmal die Hälfte der Energie, die ein Amerikaner benötigt; sein Durchschnittseinkommen ist aber deutlich höher. Unter allen Industrienationen erwirtschaftet Japan am meisten Güter aus jedem verbrauchten Liter Öl. Kohle- und Ölkraftwerke, von denen das rohstoffarme Land nach wie vor den Großteil seiner Energie bezieht, waren ebenso wie die Chemiekonzerne gezwungen worden, strenge Auflagen einzuhalten.

Der Antrieb für die japanische Industrie kommt dabei weniger durch die Angst vor Bußgeldern zustande, obwohl auch dies in seltenen Fällen vorkommt. Ein Sprecher des Umweltministeriums erklärte auf eine entsprechende Nachfrage lächelnd: „Sie verlieren ihr Gesicht, wenn sie vor Gericht gestellt werden – und das genügt.“

Doch auch hier ist nicht alles Gold, was glänzt. Während in Deutschland und den Vereinigten Staaten jeweils über 500 Substanzen, die als gefährlich eingestuft werden, strengen gesetzlichen Bestimmungen unterliegen, sind es in Japan gerade zehn. Was das bedeutet, erklärte Dr. Masatoshi Morita, einer der führenden Wissenschaftler am Nationalen Zentrum für Umweltstudien: „Wenn man in Japan erst einmal die Voraussetzungen geschaffen hat, um die Umwelt nach Dioxinen abzusuchen, sind wir um ein Problem reicher.“

(erschienen in „DIE WELT“ am 3. Juli 1992. Die mehrtägige Informationsreise erfolgte auf Einladung und auf Kosten der japanischen Regierung.)

Ein Atlas kaputter Wälder

Der erste gesamtdeutsche Waldschadensbericht liegt nun auch als anschauliche Karte vor. Mitarbeiter des Berliner Umweltbundesamtes haben in Bilder gefaßt, was zuvor nur in langen Zahlenreihen festgehalten war: Die Abbildung zeigt den Anteil geschädigter Bäume am Gesamtbestand in Prozent. Vor allem in den neuen Ländern, aber auch im Bayerischen Wald ist die Situation am schlimmsten. Dort sind teilweise sieben von zehn Bäumen geschädigt.

Im statistischen Durchschnitt werden immerhin 36 Prozent aller deutschen Bäume als „gesund“ eingestuft, 39 Prozent des Bestandes ist „schwach geschädigt“ (Schadstufe 1), jeder vierte Baum weist „deutliche Schäden“ (Schadstufe 2 bis 4) auf.

Damit belegt die Bundesrepublik im europäischen Vergleich einen der letzten Plätze. Besonders gut geht es dem Wald in Osterreich, wo nur jeder 25ste Baum deutliche Schäden aufweist. Die Schweiz liegt gleichauf mit den alten Ländern der Bundesrepublik (jeder siebte Baum mit deutlichen Schäden); traurige Schlußlichter der Erhebung sind Polen, Großbritannien, die Tschechoslowakei und Weißrußland.

Bewertet wurde die Vergilbung von Nadeln und Blättern in Abhängigkeit von der Höhenlage sowie die Auslichtung der Baumkronen. Unter Federführung des Bundesministeriums für Ernährung, Landwirtschaft und Forsten wurden alte und neue Bundesländer mit einem engen Netz von vier Kilometern Maschenweite überdeckt. In jedem Quadrat nahmen Experten mindestens eine Stichprobe. Nie zuvor wurde der deutsche Wald, der 30 Prozent des bundesdeutschen Territoriums bedeckt, so gründlich überprüft.

Während sich der Zustand von Fichte und Kiefer seit 1986 leicht verbessert hat, nahmen die Schäden vor allem bei Buche und Eiche deutlich zu. Die jüngsten Forschungsergebnisse, so das Umweltbundesamt, bestätigen die Beteiligung von Luftschadstoffen als wesentliche Ursache der Schäden. Deren Reduzierung sei damit „entscheidende Voraussetzung zur Verbesserung des Zustandes der Wälder“.

(erschienen in „Die WELT“ am 3. Juli 1992)

Was wurde daraus? Obwohl die Belastung durch Luftschadstoffe deutlich zurückgegangen ist, und insbesondere der „saure Regen“ dank reduzierter Schwefelemmissionen abgenommen hat, geht es dem deutschen Wald noch immer schlecht. Einem Bericht des Landwirtschaftsministeriums (Download als pdf) entnehme ich, dass 2019 das bisher schlimmste Jahr war, wobei Experten die Dürresommer infolge des Klimawandels verantwortlich machen.

Umweltpolitik: Viele Ideen, wenig Action

Eines der Hauptthemen des Umweltgipfels in Rio ist die Bedrohung der Menschheit durch die von Wissenschaftlern vorhergesagte globale Erwärmung. Weniger häufig wird darüber gesprochen, daß die gleichen Experten auch sehr konkrete Vorschläge unterbreitet haben, wie das Problem am besten anzugehen sei. Für die Bundesrepublik, die in den Augen vieler Entwicklungsländer eine Vorreiter-Rolle hat, gibt es sogar ein „nationales CO2-Minderungsprogramm zum Klimaschutz“.

Das Programm, beschlossen vom Kabinett am 7. November 1990, umfaßt elf Punkte und soll sicherstellen, daß Deutschland seine öffentliche Verpflichtung erfüllt, den Kohlendioxid-Ausstoß bis zum Jahr 2005 um mindestens ein Viertel zu reduzieren. Umweltminister Klaus Töpfer damals: „Mit dem heutigen Beschluß hat die Bundesregierung bewiesen, wie ernst sie die globale Klimagefährdung nimmt.“

Aber noch immer fehlen die unter Punkt 1 der Vorlage vorgeschlagenen „ökonomischen Instrumente“ (sprich Klimasteuern). Die geplante Novelle des Energiewirtschaftgesetzes steht ebenso aus wie die beschlossenen Zusätze zu den Verordnungen über Klein- und Großfeuerungsanlagen, über Wärmeschutz und Heizungsanlagen.

Zwar hat die deutsche Automobilindustrie sich freiwillig bereiterklärt, den Energieverbrauch ihrer Fahrzeuge deutlich zu senken. Einstweilen haben die Konkurrenten aus Japan, Frankreich und Italien aber hier die Nase vorn. Die – ebenfalls 1990 beschlossene – Einführung einer schadstoffbezogenen Fahrzeugsteuer läßt noch immer auf sich warten.

Ohnehin hat das CO2-Minderungsprogramm nur einen kleinen Bruchteil dessen berücksichtigt, was die Experten an Problemlösungen anzubieten haben: Die Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ hatte bereits vor zwei Jahren auf 9173 Seiten dargestellt, was machbar wäre: Sie wertete 150 Studien aus, die alle klimarelevanten Fragen der Energienutzung untersuchen. Seitdem steht das zehnbändige Werk, das nach den Worten seiner Herausgeber die „Klimapolitik der nächsten Jahrzehnte“ bestimmen sollte, in den Bibliotheken.

Eine neue Enquete-Kommission („Schutz der Erdatmosphäre“) hat die Arbeit ihrer Vorgänger fortgesetzt. In dem gerade veröffentlichten Bericht wird dem Bundestag und der Bundesregierung empfohlen, in Zusammenarbeit mit anderen Industrieländern die politische Initiative zu ergreifen, um ein solarthermisches Kraftwerk im Sonnengürtel der Erde zu bauen. Seit mehreren Jahren werden derartige Kraftwerke mit einer Leistung von 350 Megawatt in Kalifornien betrieben; zuverlässig und bereit für die weltweite Markteinführung. Obwohl in Spitzenverbrauchszeiten zusätzlich mit Erdgas gefeuert werden muß, lohnt sich die Sache dreifach: Die Brennstoffkosten sinken auf ein Viertel, die Luftverschmutzung geht gegen Null und natürlich sinkt auch der CO2-Ausstoß drastisch.

Um den Entwicklungsländern die hohen Anschaffungskosten zu versüßen, schlägt die Enquete-Kommission einen „verlorenen Zuschuss“ in Höhe von einem Drittel der Investitionskosten vor, das sind rund 115 Millionen Mark. Konkrete Planungen gibt es für Indien und Brasilien.

Ein zweiter Vorschlag der Kommission wäre billiger zu verwirklichen: Durch einfache Isolationsmaßnahmen ließen sich die Verluste beim Transport von Erdgas drastisch reduzieren. Aus den 220.000 Kilometern Fernwärmeleitungen der ehemaligen Sowjetunion gehen wegen Lecks und technisch überholter Kompressorstationen mindestens acht Prozent des transportierten Erdgases verloren – in Westeuropa und Nordamerika sind es nur 0,5 Prozent.

Vierzig Milliarden Kubikmeter, die Hälfte des deutschen Jahresverbrauches verschwinden so in der Luft. Dabei sind weitere 250.000 Kilometer Leitungen, die benötigt werden, um den Brennstoff zum Verbraucher zu bringen, noch gar nicht mitgerechnet. Aus den Lecks strömt das Treibhausgas Methan, welches den größten Bestandteil des Erdgases ausmacht, direkt in die Atmosphäre. An den Kompressorstationen wird es zu Kohlendioxid verbrannt.

Mit deutscher Hilfe könnten diese Löcher gestopft werden. Dazu die Enquete-Kommission: „Es kann davon ausgegangen werden, daß die zusätzlichen Einnahmen bei einer Sanierung die Ausgaben übersteigen werden“.

(erschienen in „DIE WELT“ am 12. Juni 1992)

Prognosen zur Erderwärmung erneuert

Rechtzeitig zur UNCED-Konferenz vermelden wissenschaftliche Fachzeitschriften eine wahre Flut an neuen Meßwerten, Theorien und Prognosen zum Ausmaß der heiß diskutierten globalen Erwärmung. Auch die Enquetekommission „Schutz der Erdatmosphäre“ des Deutschen Bundestages legte dieser Tage ihre alarmierenden Befunde in Buchform vor.

Die Aussagen der Experten sind eindeutig: „Als Folge einer Politik des Abwartens wird sich die Temperatur der Erdatmosphäre bis zum Jahr 2100 um rund zwei bis fünf Grad erhöhen“, so die Enquetekommission. 370 Klimaforscher, die vom Umweltprogramm der Vereinten Nationen (UNEP) und von der Weltorganisation der Meteorologen (MO) beauftragt wurden, hatten exakt die gleichen Zahlen genannt – im Juni 1990.

In der Zwischenzeit haben sich diese Wissenschaftler, die sich zum Intergovernmental Panel on Climate Change (IPCC) zusammengefunden haben, nicht auf ihren Lorbeeren ausgeruht. Viele Klimafaktoren, die bei den ersten Hochrechnungen schlicht unter den Tisch fielen, wurden mittlerweile in die Computersimulationen mit aufgenommen.

Zwei amerikanische Klimamodelle, ein britisches und ein deutsches, das am Hamburger Max-Planck-Institut für Meteorologie erarbeitet wurde, kommen unter leicht unterschiedlichen Ausgangsbedingungen zu weitgehend ähnlichen Ergebnissen. In ihren „gekoppelten Ozean-Atmosphäre-Modellen“ haben Physiker und Mathematiker, Meteorologen und Programmierer, Geologen und Klimaforscher gemeinsam versucht, die Auswirkungen der vom Menschen freigesetzten Treibhausgase über einen Zeitraum von mehr als einem Jahrhundert hinweg zu simulieren.

Dabei wurden die Rußwolken des Golfkrieges ebenso in klimarelevante Zahlen gefaßt wie die Auflösung der Sowjetunion und die neuesten Prognosen zum Bevölkerungswachstum. Die Abholzung der Wälder wurde neu berechnet, außerdem die Auswirkungen des Montrealer Protokolls zur Reduktion von Fluorchlorkohlenwasserstoffen und der Rückgang der Schwefeldioxidemissionen in modernen Kohlekraftwerken (was die Erde paradoxerweise zusätzlich anheizt).

Natürlich gibt es auch unter den Experten strittige Punkte. Die Rolle der Wolken im Klimageschehen beispielsweise ist kaum verstanden. Auch Wechselwirkungen der Treibhausgase mit Tier- und Pflanzenwelt wurden in den Computermodellen bisher nicht berücksichtigt.

Fast 500 Wissenschaftler aus über 70 Ländern und 18 Organisationen waren an der erweiterten Studie des IPCC beteiligt, die jetzt in Rio auf dem Tisch liegt. Eindeutige Bilanz der Experten: Es gibt keinen Grund, die Ergebnisse aus dem Jahr 1990 in Frage zu stellen. Für das Jahr 2100 rechnen die IPCC-Forscher mit einer Erwärmung um 1,5 bis maximal 3,5 Grad gegenüber der heutigen Durchschnittstemperatur. Der untere Wert bezieht sich allerdings auf das optimistischste der sechs Szenarien, welche in die Computer eingegeben wurden.

Dazu müßte sich die Zahl der Erdbewohner bis zum Jahr 2100 bei 6,4 Milliarden Menschen stabilisieren, das wirtschaftliche Wachstum auf bescheidene zwei Prozent jährlich zurückgehen und der Anteil des relativ umweltfreundlichen Erdgases an der Energiegewinnung drastisch ansteigen. Damit nicht genug: Die Kosten für die Nutzung von Kernenergie und Solarkraft müßten deutlich sinken, fluorierte Chlorkohlenwasserstoffe (FCKW) wären bis 1997 vollständig zu verbieten, die Vernichtung der Wälder müßte sofort gestoppt werden. Zusätzlich geht dieses Szenario davon aus, daß fortschrittliche Technologie und verbindliche Gesetze den Ausstoß von Luftschadstoffen weltweit ebenso reduzieren wie die Verluste beim Energietransport.

Würden all diese Voraussetzungen erfüllt, so bliebe es also bei einer Temperaturerhöhung um 1,5 Grad, gleichbedeutend mit dem Abschmelzen sämtlicher Gletscher in den Alpen und einer Verlagerung der landwirtschaftlichen Anbauzonen. Diese Entwicklung ist laut Enquetekommission „sowohl hinsichtlich ihres Ausmaßes als auch ihrer Geschwindigkeit ohne Beispiel in der Vergangenheit“.

Über Bevölkerungswachstum wird allerdings in Rio überhaupt nicht gesprochen, so daß sich vermutlich die jüngste Schätzung der Weltbank von 11,3 Milliarden Erdenbürgern bis zum Ende des 21. Jahrhunderts bewahrheiten wird. Dann ist bei ungebremstem Wirtschaftswachstum von jährlich drei Prozent und anhaltend hohem Verbrauch an fossilen Energien mit jenen 3,5 Grad Temperaturdifferenz zu rechnen, die uns beispielsweise von der letzten Eiszeit trennen.

Vier amerikanische Behörden stimmen in ihrer Beurteilung der aktuellen Lage mit den IPCC-Forschern überein, wonach die ständige Zunahme an Treibhausgasen „bedeutende Änderungen des Klimas“ mit sich bringen wird. Nach einem Bericht der Zeitschrift „Science“ (Band 256, S. 1138) wurde ein entsprechendes Memorandum der Presse zugespielt. Darin heißt es: „Unter den Wissenschaftlern, einschließlich der meisten US-Forscher, herrscht ein breiter Konsens.“ Eine Verdoppelung des Kohlendioxidgehalts in der Atmosphäre würde demnach in knapp 150 Jahren zu einer Aufheizung der Erde zwischen 1,5 und 4,5 Grad führen.

Die amerikanische Akademie der Wissenschaft (NSF) hatte dergleichen schon vor 15 Jahren vorhergesagt, die theoretischen Grundlagen für diese Berechnungen wurden bereits im 19. Jahrhundert geschaffen. Trotz dieses Memorandums seiner eigenen Beamten hatte US-Präsident George Bush noch wenige Wochen vor dem Umweltgipfel behauptet, die Prognosen der Klimaforscher seien zu vage, um seine Regierung zum Handeln zu bewegen.

Quellen:

(erschienen in „DIE WELT“ 12. Juni 1992)

Umwelt-Gipfel: Japan will nicht Zahlmeister sein

Hochrangige japanische Regierungsvertreter haben signalisiert, daß die zweitgrößte Wirtschaftsmacht der Welt nicht bereit ist, eine zweistellige Milliardensumme bereitzustellen, um einen Erfolg der UN-Konferenz für Umwelt und Entwicklung (UNCED) zu sichern.

Japans Chefdelegierter für die am 3. Juni in Rio de Janeiro beginnende Konferenz, Nobutachi Akao wies entsprechende Spekulationen in den Medien zurück und sagte vor Journalisten in Tokio: “Wir werden uns nicht verpflichten, acht Milliarden Dollar bereitzustellen.“

Allerdings sind derzeit Bemühungen im Gange, einen Umweltfond ins Leben zu rufen, der von Regierung und Privatwirtschaft gemeinsam finanziert wird und ein Volumen von jährlich 300 Milliarden Yen (ca. 2,3 Milliarden Mark) aufweisen soll.

Der „Internationale Friedens-Kooperationsfond“ sollte nach den Vorstellungen von Regierung und Liberaldemokratischer Partei neben Umweltbelangen auch der Unterstützung von Flüchtlingen zugutekommen und aus einer – noch zu beschließenden – Umweltsteuer sowie aus einer ,,internationalen Beitragssteuer“ finanziert werden.

Sollte der Plan, der unter anderem von dem einflußreichen ehemaligen Premierminister Takeshita Noboru unterstützt wird, in die Tat umgesetzt werden, so würde sich die umweltrelevante Finanzhilfe des Landes praktisch verdoppeln. Die bisherige Praxis Japans bei der Vergabe von Geldern zur Entwicklungshilfe wurde in den USA und in der EG bisher jedoch oft als versteckte Unterstützung für die einheimische Wirtschaft kritisiert.

Nach Angaben von Seiji Kojima, Direktor des Wirtschaftlichen Kooperationsbüros des Außenministeriums sind derzeit weniger als 30 Prozent der Gelder an Aufträge für japanische Firmen gebunden. „Dieser Anteil wurde in den vergangenen Jahren drastisch reduziert“, betonte Kojima.

Dem widerspricht Yoichi Kuroda, Koordinator des japanischen „Tropical Forest Action Network“, einer privaten Umweltschutzorganistion, die Japans Rolle bei der Zerstörung des tropischen Regenwaldes kritisiert. „Schaut man auf die Verträge“, so Kuroda, „sind 90 Prozent aller Gelder an Aufträge für japanische Firmen gebunden.“

UNCED-Botschafter Akao ist sich der schwierigen Lage seines Landes bewußt. Einerseits fordern die USA und Europa sowie UNCED-Generalsekretär Maurice Strong einen größeren Beitrag der Wirtschafts-Großmacht zur Lösung der globalen Probleme, andererseits stößt jede Initiative des Landes auf große Skepsis. ,,Strong hat uns gedrängt, bei der Rio-Konferenz eine Führungsrolle zu übernehmen, er hat sogar Zahlen genannt.“

Im Bereich der Umwelttechnologien – Energieeinsparung, sparsamer Umgang mit Rohstoffen, Bekämpfung von Schadstoffen – sei Japan bereits viel weiter als die USA oder auch Europa, so Akao. „Wenn es den Entwicklungslängdern wirklich darum geht, diese Techniken zu nutzen, wollen wir ihnen gerne dabei helfen. Wir sind zur Kooperation auf kommerzieller Basis bereit, bis zu einem gewissen Grad aber auch in Form von Entwicklungshilfe und Technologietransfer.“

Die Forderung mancher Länder der Dritten Welt, sämtliche Technologie unentgeltlich zur Verfügung zu stellen, weist Akao jedoch zurück: „Technologien, die in Besitz der Regierung sind, transferieren wir gerne zum Null-Tarif, aber die meisten Entwicklungen wurden von privaten Firmen getätigt, oft nach großen Investitionen. Wir können diesen Firmen nicht befehlen, ihre Geräte umsonst abzugeben.“

Zwar wären die Entwicklungsländer durchaus im Recht, wenn sie Geld fordern, um die von den Industrienationen verursachte Verschmutzung beispielsweise der Ozeane oder der Atmosphäre zu reduzieren, aber „wenn diese Länder nicht bereit sind, die selbst geschaffenen Probleme anzugehen, werden wir das auch nicht bezahlen.“

Zwischenzeitlich hat sich die japanische Regierung offiziell dazu verpflichtet, die Emissionen des Treibhausgases Kohlendioxid einzufrieren. Auch im Jahr 2000 soll demnach die Freisetzung von „japanischem“ CO2, nicht mehr als 318 Millionen Tonnen betragen, ein Wert, der für das Jahr 1990 ermittelt wurde. Die Pro-Kopf-Emission für das 120-MillionenVolk beträgt derzeit rund 2,6 Tonnen, der niedrigste Wert aller Industrienationen.

Gleichzeitig ist die Energieeffizienz im Land der aufgehenden Sonne die höchste. Japan produziert also pro freigesetzter Tonne Kohlendioxid weitaus mehr Wirtschaftsgüter als beispielsweise die Europäische Gemeinschaft oder die Vereinigten Staaten.

Dennoch hat Ex-Premierminister Takeshita vor überzogenen Erwartungen an die Adresse seines Landes gewarnt Takeshita, der durchaus für ein größeres Engagement seines Landes eintritt, sieht Japan auf dem Gipfel von Rio vor allem in einer Vermittlerrolle zwischen den industrialisierten Ländern und der Dritten Welt. Japan, so meint der einflußreiche Politiker, könnte den armen Nationen durchaus als Beispiel dienen.

„Nach dem Zweiten Weltkrieg wurde unser Land vorwiegend Dank amerikanischer Hilfe aus Hunger und Elend gerettet. Große Darlehen der Weltbank und anderer internationaler Institutionen haben Japan ein enormes Wachstum ermöglicht, das allerdings auch zu gewaltigen Umweltproblemen geführt hat.“ Gesetze zum Schutz der Umwelt hätten dann seit 1970 dazu geführt, daß Japan sich heute zu Recht als „entwickeltes“ Land bezeichnen könne.

„Zuerst sind wir der Armut entkommen, dann der Umweltverschmutzung“, sagte Takeshita. Daher sei es auch wahrscheinlich, daß die Entwicklungsländer eine Führungsrolle Japans auf diesem Gebiet akzeptieren würden.

(erschienen in „DIE WELT“ am 29. Mai 1992. Die mehrtägige Informationsreise erfolgte auf Einladung und auf Kosten der japanischen Regierung.)

Die „Erklärung von Rio“ – Ein Papiertiger?

Präzise formuliert und völkerrechtlich verbindlich sollten die Prinzipien für den Umgang mit der Umwelt in einer „Erdcharta“ festgelegt werden. Die hochfliegenden Erwartungen an den Gipfel von Rio, die noch vor kurzem zu hören waren, haben sich mittlerweile verflüchtigt. Nach monatelangem zähen Ringen zwischen Nord und Süd wurde aus der Charta eine ebenso vage wie unverbindliche „Erklärung von Rio“.

Die Hoffnungen auf ein visionäres Dokument, das ähnliches Gewicht haben könnte wie die Allgemeine Erklärung der Menschenrechte, sind damit zerschlagen. Über die Frage, ob die größte Konferenz aller Zeiten damit schon vor ihrem eigentlichen Beginn am 3. Juni zum „Ökoflop“ wird, scheiden sich indes die Geister.

UNCED-Generalsekretär Maurice Strong, auf dessen Schultern die Vorbereitung und Organisation des Rio-Gipfels lastet, faßte seine Erwartungen folgendermaßen zusammen: „Die Konferenz muß das Verhältnis zwischen Arm und Reich, zwischen Nord und Süd, auf eine völlig neue Grundlage stellen. Dazu gehört auch ein gemeinschaftlicher Angriff gegen die Armut als oberste Priorität für das 21. Jahrhundert. Das ist das mindeste, was wir den kommenden Generationen schulden, von denen wir einen empfindlichen Planeten namens Erde geborgt haben.“

Auf kurzfristige Lösungen baut also selbst Strong nicht, der von Berufs wegen zum Optimismus verurteilt ist. Wozu dann diese Konferenz, für die das UNCED-Sekretariat 50 Millionen Mark, die brasilianische Regierung weitere 150 Millionen investiert; wozu dann eine Konferenz, deren Gesamtkosten aller Voraussicht nach die Milliardengrenze überschreiten werden?

Genau 20 Jahre nach der ersten UN-Konferenz über die menschliche Umwelt in Stockholm ist der Rio-Gipfel die erste globale Versammlung von Staatsoberhäuptern zum Thema Umwelt und Entwicklung. Neben den Regierungschefs fast aller 166 UN-Mitgliedstaaten werden etliche 1000 Vertreter regierungsunabhängiger Organisationen (NGOs) erwartet. Vorwiegend handelt es sich dabei um Umweltschutzverbände. Das Spektrum reicht jedoch von Frauenbewegungen bis zu den Indianern des tropischen Regenwaldes. Auch hochkarätige Industrielle, Banker und Manager haben ihre Teilnahme zugesagt.

Begleitet werden die rund 30.000 Teilnehmer von 5000 Medienvertretern. Während der zwölftägigen Konferenz kann also mit einer Nachrichtenflut gerechnet werden, wie sie die Welt zum Thema Umwelt und Entwicklung noch nicht erlebt hat. Alleine die ARD wird den Gipfel am Zuckerhut mit 40 Fernsehsendungen dokumentieren.

Am 15. Juni werden die Probleme des Planeten nicht gelöst sein; so viel steht jetzt schon fest. Fest steht aber auch, daß nach dem Umweltgipfel niemand mehr wird behaupten können, er habe vom Ausmaß der Bedrohung nichts gewußt.

(erschienen in „DIE WELT“ am 25. Mai 1992)