Zum Hauptinhalt springen

Rezepte gegen das Waldsterben

Der Wald kommt unter die Räder. So lautete bisher die auf den Punkt gebrachte Befürchtung von Naturschützern, Umweltforschern und Forstbesitzern. Immer deutlicher wurde in den letzten Jahren, daß die beachtlichen Erfolge bei der Luftreinhaltung zunichte gemacht werden durch die scheinbar unaufhaltsame Zunahme der Verkehrs, durch unser aller Drang nach der Freiheit auf den eigenen vier Rädern.

Gewachsen ist aber auch die Einsicht, daß die früher als „natürlich“ eingestuften Abfälle einer hochtechnisierten Landwirtschaft dem deutschen Wald heute nicht weniger schaden als die rauchenden Schornsteine der Nachkriegsjahre.

In zehn Jahren Waldschadensforschung  wurden gut 700 Projekte von Bund, Ländern und der Deutschen Forschungsgemeinschaft finanziert, auf etwa 360 Millionen Mark beläuft sich inzwischen die Rechnung. Dazu kommen 420 Millionen Mark aus Steuergeldern für „flankierende forstliche Maßnahmen“, die es den Waldbesitzern ermöglichen sollten, die Widerstandsfähigkeit der Waldökosysteme zu erhalten und zu verbessern. Eine schmerzfreie und billige Lösung des Problems ist dennoch nicht in Sicht.

„Die Forstwirtschaft hat relativ wenige Möglichkeiten, zu reagieren. Die Wälder sind den Emissionen schutzlos preisgegeben“, sagt Professor Karl Kreutzer vom Lehrstuhl für Bodenkunde der Forstwirtschaftlichen Fakultät der Universität München. Auch die Kalkung, mit der die Versauerung der Böden bekämpft werden soll, ist kein Allheilmittel. Auf seinen Versuchsflächen im Höglwald zwischen München und Augsburg wies Kreutzer nach, daß vermehrt Nitrat gebildet wird. Die Ionen werden mit dem Regen ausgeschwemmt und stellen eine langfristige Bedrohung für das Trinkwasser dar.

Zu den trüben Zukunftsaussichten kommt die Tatsache hinzu, daß die bisherigen Maßnahmen zur Luftreinhaltung am Gesundheitszustandes des deutschen Waldes wenig zu ändern vermochten. Während sich Nadelbaumarten seit Jahren langsam erholen, geht es mit den wichtigsten Laubbäumen weiter bergab. Dabei wurden in den letzten 15 Jahren eine ganze Reihe von Gesetzen und Verordnungen erlassen, die oftmals mit hohen Erwartungen verknüpft waren:

Noch zu Beginn der achtziger Jahre wurden in der alten Bundesrepublik weit über drei Millionen Tonnen Schwefeldioxid jährlich in die Luft geblasen, von denen vier Fünftel auf das Konto von Kraftwerken und Industrie gingen. Mit der Großfeuerungsanlagen-Verordnung von 1983 ging die Ära der rauchenden Schornsteine dann zu Ende. Vor allem der Einführung von Rauchgas-Entschwefelungsanlagen ist es zu verdanken, daß die SO2-Emissionen der alten Bundesländer mittlerweile um siebzig Prozent zurückgegangen sind. Durch Betriebsstilllegungen und die Umrüstung bestehender Anlagen klärt sich der Himmel über Ostdeutschland deutlich schneller, doch liegen noch keine neuen Zahlen vor.

Ob die bisherigen Anstrengungen dem Wald geholfen haben, ist schwer zu beurteilen. Wie Professor Wolfram Elling an der Fachhochschule Weihenstehphan in Freising zeigen konnte, scheint es bei Tannen und Fichten schon in der ersten Hälfte der achtziger Jahre zu einer Art Trendwende gekommen zu sein. An der besonders stark von den neuartigen Waldschäden betroffenen Weißtanne ließ sich dies an den immer breiter werdenden Jahresringen ablesen.

Allerdings gilt diese Beobachtung nur für noch erholungsfähige Bäume, wie der Dendrochronologe betont. Aber während Frost und Dürre für das Sterben der Weißtannen ebenso wie die Versauerung der Böden anscheinend nur von untergeordneter Bedeutung sind, ist der Zusammenhang zwischen örtlicher Schwefelbelastung und dem Schädigungsgrad dieser Baumart eindeutig.

Ein weiterer Hinweis darauf, daß die Reduktion des Schwefeldioxidausstoßes zumindest eine Entlastung für den Wald gebracht hat, stammt von Untersuchungen, bei denen die Nadelmasse von Fichten im Flachland bestimmt wurde. Sie nahm etwa ab 1985 so stark zu, daß die früheren Verluste heute kaum mehr zu erkennen sind. „Erholungsfähige“ Bäume, die auf 800 Metern Höhe im Fichtelgebirge geschlagen wurden, zeigen außerdem den bereits bei den Weißtannen beobachteten Zuwachs in der Breite der Jahresringe. „Die sehr deutliche Drosselung der Schwefeldioxidemissionen während des letzten Jahrzehnts kann hier mitspielen, liefert aber keine ausreichende Erklärung“, relativiert Professor Elling.

Eine Reduktion der Stickoxide hatte man sich von der im Sommer 1983 beschlossenen Einführung des Katalysators bei Personenkraftwagen erhofft. Die Vereinigten Staaten und Japan hatten zu diesem Zeitpunkt schon vorexerziert, daß der Ausstoß dieser Gase am Einzelfahrzeug durch den Einbau des Kat um 90 Prozent veringert werden kann. Dagegen hatten sich die NOx-Emissionen aus dem bundesdeutschen Kraftfahrzeugverkehr zwischen 1970 und 1982 fast verdoppelt: 1,4 Millionen Tonnen Stickoxide jährlich strömten damals durch den Auspuff in die Umwelt. Mit steuerlichen Anreizen und der europaweiten Einführung von bleifreiem Benzin hoffte man, diesen Betrag bis 1990 mindestens zu halbieren.

Inzwischen hat sich diese Kalkulation aber als Milchmädchenrechnung erwiesen, die Emissionen sind gegenüber 1982 um ein Drittel gestiegen. Seit der Einführung des Katalysator-Autos vor zehn Jahren wuchs die Zahl der Pkw in den alten Bundesländern von 24 auf über 32 Millionen. Die wiedervereinigten Deutschen legten 1991 zusammen 866 Milliarden Kilometer zurück, das entspricht etwa 6000 Mal der Entfernung von der Erde zur Sonne. Vier von fünf Kilometern wurden dabei im Auto gefahren, mit steigender Tendenz seit 1970.

Zwar werden mittlerweile 99 Prozent aller neuzugelassenen Pkw mit geregeltem Drei-Wege-Kat ausgeliefert, auf den Straßen rollen aber momentan noch sechs von zehn Karossen „hinten ohne“. Verschärfend kommt noch hinzu, daß der durchschnittliche Verbrauch der in Deutschland zugelassenen Pkw 1991 noch immer 9,9 Liter auf 100 Kilometer betrug, gegenüber 10,7 Litern im Jahre 1975. Die technischen Verbesserungen der letzten 16 Jahre kamen also nicht der Umwelt zugute sondern gingen laut einer Erklärung des Umweltbundesamtes einher mit einem „Trend zu leistungsstärkeren und schwereren PKW, die mit höheren Geschwindigkeiten gefahren werden.“

Für den Vorsitzenden des Bund für Umwelt und Naturschutz Deutschland (BUND), Hubert Weinzierl, stellt sich daher die Frage: „Sind wird bereit, den Wald unserer überbordenden Mobilität zu opfern?“. Auch Waldschadensforscher Kreutzer fordert „nicht nur den Kat, sondern kleinere Autos mit geringerem Treibstoffverbrauch.“

Die im Juli angekündigte sogenannte Sommersmogverordnung aber bringt in dieser Hinsicht keine Verbessserung. Im Auftrag der Bundesregierung hatte das Umweltministerium einen Entwurf ausgearbeitet, nach dem „Konzentrationswerte“ für Stickoxide, Benzol und Ruß ab Juli 1995 in Kraft treten und drei Jahre später nochmals verschärft werden sollen. Die örtlichen Behörden dürfen bei Überschreiten der Werte auf die Bremse treten und den Verkehr durch Umleitungen, Straßensperren, Geschwindigkeitsbeschränkungen und Fahrverbote drosseln.

Der Anreiz zum Kauf eines Katalysatorautos besteht darin, daß diese von Fahrverboten verschont bleiben sollen. Ursprünglich wollte Umweltminister Klaus Töpfer die schärferen Werte schon zum früheren Datum durchsetzen. Wie frustrierte Mitarbeiter hinter vorgehaltener Hand bekennen, scheiterte der Vorstoß aber am Widerstand der Ministerien für Verkehr und Wirtschaft, die zudem noch die Stimme des Kanzlers auf ihrer Seite wußten.

Durch die Sommersmogverordnung werden in erster Linie die Anwohner vielbefahrener Straßen entlastet. Sie dürfen darauf hoffen, in Zukunft weniger Gifte schlucken zu müssen. „Eine deutliche Minderung der Emissionen von Vorläufersubstanzen für Ozon“, wie sie Umweltminister Klaus Töpfer erwartet hält Dr. Holger Brackemann, Pressesprecher im Umweltbundesamt, aber für unrealistisch. Selbst bei weitgehenden Sperrungen der Innenstädte ergäben sich lediglich Veränderungen im Prozentbereich. Nötig seien aber Reduktionen um 70 bis 80 Prozent, hieß es bei der Behörde, die unter anderem für die wissenschaftliche Beratung des Umweltministers verantwortlich ist.

Derzeit liegt die Sommersmogverordnung ohnehin auf Eis. „Sie wird auf absehbare Zeit nicht in Kraft treten, es gibt Probleme, die Verordnung in der Bundesregierung konsensfähig zu machen und im Bundesrat durchzubringen.“, räumte Dr. Görgen ein. Widerstand kommt besonders von den Finanzministern der Länder, denen die voraussichtlichen Kosten zu hoch erscheinen, „den Umweltministern wiederum ist die Verordnung viel zu lasch“, schildert Görgen das Gerangel.

Erschwert wird die Durchsetzung von Schutzgesetzen für den Wald auch durch eine mangelnde Haftungspflicht. Hätten Waldbesitzer ein Recht auf Ausgleich der gewaltigen Verluste, die ihnen letztlich durch die Luftverschmutzung entstehen, so könnte dies zu einer Versöhnung der Gegensätze zwischen Umwelt- und Finanzministern führen.

Als Beleg für den mangelnden Handlungswillen der Bundesregierung verweisen Naturschützer gerne auf eine höchstrichterlich dokumentierte Gesetzeslücke: Schon vor sechs Jahren urteilte der Bundesgerichtshof gegenüber der Stadt Augsburg und einem Schwarzwälder Waldbesitzer, die auf Schadensersatz geklagt hatten, daß dafür die entsprechende Rechtsgrundlage fehle. Der Sache nach seien die Waldschäden jedoch „entschädingungswürdig und entschädigungsbedürftig“.

Nun muß das Verfassungsgericht darüber urteilen, wer wen entschädigen muß und mit wessen Geld dies geschehen soll. Ministerialrat Peter Splett, der im Landwirtschaftsministerium für die neuartigen Waldschäden zuständig ist, weiß, das die Forderung nach Ausgleichszahlungen leicht zu stellen, aber nur schwer umzusetzen ist. „Eine Entschädigung setzt voraus, daß man die Ansprüche juristisch klar formulieren kann.“ Dies sei aber angesichts der hochkomplexen Vorgänge im Ökosystem Wald fast unmöglich. Gegenüber dem Finanzministerium konnte man deshalb nicht einmal ungefähre Angaben über die Höhe der zu erwartenden Forderungen machen.

So steht zu befürchten, daß auch die Landwirte sich den Auflagen widersetzen werden, die derzeit in Bonner Ministerien angedacht werden. Ausgangspunkt der Überlegungen ist die Erkenntnis, daß in Folge einer intensiven Tierhaltung und der damit zusammenhängenden überreichlichen Ausbringung der anfallenden Gülle enorme Mengen an Stickstoff in Form von Ammoniak freigesetzt werden.

Unter dem Strich schädigt die Landwirtschaft den Wald daher noch stärker als der Individualverkehr, so die Bilanz eines Hintergrundpapiers aus dem Bundesforschungsministerium. Laut Abteilungsleiter Helmut Schulz soll mit einer Düngeverordnung, „die mittlerweile von der Bundesregierung in Angriff genommen wurde“, erreicht werden, daß Stickstoff in der Landwirtschaft nur noch dort eingesetzt wird, wo die Pflanzen ihn wirklich brauchen.

Vorgesehen ist auch, daß in Großtieranlagen Schadstofffilter eingebaut werden müssen. Dies wäre dann ein weiteres Mosaiksteinchen in der kaum noch überschaubaren Fülle von Gesetzen, Verordnungen, Abgaben, Steuern und technischen Maßnahmen, mit denen der Wald gerettet werden soll, ohne den Wähler zu verprellen.

(Originalmanuskript zu einem Artikel für Bild der Wissenschaft, erschienen in der Dezember-Ausgabe 1993)

Weitere Infos:

  1. Wolfram Elling, Waldschäden und Waldschadensforschung – eine kritische Zwischenbilanz, Naturwissenschaftliche Rundschau Heft 5/92, Seite 184.
  2. Caroline Möhring/BMFT, 10 Jahre Waldschadensforschung, Bonn 1992
  3. Umweltbundesamt, Jahresbericht 1992

Rückenwind für sanfte Landwirtschaft

Forschungsmittel von etwa 17 Mio. DM, die das Land Nordrhein-Westfalen in den letzten zehn Jahren an der Bonner Universität in der Förderung einer umweltverträglichen und standortgerechten Landwirtschaft investiert hat, haben sich inzwischen amortisiert. Dieser Meinung ist zumindest Professor Wilfried Werner, Sprecher des Lehr- und Forschungsschwerpunktes, an dem derzeit 15 verschiedene Institute beteiligt sind. „Die Fördergelder werden sich auch weiterhin gut verzinsen“, sagte Werner anläßlich einer Fachtagung, zu der die laufenden Projekte vorgestellt wurden.

Die in Bonn und auf dem Versuchsbetrieb Wiesengut bei Hennef entwickelten Produktionsverfahren zielen auf einen geschlossenen Nährstoffkreislauf innerhalb der Betriebe. Durch den gleichzeitigen Anbau von Ackerbohnen mit Senfpflanzen kann beispielsweise der Bedarf an stickstoffhaltigem Dünger reduziert und die Anreicherung von trinkwassergefährdendem Nitrat im Boden weitgehend verhindert werden, wie Martin Justus vom Institut für organischen Landbau berichtete.

Um die Backqualität von Weizen aus organischem Anbau zu steigern, erprobten Joachim Schulz-Marquardt und Markus Weber eine neue Pflanzmethode. Beim sogenannten Streifenanbau von Weizen mit Klee und anderen Pflanzen aus der Familie der Knöllchenbildner „wächst“ der Dünger regelrecht aus dem Acker: Der gehäckselte Klee setzt seine mineralischen Bestandteile nur langsam frei und ermöglicht dadurch die Aufzucht eines Qualitätsweizens mit hohem Proteingehalt. Auf dem Backwarenmarkt trifft dieser Weizen derzeit auf eine erhöhte Nachfrage nach Vollkorn- und Auszugsmehlen.

Neben dem „Nährstoffmanagement“ spielt in Bonn aber auch die Kontrolle von Ernteschädlingen mit biologischen Methoden eine wichtige Rolle, ebenso die artgerechte Haltung von Nutztieren und eine Minimierung des Arzneimittelverbrauchs. Erklärte Absicht des Programmes ist es denn auch, die gewonnen Erkenntnisse möglichst zügig interessierten Landwirten zur Verfügung zu stellen.

Nach Auskunft von Professor Ullrich Köpke vom Institut für Organischen Landbau widmen sich mittlerweile rund 100 Betriebe in Nordrhein-Westfalen der sanften Landwirtschaft. Bundesweit werden 0,7% aller Nutzflächen organisch bewirtschaftet. Die „Ökobauern“ produzieren zwar ein Drittel weniger als vergleichbare konventionelle Nachbarbetriebe, sie erzielen aber am Markt deutlich höhere Preise. Dabei werden in den westlichen Bundesländern 80% der Einnahmen über die Direktvermarktung erzielt. Unter dem· Strich ist das Pro-Kopf-Einkommen dieser Betriebe daher deutlich höher. Lediglich im Vergleich mit konventionellen Spitzenbetrieben schneiden die organisch bewirtschafteten Güter schlechter ab, sagte Köpke.

Für die Zukunft befürchtet Köpke allerdings einen Strukturwandel und einen Rückgang der Erträge für die Öko-Betriebe. Ein Grund dafür ist ironischerweise ein EG-weites Subventionsprogramm, das vor zwei Jahren ins Leben gerufen wurde. Er gewährt neuen Biobetrieben einen Zuschuß von etwa 450 DM pro Jahr und Hektar. Die Pioniere des organischen Landbaus gehen dagegen leer aus.

Während der fünfjährigen Laufzeit des Programms sind sie gegenüber den Newcomern bei gleichen Kosten stark benachteiligt. Die Verdoppelung der ökologisch bewirtschafteten Flächen in Nordrhein-Westfalen seit 1991 hat bereits zu einem Preisverfall für organisch produziertes Getreide geführt. Über weitere Hilfen für die Bio-Bauern wird derzeit in Brüssel verhandelt.

(erschienen in den VDI-Nachrichten am 5. November 1993)

Maßnahmen gegen Sommersmog

Die von Umweltminister Klaus Töpfer in der letzten Woche vorgelegte Sommersmog-Verordnung der Bundesregierung ist unter Beschuß geraten, noch bevor sie dem Bundesrat zur Beratung zugeleitet werden konnte. Die Festlegung von Konzentrationswerten für Stickoxide, Benzol und Ruß erleichtert zwar verkehrsrechtliche Maßnahmen durch die örtlichen Behörden – eine deutliche Verminderung des bodennahen Ozons aber wird Kritikern zufolge durch die neue Verordnung nicht erreicht.

Erst wird gemessen, ab dem 1. Juli 1995 darf dann gehandelt werden. Mit diesem Datum treten die neuen Konzentrationswerte in Kraft, die nach langem Tauziehen zwischen Umwelt- Verkehrs- und Wirtschaftsministerium festgelegt wurden. Ziel der Verordnung ist es, den verkehrsbedingten Sommersmog zu bekämpfen. Als Indikatorsubstanzen wählte man Stickoxide (NOx), Benzol und Ruß. Während Benzol und Ruß vor allem wegen ihres krebserregenden Potentials von Bedeutung sind, führen Stickoxide zusammen mit flüchtigen Kohlenwasserstoffen unter Sonneneinstrahlung zur Bildung des Reizgases Ozon.

Der „Ernstfall“ tritt nach dem Willen der Bundesregierung ein, wenn im Jahresmittel mehr als 160 Mikrogramm NOx pro Kubikmeter Luft gemessen, oder aber kurzfristig 320 Mikrogramm (μg) überschritten werden. Für Ruß gilt zunächst ein Jahresmittelwert von 14 μg, der zum 1. Juli 1998 auf 8 μg abgesenkt wird. Auch bei Benzol sind zwei Stufen vorgesehen: Im ersten Schritt gilt ein Konzentrationswert von 15 μg, der drei Jahre später auf 10 μg reduziert wird.

Aus Stichproben weiß man, daß sämtliche Werte vielerorts deutlich überschritten werden, besonders wenn die Meßungen – wie vorgesehen – in engen Straßenschluchten mit geringer Luftzirkulation ausgeführt werden.

Die „erforderlichen Verkehrsmaßnahmen“ – sprich Umleitungen und Straßensperrungen, Geschwindigkeitsbeschränkungen und Fahrverbote – scheinen daher unvermeidlich, drohen aber erst in zwei Jahren. Welche Schritte dann im Einzelnen eingeleitet werden, bleibt den zuständigen Verkehrsbehörden überlassen. „Wir können nicht von Bonn aus beurteilen, welche Maßnahmen vor Ort sinnvoll sind“, begründet Töpfer das Verfahren. Eine Verwaltungsvorschrift, die jetzt noch zwischen der Bundesregierung und den Ländern ausgehandelt werden muß, soll jedoch Prioritäten setzen und eine „Harmonisierung“ der Bemühungen erreichen.

Den Kommunen bleibt trotz der scheinbar großzügig bemessenen Frist bis zum Juli 1995 nicht viel Zeit: Während Staub und Schwefeldioxid, Ozon und Stickoxide bereits flächendeckend erfaßt werden, fehlen die Geräte zur Meßung von Benzol und Ruß. Sie kosten zwischen 100000 und 300000 Mark pro Anlage und müßen trotz technischer Unvollkommenheiten bei der Rußmeßung spätestens im Sommer 1994 einsatzbereit sein, damit ein Jahr später die geforderten Jahresdurchschnittswerte zur Verfügung stehen.

Von den Neuanschaffungen – in der Stadt Hamburg werden beispielsweise vier neue Geräte benötigt – profitieren in erster Linie die Anwohner vielbefahrener Straßen. Sie leiden am stärksten unter den krebserregenden Benzol- und Ruß-Emissionen der Autos. Mit der Festschreibung von Konzentrationswerten wird ihnen ein mächtiges Druckmittel in die Hand gegeben, denn kaum ein Straßenverkehrsamt wird sich dem Vorwurf aussetzen wollen, dem Überschreiten dieser Werte tatenlos zuzusehen. Bis zu zehn zusätzliche Leukämiefälle pro 100000 Einwohner gehen nach Schätzungen allein auf das Konto des leichtflüchtigen Kohlenwasserstoffs Benzol, der zu 90 Prozent im Zusammenhang mit dem Kraftfahrzeugverkehr freigesetzt wird.

Allzu hohe Konzentrationen dieses Schadstoffes sollen gemäß der neuen Verordnung nun in erster Linie durch verkehrsplanende und verkehrslenkende Maßnahmen verhindert werden, was letztlich aber nur zu einer Umverteilung der Schadstoffe führen würde. Fahrverbote sind erst an zweiter Stelle vorgesehen, wobei Autos, die mit einem Katalysator ausgestattet sind, sowie Diesel mit einem Partikelwert von weniger als 0,08 Gramm je Kilometer verschont blieben.

Durch einen geregelten Drei-Wege-Katalysator kann nämlich der Ausstoß an Stickoxiden um 90 Prozent, der an Benzol um bis zu 85 Prozent reduziert werden. Im Stadtverkehr allerdings werden diese Werte in der Regel deutlich unterschritten, weil die optimale Betriebstemperatur auf den meist nur kurzen Strecken nicht erreicht wird. Gegenwärtig sind etwa 40 Prozent der deutschen Fahrzeugflotte mit einem Katalysator ausgerüstet; die 100-Prozent Marke hofft Töpfer in fünf Jahren zu erreichen, wenn die „schmutzigen“ Wagen älterer Baujahre weitgehend von den Straßen verschwunden sind.

Von der jetzt vorgelegten Sommersmog-Verordnung erwartet der Umweltminister jedoch nicht nur die Reduktion krebserregender Stoffe in der Atemluft. Zusammen mit anderen Maßnahmen glaubt Töpfer vielmehr eine „deutliche Minderung der Emissionen von Vorläufersubstanzen für Ozon“ bewirken zu können – und zwar „trotz der erwarteten Zunahme des Verkehrs.“

Ganz anders sieht dies das Berliner Umweltbundesamt. Von lokalen Maßnahmen seien keine großen Änderungen bei den Vorläufersubstanzen zu erwarten, hieß es aus der zentralen Umweltbehörde des Bundes, die auch für die wissenschaftliche Beratung des Ministers zuständig ist. Selbst weitgehende Sperrungen der Innenstädte brächten demnach lediglich „Veränderungen im Prozentbereich“, erklärte Pressesprecher Dr. Holger Brackemann.

Nötig seien dagegen Reduktionen der Vorläufersubstanzen um 70 bis 80 Prozent, um die 120 μg pro Kubikmeter Luft nicht wesentlich zu überschreiten, die vom VDI als Orientierungswert für Risikogruppen angesetzt werden. Auch die Ausrüstung der gesamten Pkw-Flotte mit geregeltem Drei-Wege-Kat würde dafür nicht ausreichen.

Gefordert sei deshalb ein generelles Tempolimit von 100 Stundenkilometern auf Autobahnen und Tempo 80 auf Landstraßen, sagte Dr. Klaus Kübler, stellvertretender Sprecher der SPD-Bundestagsfraktion in der Enquete-Kommission „Schutz der Erdatmosphäre“. Erst vor wenigen Wochen war die Hessische Landesregierung mit einer „Ozon-Verordnung“ vorgeprescht und hatte Töpfer damit unter Zugzwang gesetzt.

Trotz juristischer Unsicherheiten wurde in Wiesbaden beschlossen, ein Tempolimit zu verhängen, wenn mindestens drei der 33 Meßstellen des Landes Ozonwerte über 240 Mikrogramm pro Kubikmeter Luft melden. Auf Autobahnen dürfen dann nur noch 90, auf Landstraßen 80 Stundenkilometer gefahren werden. Während Umwelt- und Verkehrsministerium in dem rot-grün regierten Bundesland an einem Strang ziehen und ein Tempolimit auch ohne Ozonalarm für sinnvoll halten, ist die Lage in Bonn weniger harmonisch:

Nach Darstellung des SPD-Umweltexperten Michael Müller leisteten sowohl das Bonner Verkehrs- als auch das Wirtschaftsministerium Widerstand gegen die ursprünglich von Töpfer vorgeschlagenen Konzentrationswerte für Ruß und Benzol, die nun erst ab 1998 gelten werden.

(Originalversion eines Artikels für die VDI-Nachrichten, erschienen am 30. Juli 1993)

Weitere Infos:

Hintergrundpapier Sommersmog des Umweltbundesamtes

Kola-Halbinsel: Die Zerstörung einer Landschaft

Die müden Augen hinter den klobigen Brillengläsern verraten, daß Jewgeni Kowalewski sich nicht besonders wohl fühlt. Der stellvertretende Bezirksdirektor des Amtes für Umweltschutz windet sich unter den bohrenden Fragen der ausländischen Journalisten, ist sichtlich bemüht, den Abgrund zwischen neuer Offenheit und altem Denken zu überwinden.

Was tun die kärglich ausgestatteten Behörden in Murmansk, 200 Kilometer nördlich des Polarkreises, gegen die Luftverschmutzung auf der Kola-Halbinsel? Wie lange noch sollen Schwefeldioxid und Schwermetalle aus den Hüttenwerken der Region auf die 1,2 Millionen Einwohner herabrieseln? Wie viele Unfälle hat es im Kernkraftwerk Kola nahe der Stadt Poljarnyje Sori gegeben, und was geschah mit den radioaktiven Abfällen von mehr als 100 Atom-U-Booten?

Der Russe Kowalewski wiegelt ab, verweist auf die gute Zusammenarbeit mit Norwegen, Finnland und Schweden, auf internationale Abkommen und auf die 30 Meßstationen seiner Behörde: „Wir hoffen, die meisten Probleme in drei bis fünf Jahren zu lösen.“ Eine kurze Stadtrundfahrt aber genügt, um jeglichen Optimismus im Keim zu ersticken: Vom Genuß des Trinkwassers, das in gelblich-brauner Tönung aus den Hähnen fließt, wird dringend abgeraten.

Die Grundversorgung der Bevölkerung scheint zwar gesichert. Wohin aber die Devisenmilliarden aus dem Verkauf von Nickel, Kupfer, Platin, von Kobalt, Palladium, Osmium und anderen seltenen Metallen geflossen sind, ist trotz intensiver Bemühungen nicht auszumachen. Große, triste Wohnblocks prägen das Bild der Stadt, die im Zweiten Weltkrieg von deutschen Bombern dem Erdboden gleichgemacht wurde.

Hoch oben über der Stadt steht das Kriegsdenkmal, das die Murmansker Aljoscha nennen und das an 1000 Tage Zweiter Weltkrieg in der Arktis erinnert. Rauchwolken aus Industrieschornsteinen trüben den Blick von hier aus. Doch was könnte man bei freier Sicht schon sehen? Der eisfreie Hafen, von dem aus eine halbe Million Einwohner versorgt wird, ist einer der größten Schiffsfriedhöfe der Welt.

In einer vorgelagerten Bucht zeugen die himmelwärts gerichteten Torsos Dutzender abgewrackter Schiffe von der ortsüblichen Entsorgungspraxis: Mit maximaler Geschwindigkeit werden Frachter und Tanker, Schlepper und Trawler auf den Strand gesteuert, wo sie auflaufen und dann ihrem Schicksal überlassen werden.

Knut Hauge, norwegischer Konsul von Murmansk, berichtet von 52 ausrangierten Atom-U-Booten allein im Hafen von Murmansk. Zusammen mit mehr oder weniger funktionstüchtigen U-Booten im benachbarten Sperrbezirk Seweromorsk kommt man auf 120 Kriegsschiffe der russischen Nordflotte mit jeweils einem oder zwei Atomreaktoren an Bord. Ein Atomkraftwerk mit vier Reaktoren, acht atomgetriebene Eisbrecher und fünf bekannte atomare Zwischenlager tragen zur atomaren Verseuchung der Kola-Halbinsel bei. Zivile Frachtschiffe im Hafen von Murmansk bilden zusätzliche Zwischenlager.

Erst Ende März war es wieder zu einem Unglück gekommen, als vor der Küste das amerikanische U-Boot „Grayling“ mit einem russischen Boot der Delta-III-Klasse zusammenstieß. Die Amerikaner formulierten eine höfliche Entschuldigung, aus Moskau kam nach mehrtägiger Verzögerung die Nachricht, Atomreaktor und Bewaffnung des eigenen Bootes seien unbeschädigt geblieben.

Auch ohne Unfälle ist die lang geübte Praxis im Umgang mit der Kernkraft erschreckend: Neben den Atom-U-Booten sind 132 Leuchttürme entlang der Küste mit Kernreaktoren ausgerüstet. Zusammen mit dem Kernkraftwerk Kola bei Poljarnyje Sori – laut Angaben der Internationalen Atomenergie-Organisation eine der zehn gefährlichsten Anlagen weltweit – produzieren sie gewaltige Mengen radioaktiven Abfalls. Uber ein Endlager verfügt Russland indes ebenso wenig wie westliche Atommächte.

Abgebrannte Brennstäbe wurden daher routinemäßig in der Barentssee versenkt. Mindestens 21 Reaktoren von ausgedienten U-Booten und Eisbrechern liegen am Meeresgrund. Flüssige radioaktive Abfälle wurden verdünnt und über Bord gekippt. Auf die Frage, was man sich dabei gedacht hat, weiß Kowalewski eine simple Antwort: ,,Auch die Amerikaner haben das lange Zeit gemacht, heute ist es verboten.“ Das Problem sei ohnehin nicht besonders dringend, weil die mehr als 10000 Container mit dem strahlenden Inhalt „sicherlich noch lange halten“.

Eine weitere Hinterlassenschaft der ehemaligen Sowjetunion sind eine Vielzahl von Kasernen, Flughäfen, Raketenbasen, Grenzbefestigungen und sonstigen militärischen Einrichtungen. Von rund 3500 nuklearen Sprengköpfen ist die Rede, von Raketen der Typen S 21 und Scud. Die vorerst letzte von 120 Atombomben explodierte am 24. Oktober 1991 – dem Tag der Vereinten Nationen – auf der Insel Nowaja Semlja, die seit 1955 als Testgelände herhalten muß. Die Gesamtsprengkraft seither beträgt rund 7000 Hiroschima-Bomben.

Mittwochs, freitags und an Sonntagen sind die eis- und schneebedeckten Straßen der Halbinsel für den Zivilverkehr freigegeben. An vier Tagen in der Woche bleiben die Verkehrswege den Soldaten vorbehalten – ein Verhältnis, das nach Meinung von Beobachtern die Machtverteilung im Staate widerspiegelt.

Über Reformen und Joint-Ventures wird viel geredet, echter Fortschritt indes bleibt dem Betrachter verborgen. Immer wieder erklären Regierungsvertreter und Konzernleiter, ohne Geld aus dem Westen ließe sich nichts bewegen. Der Gedanke, das größte Volk Europas könne sich aus eigener Kraft aus der Misere befreien, wird nirgendwo ernsthaft erwogen.

So auch in Zapoljanry und Nikel, wo 50000 Einwohner von der Verhüttung des gleichnamigen Metalls abhängig sind. Neben elf Tonnen giftiger Schwermetalle werden dabei jährlich 300000 Tonnen Schwefeldioxid freigesetzt. Das entspricht der siebenfachen Menge dessen, was das Nachbarland Norwegen mit seinen vier Millionen Einwohnern produziert. Auf 100 Quadratkilometern Taiga wächst nahe Nikel kein Baum mehr. In Zapoljanry, so berichtet eine Augenzeugin, sei es noch weitaus schlimmer. Die Behörden haben dort das Sammeln von Beeren und Pilzen verboten; beim Verzehr besteht Vergiftungsgefahr.

Mit westlicher Technologie ließe sich der Schadstoffausstoß der Erzhütten auf ein Zwanzigstel reduzieren, doch dafür fehlen umgerechnet 960 Millionen Mark. Trotz der Bereitschaft Norwegens und Finnlands, ein Siebtel der Kosten zu übernehmen, erklärte der russische Umweltminister Wiktor Dahiljan, sein Land sei zu arm, um die geplanten Maßnahmen zu bezahlen. Die Industriewüste lebt.

(erschienen in der WELT am 6. Juli 1993 als Bilanz einer mehrtägigen Journalistenreise, die letztlich von der norwegischen Regierung finanziert wurde. Und die hatte – wie mir später klar wurde – ein massives Interesse daran, mit Deutschland einen Mitfinanzier für die Linderung der grenzübergreifenden Umweltverschmutzung zu finden und im Vorfeld entsprechende Aufmerksamkeit zu schaffen…)

Einer gegen den Rest der Welt

Einen Tag lang hatte Professor Richard Lindzen seine Zuhörer beschworen, einer überwältigenden Mehrheit der weltbesten Klimaforscher keinen Glauben zu schenken. Es gibt keinerlei Hinweise auf eine vom Menschen verursachte globale Erwärmung, so das Credo des streitbaren Amerikaners. Jegliche Maßnahmen zum Klimaschutz seien überflüssig, ja gefährlich, weil sie Geld verschlingen würden, das anderswo besser investiert wäre.

Vor der Enquete-Kommission des Bundestages zum Schutz der Erdatmosphäre, die Lindzen vergangene Woche nach Bonn eingeladen hatte, fand der angesehene Klimatologe zwar geduldige Zuhörer, überzeugen konnte er aber nicht. „Die Kommission beschäftigt sich seit über fünf Jahren mit diesem Thema. Die heutige Diskussion konnte an unserer Einschätzung zum menschgemachten Treibhauseffekt und seinen Folgen nichts ändern“, sagte der Vorsitzende Klaus Lippold, bevor man den Gast verabschiedete.

Am Zentrum für Meteorologie des Massachusetts Institute of Technology in Cambridge, USA, war Lindzen zu dem Schluß gekommen, daß die Gleichungen in den komplexen Klimamodellen seiner Kollegen allzu viele Unbekannte aufwiesen, um daraus verläßliche Prognosen abzuleiten.

Umstritten ist vor allem die Rolle des Wasserdampfes im globalen Klimageschehen. Wasserdampf trägt weitaus mehr zum natürlichen Treibhauseffekt bei als alle anderen Spurengase zusammen. Die Aufmerksamkeit der Klimatologen galt aber bisher fast ausschließlich dem Kohlendioxid (CO2), das bei der Atmung und beim Verbrennen von Holz, Kohle, OI und Gas freigesetzt wird. Sein Anteil an den Gasen der irdischen Lufthülle hat seit Beginn der industriellen Revolution um ein Drittel zugenommen, wobei ein noch stärkerer Anstieg durch die Ozeane verhindert wurde. Sie dienen als Zwischenspeicher, die etwa die Hälfte des von Menschen seit 1800 erzeugten Kohlendioxids aufgenommen haben.

Physikalische Gesetzmäßigkeiten besagen, daß eine Verdoppelung des CO2-Gehaltes der Atmosphäre einen Anstieg der mittleren globalen Temperatur um 0,5 bis 1,2 Grad Celsius zur Folge hätten, wenn alle anderen Faktoren konstant blieben. Hier endet aber auch schon die Übereinstimmung zwischen Lindzen und den 250 von der UNO beauftragten Wissenschaftlern, die sich im „Zwischenstaatlichen Ausschuß zur Klimaänderung“ (Intergovernmental Panel and Climate Change, kurz IPCC) zusammengefunden haben.

Stärkere Temperaturerhöhungen – wie sie vom IPCC vorausgesagt werden – beruhen auf der Annahme, daß die einmal angestoßene Veränderung sich selbst verstärkt. Dieses Modell einer „positiven Rückkoppelung“ geht davon aus, daß eine verhältnismäßig geringe Erwärmung durch Kohlendioxid die Verdunstung aus den Weltmeeren erhöht und dadurch mehr Wasserdampf – das wichtigste Treibhausgas – in die Atmosphäre gelangt. Dieser sollte dann laut IPCC die Temperatur weiter erhöhen, so daß es bis zum Ende des 21. Jahrhunderts auf der Erde vier bis fünf Grad wärmer wäre als heute.

Lindzen bestreitet nun seit längerem energisch, daß die Erhöhung der Erdtemperatur zu einem Anstieg der Wasserdampf-Konzentration in der Atmosphäre führt. Aus seinen komplizierten Modellen zur Bildung tiefstehender Wolken und zum Transport von Feuchtigkeit und Wärme in diesen sogenannten Kumulonimbus-Türmen glaubt er vielmehr ableiten zu können, daß unter dem Strich weniger Wasserdampf in die Atmosphäre gelangt.

Nach den Vorstellungen Lindzens funktionieren diese Wolkengebilde wie ein Fahrstuhl, mit dem feuchte Luft- und damit Wasserdampf – vom Erdboden in höhere Schichten der Atmosphäre transportiert wird. Wegen des niedrigeren Drucks dehnt sich die Luft in größerer Höhe aus; sie wird kälter. Der überschüssige Wasserdampf kondensiert deshalb zu Wasser oder Eis und fällt größtenteils als Niederschlag auf die Erde zurück. Wenn nun die Erdoberfläche wärmer wird, sollte die Luft in den Wolken größere Höhen erreichen und dort weniger Wasserdampf abladen.

Vorzeichen vertauscht

Die gängigen Computermodelle würden daher mit vertauschten Vorzeichen rechnen und falsche Resultate liefern, bilanzierte Lindzen vor der Bonner Wissenschaftspressekonferenz. Dem widersprach Hartmut Graßl, Direktor des MaxPlanck-Instituts für Meterologie in Hamburg und Vorsitzender des Wissenschaftlichen Beirats „Globale Umweltveränderungen“ der Bundesregierung: „Eine negative Rückkoppelung beim Wasserdampf ist Geschichte und wird daher zu Recht in den aktuellen Rechnungen nicht mehr berücksichtigt.“ Lindzens Modell treffe vielleicht für die Tropen zu, im globalen Maßstab gebe es dafür aber keine Belege.

Wasserdampf ist aber für Lindzen nicht der einzige umstrittene Punkt. Der amerikanische Wissenschaftler griff auch die Formulierung der IPCC-Wissenschaftler an, die bisher gewonnenen Meßdaten würden mit einer vom Menschen verursachten Erwärmung übereinstimmen. „Das ist lediglich eine Umschreibung für: „Wir wissen es nicht“, schimpfte der Amerikaner, der außerdem glaubt, ein wesentliches Motiv für die Warnungen seiner Kollegen ausgemacht zu haben: „In Zeiten knapper Haushaltsmittel haben sich Ankündigungen ökologischer Katastrophen als wirksame Grundlage für finanzielle Forderungen der Wissenschaft erwiesen.“ Allzu bereitwillig gehe die Öffentlichkeit heute davon aus, daß man handeln müsse, wenn man ein Risiko nicht mit Sicherheit ausschließen kann.

Mit derartigen Behauptungen stieß Lindzen bei seinen Gastgebern auf wenig Verständnis. „Wer früh beginnt, muß weniger tun und es tut weniger weh“, erläuterte Hartmut Graßl den deutschen Standpunkt. Stellvertretend für die überwältigende Mehrheit seiner Kollegen wies er auch die Behauptung zurück, die Prognosen moderner Computermodelle stimmten nicht mit den beobachteten Daten überein. Unter anderem sagten die Modelle einen Meeresspiegelanstieg und den Schwund von Gebirgsgletschern sowie Schneebedeckung voraus. Dies wurde ebenso bestätigt wie die mittlere Erwärmung am Erdboden, ein verstärkter Wasserkreislauf in den Tropen und erhöhte Winterniederschläge in gemäßigten Breiten.

(erschienen in der Süddeutschen Zeitung am 1. Juli 1993)

Freilandversuche für „Gen-Rüben“ genehmigt

Rund 14.000 Zuckerrüben und exakt 384 Kartoffeln sollen im Laufe der nächsten Wochen auf niedersächsischen und bayrischen Ackern angepflanzt werden. Nichts Besonderes, sollte man meinen, doch die Pflänzchen haben es in sich: beide Gewächse sind gentechnisch verändert.

Für Reinhard Nehls, Laborchef bei der Kleinwanzlebener Saatzucht (KWS) in Einbeck, liegen die Vorteile der modernen Biologie buchstäblich auf der Hand: In der Rechten hält er eine fette, schwere und offensichtlich gesunde Zuckerrübe, „so wie sie der Bauer haben will“. In der Linken dagegen ein kleines, schwarzes, mit Wurzelhaaren übersätes Gewächs, das sich bei näherer Betrachtung als infizierter Artgenosse der Vorzeigerübe entpuppt. „So kann es aussehen, wenn die Rizomania zuschlägt.“

Dem mittelständischen Unternehmen ist es gelungen, Zuckerrüben mit Hilfe gentechnischer Methoden vor der Viruskrankheit zu schützen. Die Rizomania, auch „Wurzelbärtigkeit“ genannt, hat sich in den letzten Jahren in ganz Europa ausgebreitet und verursacht deutschen Landwirten jährliche Ernteverluste in Millionenhöhe. Hauptbetroffene sind Familienbetriebe, für die die Zuckerrüben eine der wichtigsten Einnahmequellen darstellen.

Rund 5000 Landwirte waren es auch, die in einer Unterschriftenaktion den Antrag der KWS unterstützten, die genmanipulierten Pflanzen dort zu testen, wo sie gebraucht werden – auf dem Acker. Wie berichtet, hat das Berliner Bundesgesundheitsamt jetzt nach einem halbjährigen Genehmigungsverfahren die Einsprüche von rund 3000 Einwendern zurückgewiesen, weil von dem Experiment „nach dem Stand der Wissenschaft keine schädlichen Einwirkungen auf Leben und Gesundheit von Menschen, Tieren und. Pflanzen sowie die sonstige Umwelt“ zu erwarten seien.

Um die Pflanzen gegen den Angriff der schädlichen Viren immun zu machen, isolierten die KWS-Wissenschaftler zunächst ein Gen aus dem Ernteschädling, welches die Informationen zur Herstellung eines Eiweißes der Virushülle enthüllt. Die Anwesenheit dieses, für den Menschen ungiftigen Moleküls in der Zuckerrübe verhindert die Vermehrung des Parasiten in der Pflanze. Ziel der Bemühungen war es deshalb, Zuckerrüben zu züchten, die neben Tausenden eigener Inhaltsstoffe zusätzlich das fremde Eiweiß produzieren. Dabei kam den Forschern die Tatsache zugute, daß die Erbinformationen aller Lebewesen in der gleichen „Sprache“ geschrieben sind. Die virale „Gebrauchsanleitung“ zur Herstellung des Eiweißes kann somit auch von der Zuckerrübe gelesen und in ein fertiges Produkt umgesetzt werden. Einzige Voraussetzung: das entsprechende Gen muß auf die Rübe übertragen und dort möglichst dauerhaft ins eigene Erbgut integriert werden.

Die Molekularbiologen bedienten sich dazu eines Bodenbakteriums, welches auch unter natürlichen Bedingungen in der Lage ist, Erbsubstanz in Pflanzen einzuschmuggeln. Agrobacterium tumefaciens, so der wissenschaftliche Name der Mikrobe, ist deshalb rund um den Globus als „Genfähre“ im Einsatz. Die in Einbeck entwickelten Rüben trotzen – zumindest in Labors, Klimakammern und Gewächshäusern – schon seit Jahren dem Rizomania-Virus. Dort erklärte jetzt inmitten Tausender von Pflanzen der Vorstandsprecher der KWS, Andreas Büchting: „Jetzt ist der Zeitpunkt gekommen, die transgenen Zuckerrüben auch unter den praktischen Bedingungen der Landwirtschaft – in freier Natur also – zu testen.“

Ähnliche Versuche haben im Ausland bisher über l000 mal stattgefunden, in zwanzig Fällen wurde dabei mit Zuckerrüben experimentiert. Gemeinsam mit der KWS erhielt auch das Institut für Genbiologische Forschung Berlin (IGF) die Erlaubnis, gentechnisch veränderte Kartoffeln im Freiland zu testen. Durch das gezielte Abschalten einer Erbanlage ist es den Molekularbiologen gelungen, die Erdäpfel zu potenziellen Rohstofflieferanten für die Stärke-Industrie umzufunktionieren. Sobald die letzten Nachtfröste vorbei sind, sollen exakt 384 transgene Kartoffeln den Zuckerrüben im Freiland Gesellschaft leisten.

Stärke ist ein besonders vielseitiger Rohstoff, der unter anderem in der Papier- und Pappeherstellung, für Chemikalien und‘ Arzneimittel, für Klebstoffe und im Textilbereich benötigt wird. Auch für die Produktion umweltfreundlicher, biologisch abbaubarer Kunststoffe wird Stärke gebraucht. Dieser „Kunststoff“ könnte zukünftig auf dem Acker wachsen, hofft Professor Lothar Willmitzer vom IGF. Besser als gewöhnliche Kartoffeln seien dafür die genmanipulierten Pflanzen geeignet, weil diese nur noch eine statt der üblichen zwei verschiedenen Stärkeformen produzieren.

Der Bauer erhält so einen einheitlichen Rohstoff mit klar definierten Eigenschaften, dem auf dem freien Markt gute Absatzchancen eingeräumt werden. Doch bis dahin ist es für die transgenen Kartoffeln und Zuckerrüben noch ein weiter Weg: vermarktungsfähige Produkte, so heißt es in einer Erklärung der KWS, stehen frühestens um das Jahr 2000 zur Verfügung.

(mein erster Artikel für die „Stuttgarter Zeitung“, erscheinen am 17. April 1993)

Grüne Gentechnik hat viele Schwellenländer erreicht

Während in Deutschland noch heftig darüber gestritten wird, ob gentechnisch veränderte Nutzpflanzen unter freiem Himmel angebaut werden dürfen, erfreuen sich die Produkte der grünen Gentechnik weltweit zunehmender Akzeptanz. Mehr als 800 Genehmigungen wurden seit 1985 allein in den OECD-Staaten für Freilandversuche erteilt. Auch viele Schwellenländer setzen die Gentechnik mittlerweile in der Pflanzenzucht ein; nicht zuletzt erhoffen sie sich davon einen Beitrag zur Ernährung ihrer wachsenden Bevölkerung.

Die Liste der freigesetzten Gewächse reicht heute schon von Alfalfa und Apfelbäumen über Kohl und Kartoffeln, Papayas und Petunien bis zur Zuckerrübe. Mindestens 26 Arten von Kulturpflanzen wurden bisher gentechnisch verändert. Die Ziele der Züchter und Chemiekonzerne, die sich an dieser Art von Forschung beteiligen, sind dabei ebenso vielfältig wie die Probleme der weltweiten Landwirtschaft.

Spitzenreiter der Entwicklung sind die Vereinigten Staaten und Kanada, wo jeweils über 300 Freilandversuche genehmigt wurden. Schlagzeilen machte in jüngster Zeit die Firma Calgene, die unter dem Namen „Flavr savr“ eine Tomate mit verlängerter Haltbarkeit entwickelte. Der „Geschmacksretter“ der kalifornischen Molekularbiologen stieß jedoch beim Verbraucher auf wenig Gegenliebe; die Markteinführung wurde zunächst verschoben.

Erfolgreicher war die Firma Monsanto aus dem Bundesstaat Missouri mit ihren Versuchen, Baumwollpflanzen vor verschiedenen Schmetterlingsraupen zu schützen. Per Gentransfer übertrugen die Wissenschaftler die Fähigkeit, ein insektentötendes Eiweiß herzustellen, vom Bacillus thuringiensis auf die Baumwolle.

Der „Genuß“ der Blätter wird für die gefräßigen Raupen des Eulenfalters so zur Henkersmahlzeit. Nach dem gleichen Prinzip wehren transgene Kartoffeln ihren ganz speziellen Freßfeind ab, den Kartoffelkäfer. Für andere Insekten ist das Bacillus-Toxin ebenso ungefährlich wie für den Menschen. Der Einsatz von Schädlingsbekämpfungsmitteln ließe sich mit dieser Methode deutlich reduzieren und gilt deshalb in Forscherkreisen als umweltfreundliche Alternative.

Umstritten ist dagegen der Nutzen Herbizid-resistenter Pflanzen. Neben Baumwolle ist man hier auch bei Tomaten, Sojabohnen, Raps und Mais schon weit fortgeschritten. Durch die Übertragung von Erbanlagen, die aus natürlich vorkommenden Bakterien stammen, trotzen diese Pflanzen verschiedenen Breitbandherbiziden, die sämtlichen Wild- und Unkräutern den Garaus machen.

Bei Monsanto und Calgene, aber auch bei Hoechst, Du Pont und der belgischen Firma Plant Genetic Systems wird argumentiert, der Gesamtverbrauch an so nannten Pflanzenschutzmitteln würde beim Einsatz Herbizid-resistenter Pflanzen zurückgehen. Unter dem Strich, so heißt es, würden mehrere Herbizide mit jeweils begrenztem Wirkungsspektrum durch ein einziges Breitbandherbizid ersetzt. Zudem seien Substanzen wie „Roundup“ (Monsanto) und „Basta“ (Hoechst) umweltverträglicher als heutige Herbizide, weil sie im Boden schnell zu ungefährlichen Verbindungen zerfallen.

Dem widersprechen praktisch sämtliche Umweltverbände, von Greenpeace über das Freiburger Öko-Institut bis zum Bund für Umwelt- und Naturschutz Deutschland. Sie erwarten einen deutlichen Mehrverbrauch an Unkrautvernichtungsmitteln und halten die neue Technik für eine bloße Rationalisierungsmaßnahme. Zur Hungerbekämpfung in der Dritten Welt könne der Einsatz Herbizid-resistenter Pflanzen ebenfalls keinen nennenswerten Beitrag leisten.

Auch wenn einzelne Anwendungen weiter umstritten sind, kann die Sicherheitsbilanz der grünen Gentechnik sich durchaus sehen Jassen. Über Zwischenfälle, bei denen Mensch oder Umwelt zu Schaden kamen, ist bisher nichts bekannt. Befürchtungen, wonach transgene Pflanzen sich unkontrolliert ausbreiten oder die Existenz einheimischer Wildpflanzen gefährden könnten, haben sich ebenfalls nicht bewahrheitet.

„Die Wissenschaft ist sich einig darüber, daß die Risiken der Gentechnik denen herkömmlicher Zuchtmethoden vergleichbar sind“, bilanzierten deshalb die Veranstalter des 2. Internationalen Symposiums zur Sicherheit genmodifizierter Organismen, das letztes Jahr in Gosslar stattfand. In den USA wird sogar geprüft, ob die Genehmigungsverfahren für Freilandexperimente teilweise durch eine schriftliche Anmeldung ersetzt werden können.

Innerhalb Europas erstreckt sich das Spektrum transgener Pflanzen von Raps und Kartoffeln, die als Quelle hochwertiger nachwachsender Rohstoffe dienen sollen, bis zu gelben, violetten und cremefarbenen Chrysanthemen der Varietät „Moneymaker“. In der Statistik führt Frankreich mit bisher 77 genehmigten Freisetzungen, gefolgt von Belgien (62), Großbritannien (45) und den Niederlanden (22).

Die flächenmäßig größten Freisetzungen genmanipulierter Organismen aber fanden bisher in der Volksrepublik China statt, wie Professor Zhang-Liang Chen, Pflanzengenetiker an der Universität Peking, seinen staunenden Kollegen in Gosslar berichtete.

Im Reich der Mitte hielt man sich dabei nicht lange mit Überlegungen zum Risikopotential der neuen Technik auf. Genehmigungsverfahren oder einschlägige Gesetze gibt es bisher nicht. Die ohnehin schon positive Haltung der chinesischen Behörden gegenüber der Gentechnik wurde noch verstärkt, seit beim Aufbau von Reis und Sojabohnen Ertragssteigerungen zwischen 5 % und 10 % erzielt wurden.

Erreicht wurde dies auf Versuchsflächen von über einer Million Hektar durch genmanipulierte Bakterien der Gattung Rhizobium. Die Mikroben, die auch als „Knöllchenbildner“ bekannt sind, können Luftstickstoff zu Ammonium reduzieren. Sie liefern der Pflanze dadurch einen lebenswichtigen Nährstoff und ersetzen teuren Kunstdünger.

Allerdings funktionierte die Symbiose zwischen natürlich vorkommenden Bakterien und Pflanzen bisher fast ausschließlich bei Gewächsen aus der Familie der Leguminosen wie Luzerne, Klee, Bohnen und Erbsen.

Englische und australische Arbeitsgruppen mühten sich bisher vergebens, die Rhizobien auch zur „Zusammenarbeit“ mit Reis, Raps und Weizen zu bewegen. Sollten die Chinesen tatsächlich beim Reis erfolgreich gewesen sein, käme dies einer wissenschaftlichen Sensation gleich. Langfristig könnten dann eine Milliarde Menschen, die weltweit ihre Reisfelder bewirtschaften, von der grünen Gentechnik profitieren.

(erschienen in den „VDI-Nachrichten am 2. April 1993)

Nachgefragt: Was UV-Strahlung mit Pflanzen macht

In meinem ersten Beitrag für „Bild der Wissenschaft“ hatte ich jede Menge Platz, um ein ziemlich komplexes Thema ausführlich darzustellen. Hintergrund war die steigende UV-Belastung infolge des Ozonloches und die Frage: „Wie reagieren eigentlich Pflanzen auf die veränderten Bedingungen?“. Die kurze Antwort: Unter starker Sonnenbestrahlung wachsen viele Pflanzen nicht nur schlechter, auch ihre Bestandteile verändern sich. Teilweise extrem: Grüne Bohnen werden unversehens zum Verhütungsmittel.

Die Pflanzenwelt wird überleben, auch wenn die Hälfte des schützenden Ozons über unseren Köpfen verschwinden sollte, da ist sich Prof. Eckard Wellmann vom Biologischen Institut II der Universität Freiburg sicher. Allerdings – ob wir die Pflanzen dann noch essen können, bezweifelt er.

Solche Bedenken hat auch Prof. Manfred Tevini am zweiten Botanischen Institut der Universität Karlsruhe. Beide Wissenschaftler beschäftigen sich seit Jahrzehnten mit den Auswirkungen verstärkter ultravioletter Strahlung auf Pflanzen. Die größte Rolle spielt dabei das sogenannte kurzwellige UV-Licht – jener Anteil des Sonnenlichts, der Eiweiße und Erbsubstanz aller Lebewesen massiv schädigen könnte, wenn nicht der Ozonschild in zehn bis vierzig Kilometer Höhe davor schützen würde.

Wegen der fortschreitenden Verdünnung der Ozonschicht wird aber der Bruchteil dieser Strahlung, der den Erdboden erreicht, ständig größer. UV-B, mit einer Wellenlänge zwischen 280 und 320 Nanometern, auch als „biologisch aktive“ UV-Strahlung bezeichnet, steht daher im Mittelpunkt der Umwelt-Forschung.

Ob die Schutzmechanismen von Tieren und Pflanzen, die sich im Laufe von etwa drei Milliarden Jahren an die zum Erdboden gelangende Reststrahlung angepaßt haben, auch in Zukunft noch wirken werden, scheint zweifelhaft. Gleichzeitig ist aber noch so wenig über die Bandbreite natürlicher UV-Toleranz bekannt, daß die meisten Wissenschaftler nur hinter vorgehaltener Hand darüber spekulieren, wieviel Prozent Ozonschwund verkraftet werden kann, bevor ganze Ökosysteme zusammenbrechen.

Schon die Messung der auf dem Erdboden ankommenden UV-B-Strahlung mache große Schwierigkeiten. Auf der Tagung „UV-B Monitoring Workshop“ die im März 1992 in Washington stattfand, mußten die versammelten Experten einräumen, daß befriedigende Meßwerte bislang fehlten. „Es gibt die nötigen Meßgeräte nicht, und die Auswirkung von Wolken ist bis heute in keinem Modell berücksichtigt“, formuliert Wellmann das Problem.

Auch exakte Labor-Experimente sind nicht möglich. Das natürliche UV-Licht der Sonne ist – trotz Speziallampen und Filter – noch immer nicht genau simulierbar: Die UV-Strahlung, die uns erreicht, ist das Ergebnis komplexer Wechselwirkungen zwischen Sonnenlicht und Atmosphäre mit ihren verschiedenen Schichten und läßt sich daher nicht exakt nachahmen.

Erschwert wird die Vorhersage auch dadurch, daß nicht alle Pflanzen auf vermehrte UV-Bestrahlung gleich reagieren: Wellmann hat bei seinen Experimenten „riesige Unterschiede in der Empfindlichkeit“ festgestellt.

Von etwa 200 Arten, die Wellmann, Tevini und andere untersucht haben, erwiesen sich etwa 130, darunter Erdbeeren, als UV-B-empfindlich: Sie blieben im Wachstum deutlich hinter unbestrahlten Artgenossen zurück.

Jede dritte Art aber kommt auch mit einer Reduktion der Ozonschicht um vierzig Prozent noch gut zurecht. „Wie hoch die Toleranz der Pflanzen entwickelt ist, sieht man allein schon daran, daß manche in Deutschland heimische Gewächse auch am Äquator gut gedeihen“, sagt Wellmann. Und tropische Gewächse müssen seit jeher mit einer UV-B-Strahlung fertig werden, die fünfmal so stark ist wie in gemäßigten Breiten.

Was aber passiert, wenn die Strahlung in unseren Breiten noch weiter zunimmt? Für Prof. Tevini stellt sich die Frage, ob die UV-Resistenz nicht schon jetzt am Umschlagen ist. Doch er hält die Auslese von UV-resistenten Sorten prinzipiell für möglich. Das ist allerdings aufwendig, kostet viel Geld – und das ist derzeit knapp. Tevini fordert daher ein mit Geldmitteln gut ausgerüstetes Schwerpunktprogramm, um die biologischen Konsequenzen vermehrter UV-B-Strahlung zu erforschen.

Möglicherweise wird man schon in wenigen Jahren gezwungen sein, südliche Sorten, die UV-toleranter sind als einheimische, auch im Norden zu pflanzen. Ein Problem ist, daß nicht nur die Arten, sondern auch die verschiedenen Sorten derselben Art auf UV-Strahlung verschieden reagieren. Außerdem sind die verschiedenen Entwicklungsstadien einer Pflanze mehr oder weniger empfindlich: Mal sind die Keimlinge besser geschützt, mal sind es die fruchttragenden Pflanzen.

Eine der wenigen detaillierten Studien hat Dr. Alan Teramura, Botaniker an der amerikanischen University of Maryland, an Sojabohnen vorgenommen. Von 23 Sorten erwiesen sich 7 als unempfindlich gegenüber erhöhter UV-Strahlung, 2 Sorten brachten sogar höhere Erträge. Mit niedrigerem Trockengewicht, reduziertem Wachstum und verringerter Blattfläche reagierten dagegen14 der 23 Sorten. Die Ernteverluste im Feld betrugen für diese UV-sensitiven Pflanzen bis zu einem Fünftel. Ausgerechnet die ertragreiche Sorte „Essex“, die derzeit von amerikanischen Farmern bevorzugt wird, erwies sich als besonders empfindlich. Die UV-toleranten Sojabohnen vom weniger ertragreichen Typ „Williams“ dagegen wurden in den letzten Jahren immer seltener angebaut.

Sorgen machen sich die Forscher aber weniger um die amerikanische oder europäische Landwirtschaft mit ihren gewaltigen Überschüssen. Für Tevini sind Hungerkatastrophen durch Ernteverluste in den Entwicklungsländern die größte Bedrohung. Vielleicht, so die Hoffnung einer Handvoll Optimisten, lassen sich wichtige Kulturpflanzen eines Tages aber auch mit Hilfe der Gentechnik derart manipulieren, daß die Hungerkatastrophe vermieden werden kann.

Das Interesse an den natürlichen Schutzmechanismen landlebender Pflanzen ist daher mehr als nur Grundlagenforschung. Etwa zwölf Millionen Mark hat das Bundesforschungsministerium seit 1978 bereitgestellt, um die Auswirkung von UV-B-Strahlung auf lebende Organismen zu ergründen – zu wenig, urteilt der Freiburger Biologe Wellmann. Ein geeignetes Schwerpunktprogramm, so schätzen die Experten, würde zehn bis zwanzig Millionen Mark im Jahr kosten.

Die bisherigen Ergebnisse bei Labor-, Treibhaus- und freiwachsenden Pflanzen: Landlebende Pflanzen wehren sich gegen vermehrte UV-Strahlung. Erst werden in der äußersten Zellschicht, der Epidermis, Schutzpigmente gebildet, die zur Gruppe der Flavonoide gehören. Von besonderer Bedeutung sind dabei die farblosen oder gelben Flavone, Pflanzenfarbstoffe, die ultraviolette Strahlung absorbieren und so die empfindlichen Zellbestandteile, einschließlich der Erbsubstanz in Zellkern und Chloroplasten schützen.

In der Natur beginnt die Farbstoffproduktion schon, ehe die Keimlinge den Boden durchstoßen. Wenige Lichtquanten, die in den Boden eindringen, reichen aus, die Flavonoid-Synthese zu starten. Ema dreißig Gene sind daran beteiligt. Auch die zugehörigen Eiweiße sind bekannt. Im Experiment läßt sich die Folge erhöhter UV-Strahlung gut beobachten. Keine halbe Stunde nach Beginn der Bestrahlung bezeugt die Anwesenheit von Boten-RNA die vermehrte Genaktivität. Wieder eine halbe Stunde später finden sich die ersten Eiweiße und nach insgesamt zwei Stunden läuft die Flavonoid-Synthese auf Hochtouren. Offensichtlich wird der gesamte Block von Flavonoid-bildenden Enzymen gleichzeitig angeworfen.

Für die Praxis bedeutet dies, daß die Genmanipulation für die Flavonoid-Synthese viel zu kompliziert und wenig erfolgversprechend ist. Ein einziges Kontrollgen, dessen Aktivität die Bildung von Schutzpigmenten reguliert, wäre den Pflanzenzüchtern lieber gewesen. Durch züchterische Auswahl oder Gentransfer hätte man UV-sensitive Pflanzen dann eher schützend manipulieren können.

Tevini arbeitet zurzeit daran, das Bindeglied zwischen einfallenden UV-Strahlen und vermehrter Flavonoid-Synthese aufzuspüren. Woher „wissen“ die Pflanzen, daß Gefahr droht? Prof. Tevini hat eine vorläufige Antwort: In Roggenkeimlingen isolierte er eine Substanz – Zimtsäure -, die in zwei verschiedenen Spielarten auftritt. Als trans-Zimtsäure hemmt das Molekül mit Hilfe eines komplizierten Kontrollmechanismus die Synthese der Flavonoide. Bestrahlt man die trans-Zimtsäure jedoch mit ultraviolettem Licht, so verwandelt sich das Molekül in cis-Zimtsäure.

Der Clou: die cis-Zimtsäure hebt die Blockade der Flavonoid-Synthese wieder auf, möglicherweise werden sogar einige Gene aktiviert, die an der Bildung des pflanzlichen Schutzschildes mitwirken.

Ob das Prinzip, das Tevini am Roggen untersucht hat, auch bei anderen Pflanzen gilt, ist jedoch keineswegs sicher. Und selbst wenn sich die beobachtete Wechselwirkung zwischen Zimtsäure und UV-Strahlung als ein in der Pflanzenwelt weitverbreitetes Prinzip erweisen sollte, ist damit noch nicht viel gewonnen. Zum einen ist derzeit nicht klar, wo der Schutzmechanismus an seine Grenzen stößt, zum anderen muß das, was für die Pflanze gut ist, für den Menschen noch lange nicht gut sein.

Denn Flavonoide und andere Substanzen, die als Reaktion auf „Umweltstreß“ gebildet werden, können die Inhaltsstoffe einer Pflanze drastisch verändern. So weisen amerikanische Untersuchungen darauf hin, daß die halluzinogenen Wirkstoffe der Cannabis-Pflanze zunehmen und der Proteingehalt bei Sojabohnen drastisch reduziert wird.

Während Basilikum mehr ätherische Öle produziere, was von Vorteil wäre, könnte der Genuß von Bohnen bei erhöhter UV-Strahlung unerwünschte Folgen haben. Denn Bohnen bilden nach UV-Bestrahlung Cumestrol, eine Substanz, die in der Wirkung dem Schwangerschaftshormon Östrogen vergleichbar ist. Die Konzentration von Cumestrol kann so hoch werden, daß der menschliche Hormonhaushalt durcheinandergebracht wird – die Bohne könnte unversehens zum Verhütungsmittel werden.

Die Problematik läßt sich auf einen Nenner bringen: Unsere Ernährungsgewohnheiten haben sich in Jahrtausenden auf die Inhaltsstoffe unserer Kulturpflanzen eingestellt. Wie unser Körper mit den „Sonnen-manipulierten“ Pflanzen umgehen wird, weiß niemand genau zu sagen.

Neben der Bildung von Flavonoiden verfügen die Pflanzen allerdings noch über einen zweiten Schutzmechanismus, der für den Menschen ungefährlich ist. Das Enzym Photolyase kann geschädigte Erbsubstanz reparieren, ohne die Zusammensetzung der Pflanzen zu verändern: Die Photolyase löst Verbindungen zwischen den DNA-Bausteinen, den Thymidin-Dimeren, die als Folge der UV-Strahlung entstehen und für den Tod der getroffenen Zelle verantwortlich sind.

Voraussetzung ist auch hier, daß das solare Trommelfeuer nicht allzu stark wird. Ab einer gewissen Schwelle ist auch die Photolyase nutzlos. Allerdings wären Pflanzen, die größere Mengen Photolyase produzieren, vor vermehrter UV-Strahlung besser geschützt. Bevor die Pflanzengenetiker das verantwortliche Gen verändern können, muß es allerdings erst einmal gefunden werden. Anders als bei den Genen für die Flavonoid-Synthese tappt man hier derzeit noch im Dunkeln.

Die Chancen, daß Züchter und Molekularbiologen noch rechtzeitig Mittel und Wege finden, um die Folgen des Ozonschwundes für die Pflanzenwelt in Grenzen zu halten, sind daher äußerst gering.

(erschienen in „Bild der Wissenschaft“, Februar 1993)

Literatur:

Beschleunigter Abschied von den Ozonkillern

Vertreter von 91 Nationen haben in der vergangenen Woche den Ausstieg aus der Anwendung und Produktion der ozonzerstörenden Fluorchlorkohlenwasserstoffe (FCKW) beschlossen – und zwar bereits zum Ende des Jahres 1995 und damit fünf Jahre früher als bisher vorgesehen.

Was sich zunächst wie ein großer Erfolg anhört, ist beim näheren Hinsehen eine Vereinbarung mit zahlreichen Lücken. Ursprünglich hatte Bundesumweltminister Klaus Töpfer bis 1995 ein weltweites Verbot der FCKW angestrebt – in Kopenhagen wurde den Entwicklungsländern jedoch eine Übergangsfrist bis zum Jahr 2010 eingeräumt. Ursprünglich sollten in den strikten Ausstiegsplan auch die weniger gefährlichen, sogenannten teilhalogenierten FCKW (H-FCKW) einbezogen werden, stattdessen sind H-FCKW noch bis zum Jahr 2030 erlaubt; bis 2004 muß der Einsatz von H-FCKW um ein Drittel gesenkt werden. Nicht zuletzt fiel auch das Schädlingsbekämpfungsmittel Methylbromid durch das Ausstiegsraster. Die ebenfalls ozonzerstörende Substanz erhielt in Kopenhagen kein Zeitlimit verpaßt. Die Produktionsmengen – derzeit jährlich rund 20 000 t – sollen vielmehr ab 1995 auf das Niveau von 1991 eingefroren werden.

Entsprechend enttäuschend fielen die Kommentare aus. „Unzureichend und unbefriedigend“ beurteilte Bundesumweltminister Töpfer nach seiner Rückkehr die Ergebnisse von Kopenhagen. „Die H-FCKW sind kein wirklicher Ersatz, ihr Verbot muß beschleunigt werden“, bemängelte er, vor allem weil H-FCKW als Treibhausgase zur Erwärmung der Erdatmosphäre beitragen. Vertreter der Umweltschutzorganisation Greenpeace sprachen von einem „eleganten Scheitern“ der Konferenz, als „halbherzig und unverantwortlich“ kritisierte die SPD in einer Stellungnahme die Kopenhagener Beschlüsse.

Wie schnell ein Ende der FCKW-Produktion realisierbar ist, hängt nicht zuletzt von den zur Verfügung stehenden finanziellen Mitteln ab. Bis zum Jahr 2010 müssen die Industrienationen voraussichtlich mehrere Milliarden Dollar bereitstellen, um den Übergang zu ozonfreundlichen Technologien zu fördern. Aus einem „Interim Multilateralen Fonds“, der im Juni 1990 in London eröffnet worden war, wurden den Entwicklungsländern für die Jahre 1991 bis 1993 insgesamt 240 Mio. Dollar zugesagt. Weitere 350 bis 500 Mio. Dollar sollen 1994 bis 1996 folgen. Harte Kritik übte allerdings der Generalsekretär der UNO-Umweltorganisation UNEP, Mostafa Tolba, an der schlechten Zahlungsmoral: Eine ganze Reihe von Industriestaaten seien ihren Verpflichtungen für 1991 noch immer nicht nachgekommen.

Der Weltverbrauch von FCKW, der 1987 noch über 1 Mio. t lag, hat seit der Verabschiedung des Montrealer Protokolls zum Schutz der Ozonschicht um 40 % abgenommen. In Deutschland, forciert durch die FCKW-Halon-Verbotsverordnung, nach Angaben des Bundesumweltministeriums gar um 60 %. Noch im Laufe des kommenden Jahres will die Industrie in Deutschland „nahezu vollständig“ aus Verbrauch und Produktion von FCKW aussteigen, heißt es in einer Vereinbarung zwischen einheimischen Herstellern, Anwendern und dem Bundesumweltminister.

Mit den Beschlüssen von Kopenhagen ist das FCKW-Problem aber noch lange nicht aus der Welt. „Das Maximum der Ozonschichtzerstörung wird erst um das Jahr 2005 erreicht werden“, prognostiziert Prof. Paul Crutzen vom Mainzer Max-Planck-Institut für Chemie. Mittlerweile schwindet nicht nur über der Antarktis, sondern auch über Europa und Nordamerika der vor gesundheitsschädlichen UV-Strahlen schützende Ozonschild. Für die Winter- und Frühlingsmonate wurde laut Crutzen in den 80er Jahren ein Rückgang von etwa 8% registriert. „Wenn dieser Trend sich fortsetzt, müssen wir mit einer weiteren Abnahme um 10 % bis 15 % rechnen.“

Auch der Atmosphärenchemiker ist mit den Ergebnissen aus Kopenhagen nicht so recht zufrieden. „Ich ärgere mich, daß alles so lange dauert.“ Dafür sind nach Ansicht Crutzens nicht nur die Politiker verantwortlich. „Auch die Industrie hätte schneller reagieren können“, kritisiert er, „und beispielsweise die Forschung in nennenswertem Umfang unterstützen müssen.“

(mein erster Artikel für die VDI-Nachrichten, erschienen am 4. Dezember 1992)

Wie Japan seine Umwelt schützt

Seveso, Bhopal, Tschernobyl – in Japan heißt das Synonym für Umweltkatastrophe Minamata. In den frühen fünfziger Jahren starben in der gleichnamigen Bucht vor dem Distrikt Kumamoto erst die Fische, dann die Katzen. Die Warnzeichen blieben unbeachtet; erst Jahre darauf erkrankten die ersten Menschen. „Hirnschäden unbekannter Herkunft“ lautete die Diagnose; schockierende Bilder gingen um die Welt.

Erst 1968, also zwölf Jahre nach dem Auftreten der ersten Fälle, gab die Regierung offiziell zu Protokoll, daß es sich bei der Minamata-Krankheit um eine schwerwiegende Quecksilbervergiftung handelt, hervorgerufen durch die Abwässer einer nahegelegenen Chemiefabrik.

Die Tatsache, daß Japan mit seinen 120 Millionen Einwohnern heute auf dem Gebiet des Umweltschutzes beträchtliche Erfolge vorzuweisen hat, mag für die 2900 anerkannten langzeitgeschädigten Anwohner von Minamata nur ein kleiner Trost sein. Dennoch steht fest: Im Land der aufgehenden Sonne wird der Himmel nur noch in seltenen Ausnahmen von Schmutzwolken verschleiert, die großen Umweltskandale sind Geschichte. Wie kein anderes Land hat Japan es verstanden, seit den siebziger Jahren das Wirtschaftswachstum vom Energieverbrauch zu entkoppeln.

Der Schadstoffausstoß für die weitaus meisten Umweltgifte konnte drastisch reduziert werden, gleichzeitig erklommen die einheimischen Multis Spitzenpositionen im internationalen Wettbewerb. Im Großraum Tokyo leben fast 30 Millionen Einwohner auf engstem Raum. Nirgendwo sonst verursachen so viele Menschen so wenige Umweltschäden. Meßbar sind diese Erfolge nicht zuletzt an der Lebenserwartung: Für Männer liegt sie bei  76, für Frauen gar bei 82 Jahren, in Deutschland sind es jeweils vier Jahre weniger.

Die Zahlen sprechen für sich: Heute verbraucht der Durchschnittsjapaner nicht einmal die Hälfte der Energie, die ein Amerikaner benötigt; sein Durchschnittseinkommen ist aber deutlich höher. Unter allen Industrienationen erwirtschaftet Japan am meisten Güter aus jedem verbrauchten Liter Öl. Kohle- und Ölkraftwerke, von denen das rohstoffarme Land nach wie vor den Großteil seiner Energie bezieht, waren ebenso wie die Chemiekonzerne gezwungen worden, strenge Auflagen einzuhalten.

Der Antrieb für die japanische Industrie kommt dabei weniger durch die Angst vor Bußgeldern zustande, obwohl auch dies in seltenen Fällen vorkommt. Ein Sprecher des Umweltministeriums erklärte auf eine entsprechende Nachfrage lächelnd: „Sie verlieren ihr Gesicht, wenn sie vor Gericht gestellt werden – und das genügt.“

Doch auch hier ist nicht alles Gold, was glänzt. Während in Deutschland und den Vereinigten Staaten jeweils über 500 Substanzen, die als gefährlich eingestuft werden, strengen gesetzlichen Bestimmungen unterliegen, sind es in Japan gerade zehn. Was das bedeutet, erklärte Dr. Masatoshi Morita, einer der führenden Wissenschaftler am Nationalen Zentrum für Umweltstudien: „Wenn man in Japan erst einmal die Voraussetzungen geschaffen hat, um die Umwelt nach Dioxinen abzusuchen, sind wir um ein Problem reicher.“

(erschienen in „DIE WELT“ am 3. Juli 1992. Die mehrtägige Informationsreise erfolgte auf Einladung und auf Kosten der japanischen Regierung.)