Zum Hauptinhalt springen

Nachgefragt: Was UV-Strahlung mit Pflanzen macht

In meinem ersten Beitrag für „Bild der Wissenschaft“ hatte ich jede Menge Platz, um ein ziemlich komplexes Thema ausführlich darzustellen. Hintergrund war die steigende UV-Belastung infolge des Ozonloches und die Frage: „Wie reagieren eigentlich Pflanzen auf die veränderten Bedingungen?“. Die kurze Antwort: Unter starker Sonnenbestrahlung wachsen viele Pflanzen nicht nur schlechter, auch ihre Bestandteile verändern sich. Teilweise extrem: Grüne Bohnen werden unversehens zum Verhütungsmittel.

Die Pflanzenwelt wird überleben, auch wenn die Hälfte des schützenden Ozons über unseren Köpfen verschwinden sollte, da ist sich Prof. Eckard Wellmann vom Biologischen Institut II der Universität Freiburg sicher. Allerdings – ob wir die Pflanzen dann noch essen können, bezweifelt er.

Solche Bedenken hat auch Prof. Manfred Tevini am zweiten Botanischen Institut der Universität Karlsruhe. Beide Wissenschaftler beschäftigen sich seit Jahrzehnten mit den Auswirkungen verstärkter ultravioletter Strahlung auf Pflanzen. Die größte Rolle spielt dabei das sogenannte kurzwellige UV-Licht – jener Anteil des Sonnenlichts, der Eiweiße und Erbsubstanz aller Lebewesen massiv schädigen könnte, wenn nicht der Ozonschild in zehn bis vierzig Kilometer Höhe davor schützen würde.

Wegen der fortschreitenden Verdünnung der Ozonschicht wird aber der Bruchteil dieser Strahlung, der den Erdboden erreicht, ständig größer. UV-B, mit einer Wellenlänge zwischen 280 und 320 Nanometern, auch als „biologisch aktive“ UV-Strahlung bezeichnet, steht daher im Mittelpunkt der Umwelt-Forschung.

Ob die Schutzmechanismen von Tieren und Pflanzen, die sich im Laufe von etwa drei Milliarden Jahren an die zum Erdboden gelangende Reststrahlung angepaßt haben, auch in Zukunft noch wirken werden, scheint zweifelhaft. Gleichzeitig ist aber noch so wenig über die Bandbreite natürlicher UV-Toleranz bekannt, daß die meisten Wissenschaftler nur hinter vorgehaltener Hand darüber spekulieren, wieviel Prozent Ozonschwund verkraftet werden kann, bevor ganze Ökosysteme zusammenbrechen.

Schon die Messung der auf dem Erdboden ankommenden UV-B-Strahlung mache große Schwierigkeiten. Auf der Tagung „UV-B Monitoring Workshop“ die im März 1992 in Washington stattfand, mußten die versammelten Experten einräumen, daß befriedigende Meßwerte bislang fehlten. „Es gibt die nötigen Meßgeräte nicht, und die Auswirkung von Wolken ist bis heute in keinem Modell berücksichtigt“, formuliert Wellmann das Problem.

Auch exakte Labor-Experimente sind nicht möglich. Das natürliche UV-Licht der Sonne ist – trotz Speziallampen und Filter – noch immer nicht genau simulierbar: Die UV-Strahlung, die uns erreicht, ist das Ergebnis komplexer Wechselwirkungen zwischen Sonnenlicht und Atmosphäre mit ihren verschiedenen Schichten und läßt sich daher nicht exakt nachahmen.

Erschwert wird die Vorhersage auch dadurch, daß nicht alle Pflanzen auf vermehrte UV-Bestrahlung gleich reagieren: Wellmann hat bei seinen Experimenten „riesige Unterschiede in der Empfindlichkeit“ festgestellt.

Von etwa 200 Arten, die Wellmann, Tevini und andere untersucht haben, erwiesen sich etwa 130, darunter Erdbeeren, als UV-B-empfindlich: Sie blieben im Wachstum deutlich hinter unbestrahlten Artgenossen zurück.

Jede dritte Art aber kommt auch mit einer Reduktion der Ozonschicht um vierzig Prozent noch gut zurecht. „Wie hoch die Toleranz der Pflanzen entwickelt ist, sieht man allein schon daran, daß manche in Deutschland heimische Gewächse auch am Äquator gut gedeihen“, sagt Wellmann. Und tropische Gewächse müssen seit jeher mit einer UV-B-Strahlung fertig werden, die fünfmal so stark ist wie in gemäßigten Breiten.

Was aber passiert, wenn die Strahlung in unseren Breiten noch weiter zunimmt? Für Prof. Tevini stellt sich die Frage, ob die UV-Resistenz nicht schon jetzt am Umschlagen ist. Doch er hält die Auslese von UV-resistenten Sorten prinzipiell für möglich. Das ist allerdings aufwendig, kostet viel Geld – und das ist derzeit knapp. Tevini fordert daher ein mit Geldmitteln gut ausgerüstetes Schwerpunktprogramm, um die biologischen Konsequenzen vermehrter UV-B-Strahlung zu erforschen.

Möglicherweise wird man schon in wenigen Jahren gezwungen sein, südliche Sorten, die UV-toleranter sind als einheimische, auch im Norden zu pflanzen. Ein Problem ist, daß nicht nur die Arten, sondern auch die verschiedenen Sorten derselben Art auf UV-Strahlung verschieden reagieren. Außerdem sind die verschiedenen Entwicklungsstadien einer Pflanze mehr oder weniger empfindlich: Mal sind die Keimlinge besser geschützt, mal sind es die fruchttragenden Pflanzen.

Eine der wenigen detaillierten Studien hat Dr. Alan Teramura, Botaniker an der amerikanischen University of Maryland, an Sojabohnen vorgenommen. Von 23 Sorten erwiesen sich 7 als unempfindlich gegenüber erhöhter UV-Strahlung, 2 Sorten brachten sogar höhere Erträge. Mit niedrigerem Trockengewicht, reduziertem Wachstum und verringerter Blattfläche reagierten dagegen14 der 23 Sorten. Die Ernteverluste im Feld betrugen für diese UV-sensitiven Pflanzen bis zu einem Fünftel. Ausgerechnet die ertragreiche Sorte „Essex“, die derzeit von amerikanischen Farmern bevorzugt wird, erwies sich als besonders empfindlich. Die UV-toleranten Sojabohnen vom weniger ertragreichen Typ „Williams“ dagegen wurden in den letzten Jahren immer seltener angebaut.

Sorgen machen sich die Forscher aber weniger um die amerikanische oder europäische Landwirtschaft mit ihren gewaltigen Überschüssen. Für Tevini sind Hungerkatastrophen durch Ernteverluste in den Entwicklungsländern die größte Bedrohung. Vielleicht, so die Hoffnung einer Handvoll Optimisten, lassen sich wichtige Kulturpflanzen eines Tages aber auch mit Hilfe der Gentechnik derart manipulieren, daß die Hungerkatastrophe vermieden werden kann.

Das Interesse an den natürlichen Schutzmechanismen landlebender Pflanzen ist daher mehr als nur Grundlagenforschung. Etwa zwölf Millionen Mark hat das Bundesforschungsministerium seit 1978 bereitgestellt, um die Auswirkung von UV-B-Strahlung auf lebende Organismen zu ergründen – zu wenig, urteilt der Freiburger Biologe Wellmann. Ein geeignetes Schwerpunktprogramm, so schätzen die Experten, würde zehn bis zwanzig Millionen Mark im Jahr kosten.

Die bisherigen Ergebnisse bei Labor-, Treibhaus- und freiwachsenden Pflanzen: Landlebende Pflanzen wehren sich gegen vermehrte UV-Strahlung. Erst werden in der äußersten Zellschicht, der Epidermis, Schutzpigmente gebildet, die zur Gruppe der Flavonoide gehören. Von besonderer Bedeutung sind dabei die farblosen oder gelben Flavone, Pflanzenfarbstoffe, die ultraviolette Strahlung absorbieren und so die empfindlichen Zellbestandteile, einschließlich der Erbsubstanz in Zellkern und Chloroplasten schützen.

In der Natur beginnt die Farbstoffproduktion schon, ehe die Keimlinge den Boden durchstoßen. Wenige Lichtquanten, die in den Boden eindringen, reichen aus, die Flavonoid-Synthese zu starten. Ema dreißig Gene sind daran beteiligt. Auch die zugehörigen Eiweiße sind bekannt. Im Experiment läßt sich die Folge erhöhter UV-Strahlung gut beobachten. Keine halbe Stunde nach Beginn der Bestrahlung bezeugt die Anwesenheit von Boten-RNA die vermehrte Genaktivität. Wieder eine halbe Stunde später finden sich die ersten Eiweiße und nach insgesamt zwei Stunden läuft die Flavonoid-Synthese auf Hochtouren. Offensichtlich wird der gesamte Block von Flavonoid-bildenden Enzymen gleichzeitig angeworfen.

Für die Praxis bedeutet dies, daß die Genmanipulation für die Flavonoid-Synthese viel zu kompliziert und wenig erfolgversprechend ist. Ein einziges Kontrollgen, dessen Aktivität die Bildung von Schutzpigmenten reguliert, wäre den Pflanzenzüchtern lieber gewesen. Durch züchterische Auswahl oder Gentransfer hätte man UV-sensitive Pflanzen dann eher schützend manipulieren können.

Tevini arbeitet zurzeit daran, das Bindeglied zwischen einfallenden UV-Strahlen und vermehrter Flavonoid-Synthese aufzuspüren. Woher „wissen“ die Pflanzen, daß Gefahr droht? Prof. Tevini hat eine vorläufige Antwort: In Roggenkeimlingen isolierte er eine Substanz – Zimtsäure -, die in zwei verschiedenen Spielarten auftritt. Als trans-Zimtsäure hemmt das Molekül mit Hilfe eines komplizierten Kontrollmechanismus die Synthese der Flavonoide. Bestrahlt man die trans-Zimtsäure jedoch mit ultraviolettem Licht, so verwandelt sich das Molekül in cis-Zimtsäure.

Der Clou: die cis-Zimtsäure hebt die Blockade der Flavonoid-Synthese wieder auf, möglicherweise werden sogar einige Gene aktiviert, die an der Bildung des pflanzlichen Schutzschildes mitwirken.

Ob das Prinzip, das Tevini am Roggen untersucht hat, auch bei anderen Pflanzen gilt, ist jedoch keineswegs sicher. Und selbst wenn sich die beobachtete Wechselwirkung zwischen Zimtsäure und UV-Strahlung als ein in der Pflanzenwelt weitverbreitetes Prinzip erweisen sollte, ist damit noch nicht viel gewonnen. Zum einen ist derzeit nicht klar, wo der Schutzmechanismus an seine Grenzen stößt, zum anderen muß das, was für die Pflanze gut ist, für den Menschen noch lange nicht gut sein.

Denn Flavonoide und andere Substanzen, die als Reaktion auf „Umweltstreß“ gebildet werden, können die Inhaltsstoffe einer Pflanze drastisch verändern. So weisen amerikanische Untersuchungen darauf hin, daß die halluzinogenen Wirkstoffe der Cannabis-Pflanze zunehmen und der Proteingehalt bei Sojabohnen drastisch reduziert wird.

Während Basilikum mehr ätherische Öle produziere, was von Vorteil wäre, könnte der Genuß von Bohnen bei erhöhter UV-Strahlung unerwünschte Folgen haben. Denn Bohnen bilden nach UV-Bestrahlung Cumestrol, eine Substanz, die in der Wirkung dem Schwangerschaftshormon Östrogen vergleichbar ist. Die Konzentration von Cumestrol kann so hoch werden, daß der menschliche Hormonhaushalt durcheinandergebracht wird – die Bohne könnte unversehens zum Verhütungsmittel werden.

Die Problematik läßt sich auf einen Nenner bringen: Unsere Ernährungsgewohnheiten haben sich in Jahrtausenden auf die Inhaltsstoffe unserer Kulturpflanzen eingestellt. Wie unser Körper mit den „Sonnen-manipulierten“ Pflanzen umgehen wird, weiß niemand genau zu sagen.

Neben der Bildung von Flavonoiden verfügen die Pflanzen allerdings noch über einen zweiten Schutzmechanismus, der für den Menschen ungefährlich ist. Das Enzym Photolyase kann geschädigte Erbsubstanz reparieren, ohne die Zusammensetzung der Pflanzen zu verändern: Die Photolyase löst Verbindungen zwischen den DNA-Bausteinen, den Thymidin-Dimeren, die als Folge der UV-Strahlung entstehen und für den Tod der getroffenen Zelle verantwortlich sind.

Voraussetzung ist auch hier, daß das solare Trommelfeuer nicht allzu stark wird. Ab einer gewissen Schwelle ist auch die Photolyase nutzlos. Allerdings wären Pflanzen, die größere Mengen Photolyase produzieren, vor vermehrter UV-Strahlung besser geschützt. Bevor die Pflanzengenetiker das verantwortliche Gen verändern können, muß es allerdings erst einmal gefunden werden. Anders als bei den Genen für die Flavonoid-Synthese tappt man hier derzeit noch im Dunkeln.

Die Chancen, daß Züchter und Molekularbiologen noch rechtzeitig Mittel und Wege finden, um die Folgen des Ozonschwundes für die Pflanzenwelt in Grenzen zu halten, sind daher äußerst gering.

(erschienen in „Bild der Wissenschaft“, Februar 1993)

Literatur:

Beschleunigter Abschied von den Ozonkillern

Vertreter von 91 Nationen haben in der vergangenen Woche den Ausstieg aus der Anwendung und Produktion der ozonzerstörenden Fluorchlorkohlenwasserstoffe (FCKW) beschlossen – und zwar bereits zum Ende des Jahres 1995 und damit fünf Jahre früher als bisher vorgesehen.

Was sich zunächst wie ein großer Erfolg anhört, ist beim näheren Hinsehen eine Vereinbarung mit zahlreichen Lücken. Ursprünglich hatte Bundesumweltminister Klaus Töpfer bis 1995 ein weltweites Verbot der FCKW angestrebt – in Kopenhagen wurde den Entwicklungsländern jedoch eine Übergangsfrist bis zum Jahr 2010 eingeräumt. Ursprünglich sollten in den strikten Ausstiegsplan auch die weniger gefährlichen, sogenannten teilhalogenierten FCKW (H-FCKW) einbezogen werden, stattdessen sind H-FCKW noch bis zum Jahr 2030 erlaubt; bis 2004 muß der Einsatz von H-FCKW um ein Drittel gesenkt werden. Nicht zuletzt fiel auch das Schädlingsbekämpfungsmittel Methylbromid durch das Ausstiegsraster. Die ebenfalls ozonzerstörende Substanz erhielt in Kopenhagen kein Zeitlimit verpaßt. Die Produktionsmengen – derzeit jährlich rund 20 000 t – sollen vielmehr ab 1995 auf das Niveau von 1991 eingefroren werden.

Entsprechend enttäuschend fielen die Kommentare aus. „Unzureichend und unbefriedigend“ beurteilte Bundesumweltminister Töpfer nach seiner Rückkehr die Ergebnisse von Kopenhagen. „Die H-FCKW sind kein wirklicher Ersatz, ihr Verbot muß beschleunigt werden“, bemängelte er, vor allem weil H-FCKW als Treibhausgase zur Erwärmung der Erdatmosphäre beitragen. Vertreter der Umweltschutzorganisation Greenpeace sprachen von einem „eleganten Scheitern“ der Konferenz, als „halbherzig und unverantwortlich“ kritisierte die SPD in einer Stellungnahme die Kopenhagener Beschlüsse.

Wie schnell ein Ende der FCKW-Produktion realisierbar ist, hängt nicht zuletzt von den zur Verfügung stehenden finanziellen Mitteln ab. Bis zum Jahr 2010 müssen die Industrienationen voraussichtlich mehrere Milliarden Dollar bereitstellen, um den Übergang zu ozonfreundlichen Technologien zu fördern. Aus einem „Interim Multilateralen Fonds“, der im Juni 1990 in London eröffnet worden war, wurden den Entwicklungsländern für die Jahre 1991 bis 1993 insgesamt 240 Mio. Dollar zugesagt. Weitere 350 bis 500 Mio. Dollar sollen 1994 bis 1996 folgen. Harte Kritik übte allerdings der Generalsekretär der UNO-Umweltorganisation UNEP, Mostafa Tolba, an der schlechten Zahlungsmoral: Eine ganze Reihe von Industriestaaten seien ihren Verpflichtungen für 1991 noch immer nicht nachgekommen.

Der Weltverbrauch von FCKW, der 1987 noch über 1 Mio. t lag, hat seit der Verabschiedung des Montrealer Protokolls zum Schutz der Ozonschicht um 40 % abgenommen. In Deutschland, forciert durch die FCKW-Halon-Verbotsverordnung, nach Angaben des Bundesumweltministeriums gar um 60 %. Noch im Laufe des kommenden Jahres will die Industrie in Deutschland „nahezu vollständig“ aus Verbrauch und Produktion von FCKW aussteigen, heißt es in einer Vereinbarung zwischen einheimischen Herstellern, Anwendern und dem Bundesumweltminister.

Mit den Beschlüssen von Kopenhagen ist das FCKW-Problem aber noch lange nicht aus der Welt. „Das Maximum der Ozonschichtzerstörung wird erst um das Jahr 2005 erreicht werden“, prognostiziert Prof. Paul Crutzen vom Mainzer Max-Planck-Institut für Chemie. Mittlerweile schwindet nicht nur über der Antarktis, sondern auch über Europa und Nordamerika der vor gesundheitsschädlichen UV-Strahlen schützende Ozonschild. Für die Winter- und Frühlingsmonate wurde laut Crutzen in den 80er Jahren ein Rückgang von etwa 8% registriert. „Wenn dieser Trend sich fortsetzt, müssen wir mit einer weiteren Abnahme um 10 % bis 15 % rechnen.“

Auch der Atmosphärenchemiker ist mit den Ergebnissen aus Kopenhagen nicht so recht zufrieden. „Ich ärgere mich, daß alles so lange dauert.“ Dafür sind nach Ansicht Crutzens nicht nur die Politiker verantwortlich. „Auch die Industrie hätte schneller reagieren können“, kritisiert er, „und beispielsweise die Forschung in nennenswertem Umfang unterstützen müssen.“

(mein erster Artikel für die VDI-Nachrichten, erschienen am 4. Dezember 1992)

Wie Japan seine Umwelt schützt

Seveso, Bhopal, Tschernobyl – in Japan heißt das Synonym für Umweltkatastrophe Minamata. In den frühen fünfziger Jahren starben in der gleichnamigen Bucht vor dem Distrikt Kumamoto erst die Fische, dann die Katzen. Die Warnzeichen blieben unbeachtet; erst Jahre darauf erkrankten die ersten Menschen. „Hirnschäden unbekannter Herkunft“ lautete die Diagnose; schockierende Bilder gingen um die Welt.

Erst 1968, also zwölf Jahre nach dem Auftreten der ersten Fälle, gab die Regierung offiziell zu Protokoll, daß es sich bei der Minamata-Krankheit um eine schwerwiegende Quecksilbervergiftung handelt, hervorgerufen durch die Abwässer einer nahegelegenen Chemiefabrik.

Die Tatsache, daß Japan mit seinen 120 Millionen Einwohnern heute auf dem Gebiet des Umweltschutzes beträchtliche Erfolge vorzuweisen hat, mag für die 2900 anerkannten langzeitgeschädigten Anwohner von Minamata nur ein kleiner Trost sein. Dennoch steht fest: Im Land der aufgehenden Sonne wird der Himmel nur noch in seltenen Ausnahmen von Schmutzwolken verschleiert, die großen Umweltskandale sind Geschichte. Wie kein anderes Land hat Japan es verstanden, seit den siebziger Jahren das Wirtschaftswachstum vom Energieverbrauch zu entkoppeln.

Der Schadstoffausstoß für die weitaus meisten Umweltgifte konnte drastisch reduziert werden, gleichzeitig erklommen die einheimischen Multis Spitzenpositionen im internationalen Wettbewerb. Im Großraum Tokyo leben fast 30 Millionen Einwohner auf engstem Raum. Nirgendwo sonst verursachen so viele Menschen so wenige Umweltschäden. Meßbar sind diese Erfolge nicht zuletzt an der Lebenserwartung: Für Männer liegt sie bei  76, für Frauen gar bei 82 Jahren, in Deutschland sind es jeweils vier Jahre weniger.

Die Zahlen sprechen für sich: Heute verbraucht der Durchschnittsjapaner nicht einmal die Hälfte der Energie, die ein Amerikaner benötigt; sein Durchschnittseinkommen ist aber deutlich höher. Unter allen Industrienationen erwirtschaftet Japan am meisten Güter aus jedem verbrauchten Liter Öl. Kohle- und Ölkraftwerke, von denen das rohstoffarme Land nach wie vor den Großteil seiner Energie bezieht, waren ebenso wie die Chemiekonzerne gezwungen worden, strenge Auflagen einzuhalten.

Der Antrieb für die japanische Industrie kommt dabei weniger durch die Angst vor Bußgeldern zustande, obwohl auch dies in seltenen Fällen vorkommt. Ein Sprecher des Umweltministeriums erklärte auf eine entsprechende Nachfrage lächelnd: „Sie verlieren ihr Gesicht, wenn sie vor Gericht gestellt werden – und das genügt.“

Doch auch hier ist nicht alles Gold, was glänzt. Während in Deutschland und den Vereinigten Staaten jeweils über 500 Substanzen, die als gefährlich eingestuft werden, strengen gesetzlichen Bestimmungen unterliegen, sind es in Japan gerade zehn. Was das bedeutet, erklärte Dr. Masatoshi Morita, einer der führenden Wissenschaftler am Nationalen Zentrum für Umweltstudien: „Wenn man in Japan erst einmal die Voraussetzungen geschaffen hat, um die Umwelt nach Dioxinen abzusuchen, sind wir um ein Problem reicher.“

(erschienen in „DIE WELT“ am 3. Juli 1992. Die mehrtägige Informationsreise erfolgte auf Einladung und auf Kosten der japanischen Regierung.)

Ein Atlas kaputter Wälder

Der erste gesamtdeutsche Waldschadensbericht liegt nun auch als anschauliche Karte vor. Mitarbeiter des Berliner Umweltbundesamtes haben in Bilder gefaßt, was zuvor nur in langen Zahlenreihen festgehalten war: Die Abbildung zeigt den Anteil geschädigter Bäume am Gesamtbestand in Prozent. Vor allem in den neuen Ländern, aber auch im Bayerischen Wald ist die Situation am schlimmsten. Dort sind teilweise sieben von zehn Bäumen geschädigt.

Im statistischen Durchschnitt werden immerhin 36 Prozent aller deutschen Bäume als „gesund“ eingestuft, 39 Prozent des Bestandes ist „schwach geschädigt“ (Schadstufe 1), jeder vierte Baum weist „deutliche Schäden“ (Schadstufe 2 bis 4) auf.

Damit belegt die Bundesrepublik im europäischen Vergleich einen der letzten Plätze. Besonders gut geht es dem Wald in Osterreich, wo nur jeder 25ste Baum deutliche Schäden aufweist. Die Schweiz liegt gleichauf mit den alten Ländern der Bundesrepublik (jeder siebte Baum mit deutlichen Schäden); traurige Schlußlichter der Erhebung sind Polen, Großbritannien, die Tschechoslowakei und Weißrußland.

Bewertet wurde die Vergilbung von Nadeln und Blättern in Abhängigkeit von der Höhenlage sowie die Auslichtung der Baumkronen. Unter Federführung des Bundesministeriums für Ernährung, Landwirtschaft und Forsten wurden alte und neue Bundesländer mit einem engen Netz von vier Kilometern Maschenweite überdeckt. In jedem Quadrat nahmen Experten mindestens eine Stichprobe. Nie zuvor wurde der deutsche Wald, der 30 Prozent des bundesdeutschen Territoriums bedeckt, so gründlich überprüft.

Während sich der Zustand von Fichte und Kiefer seit 1986 leicht verbessert hat, nahmen die Schäden vor allem bei Buche und Eiche deutlich zu. Die jüngsten Forschungsergebnisse, so das Umweltbundesamt, bestätigen die Beteiligung von Luftschadstoffen als wesentliche Ursache der Schäden. Deren Reduzierung sei damit „entscheidende Voraussetzung zur Verbesserung des Zustandes der Wälder“.

(erschienen in „Die WELT“ am 3. Juli 1992)

Was wurde daraus? Obwohl die Belastung durch Luftschadstoffe deutlich zurückgegangen ist, und insbesondere der „saure Regen“ dank reduzierter Schwefelemmissionen abgenommen hat, geht es dem deutschen Wald noch immer schlecht. Einem Bericht des Landwirtschaftsministeriums (Download als pdf) entnehme ich, dass 2019 das bisher schlimmste Jahr war, wobei Experten die Dürresommer infolge des Klimawandels verantwortlich machen.

Umweltpolitik: Viele Ideen, wenig Action

Eines der Hauptthemen des Umweltgipfels in Rio ist die Bedrohung der Menschheit durch die von Wissenschaftlern vorhergesagte globale Erwärmung. Weniger häufig wird darüber gesprochen, daß die gleichen Experten auch sehr konkrete Vorschläge unterbreitet haben, wie das Problem am besten anzugehen sei. Für die Bundesrepublik, die in den Augen vieler Entwicklungsländer eine Vorreiter-Rolle hat, gibt es sogar ein „nationales CO2-Minderungsprogramm zum Klimaschutz“.

Das Programm, beschlossen vom Kabinett am 7. November 1990, umfaßt elf Punkte und soll sicherstellen, daß Deutschland seine öffentliche Verpflichtung erfüllt, den Kohlendioxid-Ausstoß bis zum Jahr 2005 um mindestens ein Viertel zu reduzieren. Umweltminister Klaus Töpfer damals: „Mit dem heutigen Beschluß hat die Bundesregierung bewiesen, wie ernst sie die globale Klimagefährdung nimmt.“

Aber noch immer fehlen die unter Punkt 1 der Vorlage vorgeschlagenen „ökonomischen Instrumente“ (sprich Klimasteuern). Die geplante Novelle des Energiewirtschaftgesetzes steht ebenso aus wie die beschlossenen Zusätze zu den Verordnungen über Klein- und Großfeuerungsanlagen, über Wärmeschutz und Heizungsanlagen.

Zwar hat die deutsche Automobilindustrie sich freiwillig bereiterklärt, den Energieverbrauch ihrer Fahrzeuge deutlich zu senken. Einstweilen haben die Konkurrenten aus Japan, Frankreich und Italien aber hier die Nase vorn. Die – ebenfalls 1990 beschlossene – Einführung einer schadstoffbezogenen Fahrzeugsteuer läßt noch immer auf sich warten.

Ohnehin hat das CO2-Minderungsprogramm nur einen kleinen Bruchteil dessen berücksichtigt, was die Experten an Problemlösungen anzubieten haben: Die Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ hatte bereits vor zwei Jahren auf 9173 Seiten dargestellt, was machbar wäre: Sie wertete 150 Studien aus, die alle klimarelevanten Fragen der Energienutzung untersuchen. Seitdem steht das zehnbändige Werk, das nach den Worten seiner Herausgeber die „Klimapolitik der nächsten Jahrzehnte“ bestimmen sollte, in den Bibliotheken.

Eine neue Enquete-Kommission („Schutz der Erdatmosphäre“) hat die Arbeit ihrer Vorgänger fortgesetzt. In dem gerade veröffentlichten Bericht wird dem Bundestag und der Bundesregierung empfohlen, in Zusammenarbeit mit anderen Industrieländern die politische Initiative zu ergreifen, um ein solarthermisches Kraftwerk im Sonnengürtel der Erde zu bauen. Seit mehreren Jahren werden derartige Kraftwerke mit einer Leistung von 350 Megawatt in Kalifornien betrieben; zuverlässig und bereit für die weltweite Markteinführung. Obwohl in Spitzenverbrauchszeiten zusätzlich mit Erdgas gefeuert werden muß, lohnt sich die Sache dreifach: Die Brennstoffkosten sinken auf ein Viertel, die Luftverschmutzung geht gegen Null und natürlich sinkt auch der CO2-Ausstoß drastisch.

Um den Entwicklungsländern die hohen Anschaffungskosten zu versüßen, schlägt die Enquete-Kommission einen „verlorenen Zuschuss“ in Höhe von einem Drittel der Investitionskosten vor, das sind rund 115 Millionen Mark. Konkrete Planungen gibt es für Indien und Brasilien.

Ein zweiter Vorschlag der Kommission wäre billiger zu verwirklichen: Durch einfache Isolationsmaßnahmen ließen sich die Verluste beim Transport von Erdgas drastisch reduzieren. Aus den 220.000 Kilometern Fernwärmeleitungen der ehemaligen Sowjetunion gehen wegen Lecks und technisch überholter Kompressorstationen mindestens acht Prozent des transportierten Erdgases verloren – in Westeuropa und Nordamerika sind es nur 0,5 Prozent.

Vierzig Milliarden Kubikmeter, die Hälfte des deutschen Jahresverbrauches verschwinden so in der Luft. Dabei sind weitere 250.000 Kilometer Leitungen, die benötigt werden, um den Brennstoff zum Verbraucher zu bringen, noch gar nicht mitgerechnet. Aus den Lecks strömt das Treibhausgas Methan, welches den größten Bestandteil des Erdgases ausmacht, direkt in die Atmosphäre. An den Kompressorstationen wird es zu Kohlendioxid verbrannt.

Mit deutscher Hilfe könnten diese Löcher gestopft werden. Dazu die Enquete-Kommission: „Es kann davon ausgegangen werden, daß die zusätzlichen Einnahmen bei einer Sanierung die Ausgaben übersteigen werden“.

(erschienen in „DIE WELT“ am 12. Juni 1992)

Prognosen zur Erderwärmung erneuert

Rechtzeitig zur UNCED-Konferenz vermelden wissenschaftliche Fachzeitschriften eine wahre Flut an neuen Meßwerten, Theorien und Prognosen zum Ausmaß der heiß diskutierten globalen Erwärmung. Auch die Enquetekommission „Schutz der Erdatmosphäre“ des Deutschen Bundestages legte dieser Tage ihre alarmierenden Befunde in Buchform vor.

Die Aussagen der Experten sind eindeutig: „Als Folge einer Politik des Abwartens wird sich die Temperatur der Erdatmosphäre bis zum Jahr 2100 um rund zwei bis fünf Grad erhöhen“, so die Enquetekommission. 370 Klimaforscher, die vom Umweltprogramm der Vereinten Nationen (UNEP) und von der Weltorganisation der Meteorologen (MO) beauftragt wurden, hatten exakt die gleichen Zahlen genannt – im Juni 1990.

In der Zwischenzeit haben sich diese Wissenschaftler, die sich zum Intergovernmental Panel on Climate Change (IPCC) zusammengefunden haben, nicht auf ihren Lorbeeren ausgeruht. Viele Klimafaktoren, die bei den ersten Hochrechnungen schlicht unter den Tisch fielen, wurden mittlerweile in die Computersimulationen mit aufgenommen.

Zwei amerikanische Klimamodelle, ein britisches und ein deutsches, das am Hamburger Max-Planck-Institut für Meteorologie erarbeitet wurde, kommen unter leicht unterschiedlichen Ausgangsbedingungen zu weitgehend ähnlichen Ergebnissen. In ihren „gekoppelten Ozean-Atmosphäre-Modellen“ haben Physiker und Mathematiker, Meteorologen und Programmierer, Geologen und Klimaforscher gemeinsam versucht, die Auswirkungen der vom Menschen freigesetzten Treibhausgase über einen Zeitraum von mehr als einem Jahrhundert hinweg zu simulieren.

Dabei wurden die Rußwolken des Golfkrieges ebenso in klimarelevante Zahlen gefaßt wie die Auflösung der Sowjetunion und die neuesten Prognosen zum Bevölkerungswachstum. Die Abholzung der Wälder wurde neu berechnet, außerdem die Auswirkungen des Montrealer Protokolls zur Reduktion von Fluorchlorkohlenwasserstoffen und der Rückgang der Schwefeldioxidemissionen in modernen Kohlekraftwerken (was die Erde paradoxerweise zusätzlich anheizt).

Natürlich gibt es auch unter den Experten strittige Punkte. Die Rolle der Wolken im Klimageschehen beispielsweise ist kaum verstanden. Auch Wechselwirkungen der Treibhausgase mit Tier- und Pflanzenwelt wurden in den Computermodellen bisher nicht berücksichtigt.

Fast 500 Wissenschaftler aus über 70 Ländern und 18 Organisationen waren an der erweiterten Studie des IPCC beteiligt, die jetzt in Rio auf dem Tisch liegt. Eindeutige Bilanz der Experten: Es gibt keinen Grund, die Ergebnisse aus dem Jahr 1990 in Frage zu stellen. Für das Jahr 2100 rechnen die IPCC-Forscher mit einer Erwärmung um 1,5 bis maximal 3,5 Grad gegenüber der heutigen Durchschnittstemperatur. Der untere Wert bezieht sich allerdings auf das optimistischste der sechs Szenarien, welche in die Computer eingegeben wurden.

Dazu müßte sich die Zahl der Erdbewohner bis zum Jahr 2100 bei 6,4 Milliarden Menschen stabilisieren, das wirtschaftliche Wachstum auf bescheidene zwei Prozent jährlich zurückgehen und der Anteil des relativ umweltfreundlichen Erdgases an der Energiegewinnung drastisch ansteigen. Damit nicht genug: Die Kosten für die Nutzung von Kernenergie und Solarkraft müßten deutlich sinken, fluorierte Chlorkohlenwasserstoffe (FCKW) wären bis 1997 vollständig zu verbieten, die Vernichtung der Wälder müßte sofort gestoppt werden. Zusätzlich geht dieses Szenario davon aus, daß fortschrittliche Technologie und verbindliche Gesetze den Ausstoß von Luftschadstoffen weltweit ebenso reduzieren wie die Verluste beim Energietransport.

Würden all diese Voraussetzungen erfüllt, so bliebe es also bei einer Temperaturerhöhung um 1,5 Grad, gleichbedeutend mit dem Abschmelzen sämtlicher Gletscher in den Alpen und einer Verlagerung der landwirtschaftlichen Anbauzonen. Diese Entwicklung ist laut Enquetekommission „sowohl hinsichtlich ihres Ausmaßes als auch ihrer Geschwindigkeit ohne Beispiel in der Vergangenheit“.

Über Bevölkerungswachstum wird allerdings in Rio überhaupt nicht gesprochen, so daß sich vermutlich die jüngste Schätzung der Weltbank von 11,3 Milliarden Erdenbürgern bis zum Ende des 21. Jahrhunderts bewahrheiten wird. Dann ist bei ungebremstem Wirtschaftswachstum von jährlich drei Prozent und anhaltend hohem Verbrauch an fossilen Energien mit jenen 3,5 Grad Temperaturdifferenz zu rechnen, die uns beispielsweise von der letzten Eiszeit trennen.

Vier amerikanische Behörden stimmen in ihrer Beurteilung der aktuellen Lage mit den IPCC-Forschern überein, wonach die ständige Zunahme an Treibhausgasen „bedeutende Änderungen des Klimas“ mit sich bringen wird. Nach einem Bericht der Zeitschrift „Science“ (Band 256, S. 1138) wurde ein entsprechendes Memorandum der Presse zugespielt. Darin heißt es: „Unter den Wissenschaftlern, einschließlich der meisten US-Forscher, herrscht ein breiter Konsens.“ Eine Verdoppelung des Kohlendioxidgehalts in der Atmosphäre würde demnach in knapp 150 Jahren zu einer Aufheizung der Erde zwischen 1,5 und 4,5 Grad führen.

Die amerikanische Akademie der Wissenschaft (NSF) hatte dergleichen schon vor 15 Jahren vorhergesagt, die theoretischen Grundlagen für diese Berechnungen wurden bereits im 19. Jahrhundert geschaffen. Trotz dieses Memorandums seiner eigenen Beamten hatte US-Präsident George Bush noch wenige Wochen vor dem Umweltgipfel behauptet, die Prognosen der Klimaforscher seien zu vage, um seine Regierung zum Handeln zu bewegen.

Quellen:

(erschienen in „DIE WELT“ 12. Juni 1992)

Umwelt-Gipfel: Japan will nicht Zahlmeister sein

Hochrangige japanische Regierungsvertreter haben signalisiert, daß die zweitgrößte Wirtschaftsmacht der Welt nicht bereit ist, eine zweistellige Milliardensumme bereitzustellen, um einen Erfolg der UN-Konferenz für Umwelt und Entwicklung (UNCED) zu sichern.

Japans Chefdelegierter für die am 3. Juni in Rio de Janeiro beginnende Konferenz, Nobutachi Akao wies entsprechende Spekulationen in den Medien zurück und sagte vor Journalisten in Tokio: “Wir werden uns nicht verpflichten, acht Milliarden Dollar bereitzustellen.“

Allerdings sind derzeit Bemühungen im Gange, einen Umweltfond ins Leben zu rufen, der von Regierung und Privatwirtschaft gemeinsam finanziert wird und ein Volumen von jährlich 300 Milliarden Yen (ca. 2,3 Milliarden Mark) aufweisen soll.

Der „Internationale Friedens-Kooperationsfond“ sollte nach den Vorstellungen von Regierung und Liberaldemokratischer Partei neben Umweltbelangen auch der Unterstützung von Flüchtlingen zugutekommen und aus einer – noch zu beschließenden – Umweltsteuer sowie aus einer ,,internationalen Beitragssteuer“ finanziert werden.

Sollte der Plan, der unter anderem von dem einflußreichen ehemaligen Premierminister Takeshita Noboru unterstützt wird, in die Tat umgesetzt werden, so würde sich die umweltrelevante Finanzhilfe des Landes praktisch verdoppeln. Die bisherige Praxis Japans bei der Vergabe von Geldern zur Entwicklungshilfe wurde in den USA und in der EG bisher jedoch oft als versteckte Unterstützung für die einheimische Wirtschaft kritisiert.

Nach Angaben von Seiji Kojima, Direktor des Wirtschaftlichen Kooperationsbüros des Außenministeriums sind derzeit weniger als 30 Prozent der Gelder an Aufträge für japanische Firmen gebunden. „Dieser Anteil wurde in den vergangenen Jahren drastisch reduziert“, betonte Kojima.

Dem widerspricht Yoichi Kuroda, Koordinator des japanischen „Tropical Forest Action Network“, einer privaten Umweltschutzorganistion, die Japans Rolle bei der Zerstörung des tropischen Regenwaldes kritisiert. „Schaut man auf die Verträge“, so Kuroda, „sind 90 Prozent aller Gelder an Aufträge für japanische Firmen gebunden.“

UNCED-Botschafter Akao ist sich der schwierigen Lage seines Landes bewußt. Einerseits fordern die USA und Europa sowie UNCED-Generalsekretär Maurice Strong einen größeren Beitrag der Wirtschafts-Großmacht zur Lösung der globalen Probleme, andererseits stößt jede Initiative des Landes auf große Skepsis. ,,Strong hat uns gedrängt, bei der Rio-Konferenz eine Führungsrolle zu übernehmen, er hat sogar Zahlen genannt.“

Im Bereich der Umwelttechnologien – Energieeinsparung, sparsamer Umgang mit Rohstoffen, Bekämpfung von Schadstoffen – sei Japan bereits viel weiter als die USA oder auch Europa, so Akao. „Wenn es den Entwicklungslängdern wirklich darum geht, diese Techniken zu nutzen, wollen wir ihnen gerne dabei helfen. Wir sind zur Kooperation auf kommerzieller Basis bereit, bis zu einem gewissen Grad aber auch in Form von Entwicklungshilfe und Technologietransfer.“

Die Forderung mancher Länder der Dritten Welt, sämtliche Technologie unentgeltlich zur Verfügung zu stellen, weist Akao jedoch zurück: „Technologien, die in Besitz der Regierung sind, transferieren wir gerne zum Null-Tarif, aber die meisten Entwicklungen wurden von privaten Firmen getätigt, oft nach großen Investitionen. Wir können diesen Firmen nicht befehlen, ihre Geräte umsonst abzugeben.“

Zwar wären die Entwicklungsländer durchaus im Recht, wenn sie Geld fordern, um die von den Industrienationen verursachte Verschmutzung beispielsweise der Ozeane oder der Atmosphäre zu reduzieren, aber „wenn diese Länder nicht bereit sind, die selbst geschaffenen Probleme anzugehen, werden wir das auch nicht bezahlen.“

Zwischenzeitlich hat sich die japanische Regierung offiziell dazu verpflichtet, die Emissionen des Treibhausgases Kohlendioxid einzufrieren. Auch im Jahr 2000 soll demnach die Freisetzung von „japanischem“ CO2, nicht mehr als 318 Millionen Tonnen betragen, ein Wert, der für das Jahr 1990 ermittelt wurde. Die Pro-Kopf-Emission für das 120-MillionenVolk beträgt derzeit rund 2,6 Tonnen, der niedrigste Wert aller Industrienationen.

Gleichzeitig ist die Energieeffizienz im Land der aufgehenden Sonne die höchste. Japan produziert also pro freigesetzter Tonne Kohlendioxid weitaus mehr Wirtschaftsgüter als beispielsweise die Europäische Gemeinschaft oder die Vereinigten Staaten.

Dennoch hat Ex-Premierminister Takeshita vor überzogenen Erwartungen an die Adresse seines Landes gewarnt Takeshita, der durchaus für ein größeres Engagement seines Landes eintritt, sieht Japan auf dem Gipfel von Rio vor allem in einer Vermittlerrolle zwischen den industrialisierten Ländern und der Dritten Welt. Japan, so meint der einflußreiche Politiker, könnte den armen Nationen durchaus als Beispiel dienen.

„Nach dem Zweiten Weltkrieg wurde unser Land vorwiegend Dank amerikanischer Hilfe aus Hunger und Elend gerettet. Große Darlehen der Weltbank und anderer internationaler Institutionen haben Japan ein enormes Wachstum ermöglicht, das allerdings auch zu gewaltigen Umweltproblemen geführt hat.“ Gesetze zum Schutz der Umwelt hätten dann seit 1970 dazu geführt, daß Japan sich heute zu Recht als „entwickeltes“ Land bezeichnen könne.

„Zuerst sind wir der Armut entkommen, dann der Umweltverschmutzung“, sagte Takeshita. Daher sei es auch wahrscheinlich, daß die Entwicklungsländer eine Führungsrolle Japans auf diesem Gebiet akzeptieren würden.

(erschienen in „DIE WELT“ am 29. Mai 1992. Die mehrtägige Informationsreise erfolgte auf Einladung und auf Kosten der japanischen Regierung.)

Die „Erklärung von Rio“ – Ein Papiertiger?

Präzise formuliert und völkerrechtlich verbindlich sollten die Prinzipien für den Umgang mit der Umwelt in einer „Erdcharta“ festgelegt werden. Die hochfliegenden Erwartungen an den Gipfel von Rio, die noch vor kurzem zu hören waren, haben sich mittlerweile verflüchtigt. Nach monatelangem zähen Ringen zwischen Nord und Süd wurde aus der Charta eine ebenso vage wie unverbindliche „Erklärung von Rio“.

Die Hoffnungen auf ein visionäres Dokument, das ähnliches Gewicht haben könnte wie die Allgemeine Erklärung der Menschenrechte, sind damit zerschlagen. Über die Frage, ob die größte Konferenz aller Zeiten damit schon vor ihrem eigentlichen Beginn am 3. Juni zum „Ökoflop“ wird, scheiden sich indes die Geister.

UNCED-Generalsekretär Maurice Strong, auf dessen Schultern die Vorbereitung und Organisation des Rio-Gipfels lastet, faßte seine Erwartungen folgendermaßen zusammen: „Die Konferenz muß das Verhältnis zwischen Arm und Reich, zwischen Nord und Süd, auf eine völlig neue Grundlage stellen. Dazu gehört auch ein gemeinschaftlicher Angriff gegen die Armut als oberste Priorität für das 21. Jahrhundert. Das ist das mindeste, was wir den kommenden Generationen schulden, von denen wir einen empfindlichen Planeten namens Erde geborgt haben.“

Auf kurzfristige Lösungen baut also selbst Strong nicht, der von Berufs wegen zum Optimismus verurteilt ist. Wozu dann diese Konferenz, für die das UNCED-Sekretariat 50 Millionen Mark, die brasilianische Regierung weitere 150 Millionen investiert; wozu dann eine Konferenz, deren Gesamtkosten aller Voraussicht nach die Milliardengrenze überschreiten werden?

Genau 20 Jahre nach der ersten UN-Konferenz über die menschliche Umwelt in Stockholm ist der Rio-Gipfel die erste globale Versammlung von Staatsoberhäuptern zum Thema Umwelt und Entwicklung. Neben den Regierungschefs fast aller 166 UN-Mitgliedstaaten werden etliche 1000 Vertreter regierungsunabhängiger Organisationen (NGOs) erwartet. Vorwiegend handelt es sich dabei um Umweltschutzverbände. Das Spektrum reicht jedoch von Frauenbewegungen bis zu den Indianern des tropischen Regenwaldes. Auch hochkarätige Industrielle, Banker und Manager haben ihre Teilnahme zugesagt.

Begleitet werden die rund 30.000 Teilnehmer von 5000 Medienvertretern. Während der zwölftägigen Konferenz kann also mit einer Nachrichtenflut gerechnet werden, wie sie die Welt zum Thema Umwelt und Entwicklung noch nicht erlebt hat. Alleine die ARD wird den Gipfel am Zuckerhut mit 40 Fernsehsendungen dokumentieren.

Am 15. Juni werden die Probleme des Planeten nicht gelöst sein; so viel steht jetzt schon fest. Fest steht aber auch, daß nach dem Umweltgipfel niemand mehr wird behaupten können, er habe vom Ausmaß der Bedrohung nichts gewußt.

(erschienen in „DIE WELT“ am 25. Mai 1992)

Umweltgipfel: Was die Experten empfehlen

Einen ,,Aktionsplan für die neunziger Jahre“ und darüber hinaus soll die Agenda 21 darstellen. Dieses Dokument wird zwar rechtlich unverbindlich bleiben, dafür aber auf rund 800 Seiten konkrete Vorschläge unterbreiten. Regierungen und Behörden, Industrie, Banken und Umweltschützer – jeder kann hier die gebündelte Weisheit der Experten zum Thema „Umwelt und Entwicklung“ nachlesen. Auf der letzten von vier Vorbereitungssitzungen zur UNCED-Konferenz konnten sich Anfang April in New York die Delegierten aus 160 Ländern allerdings noch nicht auf alle Programmpunkte einigen. Das Kapitel ,,Rettung der Wälder“ etwa ist noch offen, auch deshalb, weil eine für alle akzeptable Definition des Begriffes „Wald“ nicht zu finden war.

Die Sprachschwierigkeiten der Gesandten verblassen allerdings gegenüber dem Hauptproblem der Agenda 21: Die Finanzierung des Maßnahmenpakets hängt derzeit noch völlig in der Luft. Addiert man die geschätzten Kosten für alle Programmbereiche – auch diese Zahlen sind in dem Dokument enthalten -, kommt man auf die stolze Summe von jährlich 200 Milliarden Mark.

Dieser Betrag, so UNCED-Generalsekretär Maurice Strong, würde benötigt, um alle empfohlenen Aktivitäten sofort zu beginnen und bis zur Jahrtausendwende zum Abschluß zu bringen. Zwar rechnen auch die größten Optimisten nicht damit, daß die reichen Industrieländer sich zu Zahlungen in dieser Größenordnung verpflichten könnten, die Chancen für eine „Initialzündung“ stehen aber nicht schlecht.

Inzwischen mehren sich nämlich die Zeichen, daß Japan auf dem Umweltgipfel eine Führungsrolle übernehmen und jährlich mindestens fünf Milliarden Dollar bereitstellen könnte. Damit würde es immerhin die Hälfte jener zehn Milliarden bezahlen, welche die UN-Kommission für Umwelt und Entwicklung anvisiert, um ein völliges Scheitern der Konferenz zu verhindern.

Sollte die Finanzierung der Agenda 21 trotzdem scheitern, wäre dies keine Entschuldigung für die Industrienationen, die Empfehlungen der Experten zu ignorieren. Die USA, die EG und Japan könnten vieles bewegen, wenn sie nur – wie gefordert – Handelsbarrieren und Subventionen abbauten und damit den Entwicklungsländern neue Einnahmequellen erschlössen.

Bei der wirtschaftlichen Entwicklung wurden ökologische Gesichtspunkte weitgehend ignoriert, konstatiert das Dokument. Die Lösung: „Die Annahme, daß die Umwelt ein frei verfügbares Gut sei“ müsse korrigiert werden. Im Klartext: Die Umweltsünder sollen zur Kasse gebeten werden, bisher frei verfügbare Ressourcen wie Luft und Wasser müßten künftig bezahlt werden.

Quelle:

Agenda 21. Aktionsprogramm der Konferenz für Umwelt und Entwicklung der Vereinten Nationen (UNCED) in Rio de Janeiro 1992 (deutsche Übersetzung).

(erschienen in „DIE WELT“, 25. Mai 1992)

WHO: Alarm vor dem Umweltgipfel

„Bewahrung und Verbesserung der Gesundheit aller Menschen sollten im Zentrum der Diskussion um Umwelt und Entwicklung stehen.“ Der Appell der Weltgesundheitsorganisation (WHO) verhallte fast ungehört. Die Diskussion um den Umweltgipfel wird bestimmt von der Sorge um Ozonloch und Tropenwald, von Schlagworten wie „Öko-Kolonialismus“ und „CO2-Steuer“.

Vielleicht hätte die Schlagzeile „Jährlich 40 Millionen Tote …“ es vermocht, wahltaktische Überlegungen und lautstarke Geldforderungen zu übertönen. Jährlich fast 40 Millionen Tote, so ist es im Bericht „Our Planet, our Health“ der WHO-Kommission Gesundheit und Umwelt nachzulesen, gehen auf das Konto von Umwelteinflüssen und ungesunder Lebensweise, das sind 75 Prozent aller Sterbefälle.

„Das dringendste Problem, dem die Welt gegenübersteht, ist die Verschlechterung der Umwelt und der dadurch verursachte Tod von Millionen“, faßt WHO-Generaldirektor Hiroshi Nakajima die Studie zusammen, die von 22 unabhängigen Experten unter Leitung der ehemaligen Präsidentin des Europaparlaments, Simone Veil, erstellt wurde. „Erstmals“, so Nakajima, „stellt eine umfassende Analyse über Gesundheit, Umwelt und Entwicklung die Gesundheit der Menschen an die erste Stelle.“

Der Studie zufolge sind die Leidtragenden meist Neugeborene und Kinder, vorwiegend in Entwicklungsländern. Dort sterben jährlich vier Millionen an Durchfallkrankheiten, verursacht durch verseuchtes Essen und Wasser. Zwei Millionen Tote gehen auf das Konto der Malaria. Mehrere 100 Millionen Menschen werden von Parasiten befallen. Eine geschädigte Umwelt begünstigt die Übertragung gefährlicher Erreger.

Der Report soll aber auch auf Gesundheitsgefahren aufmerksam machen, die bisher ignoriert wurden. Offene Feuer etwa decken den Energiebedarf von 2,5 Milliarden Erdbewohnern. In den meist ungelüfteten Räumen sammeln sich Rauch und Chemikalien und erhöhen das Risiko für Herz-und Kreislaufkrankheiten sowie Krebs. 700 Millionen Frauen und ihre Kinder verbringen den größten Teil ihrer Zeit in dieser Umgebung.

Immer dringlicher wird das Problem der Verstädterung. Sie führt dazu, daß 1000 Millionen Menschen starker Luftverschmutzung ausgesetzt sind – Atemwegserkrankungen und hohe Bleiwerte im Blut von Kindern stehen nachweislich mit dieser Entwicklung in Zusammenhang. Die Ballungszentren der Dritten Welt haben mittlerweile mehr Einwohner als Europa, Japan und Nordamerika zusammen. Eine Milliarde Menschen leben in den Elendsvierteln der Großstädte. In Kalkutta und Colombo ist jeder zweite betroffen, in Bogota und El Salvador sind es zwei von dreien, und in Lima und der größten Stadt der Welt, Mexiko City, liegt ihr Anteil sogar noch höher. Selbst in den Vereinigten Staaten leben zwei Millionen Menschen auf der Straße.

Der Report beschränkt sich indes nicht auf die Schadenserhebung, sondern gibt Empfehlungen. An oberster Stelle steht die Ermahnung an Regierungen und internationale Organisationen, das Bevölkerungswachstum zu bremsen sowie Überkonsum und Abfallerzeugung zu reduzieren.

Damit kritisiert die WHO den Umgang der Industrieländer mit den begrenzten Ressourcen des Planeten. In Vorverhandlungen für den Umweltgipfel hatten Schwellen- und Entwicklungsländer unter Führung von Malaysia und Indien wiederholt, aber erfolglos die Aufnahme einer entsprechenden Passage in die erwartete ,,Erklärung von Rio“ gefordert.

Auf der Suche nach den Ursachen für die mangelhafte medizinische Versorgung weiter Teile der Erdbevölkerung enthüllte die Kommission aber auch Fehlleistungen der Vereinten Nationen, ja der WHO selbst. Selbstkritisch heißt es: „Gesundheit hängt ab von unserer Fähigkeit, Wechselwirkungen zwischen menschlichen Aktivitäten und der Umwelt zu verstehen und zu gestalten. Wir haben dieses Wissen, aber haben nicht danach gehandelt, obwohl wir über die Mittel verfügen, um gegenwärtige und zukünftige Bedürfnisse dauerhaft abzusichern.“

Bemängelt wird eine ungenügende Beteiligung der Hauptbetroffenen: „Menschen, die von natürlichen Ressourcen abhängig sind, sollten an Entscheidungen über deren Gebrauch und Schutz in vollem Umfang beteiligt sein.“ Und weiter: „Wir brauchen Menschen, deren Sorge über die Qualität ihrer nächsten Umgebung hinausgeht. Nur sie können ihre Regierungen bewegen, den internationalen Konsens zu erreichen, der für einen gesunden Planeten unerläßlich ist.“

Quelle:

WHO Commission on Health and Environment & World Health Organization. (‎1992)‎. Our planet, our health : report of the WHO Commission on Health and Environment. World Health Organization.

(erschienen in „DIE WELT“, 25. Mai 1992)