Zum Hauptinhalt springen

Rezepte gegen das Waldsterben

Der Wald kommt unter die Räder. So lautete bisher die auf den Punkt gebrachte Befürchtung von Naturschützern, Umweltforschern und Forstbesitzern. Immer deutlicher wurde in den letzten Jahren, daß die beachtlichen Erfolge bei der Luftreinhaltung zunichte gemacht werden durch die scheinbar unaufhaltsame Zunahme der Verkehrs, durch unser aller Drang nach der Freiheit auf den eigenen vier Rädern.

Gewachsen ist aber auch die Einsicht, daß die früher als „natürlich“ eingestuften Abfälle einer hochtechnisierten Landwirtschaft dem deutschen Wald heute nicht weniger schaden als die rauchenden Schornsteine der Nachkriegsjahre.

In zehn Jahren Waldschadensforschung  wurden gut 700 Projekte von Bund, Ländern und der Deutschen Forschungsgemeinschaft finanziert, auf etwa 360 Millionen Mark beläuft sich inzwischen die Rechnung. Dazu kommen 420 Millionen Mark aus Steuergeldern für „flankierende forstliche Maßnahmen“, die es den Waldbesitzern ermöglichen sollten, die Widerstandsfähigkeit der Waldökosysteme zu erhalten und zu verbessern. Eine schmerzfreie und billige Lösung des Problems ist dennoch nicht in Sicht.

„Die Forstwirtschaft hat relativ wenige Möglichkeiten, zu reagieren. Die Wälder sind den Emissionen schutzlos preisgegeben“, sagt Professor Karl Kreutzer vom Lehrstuhl für Bodenkunde der Forstwirtschaftlichen Fakultät der Universität München. Auch die Kalkung, mit der die Versauerung der Böden bekämpft werden soll, ist kein Allheilmittel. Auf seinen Versuchsflächen im Höglwald zwischen München und Augsburg wies Kreutzer nach, daß vermehrt Nitrat gebildet wird. Die Ionen werden mit dem Regen ausgeschwemmt und stellen eine langfristige Bedrohung für das Trinkwasser dar.

Zu den trüben Zukunftsaussichten kommt die Tatsache hinzu, daß die bisherigen Maßnahmen zur Luftreinhaltung am Gesundheitszustandes des deutschen Waldes wenig zu ändern vermochten. Während sich Nadelbaumarten seit Jahren langsam erholen, geht es mit den wichtigsten Laubbäumen weiter bergab. Dabei wurden in den letzten 15 Jahren eine ganze Reihe von Gesetzen und Verordnungen erlassen, die oftmals mit hohen Erwartungen verknüpft waren:

Noch zu Beginn der achtziger Jahre wurden in der alten Bundesrepublik weit über drei Millionen Tonnen Schwefeldioxid jährlich in die Luft geblasen, von denen vier Fünftel auf das Konto von Kraftwerken und Industrie gingen. Mit der Großfeuerungsanlagen-Verordnung von 1983 ging die Ära der rauchenden Schornsteine dann zu Ende. Vor allem der Einführung von Rauchgas-Entschwefelungsanlagen ist es zu verdanken, daß die SO2-Emissionen der alten Bundesländer mittlerweile um siebzig Prozent zurückgegangen sind. Durch Betriebsstilllegungen und die Umrüstung bestehender Anlagen klärt sich der Himmel über Ostdeutschland deutlich schneller, doch liegen noch keine neuen Zahlen vor.

Ob die bisherigen Anstrengungen dem Wald geholfen haben, ist schwer zu beurteilen. Wie Professor Wolfram Elling an der Fachhochschule Weihenstehphan in Freising zeigen konnte, scheint es bei Tannen und Fichten schon in der ersten Hälfte der achtziger Jahre zu einer Art Trendwende gekommen zu sein. An der besonders stark von den neuartigen Waldschäden betroffenen Weißtanne ließ sich dies an den immer breiter werdenden Jahresringen ablesen.

Allerdings gilt diese Beobachtung nur für noch erholungsfähige Bäume, wie der Dendrochronologe betont. Aber während Frost und Dürre für das Sterben der Weißtannen ebenso wie die Versauerung der Böden anscheinend nur von untergeordneter Bedeutung sind, ist der Zusammenhang zwischen örtlicher Schwefelbelastung und dem Schädigungsgrad dieser Baumart eindeutig.

Ein weiterer Hinweis darauf, daß die Reduktion des Schwefeldioxidausstoßes zumindest eine Entlastung für den Wald gebracht hat, stammt von Untersuchungen, bei denen die Nadelmasse von Fichten im Flachland bestimmt wurde. Sie nahm etwa ab 1985 so stark zu, daß die früheren Verluste heute kaum mehr zu erkennen sind. „Erholungsfähige“ Bäume, die auf 800 Metern Höhe im Fichtelgebirge geschlagen wurden, zeigen außerdem den bereits bei den Weißtannen beobachteten Zuwachs in der Breite der Jahresringe. „Die sehr deutliche Drosselung der Schwefeldioxidemissionen während des letzten Jahrzehnts kann hier mitspielen, liefert aber keine ausreichende Erklärung“, relativiert Professor Elling.

Eine Reduktion der Stickoxide hatte man sich von der im Sommer 1983 beschlossenen Einführung des Katalysators bei Personenkraftwagen erhofft. Die Vereinigten Staaten und Japan hatten zu diesem Zeitpunkt schon vorexerziert, daß der Ausstoß dieser Gase am Einzelfahrzeug durch den Einbau des Kat um 90 Prozent veringert werden kann. Dagegen hatten sich die NOx-Emissionen aus dem bundesdeutschen Kraftfahrzeugverkehr zwischen 1970 und 1982 fast verdoppelt: 1,4 Millionen Tonnen Stickoxide jährlich strömten damals durch den Auspuff in die Umwelt. Mit steuerlichen Anreizen und der europaweiten Einführung von bleifreiem Benzin hoffte man, diesen Betrag bis 1990 mindestens zu halbieren.

Inzwischen hat sich diese Kalkulation aber als Milchmädchenrechnung erwiesen, die Emissionen sind gegenüber 1982 um ein Drittel gestiegen. Seit der Einführung des Katalysator-Autos vor zehn Jahren wuchs die Zahl der Pkw in den alten Bundesländern von 24 auf über 32 Millionen. Die wiedervereinigten Deutschen legten 1991 zusammen 866 Milliarden Kilometer zurück, das entspricht etwa 6000 Mal der Entfernung von der Erde zur Sonne. Vier von fünf Kilometern wurden dabei im Auto gefahren, mit steigender Tendenz seit 1970.

Zwar werden mittlerweile 99 Prozent aller neuzugelassenen Pkw mit geregeltem Drei-Wege-Kat ausgeliefert, auf den Straßen rollen aber momentan noch sechs von zehn Karossen „hinten ohne“. Verschärfend kommt noch hinzu, daß der durchschnittliche Verbrauch der in Deutschland zugelassenen Pkw 1991 noch immer 9,9 Liter auf 100 Kilometer betrug, gegenüber 10,7 Litern im Jahre 1975. Die technischen Verbesserungen der letzten 16 Jahre kamen also nicht der Umwelt zugute sondern gingen laut einer Erklärung des Umweltbundesamtes einher mit einem „Trend zu leistungsstärkeren und schwereren PKW, die mit höheren Geschwindigkeiten gefahren werden.“

Für den Vorsitzenden des Bund für Umwelt und Naturschutz Deutschland (BUND), Hubert Weinzierl, stellt sich daher die Frage: „Sind wird bereit, den Wald unserer überbordenden Mobilität zu opfern?“. Auch Waldschadensforscher Kreutzer fordert „nicht nur den Kat, sondern kleinere Autos mit geringerem Treibstoffverbrauch.“

Die im Juli angekündigte sogenannte Sommersmogverordnung aber bringt in dieser Hinsicht keine Verbessserung. Im Auftrag der Bundesregierung hatte das Umweltministerium einen Entwurf ausgearbeitet, nach dem „Konzentrationswerte“ für Stickoxide, Benzol und Ruß ab Juli 1995 in Kraft treten und drei Jahre später nochmals verschärft werden sollen. Die örtlichen Behörden dürfen bei Überschreiten der Werte auf die Bremse treten und den Verkehr durch Umleitungen, Straßensperren, Geschwindigkeitsbeschränkungen und Fahrverbote drosseln.

Der Anreiz zum Kauf eines Katalysatorautos besteht darin, daß diese von Fahrverboten verschont bleiben sollen. Ursprünglich wollte Umweltminister Klaus Töpfer die schärferen Werte schon zum früheren Datum durchsetzen. Wie frustrierte Mitarbeiter hinter vorgehaltener Hand bekennen, scheiterte der Vorstoß aber am Widerstand der Ministerien für Verkehr und Wirtschaft, die zudem noch die Stimme des Kanzlers auf ihrer Seite wußten.

Durch die Sommersmogverordnung werden in erster Linie die Anwohner vielbefahrener Straßen entlastet. Sie dürfen darauf hoffen, in Zukunft weniger Gifte schlucken zu müssen. „Eine deutliche Minderung der Emissionen von Vorläufersubstanzen für Ozon“, wie sie Umweltminister Klaus Töpfer erwartet hält Dr. Holger Brackemann, Pressesprecher im Umweltbundesamt, aber für unrealistisch. Selbst bei weitgehenden Sperrungen der Innenstädte ergäben sich lediglich Veränderungen im Prozentbereich. Nötig seien aber Reduktionen um 70 bis 80 Prozent, hieß es bei der Behörde, die unter anderem für die wissenschaftliche Beratung des Umweltministers verantwortlich ist.

Derzeit liegt die Sommersmogverordnung ohnehin auf Eis. „Sie wird auf absehbare Zeit nicht in Kraft treten, es gibt Probleme, die Verordnung in der Bundesregierung konsensfähig zu machen und im Bundesrat durchzubringen.“, räumte Dr. Görgen ein. Widerstand kommt besonders von den Finanzministern der Länder, denen die voraussichtlichen Kosten zu hoch erscheinen, „den Umweltministern wiederum ist die Verordnung viel zu lasch“, schildert Görgen das Gerangel.

Erschwert wird die Durchsetzung von Schutzgesetzen für den Wald auch durch eine mangelnde Haftungspflicht. Hätten Waldbesitzer ein Recht auf Ausgleich der gewaltigen Verluste, die ihnen letztlich durch die Luftverschmutzung entstehen, so könnte dies zu einer Versöhnung der Gegensätze zwischen Umwelt- und Finanzministern führen.

Als Beleg für den mangelnden Handlungswillen der Bundesregierung verweisen Naturschützer gerne auf eine höchstrichterlich dokumentierte Gesetzeslücke: Schon vor sechs Jahren urteilte der Bundesgerichtshof gegenüber der Stadt Augsburg und einem Schwarzwälder Waldbesitzer, die auf Schadensersatz geklagt hatten, daß dafür die entsprechende Rechtsgrundlage fehle. Der Sache nach seien die Waldschäden jedoch „entschädingungswürdig und entschädigungsbedürftig“.

Nun muß das Verfassungsgericht darüber urteilen, wer wen entschädigen muß und mit wessen Geld dies geschehen soll. Ministerialrat Peter Splett, der im Landwirtschaftsministerium für die neuartigen Waldschäden zuständig ist, weiß, das die Forderung nach Ausgleichszahlungen leicht zu stellen, aber nur schwer umzusetzen ist. „Eine Entschädigung setzt voraus, daß man die Ansprüche juristisch klar formulieren kann.“ Dies sei aber angesichts der hochkomplexen Vorgänge im Ökosystem Wald fast unmöglich. Gegenüber dem Finanzministerium konnte man deshalb nicht einmal ungefähre Angaben über die Höhe der zu erwartenden Forderungen machen.

So steht zu befürchten, daß auch die Landwirte sich den Auflagen widersetzen werden, die derzeit in Bonner Ministerien angedacht werden. Ausgangspunkt der Überlegungen ist die Erkenntnis, daß in Folge einer intensiven Tierhaltung und der damit zusammenhängenden überreichlichen Ausbringung der anfallenden Gülle enorme Mengen an Stickstoff in Form von Ammoniak freigesetzt werden.

Unter dem Strich schädigt die Landwirtschaft den Wald daher noch stärker als der Individualverkehr, so die Bilanz eines Hintergrundpapiers aus dem Bundesforschungsministerium. Laut Abteilungsleiter Helmut Schulz soll mit einer Düngeverordnung, „die mittlerweile von der Bundesregierung in Angriff genommen wurde“, erreicht werden, daß Stickstoff in der Landwirtschaft nur noch dort eingesetzt wird, wo die Pflanzen ihn wirklich brauchen.

Vorgesehen ist auch, daß in Großtieranlagen Schadstofffilter eingebaut werden müssen. Dies wäre dann ein weiteres Mosaiksteinchen in der kaum noch überschaubaren Fülle von Gesetzen, Verordnungen, Abgaben, Steuern und technischen Maßnahmen, mit denen der Wald gerettet werden soll, ohne den Wähler zu verprellen.

(Originalmanuskript zu einem Artikel für Bild der Wissenschaft, erschienen in der Dezember-Ausgabe 1993)

Weitere Infos:

  1. Wolfram Elling, Waldschäden und Waldschadensforschung – eine kritische Zwischenbilanz, Naturwissenschaftliche Rundschau Heft 5/92, Seite 184.
  2. Caroline Möhring/BMFT, 10 Jahre Waldschadensforschung, Bonn 1992
  3. Umweltbundesamt, Jahresbericht 1992

Bremsklötze für Aids-Gene

Georg Sczakiel erinnert sich gerne daran, was die Kollegen noch vor wenigen Jahren von seinen Versuchen hielten, das Aids-Virus mit sogenannten Antisense-Genen zum Schweigen zu bringen: Nichts. „Kaum einer hielt das Konzept für erfolgversprechend“, umschreibt der Leiter einer sechsköpfigen Arbeitsgruppe am Heidelberger Krebsforschungszentrum höflich die damalige Skepsis.

Die Kollegen werden umdenken müssen. Zumindest im Reagenzglas ist es Sczakiel gelungen, menschliche Zellen vor einer Infektion mit dem Immunschwächevirus zu schützen. Durch eine Gen-Blockade hatten die Abwehrzellen die Vermehrung des Aids-Virus hundertprozentig unterdrückt – auch mit den feinsten Nachweismethoden konnten nach zwei Monaten keine Erreger mehr aufgespürt werden. Der Gentransfer, dem die T-Zellen ihre Widerstandskraft verdanken, ist allerdings nicht ohne weiteres auf den Menschen zu übertragen. Zudem glaubt Sczakiel seine Antisense-Gene noch weiter verbessern zu müssen. Vorher sei an klinische Versuche überhaupt nicht zu denken.

Die Idee, ausgewählte Gene zu blockieren, indem man das Ablesen dieser „molekularen Baupläne“ verhindert, ist genau genommen ein alter Hut. In der Natur bedienen sich alle Lebewesen ohne Ausnahme dieser Methode. Denn obwohl jede Zelle alle Erbinformationen enthält, werden die meisten nur sehr selten gebraucht. In der Regel werden wichtige Abschnitte der jeweils nicht genutzten Gene daher von Eiweißmolekülen umhüllt und damit für die Zelle unsichtbar – wie Verkehrsschilder unter einem Kartoffelsack.

Manche Viren und Bakterien jedoch benutzen anstelle der Eiweiße kurze Erbmoleküle, die sich zum jeweiligen Gen verhalten wie ein Bild zu seinem Spiegelbild. Diese Antisense-Gene arbeiten wesentlich genauer als die verhüllenden Eiweiße. Für jedes Gen gibt es nur ein Antisense-Gen. Das setzt sich passgenau darauf und verhindert, daß seine Information abgelesen wird. Kennt man das Gen, so lässt sich das Antisense-Gen biotechnisch herstellen.

Antisense-Gene sollen, so das ferne Ziel, nicht nur gegen Aids, sondern auch gegen Krebs, Arteriosklerose und viele andere Krankheiten eingesetzt werden. Sie sollen bestimmte Gene blockieren, deren Funktion zum Auslöser für die Krankheit wird, beispielsweise das Wachstums-Gen in einer Krebszelle, das ungebremst zu der tödlichen Wucherung führt. Die Theorie ist zwar schön, doch die Praxis macht noch Probleme:

Die künstlichen Antisense-Gene werden im Körper zu schnell abgebaut. Deshalb hängt man ihnen bestimmte chemische Gruppen an, um den Abbau zu verzögern. Auch die Löslichkeit und die Aufnahme durch die Zellen versucht man zu optimieren.

Schon werden die Antisense-Gene kiloweise produziert, ermöglichen neue Automaten eine schnellere und vor allem billigere Herstellung. Erste klinische Versuche sind angelaufen: „Die Branche ist aus dem Kinderstadium heraus“, urteilt Fritz Eckstein vom Göttinger Max-Planck-Institut für Experimentelle Medizin, einer der deutschen Pioniere auf diesem Gebiet.

In Deutschland haben sich Hoechst und Bayer entschlossen, gemeinsam die Entwicklung von „Antisense-Medikamenten“ voranzutreiben, weltweit sind es inzwischen fast hundert Firmen. Wer am Ende die Nase vorn haben wird, ist noch offen. Die „molekularen Bremsklötze“ scheinen jedenfalls eine große Zukunft zu haben.

(erschienen in Bild der Wissenschaft, Juni 1993)

Gentherapie gegen AIDS?

Ausgerechnet mit Hilfe von Aids-Viren, die im Labor ihrer todbringenden Eigenschaften beraubt wurden, wollen amerikanische Wissenschaftler einen neuen Versuch starten, der noch immer unheilbaren Immunschwächekrankheit beizukommen. Die brisante Idee, die selbst unter Experten Stirnrunzeln hervorruft, entpuppt sich erst bei näherer Betrachtung als wohldurchdachte Strategie, das Aidsvirus mit den eigenen Waffen zu schlagen.

Um nämlich diejenigen Abwehrzellen zu schützen, von deren Überleben das Schicksal aller Infizierten abhängt, müssen die Forscher erst einmal an die richtigen Blutzellen herankommen. Warum also nicht das Aidsvirus selbst benutzen, um schützende Gene in die gefährdeten Makrophagen und T-4-Helferzellen zu transportieren?

Wenn man zuvor die gefährlichen Erbanlagen des Erregers mit molekularbiologischen Methoden herausschneiden und durch nützliche Gene ersetzen würde, erhielte man ein ideales Vehikel für die Gentherapie. Dieser Ansicht ist zumindest Joseph Sodroski vom Dana-Farber Cancer Institute, der kürzlich auf einem Symposium des renommierten Cold Spring Harbor Labors bei New York versuchte, die Idee seinen Kollegen schmackhaft zu machen.

„Ich glaube nicht, daß die Öffentlichkeit bereit ist, einer Gentherapie mit modifizierten Aidsviren zuzustimmen“, konterte dagegen der Brite Robert Williamson, seines Zeichens ebenfalls Gentherapeut in spe. Viren – ob HIV oder Andere – haben trotzdem eine gute Chance, ihren schlechten Ruf als Krankheitserreger wieder wettzumachen. Schon lange werden harmlose Varianten von Pocken- oder Polioviren bei Schutzimpfungen eingesetzt. Für die Gentherapie interessant sind dagegen die mehr oder weniger harmlosen, im Labor quasi kastrierten, Retro- und Adenoviren. „Sie funktionieren wie kleine Lastwagen, die sich selbst beladen, ihre Fracht an den Zielort bringen und dort auch noch auspacken“, begeistert sich Williamson.

Ähnlich argumentiert auch Karin Mölling vom Berliner Max-Planck-Institut für molekulare Genetik: „Wie lernt man fliegen? Man macht es den Vögeln nach!“ In ähnlicher Weise haben Biologen und Mediziner durch genaue Beobachtung von Viren einiges darüber gelernt, wie man ein bestimmtes Gen in ausgewählte Zellen hineinschmuggeln kann. Auch bei der Frage, welche Gene für eine Blockade des Immunschwächevirus in Frage kommen, tappt man nicht länger im Dunkeln.

Im Mittelpunkt des Interesses stehen derzeit die sogenannten frühen regulatorischen Gene des Erregers, TAT und REV. TAT, das Transaktivator Gen, gilt als Hauptschalter, dessen Stellung darüber entscheidet, ob die komplette virale Erbinformation kopiert wird oder nicht. Mit defekten TAT-Genen ist es Clay Smith vom Memorial Sloan-Kettering Cancer Center in New York bereits gelungen, die Bildung neuer Viren in Zellkulturen drastisch zu reduzieren.

Der Erfolg war allerdings nicht von langer Dauer; wie so oft bildeten sich innerhalb kurzer Zeit neue Virusvarianten, die sich auch in Gegenwart defekter TAT-Gene ungestört vermehren können. Andere Arbeitsgruppen werden nun zeigen müssen, ob man mit REV mehr Glück hat. Das REV-Gen dient als molekulare Blaupause zur Herstellung eines Eiweißes – Rev – das vermutlich für den Transport des viralen Erbfadens aus dem Zellkern in das umgebende Zytoplasma zuständig ist. Die dort gelegenen Eiweißfabriken der befallenen Zelle befolgen dann artig die Befehle zur Produktion neuer Virusbestandteile – der Erreger kann sich weiter ausbreiten.

Dem will Ernst Böhnlein am Sandoz Research Institute in Wien einen Riegel vorschieben. Auch Böhnlein bedient sich dazu eines Retrovirus für den Gentransfer in menschliche Zellen. Wie erhofft blockiert ein Überschuß defekter Rev-Moleküle die Vermehrung des Aidsvirus – jedenfalls im Labor.

Mit einer Blockade der Virusvermehrung geben sich manche Arbeitsgruppen jedoch nicht zufrieden. Sie wollen mehr erreichen als „nur“ den Stillstand der Infektion. Ziel ist es, die befallenen Zellen mitsamt den darin versteckten Aidsviren abzutöten. Dabei kommen sogenannte „Selbstmord-Gene“ zum Einsatz: Wie Tretminen sollen sie in den gefährdeten Abwehrzellen auf die Invasoren warten, um beim ersten Kontakt eine tödliche Kettenreaktion auszulösen.

Dazu haben Richard Morgan und seine Mitarbeiter am Nationalen Gesundheitsinstitut der Vereinigten Staaten die Erbinformation zur Herstellung des Diphterie-Giftes mit dem Abschnitt eines Virusgens verbunden. Sobald das Virusteil mit den Eiweißen Rev oder Tat in Berührung kommt, produziert die Zelle das Diphterie-Toxin, von dem ein einziges Molekül zur Selbstzerstörung ausreicht. Das gleiche Prinzip mit einem anderen Gift wird derzeit auch bei der Therapie bestimmter Hirntumoren erprobt. „Wunderbar, was mit solchen Suizid-Genen alles gemacht werden kann“, freut sich Karin Mölling.

Ein immer wieder vorgebrachter Einwand gegen die Gentherapie mit Retroviren lautet, die Gentaxis könnten beim „Einparken“ gesunde Gene beschädigen und dadurch langfristig die Entstehung von Tumoren begünstigen. Für einen todkranken Patienten jedoch sei dieses theoretische Risiko kein Argument, widerspricht Frau Mölling, die ihre eigenen Arbeiten auf diesem Gebiet demnächst in der Schweiz fortsetzen wird.

Vielleicht wird man den „natürlichen“ Gentransfer durch gezähmte Viren schon in wenigen Jahren ersetzten können. Mit „Genkanonen“ könnte dann die hochgereinigte Erbsubstanz direkt in den Patienten geschossen werden – eine Methode, welche die gebürtige Texanerin Priscilla Furth bereits an lebenden Mäusen und Schafen erprobt hat. Eine Stahlfeder katapultierte dabei die Gene mit solcher Geschwindigkeit aus dem Lauf, daß sie mehrere Zentimeter tief in die Haut eindrangen, angeblich ohne bleibende Schäden zu hinterlassen.

Bei einem Internationalen Symposium zur Gentherapie, das kürzlich im Berliner Max-Delbrück-Centrum stattfand, zeigten sich die anwesenden Experten trotzdem eher skeptisch. Die Mehrheit, so schien es, würde die „sanften“ Retroviren einem Schuß mit der Genkanone vorziehen.

Literatur:

PNAS Vol. 89, pp 9870-9874; Bevec, D, Dobrovnik, M., Hauber, J., Böhnlein, E.: Inhibition of human immunodeficiency virus type 1 replication in human T cells by retroviral-mediated gene transfer of a dominant-negative Rec trans-activator.

Aids Research and Human Retroviruses Vol. 8, pp 39-45; Harrison, G.S., Long, C.J., Maxwell, F., Glode, L.M., Maxwell, I.H.: Inhibition of HIV Production in Cells Containing an Integrated, HIV-Regulated Diphteria Toxin A Chain Gene.

(Originalversion von „Selbstmord als Programm“, Bild der Wissenschaft, Juni 1993)

 

Nachgefragt: Was UV-Strahlung mit Pflanzen macht

In meinem ersten Beitrag für „Bild der Wissenschaft“ hatte ich jede Menge Platz, um ein ziemlich komplexes Thema ausführlich darzustellen. Hintergrund war die steigende UV-Belastung infolge des Ozonloches und die Frage: „Wie reagieren eigentlich Pflanzen auf die veränderten Bedingungen?“. Die kurze Antwort: Unter starker Sonnenbestrahlung wachsen viele Pflanzen nicht nur schlechter, auch ihre Bestandteile verändern sich. Teilweise extrem: Grüne Bohnen werden unversehens zum Verhütungsmittel.

Die Pflanzenwelt wird überleben, auch wenn die Hälfte des schützenden Ozons über unseren Köpfen verschwinden sollte, da ist sich Prof. Eckard Wellmann vom Biologischen Institut II der Universität Freiburg sicher. Allerdings – ob wir die Pflanzen dann noch essen können, bezweifelt er.

Solche Bedenken hat auch Prof. Manfred Tevini am zweiten Botanischen Institut der Universität Karlsruhe. Beide Wissenschaftler beschäftigen sich seit Jahrzehnten mit den Auswirkungen verstärkter ultravioletter Strahlung auf Pflanzen. Die größte Rolle spielt dabei das sogenannte kurzwellige UV-Licht – jener Anteil des Sonnenlichts, der Eiweiße und Erbsubstanz aller Lebewesen massiv schädigen könnte, wenn nicht der Ozonschild in zehn bis vierzig Kilometer Höhe davor schützen würde.

Wegen der fortschreitenden Verdünnung der Ozonschicht wird aber der Bruchteil dieser Strahlung, der den Erdboden erreicht, ständig größer. UV-B, mit einer Wellenlänge zwischen 280 und 320 Nanometern, auch als „biologisch aktive“ UV-Strahlung bezeichnet, steht daher im Mittelpunkt der Umwelt-Forschung.

Ob die Schutzmechanismen von Tieren und Pflanzen, die sich im Laufe von etwa drei Milliarden Jahren an die zum Erdboden gelangende Reststrahlung angepaßt haben, auch in Zukunft noch wirken werden, scheint zweifelhaft. Gleichzeitig ist aber noch so wenig über die Bandbreite natürlicher UV-Toleranz bekannt, daß die meisten Wissenschaftler nur hinter vorgehaltener Hand darüber spekulieren, wieviel Prozent Ozonschwund verkraftet werden kann, bevor ganze Ökosysteme zusammenbrechen.

Schon die Messung der auf dem Erdboden ankommenden UV-B-Strahlung mache große Schwierigkeiten. Auf der Tagung „UV-B Monitoring Workshop“ die im März 1992 in Washington stattfand, mußten die versammelten Experten einräumen, daß befriedigende Meßwerte bislang fehlten. „Es gibt die nötigen Meßgeräte nicht, und die Auswirkung von Wolken ist bis heute in keinem Modell berücksichtigt“, formuliert Wellmann das Problem.

Auch exakte Labor-Experimente sind nicht möglich. Das natürliche UV-Licht der Sonne ist – trotz Speziallampen und Filter – noch immer nicht genau simulierbar: Die UV-Strahlung, die uns erreicht, ist das Ergebnis komplexer Wechselwirkungen zwischen Sonnenlicht und Atmosphäre mit ihren verschiedenen Schichten und läßt sich daher nicht exakt nachahmen.

Erschwert wird die Vorhersage auch dadurch, daß nicht alle Pflanzen auf vermehrte UV-Bestrahlung gleich reagieren: Wellmann hat bei seinen Experimenten „riesige Unterschiede in der Empfindlichkeit“ festgestellt.

Von etwa 200 Arten, die Wellmann, Tevini und andere untersucht haben, erwiesen sich etwa 130, darunter Erdbeeren, als UV-B-empfindlich: Sie blieben im Wachstum deutlich hinter unbestrahlten Artgenossen zurück.

Jede dritte Art aber kommt auch mit einer Reduktion der Ozonschicht um vierzig Prozent noch gut zurecht. „Wie hoch die Toleranz der Pflanzen entwickelt ist, sieht man allein schon daran, daß manche in Deutschland heimische Gewächse auch am Äquator gut gedeihen“, sagt Wellmann. Und tropische Gewächse müssen seit jeher mit einer UV-B-Strahlung fertig werden, die fünfmal so stark ist wie in gemäßigten Breiten.

Was aber passiert, wenn die Strahlung in unseren Breiten noch weiter zunimmt? Für Prof. Tevini stellt sich die Frage, ob die UV-Resistenz nicht schon jetzt am Umschlagen ist. Doch er hält die Auslese von UV-resistenten Sorten prinzipiell für möglich. Das ist allerdings aufwendig, kostet viel Geld – und das ist derzeit knapp. Tevini fordert daher ein mit Geldmitteln gut ausgerüstetes Schwerpunktprogramm, um die biologischen Konsequenzen vermehrter UV-B-Strahlung zu erforschen.

Möglicherweise wird man schon in wenigen Jahren gezwungen sein, südliche Sorten, die UV-toleranter sind als einheimische, auch im Norden zu pflanzen. Ein Problem ist, daß nicht nur die Arten, sondern auch die verschiedenen Sorten derselben Art auf UV-Strahlung verschieden reagieren. Außerdem sind die verschiedenen Entwicklungsstadien einer Pflanze mehr oder weniger empfindlich: Mal sind die Keimlinge besser geschützt, mal sind es die fruchttragenden Pflanzen.

Eine der wenigen detaillierten Studien hat Dr. Alan Teramura, Botaniker an der amerikanischen University of Maryland, an Sojabohnen vorgenommen. Von 23 Sorten erwiesen sich 7 als unempfindlich gegenüber erhöhter UV-Strahlung, 2 Sorten brachten sogar höhere Erträge. Mit niedrigerem Trockengewicht, reduziertem Wachstum und verringerter Blattfläche reagierten dagegen14 der 23 Sorten. Die Ernteverluste im Feld betrugen für diese UV-sensitiven Pflanzen bis zu einem Fünftel. Ausgerechnet die ertragreiche Sorte „Essex“, die derzeit von amerikanischen Farmern bevorzugt wird, erwies sich als besonders empfindlich. Die UV-toleranten Sojabohnen vom weniger ertragreichen Typ „Williams“ dagegen wurden in den letzten Jahren immer seltener angebaut.

Sorgen machen sich die Forscher aber weniger um die amerikanische oder europäische Landwirtschaft mit ihren gewaltigen Überschüssen. Für Tevini sind Hungerkatastrophen durch Ernteverluste in den Entwicklungsländern die größte Bedrohung. Vielleicht, so die Hoffnung einer Handvoll Optimisten, lassen sich wichtige Kulturpflanzen eines Tages aber auch mit Hilfe der Gentechnik derart manipulieren, daß die Hungerkatastrophe vermieden werden kann.

Das Interesse an den natürlichen Schutzmechanismen landlebender Pflanzen ist daher mehr als nur Grundlagenforschung. Etwa zwölf Millionen Mark hat das Bundesforschungsministerium seit 1978 bereitgestellt, um die Auswirkung von UV-B-Strahlung auf lebende Organismen zu ergründen – zu wenig, urteilt der Freiburger Biologe Wellmann. Ein geeignetes Schwerpunktprogramm, so schätzen die Experten, würde zehn bis zwanzig Millionen Mark im Jahr kosten.

Die bisherigen Ergebnisse bei Labor-, Treibhaus- und freiwachsenden Pflanzen: Landlebende Pflanzen wehren sich gegen vermehrte UV-Strahlung. Erst werden in der äußersten Zellschicht, der Epidermis, Schutzpigmente gebildet, die zur Gruppe der Flavonoide gehören. Von besonderer Bedeutung sind dabei die farblosen oder gelben Flavone, Pflanzenfarbstoffe, die ultraviolette Strahlung absorbieren und so die empfindlichen Zellbestandteile, einschließlich der Erbsubstanz in Zellkern und Chloroplasten schützen.

In der Natur beginnt die Farbstoffproduktion schon, ehe die Keimlinge den Boden durchstoßen. Wenige Lichtquanten, die in den Boden eindringen, reichen aus, die Flavonoid-Synthese zu starten. Ema dreißig Gene sind daran beteiligt. Auch die zugehörigen Eiweiße sind bekannt. Im Experiment läßt sich die Folge erhöhter UV-Strahlung gut beobachten. Keine halbe Stunde nach Beginn der Bestrahlung bezeugt die Anwesenheit von Boten-RNA die vermehrte Genaktivität. Wieder eine halbe Stunde später finden sich die ersten Eiweiße und nach insgesamt zwei Stunden läuft die Flavonoid-Synthese auf Hochtouren. Offensichtlich wird der gesamte Block von Flavonoid-bildenden Enzymen gleichzeitig angeworfen.

Für die Praxis bedeutet dies, daß die Genmanipulation für die Flavonoid-Synthese viel zu kompliziert und wenig erfolgversprechend ist. Ein einziges Kontrollgen, dessen Aktivität die Bildung von Schutzpigmenten reguliert, wäre den Pflanzenzüchtern lieber gewesen. Durch züchterische Auswahl oder Gentransfer hätte man UV-sensitive Pflanzen dann eher schützend manipulieren können.

Tevini arbeitet zurzeit daran, das Bindeglied zwischen einfallenden UV-Strahlen und vermehrter Flavonoid-Synthese aufzuspüren. Woher „wissen“ die Pflanzen, daß Gefahr droht? Prof. Tevini hat eine vorläufige Antwort: In Roggenkeimlingen isolierte er eine Substanz – Zimtsäure -, die in zwei verschiedenen Spielarten auftritt. Als trans-Zimtsäure hemmt das Molekül mit Hilfe eines komplizierten Kontrollmechanismus die Synthese der Flavonoide. Bestrahlt man die trans-Zimtsäure jedoch mit ultraviolettem Licht, so verwandelt sich das Molekül in cis-Zimtsäure.

Der Clou: die cis-Zimtsäure hebt die Blockade der Flavonoid-Synthese wieder auf, möglicherweise werden sogar einige Gene aktiviert, die an der Bildung des pflanzlichen Schutzschildes mitwirken.

Ob das Prinzip, das Tevini am Roggen untersucht hat, auch bei anderen Pflanzen gilt, ist jedoch keineswegs sicher. Und selbst wenn sich die beobachtete Wechselwirkung zwischen Zimtsäure und UV-Strahlung als ein in der Pflanzenwelt weitverbreitetes Prinzip erweisen sollte, ist damit noch nicht viel gewonnen. Zum einen ist derzeit nicht klar, wo der Schutzmechanismus an seine Grenzen stößt, zum anderen muß das, was für die Pflanze gut ist, für den Menschen noch lange nicht gut sein.

Denn Flavonoide und andere Substanzen, die als Reaktion auf „Umweltstreß“ gebildet werden, können die Inhaltsstoffe einer Pflanze drastisch verändern. So weisen amerikanische Untersuchungen darauf hin, daß die halluzinogenen Wirkstoffe der Cannabis-Pflanze zunehmen und der Proteingehalt bei Sojabohnen drastisch reduziert wird.

Während Basilikum mehr ätherische Öle produziere, was von Vorteil wäre, könnte der Genuß von Bohnen bei erhöhter UV-Strahlung unerwünschte Folgen haben. Denn Bohnen bilden nach UV-Bestrahlung Cumestrol, eine Substanz, die in der Wirkung dem Schwangerschaftshormon Östrogen vergleichbar ist. Die Konzentration von Cumestrol kann so hoch werden, daß der menschliche Hormonhaushalt durcheinandergebracht wird – die Bohne könnte unversehens zum Verhütungsmittel werden.

Die Problematik läßt sich auf einen Nenner bringen: Unsere Ernährungsgewohnheiten haben sich in Jahrtausenden auf die Inhaltsstoffe unserer Kulturpflanzen eingestellt. Wie unser Körper mit den „Sonnen-manipulierten“ Pflanzen umgehen wird, weiß niemand genau zu sagen.

Neben der Bildung von Flavonoiden verfügen die Pflanzen allerdings noch über einen zweiten Schutzmechanismus, der für den Menschen ungefährlich ist. Das Enzym Photolyase kann geschädigte Erbsubstanz reparieren, ohne die Zusammensetzung der Pflanzen zu verändern: Die Photolyase löst Verbindungen zwischen den DNA-Bausteinen, den Thymidin-Dimeren, die als Folge der UV-Strahlung entstehen und für den Tod der getroffenen Zelle verantwortlich sind.

Voraussetzung ist auch hier, daß das solare Trommelfeuer nicht allzu stark wird. Ab einer gewissen Schwelle ist auch die Photolyase nutzlos. Allerdings wären Pflanzen, die größere Mengen Photolyase produzieren, vor vermehrter UV-Strahlung besser geschützt. Bevor die Pflanzengenetiker das verantwortliche Gen verändern können, muß es allerdings erst einmal gefunden werden. Anders als bei den Genen für die Flavonoid-Synthese tappt man hier derzeit noch im Dunkeln.

Die Chancen, daß Züchter und Molekularbiologen noch rechtzeitig Mittel und Wege finden, um die Folgen des Ozonschwundes für die Pflanzenwelt in Grenzen zu halten, sind daher äußerst gering.

(erschienen in „Bild der Wissenschaft“, Februar 1993)

Literatur: