Zum Hauptinhalt springen

Viele Hürden für die Biologische Schädlingskontrolle

Die biologische Schädlingskontrolle, häufig gepriesen als umweltfreundliche Alternative zur industriellen Landwirtschaft, wird auf absehbare Zeit nur einen sehr kleinen Anteil am Weltmarkt erreichen. Dies war die ernüchternde Bilanz eines Symposiums der Firma Bayer, das kürzlich in Monheim bei Leverkusen stattfand.

Obwohl bereits Tausende verschiedener Insekten, Fadenwürmer und Mikroorganismen erprobt wurden, wird weltweit nur jede zweihundertste Mark im Bereich des Pflanzenschutzes auf diese Winzlinge verwandt. Die Vereinigten Staaten und Kanada sind auf diesem Gebiet führend, Deutschland dagegen liegt noch deutlich unter dem weltweiten Durchschnitt.

In diesem Marktsegment, das jährlich immer noch beachtliche 170 Millionen Mark ausmacht, hat ein Bakterium mit dem wissenschaftlichen Namen Bacillus thuringiensis den Löwenanteil erobert. Diese Mikroorganismen, die weltweit verbreitet sind, produzieren bis zu 15 verschiedene Eiweiße, welche auf eine Vielzahl von Schädlingen tödlich wirken. Wenn etwa Schmetterlingsraupen oder Kartoffelkäfer sich über Pflanzen hermachen, die zuvor mit den Bazillen versehen wurden, gerät der Schmaus im Handumdrehen zur Henkersmahlzeit.

Grund sind die beim Verspeisen der „verbotenen Früchte“ mitgefressenen Bazillen. Die erwähnten Eiweiße beginnen sich nämlich im Verdauungstrakt der Schadinsekten aufzulösen und zersetzen dabei die Magenwände der unerwünschten Mitesser. Die Entdeckung der Gene, welche die Produktionsanleitungen für die tödlichen Eiweiße tragen, hat der Gentechnik eine große Spielwiese eröffnet, wie Professor Hans-Michael Poehling vom Institut für Pflanzenpathologie und Pflanzenschutz der Universität Göttingen erläuterte.

Dies eröffnete nämlich die Möglichkeit, die Gene auf ausgewählte Kulturpflanzen zu übertragen und diesen damit einen Schutzschild zu verleihen, auch ohne die nützlichen Bazillen zu bemühen. Diese Variante der biologischen Schädlingsbekämpfung, die sich in vielen unabhängigen Versuchen durchaus bewährt hat, ist allerdings in der Bundesrepublik noch nicht zugelassen; die Freisetzung von gentechnisch veränderten Organismen wird derzeit noch sehr kontrovers diskutiert. Der Einsatz der Bazillen selbst wird nach Poehlings Meinung durch gesetzliche Auflagen erschwert, die auf den Schutz des Trinkwassers abzielen.

„Das gibt dem Ganzen den Anschein, als wäre da etwas nicht in Ordnung.“ Andererseits, so gab Dr. F. Kolb vom Geschäftsbereich Pflanzenschutz der Bayer AG zu bedenken, rechtfertige die nahe Verwandtschaft von Bacillus thuringiensis mit dem Krankheitserreger Bacillus cereus durchaus die strengen Auflagen der Behörden. „Die Vermutung, biologische Agentien seien ,von Natur aus‘ unbedenklich für die Umwelt, ist völlig falsch.“

Trotzdem geben Teilerfolge vor allem beim Einsatz tierischer Nützlinge den Anreiz, die Forschung und Entwicklung weiter voranzutreiben. Im Treibhaus hat sich beispielsweise die Räuberische Gallmücke bewährt, um Blattläuse kurz zu halten. Die wesentlich kleineren Gallmücken bedienen sich dabei einer besonders perfiden Technik. Sie stechen ihren Kontrahenten in die Gelenke, lähmen die Blattläuse mit einem Sekret und saugen ihre Opfer an schließlich aus. Auch Fadenwürmer der Gattungen Heterorhabditis und Steinernema haben sich bei der Bekämpfung von bodenlebenden Schadinsekten bewährt.

Wie mühsam die Entwicklung von biologischen Verfahren zur Schädlingsbekämpfung sein kann, machte Professor Kurt Mendgen von der Universität Konstanz klar. Der Phytopathologe berichtete von den vielen Fehlschlägen bei seinen Feldversuchen gegen Gelbrost und Apfelfäule. Während zu Beginn der Vegetationsperiode die Blattoberflächen der Pflanzen noch sauber und glatt sind, finden sich im Laufe der Zeit immer mehr Bakterien, Pilze und Hefen ein. Nur bei einem geringen Anteil dieser Organismen handelt sich allerdings um Krankheitserreger. Da sich am Ende der Saison aber oft zwischen 100000 und einer Million Mikroben pro Quadratzentimeter Blattoberfläche versammelt haben, tobt ein ständiger Kampf um Lebensraum und Nahrung.

Mendgens Strategie ist es nun, die nützlichen Mikroorganismen, welche natürlicherweise auf der Blattoberfläche vorkommen, bei diesem Kampf ums Überleben zu begünstigen. Dazu werden die Nützlinge gezüchtet und in optimierten Gemischen ausgebracht, teilweise auch durch Nährstoffzusätze gefördert. Beim Gelbrost gelang es Mendgens Arbeitsgruppe, einen Pilz zu isolieren, der den Schädling regelrecht überwächst und ihm damit die Nahrungsgrundlage entzieht. Die Enttäuschung folgte auf dem Fuß, als sich herausstellte, daß der isolierte Nützling zwar bei hoher Luftfeuchtigkeit wuchs, nicht aber unter anderen Bedingungen. „In unserer Verzweiflung haben wir fast nur noch bei Regen gearbeitet und schließlich aufgegeben“, erläuterte der Biologe.

Stattdessen nahm man die Apelfäule in Angriff, die von einem weiteren Pilz, Botrytis cinarea, hervorgerufen wird. Über 800 verschiedene Bakterienarten wurden in einen Wachstumswettlauf mit dem Schädling geschickt, doch nur wenige waren erfolgreich. Hauptproblem bei dieser Versuchsreihe war die Tatsache, daß die meisten Nützlinge im Lagerhaus bei vier Grad Celsius dem Schadpilz nicht mehr Paroli bieten konnten.

Nur wenige Bakterienarten aus der Gattung Bacillus konnten diesen Härtetest bestehen. Ob diese sich auch in der Praxis bewähren, soll erstmals im kommenden Herbst in den Lagerhäusern der Produktionsgemeinschaft Bodensee erprobt werden. Die ernüchternde Bilanz des Botanikers nach jahrelangen Versuchen: „Biologische Systeme zur Schädlingsbekämpfung werden nie einen großen Markt haben, weil sie immer sehr genau auf die jeweilige Anwendung zugeschnitten werden müssen.“

In dieselbe Kerbe schlägt Dr. Mike Greaves von der Longs Ashton Research Station im englischen Bristol. Was den Pflanzenschutz durch Pilze und deren Stoffwechselprodukte angehe, so der Experte, hätten gerade in den USA viele Produkte die Erwartungen nicht erfüllt, die durch eine breitangelegte Berichterstattung in den Medien geweckt worden wären. Unter den über hundert Forschungsprojekten, von denen er Kenntnis habe, so Greaves, hätten allenfalls zehn eine reelle Chance, in absehbarer Zukunft auf dem Markt zu erscheinen.

Ein Faktor, der die Entwicklung biologischer Verfahren begünstigte, wird schon in Kürze entfallen: Die Kosten und die Dauer des Zulassungsverfahrens waren bisher verhältnismäßig niedrig, weil man davon ausging, daß natürlich vorkommende Organismen und deren Stoffwechselprodukte weniger Risiken in sich bergen als Substanzen, die in den Labors der chemischen Industrie synthetisiert werden.

Dabei übersah man geflissentlich, daß gerade Pilze dafür bekannt sind, eine Reihe von Giftstoffen zu produzieren, die auch dem menschlichen Organismus gefährlich werden können. Die amerikanische Umweltbehörde EPA ist momentan dabei, ihre Zulassungskriterien zu verschärfen und die Anzahl der Organismen, die nicht genehmigungsbedürfig sind, weiter zu reduzieren.

Ein weiterer Nachteil biologischer Verfahren besteht darin, daß der Umgang mit lebenden Organismen ein tiefes Verständnis des Wirkungsprinzips voraussetzt. „Die Landwirte sind daran gewöhnt, eine Chemikalie in den Tank zu füllen und diese zu verspritzen. Sie müssen lernen, daß die neuen Methoden mit lebenden Organismen arbeiten“, erklärte Greaves.

So sind viele Organismen anfällig für Temperaturschwankungen. Wenn es beim Versand von Insekteneiern beispielsweise zu Verzögerungen kommt, schlüpfen die Tiere unterwegs, die Larven sind unter Umständen verhungert, bevor sie den Verbraucher erreichen. Für den Landwirt kann dies zu einem Ernteausfall führen, der durchaus existenzbedrohend sein kann – ein weiterer Grund dafür, daß die Experimentierfreudigkeit der Verbraucher enge Grenzen hat.

(erschienen in „DIE WELT“ am 21. Juni 1991)

Zwischen Ökologie und Ökonomie

Dreißig Milliarden Dollar – das ist der Preis, den die Vereinigten Staaten jährlich für eine verbesserte Luftqualität aufbringen. Dennoch lebten 1989 rund 60 Millionen US-Bürger in Gegenden, wo die gesetzlichen Richtwerte für die Luftreinheit nicht eingehalten werden konnten.

Dieses drastische Beispiel macht deutlich, daß auch in einem der reichsten Länder der Welt nicht genug Geld vorhanden ist, um die zahllosen Ursachen der Umweltverschmutzung zu beseitigen. Wissenschaftler wie Politiker sehen sich daher gezwungen, den optimalen Einsatz der vorhandenen Mittel sicherzustellen. Zwei Volkswirte des unabhängigen Forschungsinstitutes Resources for the Future haben jetzt eine Kosten-Nutzen-Rechnung zur Ozonreduktion in städtischen Ballungszentren unternommen, deren überraschendes Ergebnis sie in der Fachzeitschrift „Science“ (Band 252, S. 252) veröffentlichten:

„Die Kosten für die geplanten Maßnahmen zur Ozonreduktion sind größer als der Nutzen“, fassen Alan Krupnick und Paul Portney ihre Resultate zusammen. Auch die beiden Ökonomen geben bereitwillig zu, daß die Rechnung „Geld gegen Gesundheit“ mit vielen Fragezeichen behaftet ist. „Es ist sehr unangenehm, das Pro und Contra künftiger Bemühungen zur Luftreinhaltung auf diese berechnende Art abwägen zu müssen. Wir alle hätten lieber grenzenlose Ressourcen, um jede erdenkliche Maßnahme auch umzusetzen.“

Die Wissenschaftler gehen in ihrer Untersuchung davon aus, daß bis zum Jahr 2004 zwischen 8,8 und 12,8 Milliarden Dollar benötigt würden, um die Menge des in den USA freigesetzten Ozons um ein Drittel zu reduzieren. Grundlage für diese Zahl ist eine Studie der Behörde zur Technikfolgenabschätzung OTA aus dem Jahr 1989, die zeigt, daß die Freisetzung von flüchtigen organischen Substanzen von elf auf sieben Millionen Tonnen jährlich verringert werden müßte. Flüchtige organische Substanzen wie Benzin sind neben den Stickoxiden aus dem Kraftverkehr die Hauptverursacher erhöhter Ozonwerte am Boden.

Eine Reduktion dieser Ozonwerte um 35 Prozent innerhalb der nächsten 13 Jahre würde nach Meinung von Krupnick und Portney die Häufigkeit von Asthmaanfällen verringern, Husten und Brustschmerzen wären seltener, und auch die Anzahl der Tage mit verringerter Leistungsfähigkeit für die Anwohner würde zurückgehen. Den Kosten in Höhe von rund zehn Milliarden Dollar stünde dann allerdings ein Nutzen gegenüber, der sich bestenfalls mit einer Milliarde Dollar beziffern läßt. Geht man von pessimistischen Annahmen aus, so stehen auf der Gewinn-Seite sogar nur 250 Millionen Dollar, was einem Vierzigstel der aufgewandten Geldmenge entsprechen würde.

Die Ökonomen veranschlagen dabei etwa die Kosten eines Asthmaanfalls auf 25 Dollar, verringerte Leistungsfähigkeit schlägt mit 20 Dollar täglich zu Buche, und ein Tag mit gelegentlichen Hustenanfällen wird mit fünf Dollar berechnet. Diese Zahlen wurden dann multipliziert mit der Anzahl von Komplikationen, die sich durch eine Reduktion der Ozonwerte verhindern ließen. Ein Asthmatiker hätte epidemiologischen Untersuchungen zufolge über eine Zeit von fünf Jahren hinweg im Schnitt einen Anfall weniger zu erdulden; Gesunde könnten sich darauf einstellen, daß ihnen alle zehn Jahre ein Tag mit reduzierter Leistungsfähigkeit erspart bliebe.

„Ich denke nicht, daß die Leute unsere Ergebnisse besonders schätzen werden“, sagte Portney, „aber wir liefern ja keine Entschuldigung dafür, die Luftverschmutzung zu ignorieren. Unsere Resultate legen aber nahe, daß es der Gesundheit mehr nutzt, wenn das Geld für andere Maßnahmen ausgegeben wird.“ Nach Ansicht der Volkswirte könnten die fraglichen zehn Milliarden Dollar weitaus sinnvoller in Aufklärungskampagnen über die Gefahren des Rauchens oder eine verbesserte medizinische Versorgung vor und unmittelbar nach der Geburt investiert werden.

(erschienen in „DIE WELT“ am 29. Mai 1991)

Der Taifun und das Treibhaus

Ein tropischer Wirbelsturm (Zyklon, Taifun) traf am 29. April 1991 auf die Küste Bangladeschs und forderte mindestens 138000 Menschenleben. Neben dem Bericht einer Kollegin zu den Schäden im Land bin ich der Frage nachgegangen, inwiefern die globale Erwärmung beziehungsweise der Anstieg des Meeresspiegels damit in Zusammenhang stehen könnte.

Naturkatastrophen, so entsetzlich sie für die betroffene Region auch sein mögen, regen zum Nachdenken an. Auch die gewaltige Sturmflut in Bangladesch mit noch ungezählten Opfern bildet da keine Ausnahme. Die bange Frage lautet: Ist dieses Desaster eine Folge der schleichenden Erwärmung unseres Planeten? Ist das bereits ein Vorgeschmack auf die vielfach beschworene Klimakatastrophe? Und welche Rolle spielt bei alledem der allmähliche Anstieg des Meeresspiegels?

Die in dieser Frage maßgeblichen Experten des Intergovernmental Panel on Climate Change (IPCC), der wohl angesehensten Vereinigung von Klimaexperten, haben sich redlich bemüht, das Wirrwar aus Zahlen und Beobachtungen, aus Fakten und Behauptungen, zu entflechten. Sie gelangen zu dem Schluß, daß der Meeresspiegel bis zum Jahr 2030 um zehn bis 30 Zentimeter ansteigen wird, bis zum Ende des nächsten Jahrhunderts wahrscheinlich sogar um 65 Zentimeter. Allenfalls eine drastische Reduktion der menschgemachten Treibhausgase könne an dieser Entwicklung etwas ändern, so versicherten die Experten bereits im November des vergangenen Jahres in einem gemeinsamen Report an die Genfer Weltklimakonferenz.

Doch nicht in allen Punkten sind sich die Wissenschaftler einig. Während nämlich Laien es für „natürlich“ halten, daß durch die zunehmende Erwärmung Eismassen schmelzen und damit den Wasserspiegel erhöhen, sieht die Wirklichkeit etwas komplizierter aus: Markiert man in einem Glas, in dem sich mehrere Eiswürfel befinden, den Pegelstand und wirft nach dem Schmelzen des Eises einen zweiten Blick auf den Eichstrich, so wird man feststellen, daß sich der Wasserpegel nicht verändert hat. Diese Beobachtung läßt sich allerdings nur auf das nördliche Polarmeer übertragen, wo eine gewaltige Eismasse auf dem Ozean treibt, nicht dagegen auf die wesentlich größere Antarktisregion.

Vermutlich spielt ein anderer Effekt eine weitaus größere Rolle: Wie die meisten Materialien dehnt sich auch flüssiges Wasser beim Erwärmen aus. Für George Woodwell, den Direktor des Woods Hole Research Centers an der amerikanischen Ostküste, steht die relative Bedeutung der beiden Effekte fest: „Ursache für den Anstieg des Meeresspiegels ist zunächst die Wärmeausdehnung des Wassers, dann das Abschmelzen der Gletscher“, erklärte er auf einer kürzlich in Turin abgehaltenen Konferenz der Sanpaolo-Stiftung zur Rolle der Ozeane beim Klimageschehen.

Dagegen vertrat Ferruccio Mosetti vom Triester Institut für Geodäsie und Geophysik die Meinung, daß die „thermische Expansion“ nicht für den Anstieg des Meeresspiegels verantwortlich gemacht werden könne. Die Durchschnittstemperatur des Oberflächenwassers sei nämlich – entgegen anderer Behauptungen – bisher konstant geblieben.

Diese Behauptung unterstützt Mosetti mit einem Hinweis auf starke zeitliche und regionale Unterschiede in den Meßdaten. Die durchschnittliche jährliche Erhöhung des Meeresspiegels während der letzten sechs Dekaden läßt sich zwar mit 1,6 Millimetern beziffern. Aber auch die Landmassen, von denen aus die Meßungen durchgeführt werden, ruhen nicht. So scheinen sich die Küstenregionen von Skandinavien, Sibirien und dem nördlichen Kanada zu heben, während sie etwa in den Niederlanden absinken.

Absolut sichere Aussagen über den weiteren Verlauf des Weltklimas sind unmöglich – darin sind auch die Experten sich einig. Außerdem, so war in Turin zu hören, müsse auch die Politik die Anstrengungen der Wissenschaft unterstützen. Durch eine verantwortungsbewußte Bevölkerungsplanung und vermehrte Anstrengungen beim Katastrophenschutz könne schon beim nächsten Desaster die Anzahl der Opfer drastisch gesenkt werden.

(erschienen in „DIE WELT“ am 3. Mai 1991)

Schöne blaue Donau? Von wegen!

Das grenzenlose Europa ist im Bereich der Umweltverschmutzung längst traurige Wirklichkeit, wie ein Blick auf die Flüsse des Kontinents verdeutlicht. Mit fast 3000 Kilometern Länge bildet die Donau als größter Strom Europas eine Brücke zwischen Ost und West.

Der Strom, der für viele ein einzigartiges Naturdenkmal darstellt, ist gleichzeitig ein wirtschaftlich bedeutsamer Wasserweg und gewaltiger Abwasserkanal. Rund 70 Millionen Menschen aus acht Ländern leben im Einzugsgebiet des Flußes, das sich auf 817000 Quadratkilometer erstreckt. „Die Donau stellt meiner Meinung nach ein Symbol und einen Schatz dar, für dessen Wasser langfristig erstklassige Qualität gesichert werden muß“, erklärte Dr. László Somlyódy vom Budapester Water Resources Research Center auf der 24. Essener Tagung „Wasser und Abfall in Europa“, die am Wochenende in Dresden zu Ende ging.

Die erfreuliche Zunahme der Teilnehmer an dieser Konferenz – 1700 gegenüber 1200 im letzten Jahr – zeigt, daß Somlyódy mit seiner Meinung nicht alleine steht. Ein weiterer erfreulicher Trend, der die historischen Umwälzungen der letzten Jahre widerspiegelt: Gut 40 Prozent der Anwesenden waren aus den neuen Bundesländern oder aus dem ehemaligen Ostblock angereist.

Das „Modell Rhein“ soll im Osten Pate stehen

Gerade in den neuen Bundesländern, in Polen, Ungarn und der Tschechoslowakei hegt man die Hoffnung, daß die recht erfolgreiche Arbeit der internationalen Rheinschutzkommission sich auf die gewaltigen Umweltprobleme in dieser Region übertragen läßt. Im Falle der Donau wäre dies auch besonders nötig, selbst wenn die erhebliche Verdünnung und die Selbstreinigungsfähigkeit des gewaltigen Stromes unumkehrbare Veränderungen bisher verhindert haben. An Initiativen und Projekten herseht kein Mangel, was fehlt ist vielmehr eine Koordination der Bemühungen, wie Somlyódy unterstrich.

Donaukommission, Entwicklungsfond der Vereinten Nationen, AG Donauforschung der internationalen Vereinigung der Süßwasserforscher, die „Deklaration von Budapest für Hochwasserschutz, Wasservorratswirtschaft und Wassergüteschutz“ aus dem Jahr 1985, der Programmvorschlag „Blaue Donau“ der Unesco und eine einjährige Exkursion des Meeresforschers Jaques Cousteau sind nur einige der rund zwanzig Initiativen zum Schutz des Flusses. Dennoch gibt es derzeit keine zwei Anliegerstaaten, die das gleiche Klassifikationssystem anwenden, um die Gewässergüte festzulegen.

Nicht einmal auf der Strecke zwischen Wien und Budapest gibt es beispielsweise einheitliche Kriterien zur Ermittlung der Wasserbeschaffenheit. Unter diesen Umständen verwundert es nicht, daß eine Verbesserung der Wasserqualität auf dem Papier erreicht wird, wenn der gewaltige Strom die tschechoslowakisch-ungarische Grenze überschreitet. Als „Ausgleich“ für die eher nachsichtigen Kriterien bei der Ermittlung der Wassergüteklasse kann Ungarn dafür aber auf das dichteste Meßnetz verweisen.

Ein weiterer gravierender Mangel: Noch immer gibt es keine umfassende Analyse der ökologischen Auswirkungen für die umstrittenen Stauwerke Eisernes Tor I und II oder das österreichische Staustufensystem. Von Seiten Wiens, so Somlyódy, seien Untersuchungen dazu so spät begonnen worden, daß erste Ergebnisse erst heute vorliegen. „Die gegenwärtige Lage ist also in bedauerlicher Weise dadurch charakterisiert, daß weder die Veränderungen der Wassergüteklassen in der Vergangenheit noch der gegenwärtige Zustand der Donau für den ganzen Strom zuverlässig beschrieben werden kann.“

Den größten Grund zur Besorgnis geben auf ungarischem Gebiet die Konzentrationen der Schadstoffe Nitrat und Phosphat. Beide Stoffe sind in Fäkalien enthalten und werden auch bei der übermäßigen Verwendung von Kunstdünger freigesetzt. Zwischen 1960 und 1985 haben sich die Meßwerte verzehnfacht, was damit begründet wird, daß der Einsatz von Düngemitteln im gleichen Zeitraum um das Hundertfache zunahm. Auch Budapest hat an der Verschmutzung einen beträchtlichen Anteil: Dort gelangen noch heute vier Fünftel der Abwässer ohne biologische Reinigung in den Fluß. Die Zahl der Bakterien nimmt denn auch unterhalb der Hauptstadt schlagartig zu. Die Zahl der Algen hat sich gegenüber den 60er Jahren verzehnfacht.

Um ein umfassenderes Bild der Belastung auch mit Schwermetallen und organischen Substanzen aus der Chlorchemie zu erhalten, muß nach Somlyódys Meinung schnellstmöglich ein einheitliches Meß- und Bewertungssystem für den gesamten Verlauf der Donau etabliert werden. „Erst wenn wir eine gemeinsame Sprache sprechen können wir das Ziel einer erstklassigen Wasserqualität erreichen.“

Eine Oder-Kommission soll die Probleme bewältigen

Im Gegensatz zur Donau hat man im Bereich der Oder und ihrer Nebenflüsse die Klassifizierung nach Gewässergüteklassen um die Kategorie „Abwasser“ erweitert. Wie Professor Edward Kempa von der technischen Hochschule Zielona in Polen berichtete, strebt man dort langfristig mindestens die Gewässergüteklasse II an. Langfristig ist sogar eine Anpassung an die EG-Richtlinien geplant, ebenso wie an das deutsche Abwasser-Abgabe-Gesetz. „Die Selbstreinigungskraft der Ostsee ist fast erschöpft“, so Kempa, „und Polen hat daran einen nicht geringen Anteil.“

Je nach Schadstoffklassen gibt das statistische Jahrbuch für 1989 Zahlenwerte zwischen 22 und 38 Prozent an, die durch die Oder und den größten polnischen Fluß, die Weichsel hervorgerufen werden. Die in den Abkommen von Danzig und Helsinki zum Schutz der Ostsee geforderten Maßnahmen um die gegenwärtige Abwasserlast zu reduzieren, machen den Bau von zahlreichen Abwasserreinigungsanlagen erforderlich, in denen eine Denitrifikation und eine weitgehende Reduktion der Phosphorverbindungen erfolgen soll.

Angestrebt wird jetzt die Berufung einer Oder-Kommission, die sich aus den drei Anliegerstaaten Deutschland, Polen und der Tschechoslowakei zusammensetzen soll. Außerdem ist an eine Beteiligung Dänemarks gedacht, vor dessen Küste ein Großteil der Abwässer angespült wird. Die Berufung einer solchen Kommission soll bereits auf Regierungsebene diskutiert worden sein.

(erschienen in „DIE WELT“ am 30. April 1991)

Geschichte des Mittelmeeres

Die Vergangenheit des Mittelmeeres wollen europäische Wissenschaftler ergründen, die in diesem Sommer gleich zwei Studienfahrten unternehmen werden. Dabei hoffen die Forscher, in sauerstoffarmen Meeresregionen auf spezialisierte Bakterien und möglicherweise auch riesige Würmer und Krebse zu stoßen.

Begründet wird diese Überlegung durch Berechnungen, wonach im gesamten Mittelmeerraum wesentlich mehr Wasser verdunstet, als durch Niederschläge und Flußmündungen zugeführt wird. Während pro Jahr 1150 Kubikkilometer Niederschlag und 230 Kubikkilometer Flußwasser auf eine Fläche von 2,5 Millionen Quadratkilometern niedergehen, entschwindet aus dem gleichen Gebiet fast die fünffache Menge, nämlich 4690 Kubikkilometer oder knapp 5 Billionen Liter.

Würde man den Zufluß von Wasser aus dem Atlantik durch die Meerenge von Gibraltar stoppen – etwa durch einen Damm – so fiele der Wasserspiegel jährlich um etwa einen Meter. Bei einer durchschnittlichen Tiefe von 1500 Metern wäre das gesamte Gebiet nach „nur“ eineinhalb Jahrtausenden trockengelegt.

Genau dies ist bereits geschehen, wenn das Ereignis auch schon fünf Millionen Jahre zurückliegt und nicht durch Menschenhand, sondern durch geologische Prozesse ausgelöst wurde. Nachdem sich die Meerenge von Gibraltar geschlossen hatte, nahm der Salzgehalt wegen der Verdunstung unaufhörlich zu; sämtliche marine Pflanzen und Tiere verschwanden im Laufe der salinen Katastrophe.

Stumme Zeugen dieser Periode sind Sedimentgesteine, sogenannte Evaporiten, die sich im Laufe der zunehmenden Versalzung bildeten und während der siebziger Jahre bei Bohrungen auf dem Grund des Mittelmeeres entdeckt wurden. Als die Straße von Gibraltar sich später wieder öffnete, wurde das Mittelmeer mit Tieren und Pflanzen aus dem Atlantik neu besiedelt; die Evaporiten verschwanden am Meeresgrund.

Dieses Salzgestein ist auch die Ursache für die ungewöhnliche Wasserschichtung am Boden des Bannock-Beckens. Diese tiefste bisher erforschte Region des Mittelmeeres, gelegen an der Großen Syrte von der Küste Libyens, zeigt bis auf 3200 Meter unter dem Meeresspiegel einen normalen Salzgehalt. Dann aber folgt eine Zwischenschicht, in der jeglicher Sauerstoff fehlt und schließlich eine 200 Meter dicke, stark salzhaltige Lösung, die offensichtlich aus dem Zerfall der Evaporiten herrührt.

In der Grenzschicht nun wollen die Wissenschaftler nach Organismen suchen, die sich den extremen Verhältnissen angepaßt haben. Auch sind Bohrungen von einem Spezialschiff aus geplant, welche die bisher längsten Bohrkerne zu Tage fördern sollen. Neue Entdeckungen über Vergangenheit und Gegenwart des Mittelmeeres werden daher wohl nicht lange auf sich warten lassen.

(erschienen in „DIE WELT“ am 18. Mai 1991)

Schallmessung verrät Wassertemperatur

Schallwellen können nicht nur durch die Luft übertragen werden, auch unter Wasser funktioniert dieses Prinzip, wie Flipper der Delphin zahllosen Fernsehzuschauern beweisen konnte. Nun soll diese Tatsache außer verliebten Walen auch besorgten Klimaforschern zugutekommen: Ein neues Verfahren zur Temperaturmessung in den Weltmeeren erproben derzeit Wissenschaftler des Scripps Institutes für Ozeanographie im kalifornischen La Jolla. Die Forscher wollen dabei den Umstand nutzen, daß die Übertragungsgeschwindigkeit von Schallwellen im Wasser vorwiegend von dessen Temperatur abhängt.

Nun soll ein „akustischer Unterwasserthermometer“ dazu beitragen, die Erwärmung der Ozeane durch den Treibhauseffekt exakt zu messen. Beim Treibhauseffekt führt ein Überschuß an „Abgasen“ der menschlichen Zivilisation – vorwiegend Kohlendioxid und Methan – dazu, daß die Erde mehr Energie in Form von Sonnenlicht behält als in Form von Wärmestrahlung wieder abgegeben wird. Die Folge ist eine schleichende Erwärmung der Atmosphäre (etwa 0,5 Grad in den letzten hundert Jahren), die für eine zunehmende Anzahl von Umweltkatastrophen und das Ansteigen des Meeresspiegels verantwortlich gemacht wird.

Da die Weltmeere, welche über zwei Drittel der Erdoberfläche bedecken, als gigantische Speicher für Wärme und Kohlendioxid dienen, sind Klimaforscher und Ozeanologen gleichermaßen an exakten Daten interessiert. Auch Computersimulationen, mit denen die weitere Entwicklung des Weltklimas vorhergesagt werden soll, sind abhängig von einer möglichst großen Zahl an exakten Messdaten.

Ein wichtiger Schritt in diese Richtung ist das neue Verfahren, das bereits vor zehn Jahren von Professor Walter Munk in La Jolla und dessen Kollegen Carl Wunsch am Massachusetts Institute of Technology (MIT) vorgeschlagen wurde. Der Vorteil der akustischen Temperaturmessung besteht darin, daß mit verhältnismäßig geringem Aufwand die Durchschnittstemperatur für große Wassermassen bestimmt werden kann. Normalerweise bewegen sich Schallwellen in Salzwasser mit einer Geschwindigkeit von 1500 Metern in der Sekunde. Eine Temperaturerhöhung um 0,005 Grad erhöht diese Geschwindigkeit um 20 Zentimeter pro Sekunde. Dieser Unterschied – so die Hoffnung der Wissenschaftler – müßte sich mit modernem Gerät relativ leicht bestimmt lassen. Die Dimensionen der Ozeane erlauben es nämlich, Messungen über Strecken von bis zu 20000 Kilometern durchzuführen, so daß im genannten Beispiel die Reisezeit der Schallwellen um mehrere zehntel Sekunden verkürzt wird.

Weil bei dieser Meßart ein Mittelwert gebildet wird, können viele Schwierigkeiten vermieden werden, die mit tausenden von Einzelmessungen auftreten. Bereits 1960 wurde ein akustisches Signal über eine Entfernung von mehreren tausend Kilometern aufgefangen. Noch auf den Bermudas konnte man damals die Schallwellen nachweisen, die durch die Explosion einer Sprengladung im australischen Perth ausgelöst wurden. Allerdings sind Ozeanologen und Tierschützer sich heutzutage darin einig, daß derartig explosive Techniken für Langzeitmessungen völlig ungeeignet sind.

Eine umweltverträgliche Neuauflage des Versuchs wurde daher kürzlich von Heard Island aus unternommen. Die Insel – gelegen im südlichen indischen Ozean – wurde ausgewählt, weil es von dieser Position aus möglich schien, Signale gleichzeitig durch den Atlantik, den Pazifik und den indischen Ozean zu fast allen Kontinenten zu schicken. Am 26. Januar bezogen Wissenschaftler aus neun Nationen Stellung in 19 Horchposten, die über den halben Erdball verteilt waren.

Sechs Tage lang gingen die Signale, die von einem Lautsprecher unter einem Forschungsschiff vor Heard Island abgestrahlt wurden, um die ganze Welt. Auf sämtlichen Horchposten war der Empfang gut bis hervorragend; der Testlauf damit ein voller Erfolg. Munk und seine Mitarbeiter wollen jetzt herausfinden, ob die Genauigkeit der Messungen ausreicht, um die vermutete Erwärmung der Meere von jährlich 0,005 Grad nachzuweisen. Außerdem soll sichergestellt werden, daß die Geräusche die Meeresbewohner nicht belasten.

Sollten diese letzten Analysen zufriedenstellend verlaufen, ist ein Langzeitexperiment geplant, dessen Dauer vermutlich zehn Jahre betragen wird. Den Meeresforschern und Klimatologen stünde dann erstmals wirklich aussagekräftiges Datenmaterial zur Verfügung, um die Rolle der Ozeane beim Treibhauseffekt zuverlässig zu beurteilen.

(ein Bericht aus Turin von der Konferenz „Ozeane, Klima und Menschen“ der San Paolo-Stiftung, geschrieben im April 1991 für „DIE WELT“)

Was wurde daraus? Am Schluß überwogen die bedenken von Tierschützern, dass die Geräusche den Meeresbewohnern – insbesondere den Walen – schaden könnte. Das Experiment wurde zwar nicht völlig abgeblasen, aber auf den Nordatlantik begrenzt.

Sintflut ante portas

„Warum muß gerade meine Insel untergehen? Was habe ich getan, daß die Weltmeere ansteigen läßt?“ Diese Fragen des Herrn Bukhari aus Bangladesh auf der internationalen Konferenz „Ozeane, Klima und Menschen“ in Turin machen betroffen und verdeutlichen zugleich, daß die globale Erwärmung und der vermutlich zusammenhängende Anstieg des Meeresspiegels längst keine graue Theorie mehr ist, die nur in den Köpfen von einigen Wissenschaftlern herum spukt.

Dr. Atiq Rahman vom Institut für angewandte Studien in Dhaka weiß, wovon er spricht, wenn er den Experten die Anfragen seines Landsmannes überbringt. Denn Herr Bukhari, Vorsteher einer kleinen Dorfgemeinschaft auf der Insel Nijhum Dwip im Golf von Bengalen, ist leider kein Einzelfall. Bukhari, der sich für einen reichen Mann hält, weil er als einziger im Dorf ein paar Schuhe besitzt, ist nur einer von 16 Millionen Bewohnern der Küstenregion Bangladeshs, die bereits heute immer wieder von katastrophalen Überflutungen heimgesucht wird.

Anders aber als in den Niederlanden oder in den Vereinigten Staaten, die ebenfalls von Sturmfluten und Landverlust bedroht sind, werden in einem der ärmsten Länder der Welt auf absehbare Zeit keine Ingenieure zur Verfügung stehen, um das Schlimmste zu verhüten. Mit rund zehn Milliarden Dollar werden die Kosten für Schutzmaßnahmen veranschlagt. Ein astronomisch hoher Betrag für ein Land, dessen Entwicklungsetat bereits heute zu 95 Prozent aus ausländischen Quellen stammt.

Die renommiertesten Klimaforscher der Welt, die sich im „Intergovernmental Panel on Climate Change“ (IPCC) zusammengefunden haben, sind sich einig: Höchstwahrscheinlich wird der Meeresspiegel bis zum Jahr 2100 um mindestens 16 Zentimeter ansteigen. Manche Inselstaaten, wie die Malediven, werden dann völlig im Wasser verschwinden. Fruchtbare Deltas, wie das des Nils, werden ebenfalls überschwemmt; Massenflucht und gewaltige Hungersnöte werden die Folge davon sein.

Die Kapazität der Meere für CO2 ist begrenzt

Müllkippe und Speisekammer, Rohstoffquelle und Naturgewalt – die Ozeane der Erde haben viele Gesichter. Jedes Kind weiß heute, daß über zwei Drittel der Erdoberfläche von Wasser bedeckt sind. Wie wichtig die Erforschung jener 361 Millionen Quadratkilometer ist, wurde auch auf der internationalen Konferenz „Ozeane, Klima und Menschen“ der San Paolo-Stiftung deutlich, die gestern in Turin zu Ende ging. Denn die Meere der Welt sind derzeit noch die größte Unbekannte im Klimageschehen der Erde.

3800 Meter beträgt deren durchschnittliche Tiefe; im pazifischen Marianengraben geht es sogar 11 521 Meter hinab. Diese unvorstellbare Wassermenge nimmt den weitaus größten Teil der Sonnenenergie auf, speichert diese in Form von Wärme und kann sie später wieder abgeben. Das Wechselspiel zwischen Meer und Atmosphäre ist die treibende Kraft für Wetterentwicklung und Klima, das sich als Mittelwert des Wetters über einen längeren Zeitraum definieren läßt.

Obwohl Wasser rund 800-mal schwerer als Luft und wesentlich zähflüssiger ist, zeigen die Luftmassen der Atmosphäre und das Wasser der Ozeane in mancher Hinsicht ähnliches Verhalten. Ein Zyklon, der einen Durchmesser von etwa 1000 Kilometern hat, läßt sich durchaus mit einem ozeanischen Wirbel von rund 20 Kilometern vergleichen. Ebenso haben marine Wirbel zwar nur ein Fünfzigstel der Größe ihrer atmosphärischen Verwandten, sind dafür aber auch über Monate hinweg stabil.

Ein weiteres Beispiel für den Energietransfer zwischen Meer und Atmosphäre ist das Phänomen El Niño, eine warme Strömung, die für die Fischer der peruanischen Küstenregion einen wichtigen Wirtschaftsfaktor darstellt. Das Christkind – so die deutsche Übersetzung von El Niño – taucht etwa alle drei bis vier Jahre zur Weihnachtszeit vor der Westküste Südamerikas auf und unterbricht dabei die Zufuhr kalter und nährstoffreicher Wassermassen an die Oberfläche. Für die Fischer Perus bedeutet das einen drastischen Rückgang ihrer Fänge, der sich durch einen Temperaturanstieg des Oberflächenwassers ankündigt.

El Niño wandert dann weiter in Richtung Australien und Asien, was regelmäßig zu Sturmfluten und Dürrekatastrophen führt, die 1982/83 besonders verheerend waren. Während Ozeanographen und Klimatologen El Niño früher als isoliertes Phänomen ansahen, ist Dr. David Anderson von der Universität Oxford heute der Meinung, daß die Meeresströmung eine periodische Schwankung in einem zusammenhängenden System aus Ozean und Atmosphäre darstellt. So ließe sich auch ein Zusammenhang mit dem zeitweiligen Ausbleiben des indischen Monsuns erklären. Das Gesamtphänomen El Niño und die als „südliche Oszillation“ bekannte Luftdruckschwankung werden daher neuerdings als „Enso“ bezeichnet, ein Kunstwort für die beiden Aspekte der gleichen Klimaerscheinung.

„In unserer Computersimulation deutet alles darauf hin, daß Enso 1991/92 wieder besonders stark sein wird“, warnt Anderson. Ein anderes Problem brennt allerdings noch dringender auf den Nägeln – die Frage nach der Rolle, welche die Weltmeere bei der kaum noch bestrittenen globalen Erwärmung spielen.

Dr. Philip Jones vom Labor für Klimaforschung der Universität East Anglia im britischen Norwich darf sich rühmen, den Datendschungel besonders gründlich durchforstet zu haben. Rund 80 Millionen Temperaturmessungen aus den Ozeanen unseres Planeten sichtete der Klimaforscher in zehnjähriger Kleinarbeit und korrigierte dabei die teilweise erheblichen Fehler, die sich über 140 Jahre hinweg in die Datenbank eingeschlichen hatten. Denn die Meßmethoden waren in diesem Zeitraum alles andere als einheitlich.

Während man vor dem Zweiten Weltkrieg beispielsweise das Wasser noch mit einem Eimer an Bord holte und dort nach wenigen Minuten die Temperatur von einem Quecksilberthermometer ablas, sind die Sensoren heute meist in das Ansaugrohr für das Kühlwasser integriert. Dort aber – so ergab der direkte Vergleich – sind die Meßwerte zwischen 0,3 und 0,7 Grad höher als die im Eimer bestimmten.

Auch ist Eimer nicht gleich Eimer. Seitdem nämlich 1853 in Brüssel die „Internationale Vereinbarung über Messung, Sammlung und Austausch maritim meteorologischer Beobachtungen“ unterzeichnet wurde, holte man das Wasser mal mit Säcken aus Segeltuch, dann mit Holz- oder Metalleimern und seit dem Zweiten Weltkrieg endlich auch mit Plastikeimern an Bord. Da diese Behältnisse jeweils unterschiedlich gute Isolatoren sind und die genaue Meßmethode erst seit 1970 registriert ist, war Jones gezwungen, die meisten Meßwerte zu korrigieren und nicht wenige völlig außer Acht zu lassen. Dennoch ist das Ergebnis der Detektivarbeit eindeutig: „Die Durchschnittstemperatur der Erde ist in den letzten 100 Jahren um 0,5 Grad gestiegen“, sagt Jones.

Die Erwärmung – auch darin lind sich die Experten einig – ist auf die Freisetzung großer Mengen von Treibhausgasen durch den Menschen zurückzuführen. Zwar gibt es einen geradezu lebenswichtigen, natürlichen Treibhauseffekt, verursacht durch Wasserdampf md Kohlendioxid, ohne den die Erde ein kalter und unbewohnbarer Planet wäre. „Aber der Mensch bringt derzeit jährlich durch die Verbrennung fossiler Rohstoffe und die Abholzung von Wäldern etwa 7,5 Milliarden Tonnen Kohlendioxid zusätzlich in dieses fein balancierte System“, betont Georges Woodwell, Direktor des Woodshole Research Center im amerikanischen Bundesstaat Massachusetts. Das entspricht umgerechnet rund fünf Milliarden Tonnen Kohlenstoff.

In dieser Rechnung sind die Weltmeere die große Unbekannte. Sie bilden den bei weitem größten Kohlendioxidspeicher, doch fallt es schwer, abzuschätzen, was angesichts zunehmender Temperaturen langfristig geschehen wird. 40.000 Milliarden Tonnen Kohlenstoff werden allein in den tieferen, austauscharmen Schichten vermutet. An der Grenzschicht zur Atmosphäre befinden sich nochmals rund 800 Milliarden Tonnen. Hier findet auch ein reger Austausch mit der Luft statt. Ein Drittel bis zur Hälfte des durch menschliche Aktivitäten freigesetzten CO2 werden so entsorgt, doch funktioniert diese Pufferfunktion nur über begrenzte Zeit.

Eine Möglichkeit, das Gas zu entfernen, wird von den fotosynthetischen Meeresorganismen demonstriert: Ein Sammelsurium meist winziger Organismen, das Phytoplankton, produziert aus Licht und CO2 ständig neue Nährstoffe. Der Kohlenstoff wandert in die Schalen und Gehäuse der Mikroorganismen und fallt nach deren Tod auf den Meeresgrund. Doch die dazu erforderlichen gewaltigen Zeiträume stehen der Menschheit nicht mehr zur Verfügung, um die drohende Klimakatastrophe abzuwenden.

(erschienen in „DIE WELT“ am 18. April 1991)

Papier ohne Chlor und Schwefel

Die deutsche Zellstoffindustrie war lange Zeit vom Aussterben bedroht. Der Zwang, gleichzeitig wirtschaftlich zu arbeiten und die im internationalen Maßstab äußerst strengen Umweltschutzbestimmungen einzuhalten, trieb den Industriezweig, der den Grundstoff für Papier, Taschentücher, Windeln und vieles mehr produziert, fast in den Ruin. Denn „wenn die übrige Welt unsere Grenzwerte hätte, würde kein Zellstoff mehr hergestellt werden“, meint Professor Rudolf Patt, Leiter des Bereiches Holztechnologie und Holzchemie an der Universität Hamburg.

Der Experte sieht die Lösung dieses Dilemmas allerdings nicht in einer Änderung unserer gesetzlichen Bestimmungen, sondern in neuen technischen Verfahren zur Zellstoffgewinnung. Heute existieren in Deutschland nur noch fünf Anlagen, die zusammen täglich 2700 Tonnen produzieren und nur einen Bruchteil des einheimischen Bedarfs decken können. Bis auf eine Ausnahme wurden auch in den neuen Bundesländern sämtliche Anlagen geschlossen. „Wir leisten uns den Luxus, Zellstoff zu importieren, der unter Bedingungen hergestellt wird, die bei uns nicht mehr möglich wären“, sagte Patt gestern vor der Wissenschaftspressekonferenz in Bonn.

Die großen deutschen Anlagen arbeiten sämtlich nach dem Sulfitverfahren, das nicht alle Hölzer verwenden kann und dessen Produkte nicht fest genug sind. Deshalb wird weltweit zu 80 Prozent nach dem Sulfatverfahren gearbeitet, bei dem aber Schwefeloxide und übelriechende Mercaptame anfallen; ein Problem, das auch mit fortschrittlichster Technologie noch nicht im Griff ist.

Neben der Festigkeit des Papiers, die für die Druckereien extrem wichtig ist, spielt in letzter Zeit auch der „Weißwert“ eine Rolle. Noch immer legen viele Verbraucher Wert auf blütenweißes Briefpapier – eine Qualität, die lange Zeit ohne die in Verruf geratene Chlorchemie nicht zu erreichen war. Den Bemühungen der Umweltschutzorganisation Greenpeace, die ein chlorfreies Verfahren auf Basis der Sulfattechnik propagiert, erteilte der Geschäftsführer der Organocell Thyssen GmbH, Gerhard Dahlmann, eine Absage. „Das kann keine Lösung sein“, meinte Dahlmann, der sein eigenes Verfahren favorisiert.

Das Organocell-Verfahren arbeitet ohne Schwefelprodukte und kann sämtliche einsetzbaren Rohstoffe verarbeiten. Eine Demonstrationsanlage mit einer Kapazität von täglich fünf Tonnen Zellstoff befindet sich bereits im Münchner Stadtteil Pasing in Betrieb. Im Prinzip sei es auch möglich, auf chlorhaltige Chemikalien bei der Bleiche zu verzichten; bei doppelter Kapazität würde das Organocell-Verfahren den Schadstoffausstoß halbieren. Derzeit wird an einer Referenzanlage in Kehlheim an der Donau gearbeitet, die durch den Umbau einer Zellstofffabrik entsteht, in der früher das Sulfitverfahren zur Anwendung kam.

Auch das zweite Verfahren, entwickelt von Professor Patt, kann eine funktionierende Pilotanlage im oberschwäbischen Baienfurt vorweisen. Das sogenannte ASAM-Verfahren unterscheidet sich von herkömmlichen Techniken durch die Zugabe von Methanol beim Holzaufschluß. Das ermöglicht es, bei der anschließenden Bleiche auf chlorhaltige Chemikalien zu verzichten. „Theoretisch bekommen wir eine abwasserfreie Zellstofffabrik“, so Patt.

(erschienen in „DIE WELT“ am 10. April 1991)

Verbrennung ohne Schadstoffe?

Wenn Professor Jürgen Warnatz, Direktor des Institutes für technische Verbrennung an der Universität Stuttgart, seine Arbeit beschreibt, hört sich das so an: „Flammen sind äußerst komplizierte dreidimensionale, zeitabhängige, physikalisch-chemische Systeme, in denen sich ständig unterschiedlichste Reaktionen überlagern.“ Kein Wunder also, daß Warnatz zur Untersuchung von Verbrennungsvorgängen auf die Hilfe eines Supercomputers angewiesen ist. Wenn dieser beispielsweise die Verbrennung des einfachen Moleküls Methan (CH4) simuliert, werden vierhundert verschiedene Reaktionen und vierzig Zwischenprodukte erfaßt.

Damit bietet das Elektronenhirn erhebliche Vorteile gegenüber der klassischen Chemie, in der meist nur Anfangs- und Endprodukt berücksichtigt werden können. In der Computersimulation können Brennstoffgemisch, Druck und Temperatur unabhängig voneinander variiert und berechnet werden; zeitraubende Versuche werden überflüssig. Die praktischen Konsequenzen dieser Forschung liegen auf der Hand: Die optimalen Verbrennungsbedingungen für Gas, Öl und Kohle lassen sich erstmals berechnen, schädliche Nebenprodukte können vermindert werden.

„Wir sind auf dem Weg zu einer Energiegewinnung mit hohem Wirkungsgrad bei gleichzeitig geringer Schadstoffemission“, sagt Warnatz. Dieses Ziel wurde in der Kraftwerkstechnik bisher verfehlt; es galt als unmöglich, beide Vorteile zu vereinen. Denn um eine hohe Energieausbeute zu erzielen, müssen Verbrennungen bei hoher Temperatur erfolgen, wodurch der Anteil an unverbrannten Kohlenwasserstoffen und Stickoxiden ansteigt.

Die Einsatzmöglichkeiten der Computersimulation sind damit aber noch nicht erschöpft: In Automotoren, Heizungsanlagen, Flugzeugturbinen, ja sogar bei der umstrittenen Müllverbrennung könnten die freigesetzten Schadstoffe reduziert werden, wenn es den Forschern gelänge, Druck, Temperatur und Brennstoffgemisch optimal aufeinander abzustimmen. Dies wäre ökologisch und wirtschaftlich sinnvoller, als die entstehenden Abgase mit immer besseren und aufwendigeren Filtern zu reinigen.

(erschienen in „DIE WELT“ am 5. April 1991)