Zum Hauptinhalt springen

Schöne blaue Donau? Von wegen!

Das grenzenlose Europa ist im Bereich der Umweltverschmutzung längst traurige Wirklichkeit, wie ein Blick auf die Flüsse des Kontinents verdeutlicht. Mit fast 3000 Kilometern Länge bildet die Donau als größter Strom Europas eine Brücke zwischen Ost und West.

Der Strom, der für viele ein einzigartiges Naturdenkmal darstellt, ist gleichzeitig ein wirtschaftlich bedeutsamer Wasserweg und gewaltiger Abwasserkanal. Rund 70 Millionen Menschen aus acht Ländern leben im Einzugsgebiet des Flußes, das sich auf 817000 Quadratkilometer erstreckt. „Die Donau stellt meiner Meinung nach ein Symbol und einen Schatz dar, für dessen Wasser langfristig erstklassige Qualität gesichert werden muß“, erklärte Dr. László Somlyódy vom Budapester Water Resources Research Center auf der 24. Essener Tagung „Wasser und Abfall in Europa“, die am Wochenende in Dresden zu Ende ging.

Die erfreuliche Zunahme der Teilnehmer an dieser Konferenz – 1700 gegenüber 1200 im letzten Jahr – zeigt, daß Somlyódy mit seiner Meinung nicht alleine steht. Ein weiterer erfreulicher Trend, der die historischen Umwälzungen der letzten Jahre widerspiegelt: Gut 40 Prozent der Anwesenden waren aus den neuen Bundesländern oder aus dem ehemaligen Ostblock angereist.

Das „Modell Rhein“ soll im Osten Pate stehen

Gerade in den neuen Bundesländern, in Polen, Ungarn und der Tschechoslowakei hegt man die Hoffnung, daß die recht erfolgreiche Arbeit der internationalen Rheinschutzkommission sich auf die gewaltigen Umweltprobleme in dieser Region übertragen läßt. Im Falle der Donau wäre dies auch besonders nötig, selbst wenn die erhebliche Verdünnung und die Selbstreinigungsfähigkeit des gewaltigen Stromes unumkehrbare Veränderungen bisher verhindert haben. An Initiativen und Projekten herseht kein Mangel, was fehlt ist vielmehr eine Koordination der Bemühungen, wie Somlyódy unterstrich.

Donaukommission, Entwicklungsfond der Vereinten Nationen, AG Donauforschung der internationalen Vereinigung der Süßwasserforscher, die „Deklaration von Budapest für Hochwasserschutz, Wasservorratswirtschaft und Wassergüteschutz“ aus dem Jahr 1985, der Programmvorschlag „Blaue Donau“ der Unesco und eine einjährige Exkursion des Meeresforschers Jaques Cousteau sind nur einige der rund zwanzig Initiativen zum Schutz des Flusses. Dennoch gibt es derzeit keine zwei Anliegerstaaten, die das gleiche Klassifikationssystem anwenden, um die Gewässergüte festzulegen.

Nicht einmal auf der Strecke zwischen Wien und Budapest gibt es beispielsweise einheitliche Kriterien zur Ermittlung der Wasserbeschaffenheit. Unter diesen Umständen verwundert es nicht, daß eine Verbesserung der Wasserqualität auf dem Papier erreicht wird, wenn der gewaltige Strom die tschechoslowakisch-ungarische Grenze überschreitet. Als „Ausgleich“ für die eher nachsichtigen Kriterien bei der Ermittlung der Wassergüteklasse kann Ungarn dafür aber auf das dichteste Meßnetz verweisen.

Ein weiterer gravierender Mangel: Noch immer gibt es keine umfassende Analyse der ökologischen Auswirkungen für die umstrittenen Stauwerke Eisernes Tor I und II oder das österreichische Staustufensystem. Von Seiten Wiens, so Somlyódy, seien Untersuchungen dazu so spät begonnen worden, daß erste Ergebnisse erst heute vorliegen. „Die gegenwärtige Lage ist also in bedauerlicher Weise dadurch charakterisiert, daß weder die Veränderungen der Wassergüteklassen in der Vergangenheit noch der gegenwärtige Zustand der Donau für den ganzen Strom zuverlässig beschrieben werden kann.“

Den größten Grund zur Besorgnis geben auf ungarischem Gebiet die Konzentrationen der Schadstoffe Nitrat und Phosphat. Beide Stoffe sind in Fäkalien enthalten und werden auch bei der übermäßigen Verwendung von Kunstdünger freigesetzt. Zwischen 1960 und 1985 haben sich die Meßwerte verzehnfacht, was damit begründet wird, daß der Einsatz von Düngemitteln im gleichen Zeitraum um das Hundertfache zunahm. Auch Budapest hat an der Verschmutzung einen beträchtlichen Anteil: Dort gelangen noch heute vier Fünftel der Abwässer ohne biologische Reinigung in den Fluß. Die Zahl der Bakterien nimmt denn auch unterhalb der Hauptstadt schlagartig zu. Die Zahl der Algen hat sich gegenüber den 60er Jahren verzehnfacht.

Um ein umfassenderes Bild der Belastung auch mit Schwermetallen und organischen Substanzen aus der Chlorchemie zu erhalten, muß nach Somlyódys Meinung schnellstmöglich ein einheitliches Meß- und Bewertungssystem für den gesamten Verlauf der Donau etabliert werden. „Erst wenn wir eine gemeinsame Sprache sprechen können wir das Ziel einer erstklassigen Wasserqualität erreichen.“

Eine Oder-Kommission soll die Probleme bewältigen

Im Gegensatz zur Donau hat man im Bereich der Oder und ihrer Nebenflüsse die Klassifizierung nach Gewässergüteklassen um die Kategorie „Abwasser“ erweitert. Wie Professor Edward Kempa von der technischen Hochschule Zielona in Polen berichtete, strebt man dort langfristig mindestens die Gewässergüteklasse II an. Langfristig ist sogar eine Anpassung an die EG-Richtlinien geplant, ebenso wie an das deutsche Abwasser-Abgabe-Gesetz. „Die Selbstreinigungskraft der Ostsee ist fast erschöpft“, so Kempa, „und Polen hat daran einen nicht geringen Anteil.“

Je nach Schadstoffklassen gibt das statistische Jahrbuch für 1989 Zahlenwerte zwischen 22 und 38 Prozent an, die durch die Oder und den größten polnischen Fluß, die Weichsel hervorgerufen werden. Die in den Abkommen von Danzig und Helsinki zum Schutz der Ostsee geforderten Maßnahmen um die gegenwärtige Abwasserlast zu reduzieren, machen den Bau von zahlreichen Abwasserreinigungsanlagen erforderlich, in denen eine Denitrifikation und eine weitgehende Reduktion der Phosphorverbindungen erfolgen soll.

Angestrebt wird jetzt die Berufung einer Oder-Kommission, die sich aus den drei Anliegerstaaten Deutschland, Polen und der Tschechoslowakei zusammensetzen soll. Außerdem ist an eine Beteiligung Dänemarks gedacht, vor dessen Küste ein Großteil der Abwässer angespült wird. Die Berufung einer solchen Kommission soll bereits auf Regierungsebene diskutiert worden sein.

(erschienen in „DIE WELT“ am 30. April 1991)

Zellulose aus Mikroben

Zum ersten Mal ist jetzt gelungen, Zellulose in industriellem Maßstab mit Hilfe von gentechnisch veränderten Bakterien zu produzieren. Zellulose ist das häufigste Makromolekül der Erde und findet sich vorwiegend in den Zellwänden der Pflanzen. Die Substanz, welche aus unzähligen miteinander verknüpften Zuckermolekülen besteht, wird vorwiegend zur Herstellung von Papier benutzt. Eine Kooperation zwischen Professor Moshe Benziman von der Hebräischen Universität Jerusalem und der kalifornischen Biofirma Cetus erlaubt jetzt die Herstellung großer Mengen an Zellulose durch Bakterien der Art Acetobacter xylinum. Das neue Produkt soll schon in Kürze unter dem Namen „Cellulon“ auf den Markt kommen. Es besteht aus Fasern, die nur einen zehnmillionstel Meter Durchmesser haben; seine Oberfläche ist etwa 200 Mal größer als die von herkömmlichen Zellulosefibern. Durch diese Eigenschaften wird Cellulon für eine Reihe von Anwendungen interessant, die von der Kosmetik- und Lebensmittelproduktion bis hin zur Ölgewinnung reichen.

(erschienen in „DIE WELT“ am 27. April 1991)

Supercomputer: Connection Machine spricht mit Cray Y-MP

Erstmalig ist es Wissenschaftlern des Supercomputer Centers in Pittsburgh gelungen, eine Verbindung zwischen einem „herkömmlichen“ und einem parallelen Superrechner herzustellen. Obwohl beide Elektronenhirne – ein Cray Y-MP und die Connection Machine am Massachusetts Institute of Technology – nach völlig verschiedenen Prinzipien arbeiten, gelang es, bis zu 250 Millionen Zeichen pro Sekunde zwischen den beiden Maschinen auszutauschen.

Der Cray-Computer arbeitet sequenziell, das heißt sämtliche Rechenaufgaben werden nacheinander erledigt, wenn auch mit atemberaubender Geschwindigkeit. Diese serielle Arbeitsweise läßt sich mit einem Bauvorhaben vergleichen, bei dem ein einziger Arbeiter alle Tätigkeiten allein – und das heißt nacheinander – verrichtet.

Dagegen ist die Connection Machine der zurzeit fortschrittlichste parallele Computer. Um bei obigem Beispiel zu bleiben, wird die Aufgabe hier auf viele einzelne Arbeiter verteilt, die gleichzeitig, aber in Absprache miteinander, verschiedene Aufgaben wie Gerüstbau, Mauerbau und Installation erledigen.

Insgesamt sind in der Connection Machine 65.536 einzelne „Arbeiter“ (Prozessoren) zugange, die miteinander in Verbindung stehen und gleichzeitig an verschiedenen Teilaufgaben eines Problems arbeiten. Der futuristisch aussehende Rechner hat die Form eines Würfels mit 1,5 Meter Kantenlänge.

Auf der schwarzglänzenden Oberfläche der Connection Machine zeigen rotglühende Lämpchen den Betriebszustand der einzelnen Chips an und erleichtern so die Fehlersuche. Mehrere Milliarden Befehle können im inneren des schwarzen Kastens in einer Sekunde ausgeführt werden.

Beide Konzepte haben Vor- und Nachteile. So sind serielle Computer, die heute die überwiegende Mehrheit aller Rechner bilden, bei jeder Kalkulation auf das Ergebnis der jeweils vorausgehenden Rechnung angewiesen. Für viele Probleme in der Mathematik oder in den Naturwissenschaften, sei es die Ermittlung der Zahl Pi oder die Berechnung von Wechselwirkungen zwischen Himmelskörpern, ist diese Vorgehensweise sinnvoll. Läßt sich aber ein Problem in mehrere Teile zerlegen, so treten die Vorteile einer parallelen Rechnerarchitektur zutage.

Wenn beispielsweise eine Textstelle in einem umfangreichen Archiv gesucht wird, kann jeder einzelne Prozessor eines parallelen Rechners einen Teil des Archivs durchsuchen, wodurch die Rechenzeit erheblich reduziert wird. Auch die Berechnung von Luft- oder Wasserströmungen eignet sich für die „Parallelisierung“. Probleme gibt es aber noch mit dem Austausch der Daten zwischen den Untereinheiten dieses neuen Rechnertyps.

Auch mangelt es an Experten, die in der Lage sind, Programme für parallele Rechner zu schreiben. Wie die Zeitschrift „Science“ meldet, ist es den Pittsburgher Forschern dennoch gelungen, eine schwierige Aufgabe so zwischen den beiden Elektronengehirnen aufzuteilen, daß jeder Rechner seine Stärken ausspielen konnte. Der erste Benutzer der Hochgeschwindigkeitsverbindung war der Chemieingenieur Gregory McRae, der die optimale Verteilung der Rohstoffe in einer Chemiefabrik herausfinden wollte.

Dank der Gemeinschaftsarbeit von Cray Y-MP und Connection Machine wurde das Problem 40 Mal schneller gelöst als auf einem herkömmlichen Supercomputer. Der Direktor des Rechenzentrums Michael Levine glaubt, daß weitere Anwendungen kurz bevorstehen. Die Arbeitsteilung zwischen seriellen und parallelen Computern könnte zum Beispiel mithelfen, bestehende Klimamodelle zu verfeinern oder die Entschlüsselung der Erbinformation voranzutreiben.

(erschienen in „DIE WELT“ am 23. April 1991)

Geschichte des Mittelmeeres

Die Vergangenheit des Mittelmeeres wollen europäische Wissenschaftler ergründen, die in diesem Sommer gleich zwei Studienfahrten unternehmen werden. Dabei hoffen die Forscher, in sauerstoffarmen Meeresregionen auf spezialisierte Bakterien und möglicherweise auch riesige Würmer und Krebse zu stoßen.

Begründet wird diese Überlegung durch Berechnungen, wonach im gesamten Mittelmeerraum wesentlich mehr Wasser verdunstet, als durch Niederschläge und Flußmündungen zugeführt wird. Während pro Jahr 1150 Kubikkilometer Niederschlag und 230 Kubikkilometer Flußwasser auf eine Fläche von 2,5 Millionen Quadratkilometern niedergehen, entschwindet aus dem gleichen Gebiet fast die fünffache Menge, nämlich 4690 Kubikkilometer oder knapp 5 Billionen Liter.

Würde man den Zufluß von Wasser aus dem Atlantik durch die Meerenge von Gibraltar stoppen – etwa durch einen Damm – so fiele der Wasserspiegel jährlich um etwa einen Meter. Bei einer durchschnittlichen Tiefe von 1500 Metern wäre das gesamte Gebiet nach „nur“ eineinhalb Jahrtausenden trockengelegt.

Genau dies ist bereits geschehen, wenn das Ereignis auch schon fünf Millionen Jahre zurückliegt und nicht durch Menschenhand, sondern durch geologische Prozesse ausgelöst wurde. Nachdem sich die Meerenge von Gibraltar geschlossen hatte, nahm der Salzgehalt wegen der Verdunstung unaufhörlich zu; sämtliche marine Pflanzen und Tiere verschwanden im Laufe der salinen Katastrophe.

Stumme Zeugen dieser Periode sind Sedimentgesteine, sogenannte Evaporiten, die sich im Laufe der zunehmenden Versalzung bildeten und während der siebziger Jahre bei Bohrungen auf dem Grund des Mittelmeeres entdeckt wurden. Als die Straße von Gibraltar sich später wieder öffnete, wurde das Mittelmeer mit Tieren und Pflanzen aus dem Atlantik neu besiedelt; die Evaporiten verschwanden am Meeresgrund.

Dieses Salzgestein ist auch die Ursache für die ungewöhnliche Wasserschichtung am Boden des Bannock-Beckens. Diese tiefste bisher erforschte Region des Mittelmeeres, gelegen an der Großen Syrte von der Küste Libyens, zeigt bis auf 3200 Meter unter dem Meeresspiegel einen normalen Salzgehalt. Dann aber folgt eine Zwischenschicht, in der jeglicher Sauerstoff fehlt und schließlich eine 200 Meter dicke, stark salzhaltige Lösung, die offensichtlich aus dem Zerfall der Evaporiten herrührt.

In der Grenzschicht nun wollen die Wissenschaftler nach Organismen suchen, die sich den extremen Verhältnissen angepaßt haben. Auch sind Bohrungen von einem Spezialschiff aus geplant, welche die bisher längsten Bohrkerne zu Tage fördern sollen. Neue Entdeckungen über Vergangenheit und Gegenwart des Mittelmeeres werden daher wohl nicht lange auf sich warten lassen.

(erschienen in „DIE WELT“ am 18. Mai 1991)

Schallmessung verrät Wassertemperatur

Schallwellen können nicht nur durch die Luft übertragen werden, auch unter Wasser funktioniert dieses Prinzip, wie Flipper der Delphin zahllosen Fernsehzuschauern beweisen konnte. Nun soll diese Tatsache außer verliebten Walen auch besorgten Klimaforschern zugutekommen: Ein neues Verfahren zur Temperaturmessung in den Weltmeeren erproben derzeit Wissenschaftler des Scripps Institutes für Ozeanographie im kalifornischen La Jolla. Die Forscher wollen dabei den Umstand nutzen, daß die Übertragungsgeschwindigkeit von Schallwellen im Wasser vorwiegend von dessen Temperatur abhängt.

Nun soll ein „akustischer Unterwasserthermometer“ dazu beitragen, die Erwärmung der Ozeane durch den Treibhauseffekt exakt zu messen. Beim Treibhauseffekt führt ein Überschuß an „Abgasen“ der menschlichen Zivilisation – vorwiegend Kohlendioxid und Methan – dazu, daß die Erde mehr Energie in Form von Sonnenlicht behält als in Form von Wärmestrahlung wieder abgegeben wird. Die Folge ist eine schleichende Erwärmung der Atmosphäre (etwa 0,5 Grad in den letzten hundert Jahren), die für eine zunehmende Anzahl von Umweltkatastrophen und das Ansteigen des Meeresspiegels verantwortlich gemacht wird.

Da die Weltmeere, welche über zwei Drittel der Erdoberfläche bedecken, als gigantische Speicher für Wärme und Kohlendioxid dienen, sind Klimaforscher und Ozeanologen gleichermaßen an exakten Daten interessiert. Auch Computersimulationen, mit denen die weitere Entwicklung des Weltklimas vorhergesagt werden soll, sind abhängig von einer möglichst großen Zahl an exakten Messdaten.

Ein wichtiger Schritt in diese Richtung ist das neue Verfahren, das bereits vor zehn Jahren von Professor Walter Munk in La Jolla und dessen Kollegen Carl Wunsch am Massachusetts Institute of Technology (MIT) vorgeschlagen wurde. Der Vorteil der akustischen Temperaturmessung besteht darin, daß mit verhältnismäßig geringem Aufwand die Durchschnittstemperatur für große Wassermassen bestimmt werden kann. Normalerweise bewegen sich Schallwellen in Salzwasser mit einer Geschwindigkeit von 1500 Metern in der Sekunde. Eine Temperaturerhöhung um 0,005 Grad erhöht diese Geschwindigkeit um 20 Zentimeter pro Sekunde. Dieser Unterschied – so die Hoffnung der Wissenschaftler – müßte sich mit modernem Gerät relativ leicht bestimmt lassen. Die Dimensionen der Ozeane erlauben es nämlich, Messungen über Strecken von bis zu 20000 Kilometern durchzuführen, so daß im genannten Beispiel die Reisezeit der Schallwellen um mehrere zehntel Sekunden verkürzt wird.

Weil bei dieser Meßart ein Mittelwert gebildet wird, können viele Schwierigkeiten vermieden werden, die mit tausenden von Einzelmessungen auftreten. Bereits 1960 wurde ein akustisches Signal über eine Entfernung von mehreren tausend Kilometern aufgefangen. Noch auf den Bermudas konnte man damals die Schallwellen nachweisen, die durch die Explosion einer Sprengladung im australischen Perth ausgelöst wurden. Allerdings sind Ozeanologen und Tierschützer sich heutzutage darin einig, daß derartig explosive Techniken für Langzeitmessungen völlig ungeeignet sind.

Eine umweltverträgliche Neuauflage des Versuchs wurde daher kürzlich von Heard Island aus unternommen. Die Insel – gelegen im südlichen indischen Ozean – wurde ausgewählt, weil es von dieser Position aus möglich schien, Signale gleichzeitig durch den Atlantik, den Pazifik und den indischen Ozean zu fast allen Kontinenten zu schicken. Am 26. Januar bezogen Wissenschaftler aus neun Nationen Stellung in 19 Horchposten, die über den halben Erdball verteilt waren.

Sechs Tage lang gingen die Signale, die von einem Lautsprecher unter einem Forschungsschiff vor Heard Island abgestrahlt wurden, um die ganze Welt. Auf sämtlichen Horchposten war der Empfang gut bis hervorragend; der Testlauf damit ein voller Erfolg. Munk und seine Mitarbeiter wollen jetzt herausfinden, ob die Genauigkeit der Messungen ausreicht, um die vermutete Erwärmung der Meere von jährlich 0,005 Grad nachzuweisen. Außerdem soll sichergestellt werden, daß die Geräusche die Meeresbewohner nicht belasten.

Sollten diese letzten Analysen zufriedenstellend verlaufen, ist ein Langzeitexperiment geplant, dessen Dauer vermutlich zehn Jahre betragen wird. Den Meeresforschern und Klimatologen stünde dann erstmals wirklich aussagekräftiges Datenmaterial zur Verfügung, um die Rolle der Ozeane beim Treibhauseffekt zuverlässig zu beurteilen.

(ein Bericht aus Turin von der Konferenz „Ozeane, Klima und Menschen“ der San Paolo-Stiftung, geschrieben im April 1991 für „DIE WELT“)

Was wurde daraus? Am Schluß überwogen die bedenken von Tierschützern, dass die Geräusche den Meeresbewohnern – insbesondere den Walen – schaden könnte. Das Experiment wurde zwar nicht völlig abgeblasen, aber auf den Nordatlantik begrenzt.

Sintflut ante portas

„Warum muß gerade meine Insel untergehen? Was habe ich getan, daß die Weltmeere ansteigen läßt?“ Diese Fragen des Herrn Bukhari aus Bangladesh auf der internationalen Konferenz „Ozeane, Klima und Menschen“ in Turin machen betroffen und verdeutlichen zugleich, daß die globale Erwärmung und der vermutlich zusammenhängende Anstieg des Meeresspiegels längst keine graue Theorie mehr ist, die nur in den Köpfen von einigen Wissenschaftlern herum spukt.

Dr. Atiq Rahman vom Institut für angewandte Studien in Dhaka weiß, wovon er spricht, wenn er den Experten die Anfragen seines Landsmannes überbringt. Denn Herr Bukhari, Vorsteher einer kleinen Dorfgemeinschaft auf der Insel Nijhum Dwip im Golf von Bengalen, ist leider kein Einzelfall. Bukhari, der sich für einen reichen Mann hält, weil er als einziger im Dorf ein paar Schuhe besitzt, ist nur einer von 16 Millionen Bewohnern der Küstenregion Bangladeshs, die bereits heute immer wieder von katastrophalen Überflutungen heimgesucht wird.

Anders aber als in den Niederlanden oder in den Vereinigten Staaten, die ebenfalls von Sturmfluten und Landverlust bedroht sind, werden in einem der ärmsten Länder der Welt auf absehbare Zeit keine Ingenieure zur Verfügung stehen, um das Schlimmste zu verhüten. Mit rund zehn Milliarden Dollar werden die Kosten für Schutzmaßnahmen veranschlagt. Ein astronomisch hoher Betrag für ein Land, dessen Entwicklungsetat bereits heute zu 95 Prozent aus ausländischen Quellen stammt.

Die renommiertesten Klimaforscher der Welt, die sich im „Intergovernmental Panel on Climate Change“ (IPCC) zusammengefunden haben, sind sich einig: Höchstwahrscheinlich wird der Meeresspiegel bis zum Jahr 2100 um mindestens 16 Zentimeter ansteigen. Manche Inselstaaten, wie die Malediven, werden dann völlig im Wasser verschwinden. Fruchtbare Deltas, wie das des Nils, werden ebenfalls überschwemmt; Massenflucht und gewaltige Hungersnöte werden die Folge davon sein.

Die Kapazität der Meere für CO2 ist begrenzt

Müllkippe und Speisekammer, Rohstoffquelle und Naturgewalt – die Ozeane der Erde haben viele Gesichter. Jedes Kind weiß heute, daß über zwei Drittel der Erdoberfläche von Wasser bedeckt sind. Wie wichtig die Erforschung jener 361 Millionen Quadratkilometer ist, wurde auch auf der internationalen Konferenz „Ozeane, Klima und Menschen“ der San Paolo-Stiftung deutlich, die gestern in Turin zu Ende ging. Denn die Meere der Welt sind derzeit noch die größte Unbekannte im Klimageschehen der Erde.

3800 Meter beträgt deren durchschnittliche Tiefe; im pazifischen Marianengraben geht es sogar 11 521 Meter hinab. Diese unvorstellbare Wassermenge nimmt den weitaus größten Teil der Sonnenenergie auf, speichert diese in Form von Wärme und kann sie später wieder abgeben. Das Wechselspiel zwischen Meer und Atmosphäre ist die treibende Kraft für Wetterentwicklung und Klima, das sich als Mittelwert des Wetters über einen längeren Zeitraum definieren läßt.

Obwohl Wasser rund 800-mal schwerer als Luft und wesentlich zähflüssiger ist, zeigen die Luftmassen der Atmosphäre und das Wasser der Ozeane in mancher Hinsicht ähnliches Verhalten. Ein Zyklon, der einen Durchmesser von etwa 1000 Kilometern hat, läßt sich durchaus mit einem ozeanischen Wirbel von rund 20 Kilometern vergleichen. Ebenso haben marine Wirbel zwar nur ein Fünfzigstel der Größe ihrer atmosphärischen Verwandten, sind dafür aber auch über Monate hinweg stabil.

Ein weiteres Beispiel für den Energietransfer zwischen Meer und Atmosphäre ist das Phänomen El Niño, eine warme Strömung, die für die Fischer der peruanischen Küstenregion einen wichtigen Wirtschaftsfaktor darstellt. Das Christkind – so die deutsche Übersetzung von El Niño – taucht etwa alle drei bis vier Jahre zur Weihnachtszeit vor der Westküste Südamerikas auf und unterbricht dabei die Zufuhr kalter und nährstoffreicher Wassermassen an die Oberfläche. Für die Fischer Perus bedeutet das einen drastischen Rückgang ihrer Fänge, der sich durch einen Temperaturanstieg des Oberflächenwassers ankündigt.

El Niño wandert dann weiter in Richtung Australien und Asien, was regelmäßig zu Sturmfluten und Dürrekatastrophen führt, die 1982/83 besonders verheerend waren. Während Ozeanographen und Klimatologen El Niño früher als isoliertes Phänomen ansahen, ist Dr. David Anderson von der Universität Oxford heute der Meinung, daß die Meeresströmung eine periodische Schwankung in einem zusammenhängenden System aus Ozean und Atmosphäre darstellt. So ließe sich auch ein Zusammenhang mit dem zeitweiligen Ausbleiben des indischen Monsuns erklären. Das Gesamtphänomen El Niño und die als „südliche Oszillation“ bekannte Luftdruckschwankung werden daher neuerdings als „Enso“ bezeichnet, ein Kunstwort für die beiden Aspekte der gleichen Klimaerscheinung.

„In unserer Computersimulation deutet alles darauf hin, daß Enso 1991/92 wieder besonders stark sein wird“, warnt Anderson. Ein anderes Problem brennt allerdings noch dringender auf den Nägeln – die Frage nach der Rolle, welche die Weltmeere bei der kaum noch bestrittenen globalen Erwärmung spielen.

Dr. Philip Jones vom Labor für Klimaforschung der Universität East Anglia im britischen Norwich darf sich rühmen, den Datendschungel besonders gründlich durchforstet zu haben. Rund 80 Millionen Temperaturmessungen aus den Ozeanen unseres Planeten sichtete der Klimaforscher in zehnjähriger Kleinarbeit und korrigierte dabei die teilweise erheblichen Fehler, die sich über 140 Jahre hinweg in die Datenbank eingeschlichen hatten. Denn die Meßmethoden waren in diesem Zeitraum alles andere als einheitlich.

Während man vor dem Zweiten Weltkrieg beispielsweise das Wasser noch mit einem Eimer an Bord holte und dort nach wenigen Minuten die Temperatur von einem Quecksilberthermometer ablas, sind die Sensoren heute meist in das Ansaugrohr für das Kühlwasser integriert. Dort aber – so ergab der direkte Vergleich – sind die Meßwerte zwischen 0,3 und 0,7 Grad höher als die im Eimer bestimmten.

Auch ist Eimer nicht gleich Eimer. Seitdem nämlich 1853 in Brüssel die „Internationale Vereinbarung über Messung, Sammlung und Austausch maritim meteorologischer Beobachtungen“ unterzeichnet wurde, holte man das Wasser mal mit Säcken aus Segeltuch, dann mit Holz- oder Metalleimern und seit dem Zweiten Weltkrieg endlich auch mit Plastikeimern an Bord. Da diese Behältnisse jeweils unterschiedlich gute Isolatoren sind und die genaue Meßmethode erst seit 1970 registriert ist, war Jones gezwungen, die meisten Meßwerte zu korrigieren und nicht wenige völlig außer Acht zu lassen. Dennoch ist das Ergebnis der Detektivarbeit eindeutig: „Die Durchschnittstemperatur der Erde ist in den letzten 100 Jahren um 0,5 Grad gestiegen“, sagt Jones.

Die Erwärmung – auch darin lind sich die Experten einig – ist auf die Freisetzung großer Mengen von Treibhausgasen durch den Menschen zurückzuführen. Zwar gibt es einen geradezu lebenswichtigen, natürlichen Treibhauseffekt, verursacht durch Wasserdampf md Kohlendioxid, ohne den die Erde ein kalter und unbewohnbarer Planet wäre. „Aber der Mensch bringt derzeit jährlich durch die Verbrennung fossiler Rohstoffe und die Abholzung von Wäldern etwa 7,5 Milliarden Tonnen Kohlendioxid zusätzlich in dieses fein balancierte System“, betont Georges Woodwell, Direktor des Woodshole Research Center im amerikanischen Bundesstaat Massachusetts. Das entspricht umgerechnet rund fünf Milliarden Tonnen Kohlenstoff.

In dieser Rechnung sind die Weltmeere die große Unbekannte. Sie bilden den bei weitem größten Kohlendioxidspeicher, doch fallt es schwer, abzuschätzen, was angesichts zunehmender Temperaturen langfristig geschehen wird. 40.000 Milliarden Tonnen Kohlenstoff werden allein in den tieferen, austauscharmen Schichten vermutet. An der Grenzschicht zur Atmosphäre befinden sich nochmals rund 800 Milliarden Tonnen. Hier findet auch ein reger Austausch mit der Luft statt. Ein Drittel bis zur Hälfte des durch menschliche Aktivitäten freigesetzten CO2 werden so entsorgt, doch funktioniert diese Pufferfunktion nur über begrenzte Zeit.

Eine Möglichkeit, das Gas zu entfernen, wird von den fotosynthetischen Meeresorganismen demonstriert: Ein Sammelsurium meist winziger Organismen, das Phytoplankton, produziert aus Licht und CO2 ständig neue Nährstoffe. Der Kohlenstoff wandert in die Schalen und Gehäuse der Mikroorganismen und fallt nach deren Tod auf den Meeresgrund. Doch die dazu erforderlichen gewaltigen Zeiträume stehen der Menschheit nicht mehr zur Verfügung, um die drohende Klimakatastrophe abzuwenden.

(erschienen in „DIE WELT“ am 18. April 1991)

Papier ohne Chlor und Schwefel

Die deutsche Zellstoffindustrie war lange Zeit vom Aussterben bedroht. Der Zwang, gleichzeitig wirtschaftlich zu arbeiten und die im internationalen Maßstab äußerst strengen Umweltschutzbestimmungen einzuhalten, trieb den Industriezweig, der den Grundstoff für Papier, Taschentücher, Windeln und vieles mehr produziert, fast in den Ruin. Denn „wenn die übrige Welt unsere Grenzwerte hätte, würde kein Zellstoff mehr hergestellt werden“, meint Professor Rudolf Patt, Leiter des Bereiches Holztechnologie und Holzchemie an der Universität Hamburg.

Der Experte sieht die Lösung dieses Dilemmas allerdings nicht in einer Änderung unserer gesetzlichen Bestimmungen, sondern in neuen technischen Verfahren zur Zellstoffgewinnung. Heute existieren in Deutschland nur noch fünf Anlagen, die zusammen täglich 2700 Tonnen produzieren und nur einen Bruchteil des einheimischen Bedarfs decken können. Bis auf eine Ausnahme wurden auch in den neuen Bundesländern sämtliche Anlagen geschlossen. „Wir leisten uns den Luxus, Zellstoff zu importieren, der unter Bedingungen hergestellt wird, die bei uns nicht mehr möglich wären“, sagte Patt gestern vor der Wissenschaftspressekonferenz in Bonn.

Die großen deutschen Anlagen arbeiten sämtlich nach dem Sulfitverfahren, das nicht alle Hölzer verwenden kann und dessen Produkte nicht fest genug sind. Deshalb wird weltweit zu 80 Prozent nach dem Sulfatverfahren gearbeitet, bei dem aber Schwefeloxide und übelriechende Mercaptame anfallen; ein Problem, das auch mit fortschrittlichster Technologie noch nicht im Griff ist.

Neben der Festigkeit des Papiers, die für die Druckereien extrem wichtig ist, spielt in letzter Zeit auch der „Weißwert“ eine Rolle. Noch immer legen viele Verbraucher Wert auf blütenweißes Briefpapier – eine Qualität, die lange Zeit ohne die in Verruf geratene Chlorchemie nicht zu erreichen war. Den Bemühungen der Umweltschutzorganisation Greenpeace, die ein chlorfreies Verfahren auf Basis der Sulfattechnik propagiert, erteilte der Geschäftsführer der Organocell Thyssen GmbH, Gerhard Dahlmann, eine Absage. „Das kann keine Lösung sein“, meinte Dahlmann, der sein eigenes Verfahren favorisiert.

Das Organocell-Verfahren arbeitet ohne Schwefelprodukte und kann sämtliche einsetzbaren Rohstoffe verarbeiten. Eine Demonstrationsanlage mit einer Kapazität von täglich fünf Tonnen Zellstoff befindet sich bereits im Münchner Stadtteil Pasing in Betrieb. Im Prinzip sei es auch möglich, auf chlorhaltige Chemikalien bei der Bleiche zu verzichten; bei doppelter Kapazität würde das Organocell-Verfahren den Schadstoffausstoß halbieren. Derzeit wird an einer Referenzanlage in Kehlheim an der Donau gearbeitet, die durch den Umbau einer Zellstofffabrik entsteht, in der früher das Sulfitverfahren zur Anwendung kam.

Auch das zweite Verfahren, entwickelt von Professor Patt, kann eine funktionierende Pilotanlage im oberschwäbischen Baienfurt vorweisen. Das sogenannte ASAM-Verfahren unterscheidet sich von herkömmlichen Techniken durch die Zugabe von Methanol beim Holzaufschluß. Das ermöglicht es, bei der anschließenden Bleiche auf chlorhaltige Chemikalien zu verzichten. „Theoretisch bekommen wir eine abwasserfreie Zellstofffabrik“, so Patt.

(erschienen in „DIE WELT“ am 10. April 1991)

Leberkrebs durch Pilzgifte

Viele Fälle von Leberkrebs lassen sich auf Veränderungen in einem „Anti-Krebs-Gen“ zurückführen. Diese Mutation wird durch bestimmte Pilzgifte (Aflatoxine) ausgelöst, welche sich in verseuchtem Getreide und Lebensmitteln ansammeln, die an feuchtwarmen Plätzen aufbewahrt werden. Die Beobachtung amerikanischer Wissenschaftler, die in dem Fachblatt „Nature“ veröffentlicht wurde, erklärt auch, warum Leberkrebs in China und Südafrika so häufig vorkommt.

Curtis C. Harris vom Nationalen Krebsinstitut und seine Kollegen haben damit erstmals enthüllt, wie ein Umweltschadstoff durch eine spezifische Genveränderung beim Menschen Krebs verursacht. Zwar spielt das gleiche Gen auch bei anderen Krebserkrankungen eine Rolle, doch scheint beim Leberkrebs immer wieder der gleiche Baustein des p53-Gens beschädigt zu sein. Wahrscheinlich verlieren Leberzellen durch diese winzige Veränderung die Kontrolle über die Zellteilung, was zur Tumorbildung führen kann.

(erschienen in „DIE WELT“ am 6. April 1991)

Künstler aus Blech

Ein Roboter an der Universität Yale im amerikanischen Bundesstaat Connecticut erlernt derzeit das Jonglieren. Nach jahrelangen Bemühungen ist es einem Team um Professor Daniel Koditschek gelungen, dem Blechkameraden das scheinbar simple Kunststück beizubringen, einen Ball ständig in Bewegung zu halten. Mit Hilfe einer Gruppe von Ingenieuren soll die Maschine bald schon mit zwei Bällen gleichzeitig jonglieren können.

Zwei Kameras, die in kurzer Entfernung zu dem künstlichen Künstler senkrecht zueinander montiert sind, dienen bei dem Experiment als Augen und helfen mit, die Bewegung des Balls im Raum zu verfolgen. Diese Information wird in ein Netzwerk von zehn Mikrocomputern eingespeist, die untereinander Informationen austauschen und den einzigen Arm des Roboters steuern. Geringfügige Korrekturen im Bewegungsablauf ermöglichen es dann, den Ball auf einer stabilen Bahn zu halten.

Ein kompliziertes Steuerprogramm ermöglicht es den Forschern, Informationen über das Gewicht des Balls einzugeben und zu bestimmen, wie hoch dieser geworfen werden soll. „Äußerst bemerkenswert ist die große Zuverlässigkeit des Systems“, bemerkt Professor Koditschek. „Sobald das Gleichgewicht erreicht ist, kann unser Roboter den Ball Tausende Male hochwerfen, ohne ihn zu verlieren.“

Mit ihrer Arbeit hoffen die Wissenschaftler einen Engpaß zu überwinden, welcher der Konstruktion leistungsfähigerer Roboter im Wege steht. Zwar gibt es heute Schachcomputer, die unter den Menschen nur noch eine Handvoll ernst zu nehmende Gegner finden, aber, so Kubitschek, „eine Maschine, die auch nur annährend so gut laufen kann wie ein zweijähriges Kind, können wir noch nicht bauen.“ Offensichtlich müssen die Computeringenieure noch einiges dazulernen, bevor Roboter diesen Balanceakt vollbringen können, der uns so selbstverständlich scheint.

(erschienen in „Die WELT“ am 6. April 1991)