Zum Hauptinhalt springen

Geschichte des Mittelmeeres

Die Vergangenheit des Mittelmeeres wollen europäische Wissenschaftler ergründen, die in diesem Sommer gleich zwei Studienfahrten unternehmen werden. Dabei hoffen die Forscher, in sauerstoffarmen Meeresregionen auf spezialisierte Bakterien und möglicherweise auch riesige Würmer und Krebse zu stoßen.

Begründet wird diese Überlegung durch Berechnungen, wonach im gesamten Mittelmeerraum wesentlich mehr Wasser verdunstet, als durch Niederschläge und Flußmündungen zugeführt wird. Während pro Jahr 1150 Kubikkilometer Niederschlag und 230 Kubikkilometer Flußwasser auf eine Fläche von 2,5 Millionen Quadratkilometern niedergehen, entschwindet aus dem gleichen Gebiet fast die fünffache Menge, nämlich 4690 Kubikkilometer oder knapp 5 Billionen Liter.

Würde man den Zufluß von Wasser aus dem Atlantik durch die Meerenge von Gibraltar stoppen – etwa durch einen Damm – so fiele der Wasserspiegel jährlich um etwa einen Meter. Bei einer durchschnittlichen Tiefe von 1500 Metern wäre das gesamte Gebiet nach „nur“ eineinhalb Jahrtausenden trockengelegt.

Genau dies ist bereits geschehen, wenn das Ereignis auch schon fünf Millionen Jahre zurückliegt und nicht durch Menschenhand, sondern durch geologische Prozesse ausgelöst wurde. Nachdem sich die Meerenge von Gibraltar geschlossen hatte, nahm der Salzgehalt wegen der Verdunstung unaufhörlich zu; sämtliche marine Pflanzen und Tiere verschwanden im Laufe der salinen Katastrophe.

Stumme Zeugen dieser Periode sind Sedimentgesteine, sogenannte Evaporiten, die sich im Laufe der zunehmenden Versalzung bildeten und während der siebziger Jahre bei Bohrungen auf dem Grund des Mittelmeeres entdeckt wurden. Als die Straße von Gibraltar sich später wieder öffnete, wurde das Mittelmeer mit Tieren und Pflanzen aus dem Atlantik neu besiedelt; die Evaporiten verschwanden am Meeresgrund.

Dieses Salzgestein ist auch die Ursache für die ungewöhnliche Wasserschichtung am Boden des Bannock-Beckens. Diese tiefste bisher erforschte Region des Mittelmeeres, gelegen an der Großen Syrte von der Küste Libyens, zeigt bis auf 3200 Meter unter dem Meeresspiegel einen normalen Salzgehalt. Dann aber folgt eine Zwischenschicht, in der jeglicher Sauerstoff fehlt und schließlich eine 200 Meter dicke, stark salzhaltige Lösung, die offensichtlich aus dem Zerfall der Evaporiten herrührt.

In der Grenzschicht nun wollen die Wissenschaftler nach Organismen suchen, die sich den extremen Verhältnissen angepaßt haben. Auch sind Bohrungen von einem Spezialschiff aus geplant, welche die bisher längsten Bohrkerne zu Tage fördern sollen. Neue Entdeckungen über Vergangenheit und Gegenwart des Mittelmeeres werden daher wohl nicht lange auf sich warten lassen.

(erschienen in „DIE WELT“ am 18. Mai 1991)

Schallmessung verrät Wassertemperatur

Schallwellen können nicht nur durch die Luft übertragen werden, auch unter Wasser funktioniert dieses Prinzip, wie Flipper der Delphin zahllosen Fernsehzuschauern beweisen konnte. Nun soll diese Tatsache außer verliebten Walen auch besorgten Klimaforschern zugutekommen: Ein neues Verfahren zur Temperaturmessung in den Weltmeeren erproben derzeit Wissenschaftler des Scripps Institutes für Ozeanographie im kalifornischen La Jolla. Die Forscher wollen dabei den Umstand nutzen, daß die Übertragungsgeschwindigkeit von Schallwellen im Wasser vorwiegend von dessen Temperatur abhängt.

Nun soll ein „akustischer Unterwasserthermometer“ dazu beitragen, die Erwärmung der Ozeane durch den Treibhauseffekt exakt zu messen. Beim Treibhauseffekt führt ein Überschuß an „Abgasen“ der menschlichen Zivilisation – vorwiegend Kohlendioxid und Methan – dazu, daß die Erde mehr Energie in Form von Sonnenlicht behält als in Form von Wärmestrahlung wieder abgegeben wird. Die Folge ist eine schleichende Erwärmung der Atmosphäre (etwa 0,5 Grad in den letzten hundert Jahren), die für eine zunehmende Anzahl von Umweltkatastrophen und das Ansteigen des Meeresspiegels verantwortlich gemacht wird.

Da die Weltmeere, welche über zwei Drittel der Erdoberfläche bedecken, als gigantische Speicher für Wärme und Kohlendioxid dienen, sind Klimaforscher und Ozeanologen gleichermaßen an exakten Daten interessiert. Auch Computersimulationen, mit denen die weitere Entwicklung des Weltklimas vorhergesagt werden soll, sind abhängig von einer möglichst großen Zahl an exakten Messdaten.

Ein wichtiger Schritt in diese Richtung ist das neue Verfahren, das bereits vor zehn Jahren von Professor Walter Munk in La Jolla und dessen Kollegen Carl Wunsch am Massachusetts Institute of Technology (MIT) vorgeschlagen wurde. Der Vorteil der akustischen Temperaturmessung besteht darin, daß mit verhältnismäßig geringem Aufwand die Durchschnittstemperatur für große Wassermassen bestimmt werden kann. Normalerweise bewegen sich Schallwellen in Salzwasser mit einer Geschwindigkeit von 1500 Metern in der Sekunde. Eine Temperaturerhöhung um 0,005 Grad erhöht diese Geschwindigkeit um 20 Zentimeter pro Sekunde. Dieser Unterschied – so die Hoffnung der Wissenschaftler – müßte sich mit modernem Gerät relativ leicht bestimmt lassen. Die Dimensionen der Ozeane erlauben es nämlich, Messungen über Strecken von bis zu 20000 Kilometern durchzuführen, so daß im genannten Beispiel die Reisezeit der Schallwellen um mehrere zehntel Sekunden verkürzt wird.

Weil bei dieser Meßart ein Mittelwert gebildet wird, können viele Schwierigkeiten vermieden werden, die mit tausenden von Einzelmessungen auftreten. Bereits 1960 wurde ein akustisches Signal über eine Entfernung von mehreren tausend Kilometern aufgefangen. Noch auf den Bermudas konnte man damals die Schallwellen nachweisen, die durch die Explosion einer Sprengladung im australischen Perth ausgelöst wurden. Allerdings sind Ozeanologen und Tierschützer sich heutzutage darin einig, daß derartig explosive Techniken für Langzeitmessungen völlig ungeeignet sind.

Eine umweltverträgliche Neuauflage des Versuchs wurde daher kürzlich von Heard Island aus unternommen. Die Insel – gelegen im südlichen indischen Ozean – wurde ausgewählt, weil es von dieser Position aus möglich schien, Signale gleichzeitig durch den Atlantik, den Pazifik und den indischen Ozean zu fast allen Kontinenten zu schicken. Am 26. Januar bezogen Wissenschaftler aus neun Nationen Stellung in 19 Horchposten, die über den halben Erdball verteilt waren.

Sechs Tage lang gingen die Signale, die von einem Lautsprecher unter einem Forschungsschiff vor Heard Island abgestrahlt wurden, um die ganze Welt. Auf sämtlichen Horchposten war der Empfang gut bis hervorragend; der Testlauf damit ein voller Erfolg. Munk und seine Mitarbeiter wollen jetzt herausfinden, ob die Genauigkeit der Messungen ausreicht, um die vermutete Erwärmung der Meere von jährlich 0,005 Grad nachzuweisen. Außerdem soll sichergestellt werden, daß die Geräusche die Meeresbewohner nicht belasten.

Sollten diese letzten Analysen zufriedenstellend verlaufen, ist ein Langzeitexperiment geplant, dessen Dauer vermutlich zehn Jahre betragen wird. Den Meeresforschern und Klimatologen stünde dann erstmals wirklich aussagekräftiges Datenmaterial zur Verfügung, um die Rolle der Ozeane beim Treibhauseffekt zuverlässig zu beurteilen.

(ein Bericht aus Turin von der Konferenz „Ozeane, Klima und Menschen“ der San Paolo-Stiftung, geschrieben im April 1991 für „DIE WELT“)

Was wurde daraus? Am Schluß überwogen die bedenken von Tierschützern, dass die Geräusche den Meeresbewohnern – insbesondere den Walen – schaden könnte. Das Experiment wurde zwar nicht völlig abgeblasen, aber auf den Nordatlantik begrenzt.

Die Kapazität der Meere für CO2 ist begrenzt

Müllkippe und Speisekammer, Rohstoffquelle und Naturgewalt – die Ozeane der Erde haben viele Gesichter. Jedes Kind weiß heute, daß über zwei Drittel der Erdoberfläche von Wasser bedeckt sind. Wie wichtig die Erforschung jener 361 Millionen Quadratkilometer ist, wurde auch auf der internationalen Konferenz „Ozeane, Klima und Menschen“ der San Paolo-Stiftung deutlich, die gestern in Turin zu Ende ging. Denn die Meere der Welt sind derzeit noch die größte Unbekannte im Klimageschehen der Erde.

3800 Meter beträgt deren durchschnittliche Tiefe; im pazifischen Marianengraben geht es sogar 11 521 Meter hinab. Diese unvorstellbare Wassermenge nimmt den weitaus größten Teil der Sonnenenergie auf, speichert diese in Form von Wärme und kann sie später wieder abgeben. Das Wechselspiel zwischen Meer und Atmosphäre ist die treibende Kraft für Wetterentwicklung und Klima, das sich als Mittelwert des Wetters über einen längeren Zeitraum definieren läßt.

Obwohl Wasser rund 800-mal schwerer als Luft und wesentlich zähflüssiger ist, zeigen die Luftmassen der Atmosphäre und das Wasser der Ozeane in mancher Hinsicht ähnliches Verhalten. Ein Zyklon, der einen Durchmesser von etwa 1000 Kilometern hat, läßt sich durchaus mit einem ozeanischen Wirbel von rund 20 Kilometern vergleichen. Ebenso haben marine Wirbel zwar nur ein Fünfzigstel der Größe ihrer atmosphärischen Verwandten, sind dafür aber auch über Monate hinweg stabil.

Ein weiteres Beispiel für den Energietransfer zwischen Meer und Atmosphäre ist das Phänomen El Niño, eine warme Strömung, die für die Fischer der peruanischen Küstenregion einen wichtigen Wirtschaftsfaktor darstellt. Das Christkind – so die deutsche Übersetzung von El Niño – taucht etwa alle drei bis vier Jahre zur Weihnachtszeit vor der Westküste Südamerikas auf und unterbricht dabei die Zufuhr kalter und nährstoffreicher Wassermassen an die Oberfläche. Für die Fischer Perus bedeutet das einen drastischen Rückgang ihrer Fänge, der sich durch einen Temperaturanstieg des Oberflächenwassers ankündigt.

El Niño wandert dann weiter in Richtung Australien und Asien, was regelmäßig zu Sturmfluten und Dürrekatastrophen führt, die 1982/83 besonders verheerend waren. Während Ozeanographen und Klimatologen El Niño früher als isoliertes Phänomen ansahen, ist Dr. David Anderson von der Universität Oxford heute der Meinung, daß die Meeresströmung eine periodische Schwankung in einem zusammenhängenden System aus Ozean und Atmosphäre darstellt. So ließe sich auch ein Zusammenhang mit dem zeitweiligen Ausbleiben des indischen Monsuns erklären. Das Gesamtphänomen El Niño und die als „südliche Oszillation“ bekannte Luftdruckschwankung werden daher neuerdings als „Enso“ bezeichnet, ein Kunstwort für die beiden Aspekte der gleichen Klimaerscheinung.

„In unserer Computersimulation deutet alles darauf hin, daß Enso 1991/92 wieder besonders stark sein wird“, warnt Anderson. Ein anderes Problem brennt allerdings noch dringender auf den Nägeln – die Frage nach der Rolle, welche die Weltmeere bei der kaum noch bestrittenen globalen Erwärmung spielen.

Dr. Philip Jones vom Labor für Klimaforschung der Universität East Anglia im britischen Norwich darf sich rühmen, den Datendschungel besonders gründlich durchforstet zu haben. Rund 80 Millionen Temperaturmessungen aus den Ozeanen unseres Planeten sichtete der Klimaforscher in zehnjähriger Kleinarbeit und korrigierte dabei die teilweise erheblichen Fehler, die sich über 140 Jahre hinweg in die Datenbank eingeschlichen hatten. Denn die Meßmethoden waren in diesem Zeitraum alles andere als einheitlich.

Während man vor dem Zweiten Weltkrieg beispielsweise das Wasser noch mit einem Eimer an Bord holte und dort nach wenigen Minuten die Temperatur von einem Quecksilberthermometer ablas, sind die Sensoren heute meist in das Ansaugrohr für das Kühlwasser integriert. Dort aber – so ergab der direkte Vergleich – sind die Meßwerte zwischen 0,3 und 0,7 Grad höher als die im Eimer bestimmten.

Auch ist Eimer nicht gleich Eimer. Seitdem nämlich 1853 in Brüssel die „Internationale Vereinbarung über Messung, Sammlung und Austausch maritim meteorologischer Beobachtungen“ unterzeichnet wurde, holte man das Wasser mal mit Säcken aus Segeltuch, dann mit Holz- oder Metalleimern und seit dem Zweiten Weltkrieg endlich auch mit Plastikeimern an Bord. Da diese Behältnisse jeweils unterschiedlich gute Isolatoren sind und die genaue Meßmethode erst seit 1970 registriert ist, war Jones gezwungen, die meisten Meßwerte zu korrigieren und nicht wenige völlig außer Acht zu lassen. Dennoch ist das Ergebnis der Detektivarbeit eindeutig: „Die Durchschnittstemperatur der Erde ist in den letzten 100 Jahren um 0,5 Grad gestiegen“, sagt Jones.

Die Erwärmung – auch darin lind sich die Experten einig – ist auf die Freisetzung großer Mengen von Treibhausgasen durch den Menschen zurückzuführen. Zwar gibt es einen geradezu lebenswichtigen, natürlichen Treibhauseffekt, verursacht durch Wasserdampf md Kohlendioxid, ohne den die Erde ein kalter und unbewohnbarer Planet wäre. „Aber der Mensch bringt derzeit jährlich durch die Verbrennung fossiler Rohstoffe und die Abholzung von Wäldern etwa 7,5 Milliarden Tonnen Kohlendioxid zusätzlich in dieses fein balancierte System“, betont Georges Woodwell, Direktor des Woodshole Research Center im amerikanischen Bundesstaat Massachusetts. Das entspricht umgerechnet rund fünf Milliarden Tonnen Kohlenstoff.

In dieser Rechnung sind die Weltmeere die große Unbekannte. Sie bilden den bei weitem größten Kohlendioxidspeicher, doch fallt es schwer, abzuschätzen, was angesichts zunehmender Temperaturen langfristig geschehen wird. 40.000 Milliarden Tonnen Kohlenstoff werden allein in den tieferen, austauscharmen Schichten vermutet. An der Grenzschicht zur Atmosphäre befinden sich nochmals rund 800 Milliarden Tonnen. Hier findet auch ein reger Austausch mit der Luft statt. Ein Drittel bis zur Hälfte des durch menschliche Aktivitäten freigesetzten CO2 werden so entsorgt, doch funktioniert diese Pufferfunktion nur über begrenzte Zeit.

Eine Möglichkeit, das Gas zu entfernen, wird von den fotosynthetischen Meeresorganismen demonstriert: Ein Sammelsurium meist winziger Organismen, das Phytoplankton, produziert aus Licht und CO2 ständig neue Nährstoffe. Der Kohlenstoff wandert in die Schalen und Gehäuse der Mikroorganismen und fallt nach deren Tod auf den Meeresgrund. Doch die dazu erforderlichen gewaltigen Zeiträume stehen der Menschheit nicht mehr zur Verfügung, um die drohende Klimakatastrophe abzuwenden.

(erschienen in „DIE WELT“ am 18. April 1991)

Umweltmessnetz für die Meere

Norwegen mit seiner wild zerklüfteten Küstenlinie und den tief eingeschnittenen Fjorden ist stark vom Einfluss des Nordatlantik geprägt. Die großen Anstrengungen, die hier unternommen werden, um diesen Lebensraum zu erforschen und zu überwachen erscheinen unter diesem Blickwinkel gut verständlich.

Norwegische Unternehmen sind deshalb auch maßgeblich an einem Forschungsprojekt der EG beteiligt, welches sich hinter dem Namen Euromar verbirgt. Die Abkürzung steht für die „Entwicklung moderner Technologien zur Erforschung ökologischer Kausalzusammenhänge in den europäischen Meeren“. Ziel ist vor allem die Entwicklung eines Umweltmessnetzes für die Meere rund um Europa.

Die in Trendheim ansässige Firma Oceanor betreibt bereits ein dichtes Netz aus verankerten und frei treibenden Messbojen, das vor allem dem Schutz der Aquakulturen dient. Bekanntlich bezieht Norwegen einen nicht geringen Teil seiner Einkünfte aus dem Fischfang und den Lachsen, die in schwimmenden Netzkäfiganlagen gehalten werden.

Bei Oceanor verweist man darauf, dass die derzeitigen Überwachungsmethoden für marine Umgebungen den strengen Qualitätsanforderungen der Wissenschaft nicht genügen. Bei Umweltkatastrophen wie der Algenblüte im Frühjahr 1988 oder Tankerunfällen müssen Informationen über die Wasserqualität sofort parat sein. Auch Umweltschutzgesetze müssen sich auf verlässliche Zahlen stützen können, sei es um wirtschaftlich aufwendige Maßnahmen begründen zu können, sei es wegen der „Umweltkriminellen“ die nur in den seltensten Fällen überführt werden können.

Voraussetzung für die Erfüllung all dieser Wünsche sind zunächst einmal Messgeräte, die den rauhen Bedingungen auf See widerstehen können. Da die Sensoren viele Jahre hindurcharbeiten sollen, müssen sie der ständigen Bewegung ebenso trotzen können wie den wuchsfreudigen Muscheln und Algen.

Sind diese Grundvoraussetzungen gegeben, so können Nährstoffe ebenso erfasst werden wie der Schwermetallgehalt, Temperatur ebenso wie Strömungsgeschwindigkeit und viele andere Messgrößen. Dieses „Mermaid-Programm“, wird vom Forschungszentrum Geesthacht bei Hamburg (GKSS) koordiniert.

Ein weiteres Projekt von Euromar (Opmod) besteht darin, die Übertragung der gesammelten Daten – via Funk und Satellit – zu sichern und Methoden zu entwickeln, mit denen die Zahlenflut bestmöglich ausgewertet werden kann. Über Telefon sollen die Daten dann abzufragen sein. Außer Norwegen sind auch Finnland, Frankreich, Deutschland, Schweden und Portugal beteiligt.

Bei Oceanor ist man optimistisch, Verteidigungsministerien, die Fisch- und Ölindustrie sowie öffentliche Behörden als Käufer gewinnen zu können, wenn Opmod im nächsten Jahr einsatzbereit ist.

(erschienen in der WELT am 13. November 1990. Letzte Aktualisierung am 8. Mai 2017)

Was ist daraus geworden? Gar nicht so einfach, den Erfolg dieser Projekte nachzuverfolgen, geschweige denn zu bewerten. Ich fand dazu fast keine Unterlagen im (frei zugänglichen Teil des) Internet. Oceanor wurde von einer größeren Firma geschluckt, baut aber weiter Messbojen. Das Forschungszentrum Geesthacht hat sich umbenannt (auch so eine Unsitte deutscher Forschungseinrichtungen), und das Wörtchen „Euromar“ klingt so gut, dass es gleich von einer handvoll verschiedener Firmen und Projekte reklamiert wird, die mit dem hier erwähnten aber nichts zu tun haben 🙁