Zum Hauptinhalt springen

Prognosen zur Erderwärmung erneuert

Rechtzeitig zur UNCED-Konferenz vermelden wissenschaftliche Fachzeitschriften eine wahre Flut an neuen Meßwerten, Theorien und Prognosen zum Ausmaß der heiß diskutierten globalen Erwärmung. Auch die Enquetekommission „Schutz der Erdatmosphäre“ des Deutschen Bundestages legte dieser Tage ihre alarmierenden Befunde in Buchform vor.

Die Aussagen der Experten sind eindeutig: „Als Folge einer Politik des Abwartens wird sich die Temperatur der Erdatmosphäre bis zum Jahr 2100 um rund zwei bis fünf Grad erhöhen“, so die Enquetekommission. 370 Klimaforscher, die vom Umweltprogramm der Vereinten Nationen (UNEP) und von der Weltorganisation der Meteorologen (MO) beauftragt wurden, hatten exakt die gleichen Zahlen genannt – im Juni 1990.

In der Zwischenzeit haben sich diese Wissenschaftler, die sich zum Intergovernmental Panel on Climate Change (IPCC) zusammengefunden haben, nicht auf ihren Lorbeeren ausgeruht. Viele Klimafaktoren, die bei den ersten Hochrechnungen schlicht unter den Tisch fielen, wurden mittlerweile in die Computersimulationen mit aufgenommen.

Zwei amerikanische Klimamodelle, ein britisches und ein deutsches, das am Hamburger Max-Planck-Institut für Meteorologie erarbeitet wurde, kommen unter leicht unterschiedlichen Ausgangsbedingungen zu weitgehend ähnlichen Ergebnissen. In ihren „gekoppelten Ozean-Atmosphäre-Modellen“ haben Physiker und Mathematiker, Meteorologen und Programmierer, Geologen und Klimaforscher gemeinsam versucht, die Auswirkungen der vom Menschen freigesetzten Treibhausgase über einen Zeitraum von mehr als einem Jahrhundert hinweg zu simulieren.

Dabei wurden die Rußwolken des Golfkrieges ebenso in klimarelevante Zahlen gefaßt wie die Auflösung der Sowjetunion und die neuesten Prognosen zum Bevölkerungswachstum. Die Abholzung der Wälder wurde neu berechnet, außerdem die Auswirkungen des Montrealer Protokolls zur Reduktion von Fluorchlorkohlenwasserstoffen und der Rückgang der Schwefeldioxidemissionen in modernen Kohlekraftwerken (was die Erde paradoxerweise zusätzlich anheizt).

Natürlich gibt es auch unter den Experten strittige Punkte. Die Rolle der Wolken im Klimageschehen beispielsweise ist kaum verstanden. Auch Wechselwirkungen der Treibhausgase mit Tier- und Pflanzenwelt wurden in den Computermodellen bisher nicht berücksichtigt.

Fast 500 Wissenschaftler aus über 70 Ländern und 18 Organisationen waren an der erweiterten Studie des IPCC beteiligt, die jetzt in Rio auf dem Tisch liegt. Eindeutige Bilanz der Experten: Es gibt keinen Grund, die Ergebnisse aus dem Jahr 1990 in Frage zu stellen. Für das Jahr 2100 rechnen die IPCC-Forscher mit einer Erwärmung um 1,5 bis maximal 3,5 Grad gegenüber der heutigen Durchschnittstemperatur. Der untere Wert bezieht sich allerdings auf das optimistischste der sechs Szenarien, welche in die Computer eingegeben wurden.

Dazu müßte sich die Zahl der Erdbewohner bis zum Jahr 2100 bei 6,4 Milliarden Menschen stabilisieren, das wirtschaftliche Wachstum auf bescheidene zwei Prozent jährlich zurückgehen und der Anteil des relativ umweltfreundlichen Erdgases an der Energiegewinnung drastisch ansteigen. Damit nicht genug: Die Kosten für die Nutzung von Kernenergie und Solarkraft müßten deutlich sinken, fluorierte Chlorkohlenwasserstoffe (FCKW) wären bis 1997 vollständig zu verbieten, die Vernichtung der Wälder müßte sofort gestoppt werden. Zusätzlich geht dieses Szenario davon aus, daß fortschrittliche Technologie und verbindliche Gesetze den Ausstoß von Luftschadstoffen weltweit ebenso reduzieren wie die Verluste beim Energietransport.

Würden all diese Voraussetzungen erfüllt, so bliebe es also bei einer Temperaturerhöhung um 1,5 Grad, gleichbedeutend mit dem Abschmelzen sämtlicher Gletscher in den Alpen und einer Verlagerung der landwirtschaftlichen Anbauzonen. Diese Entwicklung ist laut Enquetekommission „sowohl hinsichtlich ihres Ausmaßes als auch ihrer Geschwindigkeit ohne Beispiel in der Vergangenheit“.

Über Bevölkerungswachstum wird allerdings in Rio überhaupt nicht gesprochen, so daß sich vermutlich die jüngste Schätzung der Weltbank von 11,3 Milliarden Erdenbürgern bis zum Ende des 21. Jahrhunderts bewahrheiten wird. Dann ist bei ungebremstem Wirtschaftswachstum von jährlich drei Prozent und anhaltend hohem Verbrauch an fossilen Energien mit jenen 3,5 Grad Temperaturdifferenz zu rechnen, die uns beispielsweise von der letzten Eiszeit trennen.

Vier amerikanische Behörden stimmen in ihrer Beurteilung der aktuellen Lage mit den IPCC-Forschern überein, wonach die ständige Zunahme an Treibhausgasen „bedeutende Änderungen des Klimas“ mit sich bringen wird. Nach einem Bericht der Zeitschrift „Science“ (Band 256, S. 1138) wurde ein entsprechendes Memorandum der Presse zugespielt. Darin heißt es: „Unter den Wissenschaftlern, einschließlich der meisten US-Forscher, herrscht ein breiter Konsens.“ Eine Verdoppelung des Kohlendioxidgehalts in der Atmosphäre würde demnach in knapp 150 Jahren zu einer Aufheizung der Erde zwischen 1,5 und 4,5 Grad führen.

Die amerikanische Akademie der Wissenschaft (NSF) hatte dergleichen schon vor 15 Jahren vorhergesagt, die theoretischen Grundlagen für diese Berechnungen wurden bereits im 19. Jahrhundert geschaffen. Trotz dieses Memorandums seiner eigenen Beamten hatte US-Präsident George Bush noch wenige Wochen vor dem Umweltgipfel behauptet, die Prognosen der Klimaforscher seien zu vage, um seine Regierung zum Handeln zu bewegen.

Quellen:

(erschienen in „DIE WELT“ 12. Juni 1992)

Supercomputer eröffnen neue Perspektiven

Eine lebhafte Phantasie kann für Wissenschaftler oft von Nutzen sein; etwa wenn es darum geht, sich die Zustände in der Nähe eines Schwarzen Loches vorzustellen, oder die Kollisionen von energiereichen Elementarteilchen nachzuvollziehen. Um die Wirkung eines neuen Arzneistoffes auf den menschlichen Organismus vorherzusagen oder die globalen Folgen grenzüberschreitender Luftverschmutzung abzuschätzen, bedarf es fast schon prophetischer Gaben.

Für die Mehrheit der Wißbegierigen, die mit diesen Eigenschaften nur in geringem Maße gesegnet sind, naht Hilfe in Form von Supercomputern, die widerspruchslos gewaltige Datenmengen in sich hineinfressen und nach oft jahrelanger Arbeit Klarheit schaffen, wo zuvor nur nebulöse Ahnungen im Raum standen.

In den achtziger Jahren hat sich in den Vereinigten Staaten die Zahl derjenigen Wissenschaftler verhundertfacht, welche die Elektronenhirne in ihre Dienste stellen. Konsequenterweise hat das Repräsentantenhaus jetzt über fünf Milliarden Mark bereitgestellt, um diese Entwicklung weiter voranzutreiben. Innerhalb von fünf Jahren soll ein Netzwerk von Hochleistungsrechnern geschaffen werden, das tausendmal leistungsfähiger sein wird als der bereits existierende Verbund.

„In den neunziger Jahren wird eine nationale Informationsinfrastruktur geschaffen werden, welche die Arbeitsweise der Wissenschaftler revolutionieren wird“, sagt Larry Smarr, Direktor des Zentrums für Supercomputerapplikationen an der Universität von Illinois in Chicago. Wichtiger Bestandteil des Netzwerkes werden sogenannte massiv parallele Computer sein, deren Arbeitsgeschwindigkeit gegenüber den modernsten Rechnertypen um das 1000fache anwachsen wird.

Doch schon heute kann man in Chicago auf beachtliche Erfolge verweisen. Bereits im Jahr 1967 hatte Robert Wilhelmson ein mathematisches Modell entwickelt, mit dem sich die Bewegung eines Sturms in drei Dimensionen berechnen ließ – allerdings mit einer Geschwindigkeit und einer Genauigkeit, die eine praktische Anwendungen dieses Modells – etwa für Vorhersagen – völlig ausschloß. Dreizehn Jahre später war der Mathematiker dann so weit, daß Sturmböen und sogar Tornados in die Rechnung miteinbezogen werden konnten, die sich aus dem ursprünglichen Unwetter im Computer entwickelten.

Noch immer lag die Auflösung des Modells allerdings bei einem Kilometer, weitergehende Details wie etwa das Auge eines Tornados konnten nicht erfaßt werden. 1987 schließlich gelang es mit einem Cray X-MP den Sturm in 300000 würfelförmige Einzelteile zu zerlegen. Jeder dieser Würfel wird durch neun finite Differentialgleichungen beschrieben, die das Verhalten von Wasser und Eis in der Atmosphäre sowie die physikalischen Eigenschaften eines komprimierbaren Gases – der Luft – beschreiben.

Im dreidimensionalen Raum wird nun jede dieser Gleichungen für jeden einzelnen der 300000 Würfel errechnet, und zwar einmal alle sechs Sekunden. „Vom Standpunkt eines Mathematikers versuchen wir, die Dinge in dreizehn Dimensionen zu sehen“, erklärt Wilhelmson. Ein kompletter Tornado kann auf der knapp 20 Millionen Mark teuren Anlage in fünf Stunden simuliert werden.

Die filmische Darstellung dieses Ereignisses erlaubt es den Forschern jetzt, Daten über „echte“ Stürme, die von den Wetterwarten geliefert werden, in den Computer einzuspeisen und diejenigen Unwetter zu identifizieren, die eine Gefahr für Leib und Leben der Bevölkerung darstellen. Zusammen mit anderen vorbeugenden Maßnahmen des zivilen Katastrophenschutzes trägt diese Arbeit dazu bei, daß Tornados vergleichbarer Stärke in den Vereinigten Staaten weit geringere Verwüstungen hinterlassen als etwa in Mittelamerika.

Eine der „heißesten“ Anwendungen für Großrechner liegt sicherlich im Bereich der Klimavorhersagen. Je mehr Daten in Betracht gezogen werden können, umso verläßlicher werden auch die Prognosen. Erst kürzlieh präsentierten Wissenschaftler des Hamburger Max-Planck-Institutes für Meteorologie erheblich verbesserte Klimarechnungen, die genauer als bisher den Verlauf der globalen Erwärmung vorhersagen. Die Rolle der Ozeane, die immerhin zwei Drittel des Planeten bedecken und der Meeresströmungen, die als gewaltige Pumpen für das Treibhausgas Kohlendioxid (C02) fungieren, ist in dem neuen Modell wesentlich besser berücksichtigt. Auch ist es gelungen, den erwarteten allmählichen Anstieg des CO2 in das Modell einzubringen – bisher hatten die Berechnungen der Klimatologen auf einer sprunghaften und daher unrealistischen Verdoppelung der CO2-Konzentration beruht.

Wie zuvor geht man auch heute von einem Anstieg der Temperaturen um etwa drei Grad in den nächsten hundert Jahren aus. Allerdings wird der Anstieg zunächst langsamer erfolgen als bisher erwartet. Deutliche Konsequenzen hat das Hamburger Modell auch für den mutmaßlichen Anstieg des Meeresspiegels: Der soll jetzt nämlich nur noch fünf bis fünfzehn Zentimeter in hundert Jahren betragen; die Hälfte dessen, was der internationale Klimaausschuß IPCC noch im letzten Jahr prognostizierte.

Durch die ständig ansteigenden Rechenleistungen wird die Computersimulation aber auch für Forschungsgebiete interessant, die bisher mit Elektronenhirnen wenig anzufangen wußten. David Onstad etwa benutzt die Anlage in Chicago, um den Lebenszyklus des Maisbohrers zu verfolgen, ein Käfer, der für die Maisfelder im Herzen Amerikas eine ständige Gefahr darstellt. „Ich kann jetzt nachvollziehen, wie die Insekten sich ausbreiten und ihrerseits mit dem Einzeller Nosema pyrausta um ihr Leben kämpfen.“

Auch für die Firma Kodak hat sich die Beteiligung am Supercomputerzentrum in Illinois bereits bezahlt gemacht. Forschungsdirektor Lawrence Ray, der zur technischen Entwicklung mehr und mehr Großrechner einsetzt, schaut optimistisch in die Zukunft: „Wenn es jetzt noch gelingt, die Rechenkraft dieser Maschinen für den Endverbraucher zugänglich zu machen, wird sich die Produktivität der Wissenschaftler ins Unermeßliche steigern.“

(erschienen in „DIE WELT“ am 15. Juni 1991)

Klimapolitik: „Das läuft nicht besonders gut“

Interview mit Professor Christian Schönwiese, einer der führenden Klimatologen in Deutschland und Mitautor des IPCC-Reports.

In dem Report wird nicht ausgeschlossen, dass die beobachteten Klimaveränderungen natürlichen Ursprungs sein könnten. Was sagen Sie denjenigen, die daraus ableiten, dass derzeit noch kein Handlungsbedarf bestünde?

Schönwiese: Im Grunde wurden hier zwei Hypothesen genannt, neben der bereits erwähnten gibt es auch die Möglichkeit, dass die natürlichen Klimaschwankungen die menschgemachten abgedämpft haben, so dass ohne natürliche Klimaschwankungen die menschgemachten noch größer gewesen wären. Diese Hypothese beruht auf Forschungsergebnissen, die wir hier in Frankfurt erarbeitet und kürzlich vorgestellt haben.
Nach diesen Ergebnissen würde der vom Menschen verursachte Temperaturanstieg in den letzten hundert Jahren bereits ein Grad Celsius ausmachen, wenn diese Temperaturerhöhung nicht teilweise durch natürliche Prozesse wie zum Beispiel Vulkanausbrüche abgeschwächt worden wäre. Im Moment – so viel ist richtig – beruht der Handlungsbedarf auf den Modellrechnungen, und nicht auf den beobachteten Klimaveränderungen.
Das was diese Modelle vorhersagen, bedeutet aber, dass innerhalb von zehn bis zwanzig Jahren Veränderungen eintreten werden, die größer sind als die natürlichen Schwankungen. Sehr wesentlich ist auch, dass das Klima mit Jahrzehnten Verzögerung auf die menschlichen Klimaveränderungen reagiert. Mit anderen Worten: Das was wir jetzt beobachten, wurde wahrscheinlich schon vor Jahrzehnten von der Menschheit verursacht. Wenn wir heute sofort reagieren würden, dann dauert es noch Jahrzehnte, bis das Klima reagiert. Deshalb sollte man frühzeitig reagieren, auch Aufgrund von Wahrscheinlichkeits- und Risikoaussagen, weil das Risiko insgesamt zu groß ist.

Was erhoffen Sie sich von der Weltklimakonferenz?

Schönwiese: Die Konferenz hat einen „wissenschaftlichen Vorlauf“, bei dem das Ergebnis der Studie nochmals zusammenfassend dargestellt wird. Wie ich sehe, sind Politiker dabei nicht anwesend, das läuft also nicht besonders gut. Auch sind nicht alle Wissenschaftler anwesend, die die Studie geschrieben haben, sondern nur eine gewisse Auswahl, dafür aber Behördenvertreter und alle möglichen Leute, die mit dem Thema eigentlich gar nichts zu tun haben. Also das läuft ein bisschen seltsam aus meiner Sicht.
In der zweiten Phase sollen dann die Politiker dazukommen und die Weichen stellen zu einer Weltklimakonvention, wie wir hoffen.
Das heißt, wir wünschen uns, dass der Vorschlag der Enquete-Kommission des Bundestages „Vorsorge zum Schutz der Erdatmosphäre“, auch von anderen übernommen wird. Darin ist eine Reduktion der CO2-Emissionen um 30 Prozent bis zum Jahr 2005 vorgeschlagen. Wir hoffen, dass sich in der Weltklimakonvention, die für 1992 geplant ist, möglichst viele Länder verpflichten, CO2 um einen festen Prozentsatz zu reduzieren, und aus den FCKW-Gasen auszusteigen.
Ob das wirklich zustande kommt ist die große Frage. Wahrscheinlich wird es so sein, dass z. B. die Entwicklungsländer nicht bereit sein werden, diese Maßnahmen zu beschließen, weil hier andere Problem dringender sind. Aber auch in den Industrieländern gibt es Widerstände, etwa in den USA oder in Japan, wo es von Seiten der Wirtschaft kräftige Gegenbewegung gibt. Dort stellt man sich auf den Standpunkt, die Abschätzungen der Klimatologen seien viel zu vage, um jetzt schon konkrete Gegenmaßnahmen einzuleiten.

Was kann die Regierung, was der Einzelne gegen den Treibhauseffekt tun?

Schönwiese: Die Enquete-Kommission hat festgestellt, dass im Bereich der CO2-Emissionen besonders die privaten Haushalte gefordert sind. Diese könnten zur angestrebten Reduktion des Kohlendioxids rund ein Drittel beitragen, hauptsächlich durch verbesserte Wärmedämmung in Häusern und den Austausch „stromfressender“ Geräte zugunsten von sparsameren Typen.
Privatleute, die etwas tun wollen, können hier schon einen erheblichen Beitrag leisten. Die Ausbeute der Energiegewinnung könnte auch durch Kraft-Wärme-Kopplung verbessert werden, einer Technik bei der die Wärme weitergenutzt wird, die bei der Energieerzeugung anfällt. Derartige Maßnahmen könnten nochmals ein Fünftel der angestrebten CO2-Minderung bewirken. Ein weiteres Fünftel wäre durch eine Verlagerung von fossilen Brennstoffen auf die Kernenergie sowie auf Energien wie Sonnen-, Wind- und Wasserkraft einzusparen.
Bei der Kernenergie gibt es hier allerdings heftige politische Auseinandersetzungen, so dass die Enquete-Kommission sich darauf geeinigt hat, die Anzahl der Kernkraftwerke nicht weiter zu erhöhen. Man muss auch sehen, dass der Beitrag der Kernenergie alleine nur etwa vier Prozent ausmacht. Man hofft nun, im Bereich der Solarenergie weiter voran zu kommen, doch gibt es auch hier viele Skeptiker.

Wo ist der Forschungsbedarf derzeit am Größten?

Schönwiese: Es gibt trotz einem riesigen Aufwand noch erhebliche Schwächen in den Klimamodellen. Verdunstung, Wolkenbildung und Niederschlag sind drei Faktoren, die von den Modellen nur unzureichend erfasst werden. In den Ozeanen ist über die Bewegung der kalten Wassermassen noch recht wenig bekannt. Weitere Schwachpunkte sind die Verknüpfung von atmosphärischen mit ozeanischen Vorgängen, das Verhalten driftender Meereismassen und – nicht zu vergessen – die gesamte „Biosphäre“, vor allem der Einfluss der Pflanzenwelt auf das Klima, welcher in den Modellen nicht enthalten ist.
Auch in zehn oder zwanzig Jahren wird man noch nicht das ideale Modell haben, das alle diese Faktoren einschließt. Darum sollte man nicht nur die Entwicklung der Klimamodelle fördern, sondern auch die Analyse der Beobachtungsdaten. Dies wird derzeit stark vernachlässigt.

(erschienen in der WELT am 31. Oktober 1990. Überarbeitet am 30. April 2017)

Was ist daraus geworden? Das Interview und der dazugehörige Artikel zum 1. Report des IPCC wurden vor mehr als 25 Jahren veröffentlicht. Ich dokumentiere sie hier auch, um den Klimawandelskeptikern und -Leugnern einen Gelegenheit zu geben, die alten Aussagen und Vorhersagen zu überprüfen und mit den aktuellen Messdaten und Trends der letzten Jahrzehnte zu vergleichen. Schönwiese ist mittlerweile als Professor emeritiert, auf der Webseite seines alten Instituts hat er aber eine Fülle von Publikationen und Vorträgen öffentlich gemacht, wie zum Beispiel diese aktuelle Präsentation im Senckenberg-Museum.

Warnung: Das Weltklima ist in Gefahr

In Genf diskutieren derzeit Wissenschaftler und Politiker – weitgehend getrennt – über die möglichen Folgen des menschgemachten Treibhauseffektes. Grundlage der Diskussion bilden die Ergebnisse des IPCC (Intergovernmental Panel on Climate Change), eines Expertengremiums von 170 führenden Klimaforschern aus 25 Ländern. Auftraggeber der in ihrem Umfang bisher einmaligen Studie waren das Entwicklungsprogramm der Vereinten Nationen und die „World Meteorological Organisation„.

Geballter Sachverstand: Die Wissenschaftler des IPCC arbeiteten jahrzehntelang ehrenamtlich zu den Ursachen und Folgen von Klimawandel und globaler Erwärung (Von unbekannt – Vektordaten & Logo von ipcc.ch via Wikipedia)

Nach den Worten von John Houghton, der maßgeblich an der Studie beteiligt war, stellen die Resultate des IPCC die derzeit maßgebliche Meinung der wissenschaftlichen Gemeinde dar und dienen damit als Wissensbasis für die Politiker, die sich jetzt Gedanken machen müssen über die erforderlichen Maßnahmen zur Kontrolle des Treibhauseffektes.

Dieser Effekt ist die Grundlage dafür, dass Leben auf der Erde überhaupt möglich ist. Kurzweilige Strahlung von der Sonne durchdringt die Atmosphäre relativ ungehindert. Landmassen und Ozeane nehmen diese Form der Energie auf und geben sie teilweise wieder ab, allerdings in Form langweiliger Infrarotstrahlung, welche die Atmosphäre nicht mehr ungehindert durchdringen kann.

Eine Reihe natürlicher Spurengase wie Wasserdampf, Kohlendioxid, Methan, Stickoxide und Ozon „versperren“ den Weg der Strahlung in den Weltraum und sorgen so dafür, dass die Erde um 33 Grad wärmer ist, als ohne diese Spurengase – ein „Treibhaus“ also, das Wärme speichert.

Problematisch wird dieser natürliche Prozess erst dadurch, dass eine Vermehrung der Treibhausgase zu einem drastischen Anstieg der globalen Temperaturen führen kann. Die Zunahme dieser Gase seit dem Beginn des industriellen Zeitalters ist verhältnismäßig leicht zu messen und wird nicht in Frage gestellt.

Kohlendioxid, das den größten Anteil an den treibhausrelevanten Gasen ausmacht, wurde vor 1800 noch in Konzentrationen von 280 ppm („parts per million“, also millionstel Teile) gemessen. Heute beträgt die Konzentration 353 ppm und wächst jährlich um weitere zwei Prozent. Jährlich setzt die Menschheit 20 Milliarden Tonnen Kohlendioxid frei und verbrennt dabei so viel Öl, Kohle und Gas, wie die Natur in einer Million Jahren geschaffen hat. Auch die Menge an Methan hat sich seit Ende des 19 Jahrhunderts mehr als verdoppelt.

Die zu erwartende globale Erwärmung der Erde wird nicht mehr angezweifelt. Doch welche Wege führen aus dieser Gefahr?

Die Experten des IPCC haben diese und eine Vielzahl anderer Zahlen für Modellrechnungen benutzt, um möglichst zuverlässige Aussagen über das Klima der Zukunft treffen zu können. Die gesamte Studie beschäftigt sich mit drei Fragestellungen: Arbeitsgruppe I, hat die vorliegenden Informationen zu Klimaänderungen zusammengetragen und ausgewertet. Eine zweite Arbeitsgruppe sollte aus diesen Daten Vorhersagen ableiten über die Auswirkungen der erwarteten Klimaänderungen auf Umwelt, Landwirtschaft und die Erdbevölkerung im Ganzen. Die dritte Arbeitsgruppe schließlich hatte die Aufgabe, den politischen Entscheidungsträgern Maßnahmen aufzuzeigen, mit denen die drohende Klimaänderung am sinnvollsten zu verhindern wäre.

Die Wissenschaftler sind sich darin einig, dass die Temperatur auf unserem Planeten während der nächsten Jahrzehnte ständig weiter ansteigen wird, und zwar unabhängig davon, ob die Freisetzung von Treibhausgasen jetzt drastisch reduziert wird, oder nicht. Diese scheinbar paradoxe Situation erklärt sich aus der Tatsache, dass die meisten Gase, die zum Treibhauseffekt beitragen, jahrzehntelang in der Atmosphäre verbleiben. Reduktionen, die jetzt erfolgen, werden also erst im nächsten Jahrtausend spürbare Auswirkungen haben.

Auch wenn die Prognosen der Wissenschaftler noch mit vielen Fragezeichen versehen sind, wird die globale Erwärmung auf 0,3 Grad Celsius pro Jahrzehnt geschätzt. Dieser Vorgang wird über hundert Jahre anhalten, wenn jetzt keine drastischen Maßnahmen ergriffen werden. Die Erwärmung der Erde wird dann größer sein als alles, was in den letzten 10.000 Jahren beobachtet wurde.

Schon während der letzten hundert Jahre hat sich Erde um 0,3 bis 0,6 Grad erwärmt. Die fünf wärmsten Jahre seit Beginn einer globalen Wetterbeobachtung lagen alle zwischen 1980 und 1990. Die beobachtete Erwärmung stimmt mit den Klimamodellen gut überein, bewegt sich aber noch in derselben Größenordnung wie die natürlichen Schwankungen des Klimas.

Das „Signal“, also das Ansteigen der Temperaturen in Bereiche, die außerhalb der natürlichen Schwankungsbreite liegen, wurde bisher noch nicht beobachtet. Nach Meinung der Wissenschaftler ist dies allerdings nur noch eine Frage der Zeit: „Wahrscheinlich wird das Signal in den nächsten zehn Jahren noch nicht beobachtet werden“, heißt es in der Zusammenfassung der Ergebnisse. „Dann aber werden die zu erwartenden Klimaänderungen noch stärker sein als heute“, betonen die Klimatologen.

Die Klimatologen haben sich aber nicht nur mit düsteren Prophezeiungen zufriedengegeben, die beschreiben, was passiert, wenn weiterhin gigantische Mengen an Treibhausgasen in die Atmosphäre geschleudert werden, wenn Tropenwälder abgeholzt werden und die Bevölkerung um das Jahr 2050 die Zehn-Milliarden-Marke überschreitet. Zwei Szenarien werden beschrieben, mit denen ein Ausweg möglich erscheint. Sollten diese Szenarien umgesetzt werden, wird der beobachtete Trend gegen Mitte des 21. Jahrhunderts abbrechen. Spät, aber vielleicht nicht zu spät.

(erscheinen in der WELT am 31. Oktober 1990. Letzte Aktualisierung am 29. April 2017)

Was ist daraus geworden? Leider ist das Thema „Globale Erwärmung“ zu einem traurigen Lehrstück geworden, wie Lobbyisten erfolgreich Zweifel sähen, um wissenschaftliche Erkenntnisse zu diskreditieren und handfeste Empfehlungen an die Politik zu unterlaufen. Nach 27 Jahren sind sämtliche Vorhersagen der Klimaforscher eingetroffen. Im gleichen Zeitraum wurde die meisten Gegenmaßnahmen sabotiert oder sind im Sand verlaufen sind, weil sich die größten Umweltverschmutzer vor ihrer Verantwortung drücken. Die Rechnung werden die nächsten Generationen zahlen – vor allem in den armen Ländern.