Zum Hauptinhalt springen

Klimapolitik: „Das läuft nicht besonders gut“

Interview mit Professor Christian Schönwiese, einer der führenden Klimatologen in Deutschland und Mitautor des IPCC-Reports.

In dem Report wird nicht ausgeschlossen, dass die beobachteten Klimaveränderungen natürlichen Ursprungs sein könnten. Was sagen Sie denjenigen, die daraus ableiten, dass derzeit noch kein Handlungsbedarf bestünde?

Schönwiese: Im Grunde wurden hier zwei Hypothesen genannt, neben der bereits erwähnten gibt es auch die Möglichkeit, dass die natürlichen Klimaschwankungen die menschgemachten abgedämpft haben, so dass ohne natürliche Klimaschwankungen die menschgemachten noch größer gewesen wären. Diese Hypothese beruht auf Forschungsergebnissen, die wir hier in Frankfurt erarbeitet und kürzlich vorgestellt haben.
Nach diesen Ergebnissen würde der vom Menschen verursachte Temperaturanstieg in den letzten hundert Jahren bereits ein Grad Celsius ausmachen, wenn diese Temperaturerhöhung nicht teilweise durch natürliche Prozesse wie zum Beispiel Vulkanausbrüche abgeschwächt worden wäre. Im Moment – so viel ist richtig – beruht der Handlungsbedarf auf den Modellrechnungen, und nicht auf den beobachteten Klimaveränderungen.
Das was diese Modelle vorhersagen, bedeutet aber, dass innerhalb von zehn bis zwanzig Jahren Veränderungen eintreten werden, die größer sind als die natürlichen Schwankungen. Sehr wesentlich ist auch, dass das Klima mit Jahrzehnten Verzögerung auf die menschlichen Klimaveränderungen reagiert. Mit anderen Worten: Das was wir jetzt beobachten, wurde wahrscheinlich schon vor Jahrzehnten von der Menschheit verursacht. Wenn wir heute sofort reagieren würden, dann dauert es noch Jahrzehnte, bis das Klima reagiert. Deshalb sollte man frühzeitig reagieren, auch Aufgrund von Wahrscheinlichkeits- und Risikoaussagen, weil das Risiko insgesamt zu groß ist.

Was erhoffen Sie sich von der Weltklimakonferenz?

Schönwiese: Die Konferenz hat einen „wissenschaftlichen Vorlauf“, bei dem das Ergebnis der Studie nochmals zusammenfassend dargestellt wird. Wie ich sehe, sind Politiker dabei nicht anwesend, das läuft also nicht besonders gut. Auch sind nicht alle Wissenschaftler anwesend, die die Studie geschrieben haben, sondern nur eine gewisse Auswahl, dafür aber Behördenvertreter und alle möglichen Leute, die mit dem Thema eigentlich gar nichts zu tun haben. Also das läuft ein bisschen seltsam aus meiner Sicht.
In der zweiten Phase sollen dann die Politiker dazukommen und die Weichen stellen zu einer Weltklimakonvention, wie wir hoffen.
Das heißt, wir wünschen uns, dass der Vorschlag der Enquete-Kommission des Bundestages „Vorsorge zum Schutz der Erdatmosphäre“, auch von anderen übernommen wird. Darin ist eine Reduktion der CO2-Emissionen um 30 Prozent bis zum Jahr 2005 vorgeschlagen. Wir hoffen, dass sich in der Weltklimakonvention, die für 1992 geplant ist, möglichst viele Länder verpflichten, CO2 um einen festen Prozentsatz zu reduzieren, und aus den FCKW-Gasen auszusteigen.
Ob das wirklich zustande kommt ist die große Frage. Wahrscheinlich wird es so sein, dass z. B. die Entwicklungsländer nicht bereit sein werden, diese Maßnahmen zu beschließen, weil hier andere Problem dringender sind. Aber auch in den Industrieländern gibt es Widerstände, etwa in den USA oder in Japan, wo es von Seiten der Wirtschaft kräftige Gegenbewegung gibt. Dort stellt man sich auf den Standpunkt, die Abschätzungen der Klimatologen seien viel zu vage, um jetzt schon konkrete Gegenmaßnahmen einzuleiten.

Was kann die Regierung, was der Einzelne gegen den Treibhauseffekt tun?

Schönwiese: Die Enquete-Kommission hat festgestellt, dass im Bereich der CO2-Emissionen besonders die privaten Haushalte gefordert sind. Diese könnten zur angestrebten Reduktion des Kohlendioxids rund ein Drittel beitragen, hauptsächlich durch verbesserte Wärmedämmung in Häusern und den Austausch „stromfressender“ Geräte zugunsten von sparsameren Typen.
Privatleute, die etwas tun wollen, können hier schon einen erheblichen Beitrag leisten. Die Ausbeute der Energiegewinnung könnte auch durch Kraft-Wärme-Kopplung verbessert werden, einer Technik bei der die Wärme weitergenutzt wird, die bei der Energieerzeugung anfällt. Derartige Maßnahmen könnten nochmals ein Fünftel der angestrebten CO2-Minderung bewirken. Ein weiteres Fünftel wäre durch eine Verlagerung von fossilen Brennstoffen auf die Kernenergie sowie auf Energien wie Sonnen-, Wind- und Wasserkraft einzusparen.
Bei der Kernenergie gibt es hier allerdings heftige politische Auseinandersetzungen, so dass die Enquete-Kommission sich darauf geeinigt hat, die Anzahl der Kernkraftwerke nicht weiter zu erhöhen. Man muss auch sehen, dass der Beitrag der Kernenergie alleine nur etwa vier Prozent ausmacht. Man hofft nun, im Bereich der Solarenergie weiter voran zu kommen, doch gibt es auch hier viele Skeptiker.

Wo ist der Forschungsbedarf derzeit am Größten?

Schönwiese: Es gibt trotz einem riesigen Aufwand noch erhebliche Schwächen in den Klimamodellen. Verdunstung, Wolkenbildung und Niederschlag sind drei Faktoren, die von den Modellen nur unzureichend erfasst werden. In den Ozeanen ist über die Bewegung der kalten Wassermassen noch recht wenig bekannt. Weitere Schwachpunkte sind die Verknüpfung von atmosphärischen mit ozeanischen Vorgängen, das Verhalten driftender Meereismassen und – nicht zu vergessen – die gesamte „Biosphäre“, vor allem der Einfluss der Pflanzenwelt auf das Klima, welcher in den Modellen nicht enthalten ist.
Auch in zehn oder zwanzig Jahren wird man noch nicht das ideale Modell haben, das alle diese Faktoren einschließt. Darum sollte man nicht nur die Entwicklung der Klimamodelle fördern, sondern auch die Analyse der Beobachtungsdaten. Dies wird derzeit stark vernachlässigt.

(erschienen in der WELT am 31. Oktober 1990. Überarbeitet am 30. April 2017)

Was ist daraus geworden? Das Interview und der dazugehörige Artikel zum 1. Report des IPCC wurden vor mehr als 25 Jahren veröffentlicht. Ich dokumentiere sie hier auch, um den Klimawandelskeptikern und -Leugnern einen Gelegenheit zu geben, die alten Aussagen und Vorhersagen zu überprüfen und mit den aktuellen Messdaten und Trends der letzten Jahrzehnte zu vergleichen. Schönwiese ist mittlerweile als Professor emeritiert, auf der Webseite seines alten Instituts hat er aber eine Fülle von Publikationen und Vorträgen öffentlich gemacht, wie zum Beispiel diese aktuelle Präsentation im Senckenberg-Museum.

Warnung: Das Weltklima ist in Gefahr

In Genf diskutieren derzeit Wissenschaftler und Politiker – weitgehend getrennt – über die möglichen Folgen des menschgemachten Treibhauseffektes. Grundlage der Diskussion bilden die Ergebnisse des IPCC (Intergovernmental Panel on Climate Change), eines Expertengremiums von 170 führenden Klimaforschern aus 25 Ländern. Auftraggeber der in ihrem Umfang bisher einmaligen Studie waren das Entwicklungsprogramm der Vereinten Nationen und die „World Meteorological Organisation„.

Geballter Sachverstand: Die Wissenschaftler des IPCC arbeiteten jahrzehntelang ehrenamtlich zu den Ursachen und Folgen von Klimawandel und globaler Erwärung (Von unbekannt – Vektordaten & Logo von ipcc.ch via Wikipedia)

Nach den Worten von John Houghton, der maßgeblich an der Studie beteiligt war, stellen die Resultate des IPCC die derzeit maßgebliche Meinung der wissenschaftlichen Gemeinde dar und dienen damit als Wissensbasis für die Politiker, die sich jetzt Gedanken machen müssen über die erforderlichen Maßnahmen zur Kontrolle des Treibhauseffektes.

Dieser Effekt ist die Grundlage dafür, dass Leben auf der Erde überhaupt möglich ist. Kurzweilige Strahlung von der Sonne durchdringt die Atmosphäre relativ ungehindert. Landmassen und Ozeane nehmen diese Form der Energie auf und geben sie teilweise wieder ab, allerdings in Form langweiliger Infrarotstrahlung, welche die Atmosphäre nicht mehr ungehindert durchdringen kann.

Eine Reihe natürlicher Spurengase wie Wasserdampf, Kohlendioxid, Methan, Stickoxide und Ozon „versperren“ den Weg der Strahlung in den Weltraum und sorgen so dafür, dass die Erde um 33 Grad wärmer ist, als ohne diese Spurengase – ein „Treibhaus“ also, das Wärme speichert.

Problematisch wird dieser natürliche Prozess erst dadurch, dass eine Vermehrung der Treibhausgase zu einem drastischen Anstieg der globalen Temperaturen führen kann. Die Zunahme dieser Gase seit dem Beginn des industriellen Zeitalters ist verhältnismäßig leicht zu messen und wird nicht in Frage gestellt.

Kohlendioxid, das den größten Anteil an den treibhausrelevanten Gasen ausmacht, wurde vor 1800 noch in Konzentrationen von 280 ppm („parts per million“, also millionstel Teile) gemessen. Heute beträgt die Konzentration 353 ppm und wächst jährlich um weitere zwei Prozent. Jährlich setzt die Menschheit 20 Milliarden Tonnen Kohlendioxid frei und verbrennt dabei so viel Öl, Kohle und Gas, wie die Natur in einer Million Jahren geschaffen hat. Auch die Menge an Methan hat sich seit Ende des 19 Jahrhunderts mehr als verdoppelt.

Die zu erwartende globale Erwärmung der Erde wird nicht mehr angezweifelt. Doch welche Wege führen aus dieser Gefahr?

Die Experten des IPCC haben diese und eine Vielzahl anderer Zahlen für Modellrechnungen benutzt, um möglichst zuverlässige Aussagen über das Klima der Zukunft treffen zu können. Die gesamte Studie beschäftigt sich mit drei Fragestellungen: Arbeitsgruppe I, hat die vorliegenden Informationen zu Klimaänderungen zusammengetragen und ausgewertet. Eine zweite Arbeitsgruppe sollte aus diesen Daten Vorhersagen ableiten über die Auswirkungen der erwarteten Klimaänderungen auf Umwelt, Landwirtschaft und die Erdbevölkerung im Ganzen. Die dritte Arbeitsgruppe schließlich hatte die Aufgabe, den politischen Entscheidungsträgern Maßnahmen aufzuzeigen, mit denen die drohende Klimaänderung am sinnvollsten zu verhindern wäre.

Die Wissenschaftler sind sich darin einig, dass die Temperatur auf unserem Planeten während der nächsten Jahrzehnte ständig weiter ansteigen wird, und zwar unabhängig davon, ob die Freisetzung von Treibhausgasen jetzt drastisch reduziert wird, oder nicht. Diese scheinbar paradoxe Situation erklärt sich aus der Tatsache, dass die meisten Gase, die zum Treibhauseffekt beitragen, jahrzehntelang in der Atmosphäre verbleiben. Reduktionen, die jetzt erfolgen, werden also erst im nächsten Jahrtausend spürbare Auswirkungen haben.

Auch wenn die Prognosen der Wissenschaftler noch mit vielen Fragezeichen versehen sind, wird die globale Erwärmung auf 0,3 Grad Celsius pro Jahrzehnt geschätzt. Dieser Vorgang wird über hundert Jahre anhalten, wenn jetzt keine drastischen Maßnahmen ergriffen werden. Die Erwärmung der Erde wird dann größer sein als alles, was in den letzten 10.000 Jahren beobachtet wurde.

Schon während der letzten hundert Jahre hat sich Erde um 0,3 bis 0,6 Grad erwärmt. Die fünf wärmsten Jahre seit Beginn einer globalen Wetterbeobachtung lagen alle zwischen 1980 und 1990. Die beobachtete Erwärmung stimmt mit den Klimamodellen gut überein, bewegt sich aber noch in derselben Größenordnung wie die natürlichen Schwankungen des Klimas.

Das „Signal“, also das Ansteigen der Temperaturen in Bereiche, die außerhalb der natürlichen Schwankungsbreite liegen, wurde bisher noch nicht beobachtet. Nach Meinung der Wissenschaftler ist dies allerdings nur noch eine Frage der Zeit: „Wahrscheinlich wird das Signal in den nächsten zehn Jahren noch nicht beobachtet werden“, heißt es in der Zusammenfassung der Ergebnisse. „Dann aber werden die zu erwartenden Klimaänderungen noch stärker sein als heute“, betonen die Klimatologen.

Die Klimatologen haben sich aber nicht nur mit düsteren Prophezeiungen zufriedengegeben, die beschreiben, was passiert, wenn weiterhin gigantische Mengen an Treibhausgasen in die Atmosphäre geschleudert werden, wenn Tropenwälder abgeholzt werden und die Bevölkerung um das Jahr 2050 die Zehn-Milliarden-Marke überschreitet. Zwei Szenarien werden beschrieben, mit denen ein Ausweg möglich erscheint. Sollten diese Szenarien umgesetzt werden, wird der beobachtete Trend gegen Mitte des 21. Jahrhunderts abbrechen. Spät, aber vielleicht nicht zu spät.

(erscheinen in der WELT am 31. Oktober 1990. Letzte Aktualisierung am 29. April 2017)

Was ist daraus geworden? Leider ist das Thema „Globale Erwärmung“ zu einem traurigen Lehrstück geworden, wie Lobbyisten erfolgreich Zweifel sähen, um wissenschaftliche Erkenntnisse zu diskreditieren und handfeste Empfehlungen an die Politik zu unterlaufen. Nach 27 Jahren sind sämtliche Vorhersagen der Klimaforscher eingetroffen. Im gleichen Zeitraum wurde die meisten Gegenmaßnahmen sabotiert oder sind im Sand verlaufen sind, weil sich die größten Umweltverschmutzer vor ihrer Verantwortung drücken. Die Rechnung werden die nächsten Generationen zahlen – vor allem in den armen Ländern.

Ein Kunstplanet für Ökologen und Raumfahrer

In der Wüste Arizonas entsteht derzeit eine „Erde im Westentaschenformat“. Es handelt sich dabei um das größte selbsterhaltende Ökosystem, das je gebaut wurde. Wenn das 60 Millionen Dollar teure Projekt im Dezember fertiggestellt wird, werden vier Männer und vier Frauen einziehen, denen die „Biosphäre II“ die Welt bedeuten wird.

Und das ist wörtlich zu verstehen, denn die „Bionauten“ werden volle zwei Jahre lang hermetisch von der Außenwelt abgeriegelt sein. Abgesehen von Strom, Sonnenlicht und Informationen muss die Crew um den deutschen Projektleiter Bernd Zabel ab dem 5. Dezember völlig ohne fremde Hilfe zurechtkommen. An diesem Tag nämlich werden die Luftschleusen vor den laufenden Kameras des US-Fernsehens verriegelt.

Außer Zabel werden zwei Amerikanerinnen und zwei Amerikaner, zwei Engländerinnen und ein Belgier alles selbst erzeugen müssen, was sie verbrauchen. Doch damit nicht genug; sie werden auch lernen müssen, nicht im eigenen Abfall zu ersticken, wobei gegenwärtig noch nicht abzusehen ist, welche Herausforderung hier die größere ist.

Das Experiment, welches hauptsächlich vom texanischen Milliardär Edward Bass getragen wird, verfolgt zweierlei Ziele: Zum einen handelt es sich um eine Art Test für einen längeren Raumflug. Sollten wirklich einmal Menschen auf dem Mars landen, so werden sie allein für die Anreise fast ein Jahr brauchen. Auch für eine Kolonie auf dem roten Planeten oder dem Mond wäre es erstrebenswert, möglichst unabhängig von der Außenwelt zu sein. Ein ständiger Nachschub von der Erde aber ist aus technischen und praktischen Gründen wenig sinnvoll. Ob sich ein geschlossener Kreislauf wirklich über mehrere Jahre hinweg aufrechterhalten lässt, ist eine der Fragen, die das Projekt Biosphäre 11 beantworten soll.

Abgespact: Das Bibliotheksgebäude der Biosphere 2 heute (Foto von Gleam CC BY-SA 3.0 via Wikipedia)

Außerdem erhofft man sich von dem Langzeitexperiment neue Erkenntnisse über die Funktion der Biosphäre I – wie die Erde im Projektjargon liebevoll genannt wird. Dazu wurden auf nur 1,3 Hektar Fläche eine ganze Reihe von Ökosystemen nachgebaut: Unter einer 26 Meter hohen Glaskuppel dominiert tropischer Regenwald die Anlage, der entlang eines Flusses allmählich in die Savanne übergeht. Durch dorniges Gestrüpp führt der Weg schließlich in eine Wüstenlandschaft, während der Fluss durch einen Brackwassersumpf in den „Ozean“ gelangt.

Diese Lebenszone wiederum setzt sich zusammen aus einer Lagune samt Korallenriff und einer „Tiefseeregion“, in die nur wenig Licht gerät. Elf Meter ist der Ozean der Bionauten tief und kann Wellen schlagen, die über einen Meter hoch sind. All diese Vielfalt findet sich auf einer Länge von nur 150 Metern, eine Leistung, auf die Margret Augustine vom federführenden kanadischen Unternehmen „Space Biosphere Ventures“ besonders stolz ist.

Die acht – unverheirateten – Biosphärenbewohner werden ihren Lebensraum mit einer Vielzahl von Pflanzen und Tieren teilen, die nur dank der ausgefeilten Architektur und hochmoderner Techniken in dieser „Arche Noah“ Platz finden. Sechs Jahre lang haben Wissenschaftler daran gearbeitet, für buchstäblich Tausende verschiedener Arten ein Heim zu schaffen.

Dabei wurde die ganze Erde durchsucht, um geeignete Spezies ausfindig zu machen. Das Sammelsurium der Organismen erstreckt sich über die gesamte Leiter der Evolution: Von Affen, Kaninchen und Kolibris über Frösche, Schildkröten, Schlangen und Fische bis hin zu Bienen, Spinnen, Kakerlaken und Termiten reicht das Spektrum – nicht zu reden von den Mikroorganismen, die gar nicht zu erfassen sind. Wie viele dieser Arten nach Ablauf der zwei Jahre ausgerottet sein werden, ist nicht abzusehen; ein Ziel von Biosphäre II ist es schließlich, die optimale Zusammensetzung an Lebewesen für ein stabiles Okosystem zu erkunden.

„Ich betrachte das Ganze als ein phantastisches und zugleich dem Gemeinwohl dienendes Abenteuer“, freut sich Zabel und fügt hinzu: „Je näher der Starttermin kommt, um so aufgeregter werde ich.“ Wer glaubt, Zabel und seine Kollegen müssten ein Dasein fristen wie seinerzeit Robinson Crusoe, befindet sich allerdings im Irrtum.

Die medizinische Versorgung des Teams wird durch den 66jährigen Roy Walford gewährleistet, der als Ältester an dem Projekt teilnimmt. Im äußersten Notfall könnten kranke Bionauten auch durch eine Luftschleuse geborgen werden, ohne das geschlossene System zu stören. Auch werden die Crewmitglieder nicht etwa im Urwald schlafen und sich nach Art von Survivalkünstlern von unappetitlichem Gewürm ernähren müssen. Vielmehr hat jeder seinen Privatraum von 34 Quadratmetern im Hauptgebäude der Biosphäre, wo komplett eingerichtete Labors mit Computern und Telekommunikationseinrichtungen zur Verfügung stehen.

Hier wird auch der größte Teil der Nahrung produziert. In Tanks schwimmen Reispflanzen und afrikanische Buntbarsche, die Algen fressen und selbst als Speisefische dienen. Auf diesem fünftel Hektar wachsen auch das Gemüse sowie Früchte und Gewürze für die Männer und Frauen der Biosphäre II.

Auch für eine gelegentliche handfeste Mahlzeit wurde vorgesorgt: Vietnamesische Hängebauchschweine dienen als Fleischlieferanten, dazu gibt es Ziegenmilch und Hühnereier. All dies muss den Pionieren der Biosphärenforschung wie ein Traum erscheinen: Während nämlich den Bionauten in der Wüste Arizonas 140000 Kubikmeter Raum zur Verfügung stehen, müssen sowjetische Kosmonauten im Experimentierkomplex „Bios- 3“ mit bescheidenen 300 Kubikmetern Vorlieb nehmen.

Das entspricht einem drei Meter hohen Quader auf einer Grundfläche mit zehn Metern Kantenlänge. Der steht im Institut für Biophysik der Sibirischen Abteilung der sowjetischen Akademie der Wissenschaften, wo man Biosphärenexperimente schon zu Beginn der sechziger Jahre aufgenommen hat.

Bios-3 bietet „Platz“ für bis zu drei Personen, hatte im jüngsten Experiment allerdings nur zwei Bewohner. Drei der vier Räume dienten als „Phytodrome“ der Pflanzenzucht und erwirtschafteten täglich rund 300 Gramm Weizenkorn sowie 500 Gramm Kraut, Wurzelfrüchte, Gurken und Tomaten je Bewohner. Beruhigende Bilanz nach fünf Monaten Aufenthalt: Man habe „weder direkte noch entfernte negative Änderungen des Gesundheitszustandes“ beobachtet – ein Grund mehr für die Crew der Biosphäre II, sich auf die zwei Jahre zu freuen, in denen sie alleinige Herrscher ihres Miniplaneten sein werden.

(erschienen in der WELT am 27.Oktober 1990. Letzte Aktualisierung am 26. April 2017)

Was ist daraus geworden? Für mich als Biologen wenig überraschend gab es eine ganze Reihe von Problemen, und die Biosphäre II erreichte niemals ein biologisches Gleichgewicht, das ihre Bewohner auf Dauer von der Außenwelt unabhängig gemacht hätte. Im zweiten Jahr musste Sauerstoff zugeführt werden, und ein 2. Anlauf wurde nach 6. Monaten beendet. Heute präsentiert sich Biosphere 2 als ökologisches Forschungszentrum, Konferenzort und Museum mit dem stolzen Eintrittspreis von 20 Dollar. Es war gut und richtig, dieses Experiment zu unternehmen, aber die wichtigste Lektion daraus lautet für mich, mit der Biosphäre I pfleglich umzugehen.

Strahlende Hinterlassenschaft

Geld spielte für die Sowjetunion keine Rolle, solange es um die Ausbeutung der Rohstoffe in der ehemaligen DDR ging. Bis zum Zehnfachen der Weltmarktpreise für Uran musste die Wismut AG anlegen, um den Böden Sachsens und Thüringens das begehrte Metall abzugewinnen. Der Urananteil im Gestein war nämlich mit einem Tausendstel so gering, dass ganze Täler ausgebaggert werden mussten, um den Hunger nach billigem Kernbrennstoff und atomaren Sprengsätzen zu sättigen. Dabei entwickelte sich die deutsch-sowjetische Aktiengesellschaft allmählich zu einem „Staat im Staate“, komplett mit Spitzengehältern und eigener Handelskette.

Auch wenn jetzt im Januar die „kontrollierte Stilllegung“ der Anlage Seelingstädt eingeleitet wird, werden die Einwohner des Erzgebirges noch lange Zeit an den Schäden zu tragen haben, die ihnen der maßlose Bergbau in der Region gebracht hat. Zusätzlich zu den Narben in der Landschaft, den Absetzbecken mit Hunderten von Millionen Tonnen Rückständen und den 3000 Hügeln der Abraumhalden sind die Einwohner noch mit einem weiteren Problem konfrontiert: Radon, ein radioaktives Edelgas, entweicht aus dem Boden der Region.

Klaus Töpfer – hier im Jahr 2009 – war ein kompetenter und glaubwürdiger Umweltminister (Foto: Heinrich Böll Stiftung Berlin, Conference: Countdown to Copenhagen CC BY-SA 2.0 via Wikipedia)

„Meine Sorge ist nicht geringer geworden“, meinte Umweltminister Klaus Töpfer nach der Besichtigung des Wismuth-Erbes und sieht sich vor gewaltigen Aufgaben. Bei Lichtenberg, wo der Tagebau vor zwölf Jahren eingestellt wurde, ist der Krater heute noch 160 Meter tief und entwickelt auf dem Boden den Fäulnisgeruch von schwefeligen Gasen. Direkt angrenzend befindet sich eine wilde Deponie, die Ende des Jahres geschlossen wird. Ölreste und eine möglicherweise brisante Mischung an undefinierten Abfallstoffen wurden hier – nach der Wende – abgelagert und stinken nun zum Himmel.

In der Anlage Königstein wurden mehrere Millionen Kubikmeter Säure in den Boden gepumpt, um das dort befindliche Erz zugänglich zu machen. Dieser Betrieb kann nicht einfach stillgelegt werden, weil die Säuremassen sonst das Grundwasser gefährden würden. Trotz der unzähligen Halden und alten Anlagen mit ihren gewaltigen Mengen an Schwermetallen trägt aber das radioaktive Gas Radon am meisten zur Strahlenbelastung der Bevölkerung bei. Jede hundertste Wohnung in Schneeberg weist so hohe Mengen an Radon auf, dass sie „der direkten Sanierung bedürftig“ ist, so Töpfer.

Über 15.000 radioaktive Zerfälle je Kubikmeter Raumluft werden in diesen Räumen gemessen und gefährden auf lange Sicht die Gesundheit der Bewohner. Noch wurden Messungen nur stichprobenartig genommen, doch gewinnt das Bild zunehmend an Klarheit, während das Bundesamt für Strahlenschutz ständig neue Daten gewinnt. Konfrontiert mit den Sorgen der Bewohner dieser Häuser, empfahl Töpfer als erste Sanierungsmaßnahmen für die betroffenen Häuser ein verstärktes Lüften, das Abdichten der Kellerräume und die Installation von Drainagen. Um der großen Skepsis der Einwohner gegenüber amtlichen Verlautbarungen zu begegnen, soll jetzt eine Beratungsstelle eingerichtet werden, in der Betroffene sich darüber informieren können, welche Sanierungsmaßnahmen für ihre spezielle Situation am geeignetsten sind.

Radon ist auch in anderen Ländern ein Problem, doch kommt es wegen der geologischen Besonderheiten im Erzgebirge zu extremen Schwankungen in den frei gesetzten Radonmengen. Ehemals uranhaltige Lagen liegen hier fast senkrecht im Boden; die Schächte münden in extremen Fällen in den Kellergewölben der Einwohner und dienen so als „Fluchtweg“ für das Radon das aus dem Gestein entweicht. Direkt angrenzende Lagen führen häufig nur sehr wenig Uran, so dass dort drastisch geringere Konzentrationen gemessen werden.

Trotz der zweifellos skandalösen Lage in den ehemaligen Uranbergbaugebieten ist in der Bevölkerung auch Optimismus zu vernehmen. Anlässlich einer Bürgerversammlung in der Hospitalkirche der Gemeinde Schneeberg sprach Pfarrer Andreas Tusche von einem Zeichen der Hoffnung: „22 Tage nach der Vereinigung, ist etwas geschehen, was hier 40 Jahre lang nicht möglich war: Ein Minister hat sich den Sorgen und Ängsten der Bevölkerung gestellt.“

(Bericht von einer Dienstreise mit Klaus Töpfer auf Einladung des Umweltministeriums. Erschienen in der WELT vom 27. Oktober 1990. Letzte Aktualisierung 17. April 2017)

Was ist daraus geworden? Mehrmals durfte ich in meiner „Bonner Zeit“ Klaus Töpfer begleiten und auf Pressekonferenzen erleben. Im Gegensatz zu so manchen Nachfolgern habe ich ihn als kompetent und glaubwürdig erlebt. Diesem Thema blieb er auch treu und wurde später unter anderem Exekutivdirektor des Umweltprogrammes der Vereinten Nationen. Das Uranaufbereitungswerk in Seelingstädt wurde wie fast alle Anlagen nach der Wende geschlossen und das Gelände saniert. Die Belastung durch Radon ließ sich jedoch nicht überall beseitigen, und sie besteht nicht nur in den ehemaligen Uranerzabbaugebieten der Wismut. Rechnerische Abschätzungen aus der Lungenkrebshäufigkeit von Bergarbeitern haben ergeben, dass Radon für etwa 10 % der Lungenkrebstodesfälle verantwortlich ist, so die Wikipedia. „Diese Größenordnung wurde inzwischen durch epidemiologische Studien belegt. Damit gehen pro Jahr in der EU 20.000 Lungenkrebstodesfälle und in Deutschland etwa 1.900 auf Radon zurück.“

Milliarden-Schäden durch Uranabbau im Erzgebirge

Schneeberg. Der Uranbergbau in der ehemaligen DDR hat schwerwiegende Umweltprobleme hinterlassen. Umweltminister Klaus Töpfer zeigte sich erschrocken über das Ausmaß der Verwüstungen und den sorglosen Umgang mit schwach radioaktiven Substanzen, der im Erzgebirge jahrzehntelang betrieben wurde und teilweise noch anhält. Anlässlich einer Bürgerversammlung im sächsischen Schneeberg warb Töpfer um Vertrauen für die Umweltpolitik der Bundesregierung.

Abraumhalden bei Schneeberg im Erzgebirge (Copyright 1990, Michael Simm)

Der größte Bergbaubetrieb der Region, die Wismut AG mit derzeit 30.800 Arbeitern, hat seit dem Ende des zweiten Weltkrieges 220.000 Tonnen aufbereitetes Uran (yellow cake) in die Sowjetunion geliefert, ebenso viel wie die Vereinigten Staaten im gleichen Zeitraum produzierten. Das Metall, welches nach einer weiteren Anreicherungsstufe als Kernbrennstoff‘ oder Sprengsatz für Nuklearwaffen dient, wurde unter immensen Kosten für Mensch und Natur gefördert.

Schlammartige Rückstände der Erzaufbereitung werden in gigantischen Absetzbecken von der Größe mittlerer Baggerseen gelagert, die allmählich austrocknen und dabei radioaktiven Staub freisetzen. Erst wenn alle Becken mit Abdeckmaterialien versiegelt sind, ist auch die Gefahr einer Verseuchung von Grund- und Oberflächenwasser durch diese Becken gebannt.

Arbeiten dazu sind bereits in Gang, doch die Beseitigung der riesigen Abraumhalden, die bei der Erzförderung anfielen, wird längere Zeit in Anspruch nehmen: Über 3000 dieser Halden, die bis zu 130 Meter hoch sind, produzieren säurehaltige Sickerwässer, die ebenfalls unkontrolliert ins Grundwasser gelangen.

Die Wismut AG ist eine deutsch-sowjetische Aktiengesellschaft, die noch zu Zeiten des alten Regimes gegründet wurde. Jetzt soll sie unter dem im April berufenen Generaldirektor Horst Richter einen umfassenden Sanierungsplan erstellen. Die unmittelbaren Kosten für die Beseitigung der Schäden dieses Raubbaus schätzt Richter auf 5,4 Milliarden Mark. Eine Beteiligung der Sowjets an den Kosten halten sowohl Töpfer als auch Richter für unwahrscheinlich.

Hohe Priorität gilt auch der Sicherung medizinischer Daten der Wismut-Mitarbeiter. Nach Schätzungen standen fast eine Million Menschen zeitweilig in den Diensten der Gesellschaft. Derzeit befinden sich deren Daten noch im Arbeitshygienischen Zentrum der Region Wismut, doch ist bereits ein unabhängiges Institut mit der Auswertung beauftragt worden.

(erschienen auf der Titelseite der WELT am 27. Oktober 1990. Letzte Aktualisierung am 17. April 2017)

Was ist daraus geworden? Eine extrem umfangreiche Aufarbeitung dieser Geschichte findet sich mittlerweile auf der Wikipedia. Auch zahlreiche Bücher wurden über die Hinterlassenschaft der Wismut geschrieben, darunter auch „Uran für Moskau“ von Rainer Karlsch. Einen Fachartikel mit dem Thema „Gesundheitliche Folgen der beruflichen Strahlenbelastung im deutschen Uranbergbau“ von Maria Schnelzer, Nora Fenske, Linda Walsh, Michaela Kreuzer fand ich im Umwelt und Mensch – Informationsdienst, Nr. 01/2015, der gemeinsam vom Bundesamt für Strahlenschutz (BfS), Bundesinstitut für Risikobewertung (BfR), Robert Koch-Institut (RKI), und Umweltbundesamt (UBA) herausgegeben wird. Demnach wurden 60000 frühere Wismut-Arbeit über viele Jahe hinweg regelmäßig untersucht mit dem Ergebnis: „Bis Ende 2008 waren 25.438 Personen (43% der Kohorte) verstorben, 3.500 von ihnen an Lungenkrebs. Dies entspricht im Vergleich zur Allgemeinbevölkerung einer Verdoppelung der Lungenkrebssterblichkeit, welche vorwiegend auf die berufliche Radonbelastung und in geringerem Maß auch auf die Belastung mit Quarzfeinstaub zurückzuführen ist.“

Verdauungshilfe aus dem Genlabor

Ein gentechnisch hergestellter Futterzusatz soll schon im nächsten Jahr den Phosphatausstoß der Niederlande reduzieren helfen. Phytase, so der Name des Eiweißstoffes, ist für den Einsatz in der Schweine- und Geflügelzucht vorgesehen. Experten gehen davon aus, dass mit dieser Maßnahme jährlich 25 Millionen Tonnen Phosphat weniger freigesetzt werden. Dies ist mehr, als mit der Einführung phosphatfreier Waschmittel erreicht werden konnte.

Phosphate tragen maßgeblich zur Gewässerbelastung bei. Die Substanz wird in der Landwirtschaft in großen Mengen freigesetzt, da sie in der Gülle und auch im Kunstdünger enthalten ist. Da aber die riesigen Mengen Phosphat von den Kulturpflanzen nicht vollständig genutzt werden können, gelangt der Rest in die Flüsse und Meere. Heftiges Algenwachstum bis zum „Umkippen“ der Gewässer kann die Folge sein.

Auf einer Tagung der Deutschen Landwirtschafts-Gesellschaft stießen die Ausführungen von Dr. Rob Beudecker daher auf großes Interesse. Beudecker berichtete über Bemühungen, den Schadstoffausstoß der niederländischen Landwirtschaft zu reduzieren. Ausgangspunkt der Forscher war die Überlegung, dass handelsübliches Mischfutter für die Schweine- und Geflügelzucht mit mineralischem Futterphosphat ergänzt werden muss, obwohl der Phosphatgehalt pflanzlicher Nahrung theoretisch ausreichend für die Tiere wäre. Die Bioverfügbarkeit des Phosphates ist unzureichend, weil die Tiere das vorhandene Phosphat nur schlecht verwerten können.

Zwei Drittel des pflanzlichen Phosphates liegen nämlich in Form von Phytinsäure vor, welche nur mit einem bestimmten Eiweißstoff – der Phytase – „geknackt“ werden kann. Wiederkäuer bekommen die Phytase von Mikroorganismen im Pansen, geliefert, Schweine müssen ebenso wie Geflügel ohne die nützlichen Darmbewohner auskommen.

Das Enzym Phytase wird in gentechnisch veränderten Pilzen der Gattung Aspergillus hergestellt und als Futtermittelzusatz benutzt. Es verbessert die Aufnahme von Phosphat bei Geflügel und Schweinen und schont dadurch die Umwelt (Von Ayacop – adapted from http://www.pdb.org/pdb/files/1ihp.pdb using PyMOL, Gemeinfrei, via Wikipedia)

Die Idee, Phytase ins Futter zu mischen, wurde zwar schon vor 20 Jahren zum Patent angemeldet; erst jetzt aber bietet die Gentechnik die Möglichkeit, diesen Biokatalysator in großen Mengen zu niedrigen Preisen zu produzieren. Die Wissenschaftler der Firma Gistbrocades untersuchten über 1000 Mikroorganismen, um dann einen Pilz der Gattung Aspergillus zu isolieren, welcher eine Phytase produzierte, die den Ansprüchen des Marktes genügt: Das Eiweiß ist hochaktiv, vor allem unter den chemischen Bedingungen, die im Kropf des Geflügels sowie im Magen von Schweinen und Vögeln herrschen. Außerdem überlebt die Phytase aus Aspergillus die hohen Temperaturen, die bei der Pelletierung von Futtermitteln entstehen, fast ohne Aktivitätsverlust.

Um das Eiweiß in großen Mengen herstellen zu können, isolierten die Wissenschaftler den molekularen Bauplan für die Phytase und übertrugen dieses Gen erfolgreich auf einen Produktionsstamm. Bei der Verfütterung der so gewonnenen Phytase ergab sich, dass die Verfügbarkeit des Phosphates für Schweine und Geflügel um 20 Prozent zugenommen hatte, gleichzeitig wurde von den Tieren ein Drittel weniger Phosphat mit der Gülle ausgeschieden – was Beudecker für einen sinnvollen Beitrag zum Umweltschutz hält.

Beudecker erwartet jetzt eine Ausnahmegenehmigung der Regierung, sobald der Nachweis erbracht ist, dass die rekombinante Phytase für den Verbraucher unbedenklich ist. Schon im nächsten Jahr soll dann das Futtermittel in Zusammenarbeit mit der BASF auf den holländischen Markt gebracht werden.

In Deutschland ist eine solche Entwicklung übrigens nicht so schnell zu erwarten: In einer Empfehlung des Bundestages wurde die Regierung vor wenigen Wochen aufgefordert, sich in der EG dafür einzusetzen, dass gentechnische Methoden nicht eingesetzt werden, um in der Landwirtschaft weitere Leistungssteigerungen zu erzielen.

(erschienen in der WELT am 23. Oktober 1990. Letzte Aktualisierung am 16. April 2017)

Was ist daraus geworden? Gistbrocades wurde 1998 von der Firma DSM aufgekauft. Ganz selbstverständlich ist heute die Zugabe gentechnisch hergesteller Phytase zum Futter von Schweinen und Geflügel. Und wo früher Horrorszenarien zur Gentechnik an die Wand gemalt wurden, spricht man jetzt von einer „Verbesserung der Nachhaltigkeit“.

Software-Test MS-Works 2.0

Ein ganzes Paket sinnvoller Programme erhält der Anwender beim Kauf von Works 2.0 aus dem Hause Microsoft. Hier finden sich vier der häufigsten Anwendungen unter einer wirklich ansehnlichen Benutzeroberfläche. Aus dem Hauptmenü heraus kann – per Tastatur oder mit der Maus – zwischen Textverarbeitung, Datenbankanwendungen, Tabellenkalkulation oder dem elektronischen Datentransfer gewählt werden.

Durch gleichlautende Befehle in den verschiedenen Programmteilen wird die Einarbeitungszeit verkürzt, ein nicht zu unterschätzender Vorteil integrierter Pakete gegenüber einer Handvoll individueller Programme. Daten aus einem Programmbereich lassen sich sinnigerweise in eine andere Anwendung übernehmen. Das ist besonders dann praktisch, wenn Grafiken oder Teile einer Tabellenkalkulation in einen Text integriert werden sollen. Das Ergebnis lässt sich mit einer Seitenvorschau überprüfen, die allerdings nicht in der Lage ist, Ausschnittvergrößerungen zu liefern oder aufeinander folgende Seiten darzustellen.

Wird eine Tabelle mit neuen Zahlen aktualisiert, so berücksichtigt Works die Änderungen auf zugehörige Grafiken und bringt diese vor dem Ausdruck auf den neuesten Stand. Bei der Tabellenkalkulation sind vor allem die Finanzfunktionen zu erwähnen, Naturwissenschaftler werden dagegen stiefmütterlich behandelt.

Den Einstieg in das Paket erleichtert ein hervorragendes Lernprogramm, die Übersichtlichkeit des Handbuches bleibt dahinter leider etwas zurück. Ein kleiner Taschenrechner und ein Terminkalenderchen sind keine große Arbeitshilfe: Manchmal ist weniger mehr.

Die Bildschirmdarstellung kann zwischen Text- und Grafikmodus umgeschaltet werden, wobei im Grafikmodus von den Besitzern XT-kompatibler Rechner einiges an Geduld verlangt wird. Dafür begnügt sich Works aber mit 512 KB Arbeitsspeicher und kommt auch ohne Festplatte aus. Alles in allem ist das Programm eine verhältnismäßig preiswerte Lösung für diejenigen Anwender, welche nicht auf die teuren Details der „großen“ Programme angewiesen sind.

„MS-Works 2.0“, Microsoft GmbH, für IBM-Computer und Kompatible, 799 Mark.

(erschienen in der WELT am 23. Oktober 1990. Letzte Aktualisierung 16. April 2017)

Was ist daraus geworden? Als Light-Version seiner größeren Office-Pakete hat Microsoft das Programm Works bis zum Jahr 2008 beibehalten; die letzte Version 9 gibt es immer noch bei Amazon zu kaufen. Was in der Zwischenzeit geschah kann man auf der Wikipedia nachlesen.

„Meisterleistung der organischen Synthese“

Der mit vier Millionen Kronen (umgerechnet etwa 1,07 Millionen Mark) dotierte Nobelpreis für Chemie geht in diesem Jahr an den US-Amerikaner Elias James Corey. Die Königliche Schwedische Akademie der Wissenschaften würdigte damit die „Meisterleistung bei der Entwicklung der organischen Synthese“ des 62jährigen Corey, der an der Harvard-Universität in Cambridge im US-Bundesstaat Massachusetts lehrt.

Der Nobelpreisträger Elias James Corey in einem Porträt aus dem Jahr 2007 (Von Trvthchem personal photo – Eigenes Werk, CC0, via Wikipedia)

In der Begründung der Akademie heißt es, weiter: „Die Entwicklung der Kunst organischer Synthese während der letzten 100 Jahre hat zu effektiven industriellen Methoden der Herstellung von Plasten und anderen Kunstfibern, Lacken und Farben, Unkraut- und Insektenbekämpfungsmitteln, sowie von Vitaminen und Arzneimitteln geführt. Sie hat in hohem Maße zu hohem Lebensstandard, guter Gesundheit und langem Leben beigetragen, wie sie zumindest die westliche Welt genießt.“

Der Preisträger, mit über 650 wissenschaftlichen Beiträgen in der Fachliteratur kein Unbekannter, habe mit seinen Arbeiten Wegweisendes bei der Entwicklung und Herstellung biologisch aktiver Produkte geleistet, die zum Beispiel als Heilmittel eingesetzt werden.

Der Hintergrund für Coreys Erfolge liegt darin, dass er mit strikter Logik die Grundlagen der sogenannten retrosynthetischen Analyse entwickelt hat. Dies bedeutet, dass man von der gedachten Struktur eines Moleküls ausgeht, das man herstellen möchte. Dabei wird festgelegt, welche Verbindungen getrennt werden sollen, und dann ihre Struktur Schritt für Schritt vereinfacht. „Dabei wird man entdecken, dass gewisse Bruchstücke bereits bekannt sind bzw. ihre Struktur und Synthese beschrieben worden ist“, so das Komitee.

Wenn man auf diese Art und Weise in der Analyse gewissermaßen rückwärts von einer komplexen Struktur zu bereits bekannten geschritten ist, kann man damit beginnen, das Molekül aufzubauen, es zu synthetisieren. Es hat sich gezeigt, dass sich diese Methode ausgezeichnet für die Bearbeitung im Computer eignet, was zu einem kräftigen Schub bei der Planung von Synthesen geführt hat.

(erschienen in der WELT am 18. Oktober 1990. Letzte Aktualisierung am 16. April 2017)

Was ist daraus geworden? Corey war auch nach dem Nobelpreis fleißig; die Zahl seiner Publikationen stieg auf über 1000. Damit sei er einer der meistzitierten Wissenschafter, heißt es auf der Webseite der Harvard Universität, wo Corey mittlerweile emeritiert ist. Zusätzlich hat er mehrere Bücher geschrieben, darunter „The Logic of Chemical Synthesis„, „Molecules and Medicine„, und „Enantioselective Chemical Synthesis„.

Umweltbelastung durch Ammoniak

Der Geruch von kleinen Mengen Ammoniak wird häufig mit würziger Landluft gleichgesetzt. Wenn aber jährlich in Europa 8,5 Millionen Tonnen emittiert werden, so scheint die Frage angebracht, wie sich diese enormen Mengen auf unsere Umwelt auswirken. Von den 22 bis 35 Millionen Tonnen Ammoniak, die jährlich weltweit freigesetzt werden, ist nur ein Zwanzigstel natürlichen Ursprungs.

Ammoniak trägt erheblich zur Verunreinigung der Luft bei und wird als möglicher Mitverursacher des Waldsterbens gehandelt. So die Bilanz eines vergangene Woche in Braunschweig veranstalteten Symposiums zum Thema „Ammoniak und Umwelt“. Hauptquellen des Gases sind landwirtschaftliche Betriebe, die Massentierhaltung betreiben und Äcker mit flüssigem und festen Mist düngen.

Nicht schön: Mit Gülle offensichtlich überdüngter Acker ist eine der Hauptquellen für umweltschädliches Ammoniak (Von Rasbak – Eigenes Werk, CC BY-SA 3.0 via Wikipedia)

In Deutschland stammen mit über 500.000 Tonnen Ammoniak mehr als die Hälfte der Gesamtmengen vom Rindvieh, ein Fünftel aus der Schweinezucht und ein Viertel aus Düngemitteln, berechnete Dr. Willem Asman vom dänischen Umweltforschungsinstitut. In der Atmosphäre kann das einmal freigesetzte Ammoniak dann weiter reagieren. Es entsteht Ammonium NH4+, das ebenso wie Ammoniak als Düngemittel wirkt und in Form von Schwebstaub (Aerosol), Regen oder Schnee zur Erdoberfläche zurückkehrt.

Zwei Drittel aller stickstoffhaltigen Ablagerungen in Deutschland stammen aus den beiden Verbindungen Ammoniak und Ammonium. Jahreszeitliche Schwankungen in diesen Ablagerungen könnten unter anderem beim explosionsartigen Algenwachstum eine Rolle spielen, so Asman. Nicht alle Pflanzen jedoch profitieren von dem herabrieselnden Stickstoff. Mehr als zwei Drittel der bedrohten Gefäßpflanzen in Mitteleuropa bevorzugen eine stickstoffarme Umgebung, so dass es zum Rückgang bestimmter Arten kommt.

Obwohl Ammoniak und seine Abkömmlinge zunächst zu einer Wachstumssteigerung führen können, rufen überhöhte Ablagerungen eine Beschädigung der schützenden Wachsschicht auf den Blättern und eine bleibende Schädigung des Wurzelsystems hervor.

Was den höheren Pflanzen schadet, gereicht einigen hochspezialisierten Bakterienarten zum Vorteil. Durch den vermehrten Ammoniakgehalt der Luft scheinen Nitrifikanten ideale Wachstumsbedingungen vorzufinden. Zwei Gattungen dieser Mikroorganismen wandeln Ammoniak über einem Zwischenschritt zu Salpetersäure um.

In jüngster Zeit wurden die Bakterien, die sich normalerweise im Boden aufhalten, auch auf historisch wertvollen Gebäuden beobachtet, berichteten Eva Spieck und Dr. Wolfgang Sand vom Institut für Allgemeine Botanik an der Universität Hamburg. Im Rahmen eines Verbundprojektes des Forschungsministeriums, das mit jährlich über 13 Millionen Mark gefördert wird, wurden von der Hamburger Arbeitsgruppe um Professor Eberhard Bock fast 30 Gebäude untersucht, vom Kölner Dom bis zur Münchner Pinakothek.

Die mikrobiologische Untersuchung ergab ein erschreckendes Bild: Bis zu 10.000 Nitrifikanten machten sich an den untersuchten Gebäuden an einem Gramm Gestein zu schaffen und schädigten mit ihren Stoffwechselprodukten die wertvolle Bausubstanz. Dabei waren die Natur- und Kunststeine oft mehrere Zentimeter tief mit den Mikroorganismen befallen.

Die winzigen Organismen konnten in einer Simulationsanlage sogar im Beton ihre Spuren hinterlassen und den getesteten Sandstein durch Auswaschung von Calcium-Carbonat seiner Kittsubstanz berauben. Ob man die zunehmende Umweltbelastung durch Ammoniak und seine Reaktionsprodukte durch technische Maßnahmen wird lindern können, scheint zweifelhaft.

Dr. Klaus Isermann von der Landwirtschaftlichen Versuchsstation Limburger Hof der BASF verweist darauf, dass bei der Pflanzenproduktion etwa zwei Drittel der eingebrachten Nährstoffe genutzt werden, während dieser Wert für die Tierproduktion maximal 20 Prozent erreicht. Der größte Teil der inländischen Pflanzenfrucht wiederum endet als Futter in den Mägen, der Rinder und Schweine, sodass in der Gesamtbilanz der Landwirtschaft kaum ein Viertel des eingesetzten Stickstoffes genutzt wird.

(erschienen in der WELT am 16. Oktober 1990. Letzte Aktualisierung am 15. April 2017. Das Symposium wurde auch in Buchform zusammengefasst in: Ammoniak in der Umwelt, Kreisläufe, Wirkungen, Minderung)

Was ist daraus geworden? Das Problem ist nach all der Zeit noch immer ungelöst. Laut Umweltbundesamt sanken die Emmission zwischen 1990 und 2014 gerade mal um sieben Prozent. Und weiter: „Im Jahr 2015 wurden die Ammoniak-Emissionen aus dem Düngereinsatz in Deutschland anhand überarbeiteter Methoden komplett neu berechnet. Dabei ergaben sich deutlich höhere Emissionswerte als bisher angenommen. Im Ergebnis wird die nationale Emissionshöchstmenge auch im Jahr 2014 mit 740 Tsd. t massiv überschritten.“Ammoniak bleibt damit eines der am meisten unterschätzten Umweltgifte.

Harninkontinenz – noch immer tabu

Unter Inkontinenz der Blase oder des Enddarms leiden in der Bundesrepublik rund 3,5 Millionen Menschen. Trotz der schweren psychischen und körperlichen Belastung für den Einzelnen aber ist das Problem „Inkontinenz“ weitgehend ein Tabuthema geblieben.

Diagnose und Therapie der unterschiedlichen Formen der Harninkontinenz (HI) bildeten den Schwerpunkt bei dem deutsch-deutschen Erfahrungsaustausch „Aspekte der Harninkontinenz“, der am 6. und 7. Juli in Münster stattfand. Veranstalter des Treffens war das Unternehmen Dr. R. Pfleger, Bamberg.

In der ehemaligen DDR sei etwa jede dritte Frau in der zweiten Lebenshälfte von HI betroffen, berichtete Prof. Dr. Wolfgang Fischer, Direktor der Abteilung für Urogynäkologie der Frauenklinik an der Ostberliner Charité. Bei der Behandlung setze sich die „Berliner Mehrschritt-Therapie“ immer mehr durch, die mit konservativen Maßnahmen beginnt, mit denen bereits 40 bis 50 Prozent der Patienten zufriedengestellt werden können.

Die übrigen benötigen als zweiten Schritt eine Operation, der sich in jedem Falle wieder eine konservative Nachbehandlung anschließe. Bei 10 bis 20 Prozent der Fälle seien die Ergebnisse allerdings nicht ausreichend: Sie müssen mit Inkontinenz-Hilfen behandelt werden.

Wichtigste Grundlage für den Erfolg einer Inkontinenztherapie seien individuelle Betreuung und Versorgung des Patienten, betonte Prof. Günter H. Willital, Direktor der Kinderchirurgie der Universität Münster. Dort wurde ein kostenloser telefonischer Beratungsdienst eingeführt. Außerdem wurde eine besondere Sprechstunde etabliert, die sich ausschließlich mit den Problemen der Urin- und Stuhlinkontinenz befasst. Für Patienten, die die Klinik nicht aufsuchen können oder wollen, besteht ein Hausbesuchsdienst.

Untersuchungen von mehr als 1500 Fällen haben ergeben, dass sich die Inkontinenz im Kindes- und Jugendalter durch regelmäßige Betreuung und durch intensive konservative Maßnahmen sehr wesentlich bessern lässt. Den Pflegekräften komme dabei eine außerordentlich wichtige Rolle zu, betonte Willital.

Die Prophylaxe der HI sollte nach übereinstimmender Meinung künftig größere Beachtung finden. Prof. Fischer schlug vor, dieses Thema in die Aufklärungsarbeit bzw. Gesundheitserziehung der Schulen mit aufzunehmen und Frauen nach der Schwangerschaft auf die Problematik aufmerksam zu machen. Solche Ziele verfolgt auch eine im letzten Jahr gegründete Europäische Arbeitsgemeinschaft zur Hilfe inkontinenter Kinder und Jugendlicher, die ihren Sitz in England hat.

(erschienen in: Deutsches Ärzteblatt, 11. Oktober 1990. Letzte Aktualisierung 15. April 2017)