Zum Hauptinhalt springen

Auch am Nordpol fehlt das Ozon

Der Schutzschild gegen die krebserregenden UV-Strahlen zeigt auch am Nordpol erste Risse. Für die Entstehung dieses zweiten „Ozonloches“ gab es bisher nur vage Hinweise; genauere Messungen wurden durch die gewaltigen Luftströme über der Arktis erschwert. Michael Proffitt von der Universität Colorado und seine Kollegen haben diese Schwierigkeiten nun überwunden und die Befürchtungen der Klimaforscher bestätigt.

Zwei Forschungsflugzeuge, vollgepackt mit 23 Messgeräten, hatten Anfang 1989 insgesamt 28 Flüge unternommen, die zum Teil bis zum Nordpol führten. Die hochfliegende ER-2, ein Umbau des Spionageflugzeuges U-2, nahm dabei direkte Messungen in der Stratosphäre vor. Während ein einsamer Pilot die vorgegebenen Messpunkte ansteuerte, übernahmen Computer die vollautomatische Datenerfassung.

Im Gegensatz dazu flog das Wissenschaftlerteam der „arktischen Stratosphärenmission 1989“ in einer DC-8, von der aus Messungen über weite Entfernungen hinweg vorgenommen wurden. Die Analyse der Datenflut, die jetzt im britischen Wissenschaftsmagazin „Nature“ veröffentlicht wurde, deutet auf erhebliche Ozonverluste auch in der arktischen Lufthülle hin.

Bis zu einem Drittel des Ozons, so lautet die Bilanz, wird während des arktischen Winters zerstört – vorige Studien hatten „nur“ zwölfprozentige Verluste ergeben. Die unterschiedlichen Ergebnisse werden auf ozonreiche Luftströme zurückgeführt. Diese fließen laut Proffitt in die Messgebiete ein und gleichen die Verluste an Ozon teilweise wieder aus.

Die Theorie, dass verbrauchtes Ozon nachströmt und damit die bisherigen Messergebnisse verfälschte, hat allerdings einen kleinen Schönheitsfehler: Bisher war man nämlich der Ansicht, dass der arktische Luftwirbel weitgehend isoliert sei, ein „Nachschub“ an Ozon also nicht stattfindet. Proffitt ist da ganz anderer Meinung. Während normaler Winter sinkt nämlich die Luft in der Nordpolarregion ab, ein Vorgang, der in oberen Regionen der Atmosphäre durch Zustrom von Luftmassen ausgeglichen werden müsse.

Ozon-Loch über der Antarktis im Jahr 2010: Die Wunde ist noch lange nicht verheilt (Von Nasa.gov via Wikipedia)

Der Nachweis eines Ozonloches am Südpol war dagegen relativ einfach. Hier dreht sich nämlich im antarktischen Winter ebenfalls ein gigantischer Luftwirbel. Dieser Wirbel allerdings, so weiß man, steht wirklich allein, so dass die Voraussetzungen für einen schnellen Abbau des Ozons gegeben sind, weil der Nachschub aus den sonnigen Randgebieten, in denen das Ozon gebildet wird, oft bis weit in den antarktischen Frühling unterbrochen ist. Aus dieser Situation erklären sich auch die drastischen Ozonverluste innerhalb kurzer Zeit, welche die Weltöffentlichkeit 1987 erstmals auf die Gefährdung unseres atmosphärischen Schutzschildes aufmerksam machten.

Die klimatischen Verhältnisse am Nordpol unterscheiden sich allerdings teilweise erheblich von denen am Südpol: Selbst die kältesten arktischen Winter sind wärmer als die wärmsten antarktischen Winter. Da Temperaturen von fast minus neunzig Grad am Nordpol nur selten erreicht werden, bilden sich polare stratosphärische Wolken dort erst gegen Ende der monatelangen Polarnacht.

Diese Wolken aus winzigen Eis- und Säurekristallen starten dann die Ozonvernichtung, indem sie Chlorgas freisetzen. Die ersten Sonnenstrahlen des arktischen Frühlings zerlegen das Chlorgas, wobei aggressive Zerfallsprodukte entstehen. Diese Chlorradikale zerbrechen dann die Ringstruktur des Ozons in einem schier endlosen Zyklus – bis zu 100000 Ozonmoleküle können so durch ein einziges Chlorradikal zerstört werden.

Unbestritten ist übrigens die Herkunft der Chlorabkömmlinge: Sie sind fast ausschließlich menschlichen Ursprungs.

(erschienen in der WELT vom 22. September 1990. Letzte Aktualisierung 21. März 2017)

OriginalliteraturProffitt, MH.,Margitan JJ, Kelly KK, Loewenstein M, Podolske JR, Chan KR. „Ozone Loss in the Arctic Polar Vortex Inferred from High-Altitude Aircraft Measurements.” Nature 347, no. 6288 (September 6, 1990): 31–36.

Was ist daraus geworden? Das Ozonloch ist eines der wenigen Beispiele dafür, dass die Politik auf Warnungen von Wissenschaftlern gehört und entsprechende Maßnahmen ergriffen hat. Im Protokoll von Montreal wurden Ozonkiller größtenteils verboten, und 30 Jahre später sehen wir Zeichen für eine Erholung der Ozonlöcher über beiden Polen. Bis diese Wunden in unserer Atmosphäre verheilt sind, werden aber nach Schätzungen noch etwa 80 Jahre vergehen.

US-Raumfahrt in der Krise

Die amerikanische Weltraumbehörde Nasa steckt in Schwierigkeiten. Während in 600 Kilometern Höhe das zwei Milliarden Dollar teure Weltraumteleskop „Hubble“ als Zielscheibe für den Spott und die Enttäuschung der Astronomengemeinde dient, ist die Bodenmannschaft im Kennedy Space Center mittlerweile zum vierten Mal in fünf Monaten daran gescheitert, die Raumfähre „Columbia“ zu starten.

Musste jahrelang am Boden bleiben: Das Space Shuttle Discovery auf der Startrampe im Kennedy Space Center (Bild: NASA via Wikipedia)

Ingenieure und Techniker versuchen derzeit verzweifelt, ein Leck in der Treibstoffzufuhr unter Kontrolle zu bringen. Schmirgelpapier sei in den Treibstoffkreislauf der Columbia gelangt, vermutet ein Nasa-Mitarbeiter, der es vorzieht, anonym zu bleiben. Auch die beiden Schwesterschiffe „Atlantis“ und „Discovery“ liegen am Boden fest.

Mitglieder des amerikanischen Kongresses sind inzwischen auf die wiederholten Flops aufmerksam geworden. Nachdem sich abgezeichnet hatte, dass Hubble als teuerstes wissenschaftliches Gerät im Weltall nur einen Bruchteil seiner Aufgaben würde erfüllen können, erklärte Senator Al Gore: „Die Nasa schuldet den Steuerzahlern eine Erklärung und das Versprechen, dass so etwas nie wieder geschieht.“

Jetzt beginnen Politiker aller Parteien die Finanzierung der geplanten Raumstation – derzeitiger Kostenvoranschlag 37 Milliarden Dollar – in Frage zu stellen. Sie äußern Zweifel an der Fähigkeit der Nasa, dieses Prestigeobjekt zu bauen und zu unterhalten.

Für diese Zweifel gibt es handfeste Gründe: Jährlich 3800 Stunden Weltraumspaziergänge wären nötig, um alleine die Wartungsarbeiten an der Raumstation durchführen zu können, befand eine unabhängige Studie. Dies hätte eine unerwartet hohe Strahlenbelastung der Astronauten zur Folge. Aber: Die Entwicklung unempfindlicher Roboter steckt noch in den Kinderschuhen.

Die Nasa selbst hatte den Wartungsaufwand erheblich unterschätzt. Ursprünglich war man von 130 Stunden pro Jahr ausgegangen. Wenn es dem Expertenteam im Johnson Space Center im texanischen Houston nicht gelingen sollte, dieses Problem zu lösen, wird die Raumstation mit dem schönen Namen „Freedom“ nicht gebaut werden können. Dann wäre auch das europäische Raumlabor „Columbus“ nutzlos, das an die Raumstation gekoppelt werden soll und für dessen Planung ebenfalls bereits Milliardensummen ausgegeben worden sind.

Einige Weltraumhistoriker glauben, den Beginn der Misere auf den Tag genau festlegen zu können. Nicht einmal ein Jahr war seit der ersten Mondlandung vergangen, als der damalige Präsident Richard Nixon unter dem Eindruck des Vietnamkrieges und gewaltiger Haushaltsprobleme der Weltraumeuphorie einen Dämpfer versetzte. „Die Raumfahrt muss wieder ihren Platz zwischen den nationalen Prioritäten einnehmen“, bemerkte er am 7. März 1970 und wies damit das Ansinnen zurück, eine ständige Mondbasis einzurichten und eine bemannte Expedition zum Mars vorzubereiten.

„Damals entwickelte sich in der Nasa eine Festungsmentalität, erklärt Professor John M. Logsdon, Direktor des Instituts für Weltraumpolitik an der George-Washington-Universität. Man begann, um das große Geld zu kämpfen und schlug Programme vor, die jedem alles versprachen. Schwärme von Lobbyisten versuchten dem Weißen Haus, dem Kongress und dem Verteidigungsministerium das Shuttle-Programm schmackhaft zu machen.

Diese wiederverwendbaren Raumfähren sollten billig, sicher und vielseitig sein und – nicht zu vergessen – 24000 Arbeitslätze schaffen. Von den damals angepeilten bis zu 60 Missionen im Jahr erreichte die Nasa niemals mehr als neun. Unter dem steigenden Druck, die aufgeblähten Pläne doch noch zu realisieren, wurden Sicherheitsvorkehrungen missachtet und die Warnungen der Techniker in den Wind geschlagen.

Am 28. Januar 1986 ereignete sich dann die unvermeidliche Katastrophe: Bei der Explosion der „Challenger“ kamen sieben Astronauten ums Leben. Zweieinhalb Jahre lang musste man das Feld fast ganz den Sowjets überlassen, ehe die „Discovery“ am 29. September 1988 die Zwangspause der Amerikaner beendete.

Heute sind die Sowjets den Amerikanern in der bemannten Raumfahrt um Jahre voraus. Seit 1971 haben Kosmonauten rund 6000 Tage an Bord ihrer Raumstationen zugebracht und damit eine fast kontinuierliche Präsenz von Menschen im Weltall ermöglicht.

Gleichzeitig verfügt die UdSSR über ein breites Spektrum einsatzbereiter Transportraketen, einschließlich ihrer eigenen Raumfähre „Buran“ und deren Trägerrakete „Energija“, die bis zu 100000 Kilogramm Nutzlast in eine erdnahe Umlaufbahn bringen kann. Mehr als seinen Vorgängern scheint Präsident George Bush jetzt daran gelegen zu sein, der amerikanischen Raumfahrt wieder eine langfristige Perspektive zu vermitteln. Für 1991 ist eine Erhöhung des Budgets um 23 Prozent auf 15,2 Milliarden Dollar vorgesehen. Ob diese Finanzspritze ausreicht, um das angeknackste Selbstvertrauen der 24000 festangestellten Nasa-Mitarbeiter zu heben, bleibt abzuwarten.

(erschienen am 21. September 1990 in der WELT. Letzte Aktualisierung am 21. März 2017)

Was ist daraus geworden? Wer spricht heute noch über die bemannte Raumfahrt? Die großen Visionen aus dem vorigen Jahrhundert sind passé, ein Opfer von politischem Größenwahn, gepaart mit Wankelmut, Unfällen und nicht eingehaltenen Versprechen. Auch die Raumfähre Columbia explodierte drei Jahre nach meinem Artikel auf der Rückkehr von ihrer 28. Mission, alle sieben Besatzungsmitglieder starben dabei. Auch scheiterten die USA daran, die Raumstation „Freedom“ aus eigener Kraft zu bauen. Nun ja, dies hatte vielleicht auch sein gutes, denn so wurde daraus die Internationale Raumstation ISS. Die fliegt tatsächlich alle 90 Minuten über unsere Köpfe, auch wenn so manch einer den Nutzen dieser Einrichtung bezweifelt, die die Steuerzahler laut Europäischer Weltraumagentur etwa 100 Milliarden Euro kostet. Immerhin erwies sich das Hubble-Weltraumteleskop als später Erfolg, nachdem man die technische Defekte in mehreren bemannten Missionen korrigiert hatte.

Wenn Herzen aus dem Takt geraten

Die Frage, wie dem „elektrischen Unfall“ Herzinfarkt am besten beizukommen ist, wird von Experten heftig diskutiert. Auf einer Tagung über Herzrhythmusstörungen in Königswinter bei Bonn bemühen sich Kardiologen zurzeit, die beste Behandlungsmethode zu ermitteln.

Allein in der Bundesrepublik sterben jährlich etwa 360000 Menschen an Herz-Kreislauf-Erkrankungen. Wie der Direktor der Medizinischen Universitätsklinik Bonn, Professor Berndt Lüderitz, erklärte, ist unter den Patienten eine zunehmende Medikamentenverdrossenheit zu beobachten. Arzneimittel gegen Herzrhythmusstörungen (Antiarrhythmika) sind kompliziert zu handhaben, da die Erkrankung verschiedene Ursachen haben kann. Außerdem können diese Medikamente die Erregungsleitung im Herzen an mehreren Stellen beeinflussen. In letzter Zeit seien Nebenwirkungen vermehrt beobachtet worden, sagte Lüderitz.

Der Trend geht von den Medikamenten weg

„Ein Beweis dafür, dass Medikamente gegen Herzrhythmusstörungen lebensverlängernd wirken, steht bisher noch aus“, bemerkte der Mediziner. Bemerkenswert ist allerdings, dass der Herzschrittmacher seine lebensverlängernde Wirkung bereits unter Beweis gestellt hat. Wie zu erfahren war, wird das Bundesgesundheitsamt den Einsatz von Antiarrhythmika voraussichtlich gegen Ende des Jahres stark einschränken.

Trotzdem werden Antiarrhythmika auch weiterhin ihren Platz bei der Therapie von Herzkrankheiten haben und vor allem in Notfällen eingesetzt werden. Ziel der rund 250 Kardiologen, die sich in Bonn versammelt haben, wird es sein, den Stellenwert der verschiedenen Behandlungsformen zu ermitteln. Dieses Unternehmen wird auch vom Forschungsministerium unterstützt: Von einer großen Langzeitstudie erhofft man sich darüber Aufschluss, ob Elektroschockgeräte (Defibrillatoren) oder Medikamente besser geeignet sind, den plötzlichen Herztod zu verhindern.

Außer Defibrillatoren stehen den Kardiologen eine Reihe weiterer Möglichkeiten offen, Herzrhythmusstörungen ohne Medikamente zu behandeln: So wurden Herzschrittmacher entwickelt, die nicht nur auf ein Aussetzen des Herzschlages, sondern auch auf seine Beschleunigung reagieren. Auch die Lasertechnik leistet mittlerweile einen wertvollen Beitrag zur Chirurgie des Herzens.

Lüderitz betonte, dass trotz medizinischer Fortschritte die größten Erfolge durch eine vernünftige Lebensweise zu erzielen wären. So hat eine konsequente, teilweise auch aggressive Gesundheitsaufklärung in den Vereinigten Staaten die Zahl der Herztoten deutlich vermindert.

(erschienen in der WELT am 14. September 1990, letzte Aktualisierung 21. März 2017)

Was ist daraus geworden? Im Standardwerk „Innere Medizin“ von Gerd Herold (Ausgabe 2012) stehen die Antiarrythmika zwar immer noch vor Elektrotherapie und Katheterablation sowie chirurgischen Eingriffen, allerdings wird drauf hingewiesen, dass Nutzen und Nebenwirkungen dieser Medikamentenklasse gegeneinander abgewogen werden müssten. Erneut wird hier betont, dass hinsichtlich der Sterblichkeit die Therapie mit Antiarrhythmika keinen Vorteil bringt, und dass die beiden Studien CAST und SWORD sogar eine Verschlechterung der Prognose für Postinfarktpatienten gezeigt hätten.

Software-Test WordPerfect 5.1

Stark verbessert gegenüber dem Vorläufer präsentiert sich WordPerfect 5.1 als professionelles Textverarbeitungsprogramm. Die Installation des Paketes (elf Disketten á 360 KB) ist einfach, die Dokumentation mit rund 1800 Seiten umfangreich.

Obwohl WordPerfect über eine Fülle von Funktionen verfügt, begnügt sich das Programm mit 384-KB-Arbeitsspeicher und kann auch noch von (720-KB-)Disketten betrieben werden. Die Hilfefunktion ist erstmals kontextsensitiv; die wichtigste Neuerung aber besteht in Pull-Down-Menüs, die auch mit der Maus angesteuert werden können. So wird dem Benutzer die verquaste Funktionsauswahl über F-Tasten erspart.

Was die Qualität des Ausdruckes anbelangt, überzeugt WordPerfect hundertprozentig. Wichtig besonders für Wissenschaftler: Ein Formeleditor steht zur Verfügung, mit dem mehr als 1500 Zeichen dargestellt und in Spitzenqualität ausgedruckt werden können. Natürlich bietet WordPerfect erweiterten Komfort, wie man ihn bei dieser Preisklasse erwarten darf. Hier sind die gelungene Druckvorherschau, Makroeditor, Rechtschreibprüfung und Synonymwörterbuch zu nennen.

Schön, dass Grafiken problemlos in den Text integriert werden können. Für die Praxis ist dies allerdings weniger wichtig als eine hervorragende, frei programmierbare Mischfunktion zum Verfassen von Serienbriefen und Listen. Zeitsparend ist auch die Verknüpfung von Text und Tabellenkalkulation: Tabellen aus Lotus 1-2-3, MS-Excel, Symphony, Quattro und PlanPerfect können in den Text integriert und vor dem Ausdruck automatisch neu berechnet werden. Die Kommunikation mit anderen Schreibprogrammen dagegen ist beschränkt auf DOS-Textdateien.

WordPerfect 5.1, WordPerfect GmbH; für IBM-PC/XT, IBM-PC/AT und PS/2-Computer und Kompatible; 1812,60 DM

(erschienen in der WELT am 10. September 1990)

Was ist daraus geworden? Die ehemalige Nummer 1 unter den Textverarbeitungen ist heute – zumindest am Umsatz gemessen – gegenüber Microsofts Word klar im Nachteil. WordPerfect wurde jedoch konsequent gepflegt und weiterentwickelt, sodass zumindest die aktuelle englischsprachige Version heute über viele Funktionen verfügt, die dem Konkurrenzproduckt fehlen.

Software-Test Quattro Pro

Die Berechnung und Analyse großer Datenmengen bewältigt Quattro Pro von Borland. Das Programm verbindet Tabellenkalkulation und Präsentationsgrafik in vorbildlicher Weise. Dabei kann der erstaunliche Leistungsumfang bereits ab 512 KB RAM genutzt werden – Festplatte vorausgesetzt.

Eine hervorragend gestaltete Benutzeroberfläche mit Pull-Down-Menüs, Fenstertechnik und Mausunterstützung sowie eine sorgfältige und umfangreiche Dokumentation erleichtern den Zugang auch zu gehobenen Funktionen. Beim Rechnen glänzt Quattro Pro vor allem bei den mathematischen und Finanzierungsfunktionen.

Matrizenberechnungen, Regressionsanalysen und lineares Optimieren sind möglich, die Eingabe der jeweiligen Formeln wird durch die ausgeklügelten Menüs erheblich erleichtert. Bis zu 64 Dateien können miteinander verknüpft werden, auf Wunsch holt sich das Programm weitere Informationen direkt aus den Datenbanken Paradox, Reflex und dBase.

Die Grafiken – zehn verschiedene Typen sind möglich – können in die Arbeitsblätter integriert und durch Verknüpfung mit den zugehörigen Daten ständig aktuell gehalten werden. Auch wer gesteigerten Wert auf die Präsentation seiner Daten legt, ist mit Quattro Pro gut beraten. Denn die erstellten Grafiken können auf einem „Zeichenbrett“ weiterbearbeitet werden.

Zusätzlich zu Hunderten von Schriftarten werden 3-D-Effekte, Füllmuster, Pfeile, Rasterlinien und Schattierungen sowie geometrische Elemente unterstützt. Eine Bildschirmvoranzeige mit Zoomfunktion gibt einen Vorgeschmack dessen, was Quattro Pro zu Papier bringt: Die Qualität der Ausdrucke ist nämlich schon mit einem 24-Nadel-Drucker bestechend.

Quattro Pro, Borland GmbH; für IBM-Computer und Kompatible; bis 30.9. 282,72 DM, dann 1482 DM.

(erschienen in der WELT vom 4. September 1990)

Was ist daraus geworden? Noch so ein Programm, das einstmals führend war und sich doch nicht durchsetzen konnte. Quattro Pro war einst nicht nur preiswerter, sondern auch besser als Excel. Inzwischen wurde die Software jedoch an Corel verkauft und fristet nun laut Wikipedia nur noch ein Schattendasein in deren Office-Packet.