Zum Hauptinhalt springen

Bulgarien droht ein Tschernobyl

Eine akute Gefährdung des gesamten südeuropäischen Raumes stellt das einzige bulgarische Kernkraftwerk Kozloduj nach Meinung der Betriebsmannschaft dar. In einem inoffiziellen Hilfeersuchen an die Wiener Atomenergiebehörde IAEA ist die Rede davon, daß besonders die Dampferzeuger in dem Kraftwerk sowjetischer Bauart zu versagen drohten. Aber auch der Druckbehälter und der primäre Kühlkreislauf der Blöcke I und II befinden sich in einem „bedenklichen Zustand“.

Wie der Sprecher der IAEA, Hans-Friedrich Meyer, erklärte, habe man gerade eine dreiwöchige intensive Überprüfung der Anlage vorgenommen: „Das Team der IAEA fand das Kraftwerk in einem sehr schlechten Zustand vor, mit einer Anzahl sicherheitsrelevanter Mängel.“ Man habe die bulgarische Regierung gebeten, sofortige Maßnahmen zu ergreifen, doch wollte Sofia dieser Bitte wegen des Energienotstandes im Land keine Folge leisten.

Die Anlage, die sich rund 130 Kilometer nördlich von Sofia an der rumänischen Grenze befindet, deckt etwa 30 Prozent des bulgarischen Strombedarfs. Bei den Atommeilern vom Typ WWER mit jeweils 440 Megawatt Leistung handelt es sich um Bulgariens älteste Kernkraftwerke. Sie wurden bereits Mitte der siebziger Jahre erbaut.

Mittlerweile wurde bekannt, daß Bundesumweltminister Klaus Töpfer den Generaldirektor der IAEA gebeten hat, für den 9. Juli eine Konferenz mit Beteiligung westlicher Nationen und der Weltwirtschaftsbank einzuberufen. Offensichtlich befürchtet man ein Versagen der beiden noch nicht stillgelegten Blöcke, die baugleich mit denen im stillgelegten deutschen Kernkraftwerk Greifswald sind. Ein bereits fertiggestellter sechster Block wurde bisher nicht angeschaltet. Bei dessen Inbetriebnahme droht nach Meinung der Angestellten eine „Katastrophe wie in Tschernobyl“.

Während in Greifswald pro Reaktorblock acht sowjetische Experten zur Ausbildung und für Notmaßnahmen bereitstanden, mußte deren Zahl für die schlecht ausgebildete bulgarische Bedienungsmannschaft verdoppelt werden. Alle 32 sowjetischen Spezialisten, die mit dem russischen Reaktortyp WWER gut vertraut waren, wurden aber schon vor Monaten abgezogen, angeblich weil die bulgarische Regierung in Zahlungsschwierigkeiten geriet. Um Sofia doch noch zum Einlenken zu bewegen, wäre es denkbar, Strom aus westeuropäischen Ländern zur Verfügung zu stellen. Dieser könnte über eine Kupplungsstelle in Österreich in das osteuropäische Netz eingespeist werden.

(erschienen in „DIE WELT“ am 29. Juni 1991)

Was wurde daraus? Keine Ahnung, ob die Sorgen damals vor dem Hintergrund der Reaktorkatastrophe von Tschernobyl übertrieben waren, oder ob wir einfach nur Glück hatten, dass nichts passiert ist. Jedenfalls wurden alle 4 hier beschriebenen Blocks noch bis 2002 bzw. 2006 weiter betrieben, und seitdem läuft Kosloduj mit zwei neueren Reaktoren (Baujahre 1988 bzw. 1993), die angeblich westlichen Sicherheitsstandards entsprechen.

Der Pinatubo beeinflußt das Weltklima kaum

Fast zeitgleich mit der Einsetzung einer Enquetekommission Klima durch Bundestagspräsidentin Rita Süssmuth hat Forschungsminister Heinz Riesenhuber gestern in Bonn zu den möglichen Auswirkungen von Vulkanausbrüchen auf das Klima Stellung genommen. Der Minister wollte dabei nicht prinzipiell ausschließen, daß die Ausbrüche des Vulkans Pinatubo auf den Philippinen das Weltklima beeinflussen könnten. Dies sei allerdings nur dann möglich, falls es zu weiteren heftigen Eruptionen komme und ausgeschleudertes Material bis in die Stratosphäre gelange.

Vulkanausbrüche haben in der Vergangenheit bereits wiederholt zu relativ kurzfristigen Abkühlungen der Lufttemperatur geführt, weil die Massen an Partikeln, die in die Atmosphäre geschleudert werden, die Sonneneinstrahlung vermindern. „Das Gewicht des Treibhauseffektes ist aber sehr viel größer als die Katastrophe des Pinatubo-Ausbruchs“ betonte der Minister. Man dürfe nicht denken, daß der Ausbruch zu einer weltweiten Abkühlung führen würde und dadurch der Treibhauseffekt nicht mehr so ernst zu nehmen sei.

Erste Schätzungen deutscher Klimaforscher gehen davon aus, daß es in der Region mittelfristig zu einer Abkühlung von drei bis vier Grad im Sommer kommen wird. Gefahr besteht demnach nicht für das Weltklima, sehr wohl aber für die Gesundheit der Anwohner. „Dramatisch ist, was an Schadstoffen in die erdnahe Atmosphäre gelangt. Das kann für Menschen, Tiere und auch die Pflanzenwelt außerordentlich schlimme Folgen haben“, sagte der Minister.

Bisher sei eine Abschätzung der freigesetzten Schadstoffmengen noch nicht möglich. Der Vergleich mit früheren Vulkanausbrüchen lege allerdings nahe, daß die Auswirkungen auf die weltweite Durchschnittstemperatur in der Größenordnung von wenigen Zehntel Grad liegen wird und somit im Bereich der natürlichen Klimaschwankungen. Der Effekt wird sich nach Meinung Riesenhubers nur über drei bis vier Jahre hinweg bemerkbar machen.

Der Minister bekräftigte daher die Bonner Haltung, daß auf der Weltklimakonferenz 1992 in Brasilien eine Klimakonvention mit konkreten Schritten zur CO2- Verringerung abgeschlossen werden müsse.

(erscheinen in „DIE WELT“ am 28. Juni 1991)

Rekordflieger soll Atmosphäre erforschen

Ein Rekordflugzeug besonderer Art wird derzeit in Bayern konzipiert. Wie Forschungsminister Heinz Riesenhuber gestern in Bonn bekanntgab, könnte das Flugzeug mit dem Namen Strato 2C einen wertvollen Beitrag zur Überwachung der Ozonschicht leisten und für einen relativ geringen Preis auch Teilaufgaben von Satelliten übernehmen. Die Strato 2C könne eine Flughöhe von 25 Kilometern erreichen und damit selbst den bisherigen Rekordhalter, das amerikanische Spionageflugzeug U2, übertreffen. Die deutsche Variante eines hochfliegenden Überwachungsflugzeuges würde allerdings nicht militärischen Zwecken dienen, sondern mit wissenschaftlichen Instrumenten zur Überwachung der Atmosphäre beladen sein.

Derzeit befindet sich das Projekt der Firma Grob allerdings erst im Evaluierungsstadium. Im Rahmen der Studie „Flugzeuge für die ökologische Forschung“ wird momentan der eventuelle Bedarf an zusätzlicher Flugzeugkapazität ermittelt. Bereits jetzt aber kristallisiere sich der Bedarf an einem hoch fliegenden Stratosphärenflugzeug heraus, betonte Riesenhuber. Die Ergebnisse der Studie sollen im Juli vorgestellt werden.

Die wenigen technischen Details, die vorab bekanntgegeben wurden, lassen darauf schließen, daß die Strato 2C – sollte sie jemals gebaut werden – neue Impulse für die Entwicklung von Hochleistungsflugzeugen geben wird. Durch den Einsatz von Verbundfaserwerkstoffen werden extreme Gewichtseinsparungen möglich, die einen äußerst geringen Treibstoffverbrauch und entsprechend große Reichweiten zur Folge haben werden. Der Antrieb soll durch Propellerkraft erfolgen, was bei der geringen Luftdichte in 25 Kilometer Höhe für die Ingenieure eine besondere Herausforderung darstellen wird.

Die Kosten für die erste Maschine belaufen sich nach „ersten und vorläufigen Schätzungen“ auf rund 60 Millionen Mark. Dies ist nur ein Zehntel dessen, was derzeit für einen Überwachungssatelliten veranschlagt werden muß, sagte der Minister, der auch eine Beteiligung des Umwelt- und Verkehrsministeriums an dem Projekt für möglich hält. Noch aber seien die Gespräche mit den beteiligten Wissenschaftlern nicht abgeschlossen; eine abschließende Bewertung daher noch nicht möglich.

(erschienen in „DIE WELT“ am 28. Juni 1991)

Was wurde daraus? Der Flieger hat tatsächlich abgehoben, war aber nur vom März bis August 1995 unterwegs, wie ich der Wikipedia entnehme. Auch sonst waren die Erwartungen ´mal wieder größer als die tatsächlichen Leistungen. Als maximale Flughöhe wurden „nur“ 18.561 Meter erreicht – die U2 flog mit 21.000 deutlich höher. Höher als gedacht waren dagegen die Kosten: Einen genauen Betrag konnte ich nicht ermitteln, jedoch stiegen sie laut Wikipedia rapide, „weswegen die Bundesregierung schließlich aus der Finanzierung ausstieg und Grob das Projekt auf Eis legte.“ Wissenschaftliche Ergebnisse der Flüge habe ich vergeblich gesucht…

Kampf gegen Heuschrecken und Rüsselkäfer

Ein „Institut für Kartoffelkäferforschung und -bekämpfung“ wird heute in Deutschland nicht mehr gebraucht. Dennoch gab es eine solche Einrichtung bis kurz nach dem Zweiten Weltkrieg in Darmstadt. Auch heute noch wird in der Biologischen Bundesanstalt für Land- und Forstwirtschaft an der Schädlingsbekämpfung gearbeitet, allerdings will man jetzt der afrikanischen Heuschreckenplage zu Leibe rücken.

Besonders schwer wurde Afrika in den Jahren 1985 bis 1988 davon heimgesucht. Damals versuchte man noch, die Insekten mittels synthetischer Chemikalien zu bekämpfen. „Dies gefährdet nicht nur Mensch und Umwelt, sondern macht das Wiederauftreten von Schwärmen wahrscheinlicher, da die natürlichen Feinde wie Vögel oder räuberische Insekten ebenfalls stark dezimiert werden“, meint Dr. Jürg Huber vom Institut für biologischen Pflanzenschutz.

Alternative Methoden der Schädlingsbekämpfung sind daher gefragt und werden auch mit finanzieller Unterstützung des Bundesministeriums für wirtschaftliche Zusammenarbeit gefördert. Seit Mai letzten Jahres werden durch die Biologische Bundesanstalt Pathogene aus erkrankten Heuschrecken und aus den Böden der Brutgebiete isoliert.

Dabei stieß man auf den Pilz Metarhizium anisopliae, der von den Forscher als besonders erfolgversprechend bewertet wird. Der Pilz ist ein alter Bekannter, denn der weltweit verbreitete Organismus wurde bereits 1878 von dem russischen Wissenschaftler Elias Metschnikoff beschrieben.

Die Sporen von Metarhizium bleiben an ihren Opfern hängen, zu denen eine Vielzahl verschiedener Insekten gehört. Der Pilz dringt dann in das Insekt ein und breitet dort seine Wachstumsfäden aus. Zurück bleibt ein toter Insektenkörper und eine Vielzahl neugebildeter Sporen, die über längere Zeit im Boden haltbar sind. Im pazifischen Raum wird der Pilz schon länger eingesetzt, um den Indischen Nashornkäfer kurz zu halten.

Auch in Deutschland soll Metarhizium bald zum Einsatz kommen. Diese Marktnische will die Bayer AG jetzt mit dem Produkt „Bio 2010“ besetzen. Hinter diesem Namen verbirgt sich ein Granulat aus Metarhizium, das in großen Mengen hergestellt und über einen ausreichend langen Zeitraum gelagert werden kann. Besonders gegen den Gefurchten Dickmaulrüssler, einen Käfer, der vor allem in Zierpflanzen beträchtliche Schäden verursacht, zeigte der Pilz eine sehr gute Wirkung.

(erschienen in „DIE WELT“ am 21. Juni 1991)

Was wurde daraus? Heuschreckenplagen gibt es immer noch, die aktuelle (2020) soll in Indien die größte seit 27 Jahren sein. Betroffen sind aber auch Pakistan, sowie in Russland die Kaukasus-Regionen Stawropol und Dagestan sowie Gebiete rund um das Altai-Gebirge im Süden Sibiriens. Im Vorjahr waren große Gebiete Ostafrikas mit rund 10 Millionen Menschen von Hunger bedroht. In keiner dieser Regionen konnten die Heuschrecken mit biologischer Schädlingsbekämpfung aufgehalten werden, stets mussten Pestizide eingesetzt werden , um die Schwärme zu kontrollieren.

Viele Hürden für die Biologische Schädlingskontrolle

Die biologische Schädlingskontrolle, häufig gepriesen als umweltfreundliche Alternative zur industriellen Landwirtschaft, wird auf absehbare Zeit nur einen sehr kleinen Anteil am Weltmarkt erreichen. Dies war die ernüchternde Bilanz eines Symposiums der Firma Bayer, das kürzlich in Monheim bei Leverkusen stattfand.

Obwohl bereits Tausende verschiedener Insekten, Fadenwürmer und Mikroorganismen erprobt wurden, wird weltweit nur jede zweihundertste Mark im Bereich des Pflanzenschutzes auf diese Winzlinge verwandt. Die Vereinigten Staaten und Kanada sind auf diesem Gebiet führend, Deutschland dagegen liegt noch deutlich unter dem weltweiten Durchschnitt.

In diesem Marktsegment, das jährlich immer noch beachtliche 170 Millionen Mark ausmacht, hat ein Bakterium mit dem wissenschaftlichen Namen Bacillus thuringiensis den Löwenanteil erobert. Diese Mikroorganismen, die weltweit verbreitet sind, produzieren bis zu 15 verschiedene Eiweiße, welche auf eine Vielzahl von Schädlingen tödlich wirken. Wenn etwa Schmetterlingsraupen oder Kartoffelkäfer sich über Pflanzen hermachen, die zuvor mit den Bazillen versehen wurden, gerät der Schmaus im Handumdrehen zur Henkersmahlzeit.

Grund sind die beim Verspeisen der „verbotenen Früchte“ mitgefressenen Bazillen. Die erwähnten Eiweiße beginnen sich nämlich im Verdauungstrakt der Schadinsekten aufzulösen und zersetzen dabei die Magenwände der unerwünschten Mitesser. Die Entdeckung der Gene, welche die Produktionsanleitungen für die tödlichen Eiweiße tragen, hat der Gentechnik eine große Spielwiese eröffnet, wie Professor Hans-Michael Poehling vom Institut für Pflanzenpathologie und Pflanzenschutz der Universität Göttingen erläuterte.

Dies eröffnete nämlich die Möglichkeit, die Gene auf ausgewählte Kulturpflanzen zu übertragen und diesen damit einen Schutzschild zu verleihen, auch ohne die nützlichen Bazillen zu bemühen. Diese Variante der biologischen Schädlingsbekämpfung, die sich in vielen unabhängigen Versuchen durchaus bewährt hat, ist allerdings in der Bundesrepublik noch nicht zugelassen; die Freisetzung von gentechnisch veränderten Organismen wird derzeit noch sehr kontrovers diskutiert. Der Einsatz der Bazillen selbst wird nach Poehlings Meinung durch gesetzliche Auflagen erschwert, die auf den Schutz des Trinkwassers abzielen.

„Das gibt dem Ganzen den Anschein, als wäre da etwas nicht in Ordnung.“ Andererseits, so gab Dr. F. Kolb vom Geschäftsbereich Pflanzenschutz der Bayer AG zu bedenken, rechtfertige die nahe Verwandtschaft von Bacillus thuringiensis mit dem Krankheitserreger Bacillus cereus durchaus die strengen Auflagen der Behörden. „Die Vermutung, biologische Agentien seien ,von Natur aus‘ unbedenklich für die Umwelt, ist völlig falsch.“

Trotzdem geben Teilerfolge vor allem beim Einsatz tierischer Nützlinge den Anreiz, die Forschung und Entwicklung weiter voranzutreiben. Im Treibhaus hat sich beispielsweise die Räuberische Gallmücke bewährt, um Blattläuse kurz zu halten. Die wesentlich kleineren Gallmücken bedienen sich dabei einer besonders perfiden Technik. Sie stechen ihren Kontrahenten in die Gelenke, lähmen die Blattläuse mit einem Sekret und saugen ihre Opfer an schließlich aus. Auch Fadenwürmer der Gattungen Heterorhabditis und Steinernema haben sich bei der Bekämpfung von bodenlebenden Schadinsekten bewährt.

Wie mühsam die Entwicklung von biologischen Verfahren zur Schädlingsbekämpfung sein kann, machte Professor Kurt Mendgen von der Universität Konstanz klar. Der Phytopathologe berichtete von den vielen Fehlschlägen bei seinen Feldversuchen gegen Gelbrost und Apfelfäule. Während zu Beginn der Vegetationsperiode die Blattoberflächen der Pflanzen noch sauber und glatt sind, finden sich im Laufe der Zeit immer mehr Bakterien, Pilze und Hefen ein. Nur bei einem geringen Anteil dieser Organismen handelt sich allerdings um Krankheitserreger. Da sich am Ende der Saison aber oft zwischen 100000 und einer Million Mikroben pro Quadratzentimeter Blattoberfläche versammelt haben, tobt ein ständiger Kampf um Lebensraum und Nahrung.

Mendgens Strategie ist es nun, die nützlichen Mikroorganismen, welche natürlicherweise auf der Blattoberfläche vorkommen, bei diesem Kampf ums Überleben zu begünstigen. Dazu werden die Nützlinge gezüchtet und in optimierten Gemischen ausgebracht, teilweise auch durch Nährstoffzusätze gefördert. Beim Gelbrost gelang es Mendgens Arbeitsgruppe, einen Pilz zu isolieren, der den Schädling regelrecht überwächst und ihm damit die Nahrungsgrundlage entzieht. Die Enttäuschung folgte auf dem Fuß, als sich herausstellte, daß der isolierte Nützling zwar bei hoher Luftfeuchtigkeit wuchs, nicht aber unter anderen Bedingungen. „In unserer Verzweiflung haben wir fast nur noch bei Regen gearbeitet und schließlich aufgegeben“, erläuterte der Biologe.

Stattdessen nahm man die Apelfäule in Angriff, die von einem weiteren Pilz, Botrytis cinarea, hervorgerufen wird. Über 800 verschiedene Bakterienarten wurden in einen Wachstumswettlauf mit dem Schädling geschickt, doch nur wenige waren erfolgreich. Hauptproblem bei dieser Versuchsreihe war die Tatsache, daß die meisten Nützlinge im Lagerhaus bei vier Grad Celsius dem Schadpilz nicht mehr Paroli bieten konnten.

Nur wenige Bakterienarten aus der Gattung Bacillus konnten diesen Härtetest bestehen. Ob diese sich auch in der Praxis bewähren, soll erstmals im kommenden Herbst in den Lagerhäusern der Produktionsgemeinschaft Bodensee erprobt werden. Die ernüchternde Bilanz des Botanikers nach jahrelangen Versuchen: „Biologische Systeme zur Schädlingsbekämpfung werden nie einen großen Markt haben, weil sie immer sehr genau auf die jeweilige Anwendung zugeschnitten werden müssen.“

In dieselbe Kerbe schlägt Dr. Mike Greaves von der Longs Ashton Research Station im englischen Bristol. Was den Pflanzenschutz durch Pilze und deren Stoffwechselprodukte angehe, so der Experte, hätten gerade in den USA viele Produkte die Erwartungen nicht erfüllt, die durch eine breitangelegte Berichterstattung in den Medien geweckt worden wären. Unter den über hundert Forschungsprojekten, von denen er Kenntnis habe, so Greaves, hätten allenfalls zehn eine reelle Chance, in absehbarer Zukunft auf dem Markt zu erscheinen.

Ein Faktor, der die Entwicklung biologischer Verfahren begünstigte, wird schon in Kürze entfallen: Die Kosten und die Dauer des Zulassungsverfahrens waren bisher verhältnismäßig niedrig, weil man davon ausging, daß natürlich vorkommende Organismen und deren Stoffwechselprodukte weniger Risiken in sich bergen als Substanzen, die in den Labors der chemischen Industrie synthetisiert werden.

Dabei übersah man geflissentlich, daß gerade Pilze dafür bekannt sind, eine Reihe von Giftstoffen zu produzieren, die auch dem menschlichen Organismus gefährlich werden können. Die amerikanische Umweltbehörde EPA ist momentan dabei, ihre Zulassungskriterien zu verschärfen und die Anzahl der Organismen, die nicht genehmigungsbedürfig sind, weiter zu reduzieren.

Ein weiterer Nachteil biologischer Verfahren besteht darin, daß der Umgang mit lebenden Organismen ein tiefes Verständnis des Wirkungsprinzips voraussetzt. „Die Landwirte sind daran gewöhnt, eine Chemikalie in den Tank zu füllen und diese zu verspritzen. Sie müssen lernen, daß die neuen Methoden mit lebenden Organismen arbeiten“, erklärte Greaves.

So sind viele Organismen anfällig für Temperaturschwankungen. Wenn es beim Versand von Insekteneiern beispielsweise zu Verzögerungen kommt, schlüpfen die Tiere unterwegs, die Larven sind unter Umständen verhungert, bevor sie den Verbraucher erreichen. Für den Landwirt kann dies zu einem Ernteausfall führen, der durchaus existenzbedrohend sein kann – ein weiterer Grund dafür, daß die Experimentierfreudigkeit der Verbraucher enge Grenzen hat.

(erschienen in „DIE WELT“ am 21. Juni 1991)

Supercomputer eröffnen neue Perspektiven

Eine lebhafte Phantasie kann für Wissenschaftler oft von Nutzen sein; etwa wenn es darum geht, sich die Zustände in der Nähe eines Schwarzen Loches vorzustellen, oder die Kollisionen von energiereichen Elementarteilchen nachzuvollziehen. Um die Wirkung eines neuen Arzneistoffes auf den menschlichen Organismus vorherzusagen oder die globalen Folgen grenzüberschreitender Luftverschmutzung abzuschätzen, bedarf es fast schon prophetischer Gaben.

Für die Mehrheit der Wißbegierigen, die mit diesen Eigenschaften nur in geringem Maße gesegnet sind, naht Hilfe in Form von Supercomputern, die widerspruchslos gewaltige Datenmengen in sich hineinfressen und nach oft jahrelanger Arbeit Klarheit schaffen, wo zuvor nur nebulöse Ahnungen im Raum standen.

In den achtziger Jahren hat sich in den Vereinigten Staaten die Zahl derjenigen Wissenschaftler verhundertfacht, welche die Elektronenhirne in ihre Dienste stellen. Konsequenterweise hat das Repräsentantenhaus jetzt über fünf Milliarden Mark bereitgestellt, um diese Entwicklung weiter voranzutreiben. Innerhalb von fünf Jahren soll ein Netzwerk von Hochleistungsrechnern geschaffen werden, das tausendmal leistungsfähiger sein wird als der bereits existierende Verbund.

„In den neunziger Jahren wird eine nationale Informationsinfrastruktur geschaffen werden, welche die Arbeitsweise der Wissenschaftler revolutionieren wird“, sagt Larry Smarr, Direktor des Zentrums für Supercomputerapplikationen an der Universität von Illinois in Chicago. Wichtiger Bestandteil des Netzwerkes werden sogenannte massiv parallele Computer sein, deren Arbeitsgeschwindigkeit gegenüber den modernsten Rechnertypen um das 1000fache anwachsen wird.

Doch schon heute kann man in Chicago auf beachtliche Erfolge verweisen. Bereits im Jahr 1967 hatte Robert Wilhelmson ein mathematisches Modell entwickelt, mit dem sich die Bewegung eines Sturms in drei Dimensionen berechnen ließ – allerdings mit einer Geschwindigkeit und einer Genauigkeit, die eine praktische Anwendungen dieses Modells – etwa für Vorhersagen – völlig ausschloß. Dreizehn Jahre später war der Mathematiker dann so weit, daß Sturmböen und sogar Tornados in die Rechnung miteinbezogen werden konnten, die sich aus dem ursprünglichen Unwetter im Computer entwickelten.

Noch immer lag die Auflösung des Modells allerdings bei einem Kilometer, weitergehende Details wie etwa das Auge eines Tornados konnten nicht erfaßt werden. 1987 schließlich gelang es mit einem Cray X-MP den Sturm in 300000 würfelförmige Einzelteile zu zerlegen. Jeder dieser Würfel wird durch neun finite Differentialgleichungen beschrieben, die das Verhalten von Wasser und Eis in der Atmosphäre sowie die physikalischen Eigenschaften eines komprimierbaren Gases – der Luft – beschreiben.

Im dreidimensionalen Raum wird nun jede dieser Gleichungen für jeden einzelnen der 300000 Würfel errechnet, und zwar einmal alle sechs Sekunden. „Vom Standpunkt eines Mathematikers versuchen wir, die Dinge in dreizehn Dimensionen zu sehen“, erklärt Wilhelmson. Ein kompletter Tornado kann auf der knapp 20 Millionen Mark teuren Anlage in fünf Stunden simuliert werden.

Die filmische Darstellung dieses Ereignisses erlaubt es den Forschern jetzt, Daten über „echte“ Stürme, die von den Wetterwarten geliefert werden, in den Computer einzuspeisen und diejenigen Unwetter zu identifizieren, die eine Gefahr für Leib und Leben der Bevölkerung darstellen. Zusammen mit anderen vorbeugenden Maßnahmen des zivilen Katastrophenschutzes trägt diese Arbeit dazu bei, daß Tornados vergleichbarer Stärke in den Vereinigten Staaten weit geringere Verwüstungen hinterlassen als etwa in Mittelamerika.

Eine der „heißesten“ Anwendungen für Großrechner liegt sicherlich im Bereich der Klimavorhersagen. Je mehr Daten in Betracht gezogen werden können, umso verläßlicher werden auch die Prognosen. Erst kürzlieh präsentierten Wissenschaftler des Hamburger Max-Planck-Institutes für Meteorologie erheblich verbesserte Klimarechnungen, die genauer als bisher den Verlauf der globalen Erwärmung vorhersagen. Die Rolle der Ozeane, die immerhin zwei Drittel des Planeten bedecken und der Meeresströmungen, die als gewaltige Pumpen für das Treibhausgas Kohlendioxid (C02) fungieren, ist in dem neuen Modell wesentlich besser berücksichtigt. Auch ist es gelungen, den erwarteten allmählichen Anstieg des CO2 in das Modell einzubringen – bisher hatten die Berechnungen der Klimatologen auf einer sprunghaften und daher unrealistischen Verdoppelung der CO2-Konzentration beruht.

Wie zuvor geht man auch heute von einem Anstieg der Temperaturen um etwa drei Grad in den nächsten hundert Jahren aus. Allerdings wird der Anstieg zunächst langsamer erfolgen als bisher erwartet. Deutliche Konsequenzen hat das Hamburger Modell auch für den mutmaßlichen Anstieg des Meeresspiegels: Der soll jetzt nämlich nur noch fünf bis fünfzehn Zentimeter in hundert Jahren betragen; die Hälfte dessen, was der internationale Klimaausschuß IPCC noch im letzten Jahr prognostizierte.

Durch die ständig ansteigenden Rechenleistungen wird die Computersimulation aber auch für Forschungsgebiete interessant, die bisher mit Elektronenhirnen wenig anzufangen wußten. David Onstad etwa benutzt die Anlage in Chicago, um den Lebenszyklus des Maisbohrers zu verfolgen, ein Käfer, der für die Maisfelder im Herzen Amerikas eine ständige Gefahr darstellt. „Ich kann jetzt nachvollziehen, wie die Insekten sich ausbreiten und ihrerseits mit dem Einzeller Nosema pyrausta um ihr Leben kämpfen.“

Auch für die Firma Kodak hat sich die Beteiligung am Supercomputerzentrum in Illinois bereits bezahlt gemacht. Forschungsdirektor Lawrence Ray, der zur technischen Entwicklung mehr und mehr Großrechner einsetzt, schaut optimistisch in die Zukunft: „Wenn es jetzt noch gelingt, die Rechenkraft dieser Maschinen für den Endverbraucher zugänglich zu machen, wird sich die Produktivität der Wissenschaftler ins Unermeßliche steigern.“

(erschienen in „DIE WELT“ am 15. Juni 1991)

Neuer Impfstoff stoppt Ausbruch von AIDS

Mit einem gentechnisch hergestellten Impfstoff ist es offenbar möglich, das Fortschreiten der Aids-Erkrankung zum tödlichen Endstadium aufzuhalten. Dies meldet das „New England Journal of Medicine“ in seiner heute erscheinenden Ausgabe. Ärzte des amerikanischen Militärkrankenhauses Walter Reed in Washington bestätigten, daß in den letzten 18 Monaten ein Impfstoff getestet worden sei, der bei HIV-infizierten Personen den Ausbruch der Krankheit verhindert habe.

Der Impfstoff (rpg160) basiert auf einem Eiweiß, das in der Zellhülle des Immundefizienzvirus HIV steckt und für den Eintritt in die Wirtszelle gebraucht wird. 30 freiwillige Patienten, die bereits mit dem Virus infiziert waren, hatten über acht Monate hinweg mehrere Injektionen mit rpg160 erhalten. Als besonders wirksam erwies sich die Behandlung bei 15 Patienten, die jeweils acht Injektionen erhalten hatten.

US-Militärkrankenhaus: Vielversprechende Resultate

„Das ist ein sehr vielversprechendes Resultat, weil wir dadurch lernen, wie das menschliche Immunsystem das Virus unter Kontrolle halten kann“, sagte Dr. Robert Redfield, unter dessen Leitung die Versuche durchgeführt wurden.

In einigen Patienten war die Anzahl der T-Helferzellen, die normalerweise im Verlauf der Infektion durch die Viren zerstört werden, über zwei Jahre hinweg konstant geblieben. „Die Methode ist nicht nur sicher, sie scheint auch die T-Zellen zumindest kurzfristig zu stabilisieren“, erklärte Redfield gegenüber der Presse.

Bisher steht zur Behandlung der Immunschwäche, die in den USA bereits über 100000 Opfer forderte, lediglich die Substanz AZT zur Verfügung, die den Verlauf der Krankheit vorübergehend verlangsamen kann. Die Entdeckung durch das eher kleine Walter Reed Hospital kommt einer Sensation gleich, weil dessen Forschungsprogramm „nur“ einen Umfang von etwa 70 Millionen Mark hat. Die staatliche Gesundheitsbehörde NIH dagegen gibt jährlich mehr als das zwanzigfache für die Erforschung der Krankheit aus.

Die Ärzte am Army Hospital blicken optimistisch in die Zukunft, verweisen jedoch darauf, daß eine Vorbeugung mit dem neuen Impfstoff nicht möglich sei. Der Direktor der Forschungsabteilung, Dr. Edmund Tramont, kündigte als nächsten Schritt Massenimpfungen an mehreren tausend Freiwilligen in den gesamten USA an, um sicherzugehen, daß rpg160 wirklich der erhoffte Durchbruch auf dem Gebiet der Aids-Forschung ist.

(erschienen in „DIE WELT“ auf Seite 1 am 13. Juni 1991)

Was wurde daraus? In der Fachwelt haben die Ergebnisse dieser Studie damals großes Aufsehen erregt; sie wurde mehr als 150 Mal zitiert. Leider hat sich die Hoffnung auf einen Impfstoff gegen HIV aber bis heute nicht bewahrheitet. Dabei bin ich keiner Fälschung aufgesessen und glaubte auch aus heutiger Sicht, dass es kein Fehler war, diese Meldung zu bringen. Sie ist aber einer von sehr vielen Belegen, dass man in der Medizin nicht zu früh jubeln sollte, und eine Erinnerung daran, dass Studien der Phase 1 in aller Regel zu wenige Patienten haben und oft auch nicht lange genug dauern, um daraus zuverlässige Schlüsse über die Wirksamkeit einer neuen Therapie abzuleiten.

Krebsgefahr durch Halogenlampen?

Die elegant gestylten Halogenlampen, gestern noch begehrtes Objekt zeitgenössischer Wohnkultur, sind ins Zwielicht geraten. Handfeste Hinweise darauf, daß zumindest ein Teil der vielgepriesenen Lichtspender eine Gefährdung der menschlichen Gesundheit darstellen, haben bereits zur Rücknahme der ersten Typen aus den Verkaufsräumen der Einrichtungshäuser geführt. Unter bestimmten Umständen, so lautet der Verdacht, könnten die Strahler Hautkrebs verursachen.

Wie Professor Erwin Schöpf, Direktor der Universitäts-Hautklinik Freiburg, gegenüber der WELT erklärte, strahlen Halogenlampen nicht nur das gewünschte sichtbare Licht ab, sondern auch einen – unerwünschten – Anteil an kurzweiligem UV-B-Licht. „Dieses Licht ist, wie wir wissen, krebserregend. Auch kleine Mengen UV-B-Licht summieren sich. Die Haut, welche durch Sonneneinstrahlung ohnehin schon stark belastet wird, vergißt diese Einstrahlung niemals.“

Im Unterschied zu normalen Glühbirnen sind Halogenlampen mit Gasen gefüllt, welche die Lichtausbeute deutlich erhöhen. Die kompakte Form gab den Designern neue Impulse; der Markt für die eleganten Strahler wuchs daher in fünf Jahren um über 600 Prozent. Allerdings werden die kleinen Lämpchen beim Betrieb extrem heiß: Um Temperaturen bis zu 250 Grad standhalten zu können, muß Quarzglas verwendet werden, das dann die unerwünschte UV-Strahlung freisetzt.

Professor Schöpf warnt vor übertriebenen Reaktionen: „Die Mengen, die emittiert werden, sind relativ gering. Grundsätzlich sollte man den Lampenherstellern aber nahelegen, Filter einzubauen, um das UV-B-Licht zurückzuhalten.“ Das größte Einrichtungshaus Ikea erklärte auf Anfrage, daß man das Sortiment aufgrund der Hinweise durchforstet habe. Bedenkliche Typen seien dann durch den Einbau von Lichtfiltern „entschärft“ worden. Dort wo dies aus technischen Gründen nicht möglich war, habe man sich entschlossen, die entsprechenden Fabrikate aus dem Angebot zu nehmen. Insgesamt 23 verschiedene Strahler waren im Stockholmer Institut für Strahlenhygiene auf ihren Anteil an UV-Strahlen untersucht worden.

Mittlerweile wurden auch in Deutschland erste Untersuchungen angestellt. Dr. Manfred Steinmetz von der Bundesanstalt für Strahlenschutz in Neuherberg bei München verweist darauf, daß hierzulande noch keine Richtlinien für die zulässige Strahlenbelastung durch Halogenlampen existieren. Der Fachreferent für nichtionisierende Strahlen hat eine ganze Reihe von Geräten verschiedener Hersteller getestet.

Als problematisch erwies sich dabei ein bestimmter Typ von Halogenleuchten, nämlich „nackte“ Schreibtischlampen die zwischen 20 und 50 Watt an Energie verstrahlen und keine Glasabdeckung besitzen. „Zwei Drittel der getesteten Strahler überschreiten den von der Weltgesundheitsorganisation (WHO) empfohlenen Richtwert.“

Dieser Richtwert bezieht sich auf eine langfristige Belastung der besonders empfindlichen Organe Haut und Auge. Sie werden durch die harte, kurzweilige Strahlung im UV-B-Bereich besonders belastet. „Wenn ein Käufer Halogenlampen erwirbt, dann will er diese nicht als UV-Strahler benutzen“, kritisiert Steinmetz.

Besonders problematisch sei diese Strahlung für lichtempfindliche (photosensibilisierte) Personen. Für längere Arbeiten am Schreibtisch seien diese Lampen ungeeignet, es sei denn man würde schützende Filter vorschalten. Auch beim Einsatz als Leselampe empfiehlt das Bundesamt Strahlenschutz einen „Sicherheitsabstand“ von einem Meter.

Ein Normierungsausschuß der Industrie, die AG Lumex, hat sich zwischen darauf geeinigt, den Einbau von Abdeckungen zwingend vor schreiben, um die Funktion der fraglichen Fabrikate wieder auf die Beleuchtung einzuschränken. „Zu allgemeiner Panik gibt es keinen Anlaß betont Steinmetz, „dennoch empfehlen wir entsprechende Warnhinweise auf Halogenlampen.“ Unbedenklich sind übrigens nach Meinung der Experten Halogenlampen im Straßenverkehr, als Deckenstrahler oder als Effektlampen, beispielsweise in Vitrinen.

(erschienen in „DIE WELT“ am 7. Juni 1991, und in französischer Übersetzung am 30. Juni 1991 in „La Tribune d´Allemagne)