Zum Hauptinhalt springen

Supercomputer eröffnen neue Perspektiven

Eine lebhafte Phantasie kann für Wissenschaftler oft von Nutzen sein; etwa wenn es darum geht, sich die Zustände in der Nähe eines Schwarzen Loches vorzustellen, oder die Kollisionen von energiereichen Elementarteilchen nachzuvollziehen. Um die Wirkung eines neuen Arzneistoffes auf den menschlichen Organismus vorherzusagen oder die globalen Folgen grenzüberschreitender Luftverschmutzung abzuschätzen, bedarf es fast schon prophetischer Gaben.

Für die Mehrheit der Wißbegierigen, die mit diesen Eigenschaften nur in geringem Maße gesegnet sind, naht Hilfe in Form von Supercomputern, die widerspruchslos gewaltige Datenmengen in sich hineinfressen und nach oft jahrelanger Arbeit Klarheit schaffen, wo zuvor nur nebulöse Ahnungen im Raum standen.

In den achtziger Jahren hat sich in den Vereinigten Staaten die Zahl derjenigen Wissenschaftler verhundertfacht, welche die Elektronenhirne in ihre Dienste stellen. Konsequenterweise hat das Repräsentantenhaus jetzt über fünf Milliarden Mark bereitgestellt, um diese Entwicklung weiter voranzutreiben. Innerhalb von fünf Jahren soll ein Netzwerk von Hochleistungsrechnern geschaffen werden, das tausendmal leistungsfähiger sein wird als der bereits existierende Verbund.

„In den neunziger Jahren wird eine nationale Informationsinfrastruktur geschaffen werden, welche die Arbeitsweise der Wissenschaftler revolutionieren wird“, sagt Larry Smarr, Direktor des Zentrums für Supercomputerapplikationen an der Universität von Illinois in Chicago. Wichtiger Bestandteil des Netzwerkes werden sogenannte massiv parallele Computer sein, deren Arbeitsgeschwindigkeit gegenüber den modernsten Rechnertypen um das 1000fache anwachsen wird.

Doch schon heute kann man in Chicago auf beachtliche Erfolge verweisen. Bereits im Jahr 1967 hatte Robert Wilhelmson ein mathematisches Modell entwickelt, mit dem sich die Bewegung eines Sturms in drei Dimensionen berechnen ließ – allerdings mit einer Geschwindigkeit und einer Genauigkeit, die eine praktische Anwendungen dieses Modells – etwa für Vorhersagen – völlig ausschloß. Dreizehn Jahre später war der Mathematiker dann so weit, daß Sturmböen und sogar Tornados in die Rechnung miteinbezogen werden konnten, die sich aus dem ursprünglichen Unwetter im Computer entwickelten.

Noch immer lag die Auflösung des Modells allerdings bei einem Kilometer, weitergehende Details wie etwa das Auge eines Tornados konnten nicht erfaßt werden. 1987 schließlich gelang es mit einem Cray X-MP den Sturm in 300000 würfelförmige Einzelteile zu zerlegen. Jeder dieser Würfel wird durch neun finite Differentialgleichungen beschrieben, die das Verhalten von Wasser und Eis in der Atmosphäre sowie die physikalischen Eigenschaften eines komprimierbaren Gases – der Luft – beschreiben.

Im dreidimensionalen Raum wird nun jede dieser Gleichungen für jeden einzelnen der 300000 Würfel errechnet, und zwar einmal alle sechs Sekunden. „Vom Standpunkt eines Mathematikers versuchen wir, die Dinge in dreizehn Dimensionen zu sehen“, erklärt Wilhelmson. Ein kompletter Tornado kann auf der knapp 20 Millionen Mark teuren Anlage in fünf Stunden simuliert werden.

Die filmische Darstellung dieses Ereignisses erlaubt es den Forschern jetzt, Daten über „echte“ Stürme, die von den Wetterwarten geliefert werden, in den Computer einzuspeisen und diejenigen Unwetter zu identifizieren, die eine Gefahr für Leib und Leben der Bevölkerung darstellen. Zusammen mit anderen vorbeugenden Maßnahmen des zivilen Katastrophenschutzes trägt diese Arbeit dazu bei, daß Tornados vergleichbarer Stärke in den Vereinigten Staaten weit geringere Verwüstungen hinterlassen als etwa in Mittelamerika.

Eine der „heißesten“ Anwendungen für Großrechner liegt sicherlich im Bereich der Klimavorhersagen. Je mehr Daten in Betracht gezogen werden können, umso verläßlicher werden auch die Prognosen. Erst kürzlieh präsentierten Wissenschaftler des Hamburger Max-Planck-Institutes für Meteorologie erheblich verbesserte Klimarechnungen, die genauer als bisher den Verlauf der globalen Erwärmung vorhersagen. Die Rolle der Ozeane, die immerhin zwei Drittel des Planeten bedecken und der Meeresströmungen, die als gewaltige Pumpen für das Treibhausgas Kohlendioxid (C02) fungieren, ist in dem neuen Modell wesentlich besser berücksichtigt. Auch ist es gelungen, den erwarteten allmählichen Anstieg des CO2 in das Modell einzubringen – bisher hatten die Berechnungen der Klimatologen auf einer sprunghaften und daher unrealistischen Verdoppelung der CO2-Konzentration beruht.

Wie zuvor geht man auch heute von einem Anstieg der Temperaturen um etwa drei Grad in den nächsten hundert Jahren aus. Allerdings wird der Anstieg zunächst langsamer erfolgen als bisher erwartet. Deutliche Konsequenzen hat das Hamburger Modell auch für den mutmaßlichen Anstieg des Meeresspiegels: Der soll jetzt nämlich nur noch fünf bis fünfzehn Zentimeter in hundert Jahren betragen; die Hälfte dessen, was der internationale Klimaausschuß IPCC noch im letzten Jahr prognostizierte.

Durch die ständig ansteigenden Rechenleistungen wird die Computersimulation aber auch für Forschungsgebiete interessant, die bisher mit Elektronenhirnen wenig anzufangen wußten. David Onstad etwa benutzt die Anlage in Chicago, um den Lebenszyklus des Maisbohrers zu verfolgen, ein Käfer, der für die Maisfelder im Herzen Amerikas eine ständige Gefahr darstellt. „Ich kann jetzt nachvollziehen, wie die Insekten sich ausbreiten und ihrerseits mit dem Einzeller Nosema pyrausta um ihr Leben kämpfen.“

Auch für die Firma Kodak hat sich die Beteiligung am Supercomputerzentrum in Illinois bereits bezahlt gemacht. Forschungsdirektor Lawrence Ray, der zur technischen Entwicklung mehr und mehr Großrechner einsetzt, schaut optimistisch in die Zukunft: „Wenn es jetzt noch gelingt, die Rechenkraft dieser Maschinen für den Endverbraucher zugänglich zu machen, wird sich die Produktivität der Wissenschaftler ins Unermeßliche steigern.“

(erschienen in „DIE WELT“ am 15. Juni 1991)

Verbrennung ohne Schadstoffe?

Wenn Professor Jürgen Warnatz, Direktor des Institutes für technische Verbrennung an der Universität Stuttgart, seine Arbeit beschreibt, hört sich das so an: „Flammen sind äußerst komplizierte dreidimensionale, zeitabhängige, physikalisch-chemische Systeme, in denen sich ständig unterschiedlichste Reaktionen überlagern.“ Kein Wunder also, daß Warnatz zur Untersuchung von Verbrennungsvorgängen auf die Hilfe eines Supercomputers angewiesen ist. Wenn dieser beispielsweise die Verbrennung des einfachen Moleküls Methan (CH4) simuliert, werden vierhundert verschiedene Reaktionen und vierzig Zwischenprodukte erfaßt.

Damit bietet das Elektronenhirn erhebliche Vorteile gegenüber der klassischen Chemie, in der meist nur Anfangs- und Endprodukt berücksichtigt werden können. In der Computersimulation können Brennstoffgemisch, Druck und Temperatur unabhängig voneinander variiert und berechnet werden; zeitraubende Versuche werden überflüssig. Die praktischen Konsequenzen dieser Forschung liegen auf der Hand: Die optimalen Verbrennungsbedingungen für Gas, Öl und Kohle lassen sich erstmals berechnen, schädliche Nebenprodukte können vermindert werden.

„Wir sind auf dem Weg zu einer Energiegewinnung mit hohem Wirkungsgrad bei gleichzeitig geringer Schadstoffemission“, sagt Warnatz. Dieses Ziel wurde in der Kraftwerkstechnik bisher verfehlt; es galt als unmöglich, beide Vorteile zu vereinen. Denn um eine hohe Energieausbeute zu erzielen, müssen Verbrennungen bei hoher Temperatur erfolgen, wodurch der Anteil an unverbrannten Kohlenwasserstoffen und Stickoxiden ansteigt.

Die Einsatzmöglichkeiten der Computersimulation sind damit aber noch nicht erschöpft: In Automotoren, Heizungsanlagen, Flugzeugturbinen, ja sogar bei der umstrittenen Müllverbrennung könnten die freigesetzten Schadstoffe reduziert werden, wenn es den Forschern gelänge, Druck, Temperatur und Brennstoffgemisch optimal aufeinander abzustimmen. Dies wäre ökologisch und wirtschaftlich sinnvoller, als die entstehenden Abgase mit immer besseren und aufwendigeren Filtern zu reinigen.

(erschienen in „DIE WELT“ am 5. April 1991)