Zum Hauptinhalt springen

Supercomputer eröffnen neue Perspektiven

Eine lebhafte Phantasie kann für Wissenschaftler oft von Nutzen sein; etwa wenn es darum geht, sich die Zustände in der Nähe eines Schwarzen Loches vorzustellen, oder die Kollisionen von energiereichen Elementarteilchen nachzuvollziehen. Um die Wirkung eines neuen Arzneistoffes auf den menschlichen Organismus vorherzusagen oder die globalen Folgen grenzüberschreitender Luftverschmutzung abzuschätzen, bedarf es fast schon prophetischer Gaben.

Für die Mehrheit der Wißbegierigen, die mit diesen Eigenschaften nur in geringem Maße gesegnet sind, naht Hilfe in Form von Supercomputern, die widerspruchslos gewaltige Datenmengen in sich hineinfressen und nach oft jahrelanger Arbeit Klarheit schaffen, wo zuvor nur nebulöse Ahnungen im Raum standen.

In den achtziger Jahren hat sich in den Vereinigten Staaten die Zahl derjenigen Wissenschaftler verhundertfacht, welche die Elektronenhirne in ihre Dienste stellen. Konsequenterweise hat das Repräsentantenhaus jetzt über fünf Milliarden Mark bereitgestellt, um diese Entwicklung weiter voranzutreiben. Innerhalb von fünf Jahren soll ein Netzwerk von Hochleistungsrechnern geschaffen werden, das tausendmal leistungsfähiger sein wird als der bereits existierende Verbund.

„In den neunziger Jahren wird eine nationale Informationsinfrastruktur geschaffen werden, welche die Arbeitsweise der Wissenschaftler revolutionieren wird“, sagt Larry Smarr, Direktor des Zentrums für Supercomputerapplikationen an der Universität von Illinois in Chicago. Wichtiger Bestandteil des Netzwerkes werden sogenannte massiv parallele Computer sein, deren Arbeitsgeschwindigkeit gegenüber den modernsten Rechnertypen um das 1000fache anwachsen wird.

Doch schon heute kann man in Chicago auf beachtliche Erfolge verweisen. Bereits im Jahr 1967 hatte Robert Wilhelmson ein mathematisches Modell entwickelt, mit dem sich die Bewegung eines Sturms in drei Dimensionen berechnen ließ – allerdings mit einer Geschwindigkeit und einer Genauigkeit, die eine praktische Anwendungen dieses Modells – etwa für Vorhersagen – völlig ausschloß. Dreizehn Jahre später war der Mathematiker dann so weit, daß Sturmböen und sogar Tornados in die Rechnung miteinbezogen werden konnten, die sich aus dem ursprünglichen Unwetter im Computer entwickelten.

Noch immer lag die Auflösung des Modells allerdings bei einem Kilometer, weitergehende Details wie etwa das Auge eines Tornados konnten nicht erfaßt werden. 1987 schließlich gelang es mit einem Cray X-MP den Sturm in 300000 würfelförmige Einzelteile zu zerlegen. Jeder dieser Würfel wird durch neun finite Differentialgleichungen beschrieben, die das Verhalten von Wasser und Eis in der Atmosphäre sowie die physikalischen Eigenschaften eines komprimierbaren Gases – der Luft – beschreiben.

Im dreidimensionalen Raum wird nun jede dieser Gleichungen für jeden einzelnen der 300000 Würfel errechnet, und zwar einmal alle sechs Sekunden. „Vom Standpunkt eines Mathematikers versuchen wir, die Dinge in dreizehn Dimensionen zu sehen“, erklärt Wilhelmson. Ein kompletter Tornado kann auf der knapp 20 Millionen Mark teuren Anlage in fünf Stunden simuliert werden.

Die filmische Darstellung dieses Ereignisses erlaubt es den Forschern jetzt, Daten über „echte“ Stürme, die von den Wetterwarten geliefert werden, in den Computer einzuspeisen und diejenigen Unwetter zu identifizieren, die eine Gefahr für Leib und Leben der Bevölkerung darstellen. Zusammen mit anderen vorbeugenden Maßnahmen des zivilen Katastrophenschutzes trägt diese Arbeit dazu bei, daß Tornados vergleichbarer Stärke in den Vereinigten Staaten weit geringere Verwüstungen hinterlassen als etwa in Mittelamerika.

Eine der „heißesten“ Anwendungen für Großrechner liegt sicherlich im Bereich der Klimavorhersagen. Je mehr Daten in Betracht gezogen werden können, umso verläßlicher werden auch die Prognosen. Erst kürzlieh präsentierten Wissenschaftler des Hamburger Max-Planck-Institutes für Meteorologie erheblich verbesserte Klimarechnungen, die genauer als bisher den Verlauf der globalen Erwärmung vorhersagen. Die Rolle der Ozeane, die immerhin zwei Drittel des Planeten bedecken und der Meeresströmungen, die als gewaltige Pumpen für das Treibhausgas Kohlendioxid (C02) fungieren, ist in dem neuen Modell wesentlich besser berücksichtigt. Auch ist es gelungen, den erwarteten allmählichen Anstieg des CO2 in das Modell einzubringen – bisher hatten die Berechnungen der Klimatologen auf einer sprunghaften und daher unrealistischen Verdoppelung der CO2-Konzentration beruht.

Wie zuvor geht man auch heute von einem Anstieg der Temperaturen um etwa drei Grad in den nächsten hundert Jahren aus. Allerdings wird der Anstieg zunächst langsamer erfolgen als bisher erwartet. Deutliche Konsequenzen hat das Hamburger Modell auch für den mutmaßlichen Anstieg des Meeresspiegels: Der soll jetzt nämlich nur noch fünf bis fünfzehn Zentimeter in hundert Jahren betragen; die Hälfte dessen, was der internationale Klimaausschuß IPCC noch im letzten Jahr prognostizierte.

Durch die ständig ansteigenden Rechenleistungen wird die Computersimulation aber auch für Forschungsgebiete interessant, die bisher mit Elektronenhirnen wenig anzufangen wußten. David Onstad etwa benutzt die Anlage in Chicago, um den Lebenszyklus des Maisbohrers zu verfolgen, ein Käfer, der für die Maisfelder im Herzen Amerikas eine ständige Gefahr darstellt. „Ich kann jetzt nachvollziehen, wie die Insekten sich ausbreiten und ihrerseits mit dem Einzeller Nosema pyrausta um ihr Leben kämpfen.“

Auch für die Firma Kodak hat sich die Beteiligung am Supercomputerzentrum in Illinois bereits bezahlt gemacht. Forschungsdirektor Lawrence Ray, der zur technischen Entwicklung mehr und mehr Großrechner einsetzt, schaut optimistisch in die Zukunft: „Wenn es jetzt noch gelingt, die Rechenkraft dieser Maschinen für den Endverbraucher zugänglich zu machen, wird sich die Produktivität der Wissenschaftler ins Unermeßliche steigern.“

(erschienen in „DIE WELT“ am 15. Juni 1991)

Schnellster Computer

Schon in diesem Monat soll der Welt schnellster Supercomputer seine Arbeit aufnehmen. Touchstone Delta heißt das Elektronengehirn, welches von der Firma Intel gebaut wird. Während gewöhnliche Supercomputer „nur“ ein bis zwei Milliarden Rechenoperationen pro Sekunde ausführen können, werden mit der neuen Maschine Durchschnittswerte von 5 bis 10 Milliarden Operationen pro Sekunde möglich sein. Als Spitzenwert streben die geistigen Väter des Rechners sogar 32 Milliarden Rechenschritte pro Sekunde an. Wissenschaftler aus 14 Institutionen haben sich bei der Konstruktion zusammengetan und ein Konsortium unter Leitung des California Institute of Technology gegründet. Touchstone Delta ist als paralleler Rechner konzipiert und bezieht seine Leistung aus 528 Prozessoren, die mittels spezieller Mikrochips aufeinander abgestimmt werden. Die beteiligten Forscher erhoffen sich von der gewaltigen Rechenkraft unter anderem bessere Modelle für die Vorhersage globaler Klimaänderungen. Auch kann die gewaltige Datenflut der Satelliten Magellan und Galileo mit dem blitzschnellen Elektronenhirn besser ausgewertet werden. (Aus „Science“, Band 250, S. 1203).

(erschienen in „Die WELT“, 5.1.1991)

Was ist daraus geworden? Die Rechenleistung von Computern zu vergleichen ist gar nicht so einfach. Nach einiger Sucherei habe ich jedoch herausgefunden, dass die 30 Gigaflops des obigen „Superrechners“ von meinem PC heute locker übertroffen werden, und dass eine ordentliche Grafikkarte für Gamer ´mal locker das 20-fache erreicht, wie man bei Heise freundlicherweise vorgerechnet hat.