Zum Hauptinhalt springen

Mit Computeraugen durchs Gehirn

Die Computertomografie als bildgebendes Verfahren ist heute aus der Medizin kaum wegzudenken. 1989, als ich erstmals darüber berichtet habe, war ich noch Praktikant für „DIE WELT“ – und habe mächtig gestaunt…

Diagnose und Operationen von Krebserkrankungen sollen mit einem neuen Computerverfahren verbessert werden, das am Deutschen Krebsforschungszentrum (DKFZ) in Heidelberg entwickelt wurde. Dreidimensionale Abbildungen- erzeugt von einem schnellen Elektronenrechner – werden es dem behandelnden Arzt erlauben, Größe und Lage von Tumoren im Gehirn besser einzuschätzen.

Untersuchungsplanung mithilfe einer Aufnahe aus dem Computertomographen (2011)

Untersuchungsplanung mithilfe einer Aufnahe aus dem Computertomographen (2011)

Einer Arbeitsgruppe der Abteilung für Medizinische und Biologische Informatik unter Leitung des Physikers Hans-Peter Meinzer gelang es, diese „Entdeckerreise“ in das Innere der Organe lebender Menschen zu ermöglichen. Hiermit wird es möglich, Organe und deren Inhalt, die sich bisher nur unscharf im Bild abgrenzen lassen, genau darzustellen.

Heutzutage werden Schnittbilder des menschlichen Körpers, die mit Hilfe der Computer- und Kernspintomografie gewonnen werden, noch auf Filmmaterial kopiert und vom Arzt auf einer Leuchtwand analysiert. Vor einer Operation steht der Mediziner dann vor der schwierigen Aufgabe, sich aus einer Fülle von zweidimensionalen Fotos eine räumliche Vorstellung über den Sitz der Geschwulst zu machen. Diese Abschätzung verlangt große Erfahrung.

Bei dem neuen Verfahren hingegen werden die Schnittbilder in eine computerlesbare Form verwandelt (digitalisiert) und im Rechner „aufeinandergestapelt“. Aus den Aufnahmen – bei einer Tomographie des Kopfes sind es beispielsweise 128 Schnittbilder- wird das Organ im Rechenmodell wieder zusammengesetzt und erscheint ganz auf dem Computerbildschirm.

Ein von dem Heidelberger Team erarbeiteter Demonstrationsfilm zeigt einen solchen Kopf, der scheinbar im Raum schwebt und von einem – auch nur im Rechenmodell existierenden -Lichtstrahl angeleuchtet wird. Mit dem „ray-tracing“ genannten Verfahren kann der Lichtstrahl auch tieferliegende Schichten darstellen. So wird ein Tumor innerhalb des Gehirns sichtbar. Die Darstellung ist dabei so wirklichkeitsnah, als sehe sich der Betrachter selbst im Kopf des Patienten um.

Die dreidimensionale Darstellung von Knochenstrukturen ist schon vorher in Hamburg, Berlin und in den USA gelungen. Die Methode beruht auf der „Grauwertanalyse“, bei der verschiedene Helligkeitsstufen der Schnittbilder vom Computer mit Haut oder Knochen gleichgesetzt werden. Hüft- und Kniegelenke, auch gebrochene Kiefer- und Beckenknochen werden daher an einigen Kliniken in der Bundesrepublik und den USA bereits recht plastisch auf dem Bildschirm präsentiert.

Große Probleme entstanden aber bei der Abbildung „weicher“ Organe. So haben Gehirn, Nasenschleimhaut, Augen oder Tumorgewebe auf den Schnittbildern fast identische Grautöne, die der Computer kaum unterscheiden kann. Zudem sind Tumoren in der Regel nicht eindeutig von ihrer Umgebung abgegrenzt.

Das Team des Krebsforschungszentrums ergänzte nun das Programm um ein weiteres computerlesbares Merkmal: eine Beschreibung der unterschiedlichen Formen und Strukturen der Weichteile liefert dem Computer gewissermaßen anatomische Kenntnisse.

Auf dem Bildschirm des elektronischen Helfers können so auch Weichteile unterschieden werden, die sich in ihren Graustufen sehr ähnlich sind. Daraus ergibt sich dann die Möglichkeit, die definierten Strukturen durch Rechenoperationen an den einzelnen Bildpunkten zu löschen. Auf dem Computerfilm verschwinden so nach und nach Haut und Haare von dem sich drehenden Kopf, bis nur noch die Knochenoberfläche des Schädels zu sehen ist.

Im Demonstrationsfilm gelingt es auch, die Schädelknochen verschwinden zu lassen – das Gehirn liegt nun frei. Während das „Auge“ des Computers weiter ins Innere des Gehirns vordringt, wird ein heller Fleck sichtbar, der als Geschwulst erkannt wird. Millimetergenau sind Position, Größe und Form des Tumors zu sehen.

Noch handelt es sich hier um Grundlagenforschung. Die Trennung der Organweichteile ist noch nicht perfekt, der Rechner braucht zu viel Zeit zum Aufbau des Computermodells. Notwendig sei auch, so Meinzer, eine enge Zusammenarbeit mit Kliniken, um Bildmaterial und Hinweise für eine optimale Anpassung des Verfahrens an die Bedürfnisse der klinischen Praxis zu erhalten. Es müssen Rechner mit hoher Leistung entwickelt werden, die gleichwohl für eine Klinik noch bezahlbar sind. Meinzer glaubt aber dennoch, dass das Verfahren in einigen Jahren Routine sein wird.

(erschienen in der WELT am 21. November 1989)

Was ist daraus geworden? Meinzer sollte Recht behalten: Die Rechner sind schneller geworden und billiger. Computertomografen sind heute in jeder Klinik Standard. Das Verfahren wurde und wird ständig weiterentwickelt, die Auflösung ebenfalls verbessert. Laut Wikipedia erhielten im Jahr 2009 in Deutschland fast 5 Millionen Menschen eine Computertomografie.

Auch Fax-Geräte werden jetzt mobil

Ob Manager oder Vertreter, Bauleiter oder Servicemann, viele Menschen verbringen heutzutage einen großen Teil ihrer Arbeitszeit auf vier Rädern. Dabei sind sie allzu oft nur über das Autotelefon zu erreichen. Das kann in Zukunft jedoch ganz anders aussehen: Der Einsatz neuartiger, mobiler Telefaxgeräte ermöglicht es, dringende Nachrichten und Verträge, Schaltpläne und Grundrisse zu übermitteln. Dies spart nicht nur Zeit, sondern auch Geld.

Während die Kosten für den normalen Briefverkehr immer weiter steigen, sinken die Preise für die Übermittlung von Faksimiles. Grund hierfür ist die immer höhere Übertragungsgeschwindigkeit, die es erlaubt, immer mehr Text für den Preis einer Telefongebühreneinheit zu senden. Außerdem schreitet die Miniaturisierung der Geräte immer weiter fort, der Bedienungskomfort verbessert sich weiter. Ein Ende des Preisverfalls ist noch nicht abzusehen.

Was in Japan bereits eine Selbstverständlichkeit ist, wird auch hierzulande nicht mehr lange auf sich warten lassen: In Osaka hat kürzlich ein Taxiunternehmen in seinen Wagen mobile Faxgeräte installiert, die von den reisenden Kunden mühelos bedient werden können.

Portable Faxgeräte werden in Deutschland zu einem Preis von etwa 3500 Mark angeboten. Der mobile Manager, beschlagen im Gebrauch moderner Kommunikationsmittel, kann so von jedem Telefonanschluss die heimatliche Zentrale erreichen.

Die Stromversorgung der Geräte erfolgt entweder über ein Netzteil an 220 Volt, durch Akku oder durch einen Satz Batterien. Wird das Telefaxgerät direkt ans Netz gekoppelt, kann man eine ganze DIN-A4-Seite mit Text, Tabellen und Diagrammen in weniger als 30 Sekunden übermitteln. Akustikkoppler können da nicht mehr mithalten. Sie erreichen „nur“ ein Viertel dieser Geschwindigkeit. Außerdem haben Akustikkoppler den Nachteil, dass die Mithilfe des Empfängers beim Empfang der Nachricht nötig ist.

Diese eher umständliche Handhabung könnte beim Gebrauch im fahrenden Wagen die Verkehrssicherheit gefährden. Die direkte Kopplung erlaubt es dagegen, auch dann Nachrichten zu empfangen, wenn das Fahrzeug einmal unbesetzt ist – ein entscheidender Vorteil auch gegenüber dem C-Netz-Autotelefon. Das lästige Mitschreiben von Details entfällt, auch Übertragungsfehler lassen sich weitgehend vermeiden.

Die stark gesunkenen Preise der Autotelefone haben zu einem immensen Anstieg der Benutzerzahlen in der Bundesrepublik geführt. Bis zu 450 000 Teilnehmer sind in den geplanten Ausbaustufen für das C-Netz vorgesehen, etwa 170 000 sind bereits angeschlossen. Nach den jüngsten Zahlen lassen sich weiterhin neue Teilnehmer am Telefaxdienst in Scharen anschließen.

Mittlerweile sind über 350 000 Personen im Besitz eines Faxgerätes (plus Zehntausende, die ein Gerät ohne ITZ-Nummer gebrauchen). Innerhalb eines Jahres hat sich damit die Zahl der Anwender mehr als verdoppelt. Die Kombination der beiden Übertragungswege C-Netz und Telefax bietet sich damit geradezu an.

Ein deutsches Konsortium hat schon im letzten Jahr die ersten Exemplare ausgeliefert. Mittels einer speziell konzipierten Adapterbox wird das Faxgerät dabei direkt an das Autotelefon angeschlossen. Dieser Adapter ist in der Lage, einkommende Signale zu unterscheiden und dann auf die entsprechenden Ausga¬beeinheiten umzuleiten. Die Nachricht, dass zum Beispiel ein Faksimile gerade gefunkt wird, erscheint dann im Bedienfeld des Telefons; die Funktionen des Telefons bleiben dabei voll erhalten.

Doch nicht nur im Geschäftsleben bringt die Faxtechnologie Erleichterung, auch bei der Unfallbekämpfung spielen die mobilen Helfer eine immer größere Rolle. Als Beispiel wird in der jüngsten Ausgabe des „postmagazin“ die Düsseldorfer Feuerwehr erwähnt, die nun schon seit einem Jahr ein mobiles Faxgerät im Einsatz hat.

Dabei hat das Gerät seine „Feuerprobe“ längst bestanden: Beim Brand einer Chemiefirma genügte eine kurze Anfrage per Fax bei der Betriebsleitung. Schon kurze Zeit später hatte die Einsatzleitung die wichtigsten Informationen schwarz auf weiß an Ort und Stelle zur Verfügung. Besonders in solchen Fällen ist es wichtig, dass es zu keinen Übertragungsfehlern kommt, die bei mündlicher Kommunikation nie ganz auszuschließen sind.

Gerade in Sachen Umweltschutz wurde in den letzten Jahren eine Zunahme der Einsätze beobachtet. Dies, so Feuerwehr-Pressesprecher Stefan Boddem, „stellt unsere Leute vor Ort und Stelle oft vor Probleme“. Denn niemand kann von einem Feuerwehrmann erwarten, alle in Frage kommenden Schadstoffe zu kennen und die Methoden zu deren Bekämpfung parat zu haben.

Per Telefax aber kann das Transport-Unfall-Informations-System (TUIS) befragt werden. TUIS ist eine Datenbank, die vom Verband der Chemischen Industrie eingerichtet wurde.

Nicht nur die Produkte aller wichtigen Hersteller sind dort gespeichert, auch Maßnahmen, um den Schaden bei Unfällen in Grenzen zu halten, finden sich auf den Datenblättern des TUIS: Gefahren für die Umwelt, Löschmittel, Atemschutzmaßnahmen und andere wichtige Informationen für die Katastrophenhelfer sind hier zu finden.

So kann das mobile Telefax sogar einen Beitrag zum Umweltschutz leisten, eine Anwendung, an die vor kurzem noch niemand gedacht hat.

Ein Computer in der bunten Plastikkarte

Hi-Tech im Jahre 1989: Der Chiip auf dieser Karte hatte einen 8-Bit-Rechner mit 128 Zeichen Arbeitsspeicher.

Hi-Tech im Jahre 1989: Der Chip auf dieser Karte hatte einen 8-Bit-Rechner mit 128 Zeichen Arbeitsspeicher.

Schon wieder eine neue Kreditkarte? Ein zweiter Blick auf das bunte Plastikstückchen lässt das vertraute Posthorn erkennen – eine Telefonkarte also. Aber eine, die es buchstäblich „in sich“ hat. Diese Berechtigungskarte für das C-Netz der Deutschen Bundespost enthält nämlich einen eingebetteten Halbleiterchip und hat damit gegenüber herkömmlichen Magnetstreifenkarten zahlreiche Vorteile. Hier lassen sich wesentlich mehr Daten speichern als auf den Plastikblättchen der ersten Generation. Wird gar noch ein Mikroprozessor hinzugefügt, hält man einen „richtigen“ Computer in der Hand.

Das Format ist kaum dazu angetan, allzu große Erwartungen zu wecken, doch für die Teilnehmer am C-Netz wird diese Karte bald die Möglichkeit bieten, fast 200 Rufnummern zu speichern, jede bis zu 16 Stellen lang. Diese Verzeichnisse sollen dann auch an öffentlichen Kartentelefonen und an Btx-Geräten genutzt werden können. Auch ein Gebührenzähler ist eingebaut, mit dem sich die Kosten aufsummieren lassen, die beim Benutzen verschiedener Geräte anfallen.

Die Speicherchipkarte kann – wie ihre abgemagerte Version – heute auch an den öffentlichen Kartentelefonen der Deutschen Bundespost genutzt werden – eine nützliche Eigenschaft, da bis 1995 jede zweite Telefonzelle nur noch per Karte zu bedienen sein wird. Technisch wäre es auch möglich, die Berechtigungskarten (wenn sie einen Prozessor tragen) um eine Zugangsberechtigung zum Btx-Dienst zu erweitern.

Der wichtigste Pluspunkt ist jedoch die zusätzliche Sicherheit im Vergleich zu den Magnetkarten. Die wenigen Daten auf den heute noch üblichen Magnetstreifen sind relativ leicht mit speziellen Geräten zu lesen. Der kleine Chip auf der Karte dagegen ist weder zu kopieren noch zu manipulieren. Der Versuch eines Eingriffes würde ihn zerstören und die Karte unbrauchbar machen.

Die Überprüfung einer persönlichen Identifikationsnummer (PIN), die der Kunde in das Terminal eintippen muss, verhindert die Benutzung gestohlener oder verlorener Karten. Dieser eingebaute Schutz ist schon von der Eurocheckkarte und von Kreditkarten bekannt, neu ist allerdings, dass die C-Netz-Karte gleich drei PINs erlaubt. Die vier bis achtstelligen Zahlen können vom Benutzer selbst festgelegt werden.

Eine PIN ist für die Benutzung öffentlicher Kartentelefone, eine für das C-Netz vorgesehen. Zusätzlich können die gespeicherten Rufnummern mitsamt dem Zugriff auf den Gebührenzähler gesperrt werden. Da eine Manipulation des Gebührenzählers so unterbunden wird, kann die Karte auch ausgeliehen werden. Nach Rückgabe kann der Besitzer dann feststellen, in welchem Umfang mit seiner Karte telefoniert wurde.

Gibt ein Benutzer nach Aufforderung die falsche PIN an, wird ein Zählwerk aktiviert; nach drei falschen Versuchen ist der jeweilige Bereich gesperrt. Will man die Karte wieder zum Leben erwecken, muss ein spezielles Postservice-Terminal zur Entsperrung aufgesucht werden.

Ein Acht-Bit-Rechner bildet das elektronische Herz der neuen Prozessorkarte. Zusammen mit einem Arbeitsspeicher von 128 Byte (Zeichen), 3000 Byte festem und nochmals 2000 Byte löschbarem Datenspeicher passt dieser Prozessor in einen einzigen Chip, etwa einen halben Zentimeter breit und lang, der in das Plastikmaterial der Karte eingegossen wird. Diese Zentraleinheit bezieht ihre Betriebsspannung von fünf Volt direkt aus dem C-Funk-Mobiltelefon und wird mit 4,9 Megahertz (1000000 Schwingungen pro Sekunde) getaktet.

Der löschbare Datenspeicher (EPROM) ist praktisch unbegrenzt überschreibbar (mindestens 10000 Schreibvorgänge werden garantiert). Dies ermöglicht der Karte eine Lebenszeit von zwei bis fünf Jahren, je nachdem wie oft und zu welchem Zweck sie eingesetzt wird. Der Arbeitsspeicher ist mit seinen mageren 128 Zeichen allerdings in seinen Möglichkeiten stark beschränkt.

Viele fortgeschrittene Möglichkeiten der Datensicherung lassen sich aufgrund dieses Mangels nicht realisieren. Trotzdem sind viele weitere Einsatzmöglichkeiten der von Siemens entwickelten Chipkarte denkbar. Ob verbesserte Scheckkarte, als Kreditkarte beim Einkauf, als Legitimation zum Abruf geschützter Informationen aus Datenbank- oder Btx-Systemen, sogar um persönliche medizinische Daten im Gesundheitsdienst zu sichern. Der Einsatz dieser Technologie zum Beispiel als Kreditkarte macht die direkte Daten- oder Telefonverbindung zur Rechnerzentrale der Kreditorganisation überflüssig.

Im Terminal an der Kasse kann sich nämlich der Chip auf der Karte mit einem Chip auf der vom Händler eingesteckten Referenzkarte „unterhalten“, und zwar in einer verschlüsselten Form, deren Code nicht bekannt und nicht zu fälschen ist, wie der Hersteller versichert.

So überprüfen sich zunächst Chipkarte und Referenzkarte, ob sie „echt“ sind; Der Chip prüft außerdem die PIN, die der Kunde zum Nachweis dafür, dass er der rechtmäßige Karteninhaber ist, in das Terminal eintippen muss.

Das Verbuchen und Quittieren des Kaufbetrages geschieht auf zweierlei Weise: Zum einen wird im Speicher der Chipkarte die Abbuchung eingetragen und entsprechend das verbleibende Guthaben (oder der noch auszuschöpfende Kreditrahmen) geändert. Der Kunde erhält also eine Art Quittung auf seiner Karte.

Die Buchung wird im Terminal des Händlers in verschlüsselter Form gespeichert und kann dann zu einem späteren Zeitpunkt, in einem ganzen Bündel weiterer Buchungen, zur Zentrale .der Kreditkartenorganisation übertragen werden. Die Akzeptanz der komfortablen Plastikkarten könnte so durch ein kostengünstiges Sicherheitssystem weiter zunehmen.

(erschienen in der WELT vom 16. November 1989)

Mit Rettungsring auf Energiefang

Europäer führend bei der Kernfusion-Forschung

Seit fast 40 Jahren versuchen Physiker eine kontrollierte Kernfusion in Gang zu bringen. Ein Blick in den nächtlichen Sternenhimmel oder zur Sonne zeigt, welche gewaltigen Energien bei dieser Reaktion frei werden. Dort vereinigen sich unter ungeheurem Druck und bei Temperaturen von etwa 15 Millionen Grad Celsius jeweils vier Atomkerne des Wasserstoffs zu einem Kern des Elementes Helium.

Ein winzig kleiner Bruchteil der Masse des Wasserstoffs wird dabei in Energie umgewandelt. Vier Millionen Tonnen verschwinden so in jeder Sekunde. Dies reicht aus, um in 150 Millionen Kilometer Entfernung Wetter und Meeresströmungen auf der Erde zu beeinflussen. Ob Kohle, Gas oder Erdöl, Wind- oder Wasserkraft; alle unsere Energiereserven verdanken wir letztendlich diesem Prozess, der seit viereinhalb Milliarden Jahren vor sich geht und ohne den die Erde ein kalter, unbewohnter Planet geblieben wäre. Die Kräfte, die bei der Verschmelzung leichter Atomkerne frei werden, sind rund zehn Millionen Mal größer als die Energien chemischer Reaktionen.

Die Detonation der ersten Wasserstoffbombe – sie wurde von den Vereinigten Staaten 1951 auf dem Eniwetok- Atoll gezündet – demonstrierte deutlicher als alle Zahlenspiele die Kräfte, die im Inneren der Atome schlummern. Nachdem sich unlängst Angaben amerikanischer Wissenschaftler, sie hätten eine kontrollierte Kernfusion quasi im Reagenzglas bei Zimmertemperatur erreicht, als unhaltbar erwiesen haben, gingen die Physiker weltweit wieder zum Tagesgeschäft über.

Mit riesigen Magneten, mit Teilchenbeschleunigern und leistungsstarken Laserkanonen versuchen die Forscher auch weiterhin, einen Reaktor zu entwickeln, der Energie aus der Verschmelzung von Atomkernen gewinnen soll. Obwohl es Physikern des Labors für Plasmaphysik im amerikanischen Princeton 1986 gelang, die unvorstellbare Temperatur von 200 Millionen Grad Celsius zu erzeugen, haben alle bisherigen Experimente mehr Energie verschlungen, als sie produzierten:

Das Problem besteht darin, dass die positiv geladenen Atomkerne sich zunächst gegenseitig abstoßen. Um dennoch eine Verschmelzung zu erreichen, müssen die Teilchen mit sehr hohen Geschwindigkeiten aufeinanderprallen. Erreicht wird die nötige Geschwindigkeit, indem die Gase erhitzt werden. In einem sehr starken, ringförmigen Magnetfeld wird dieses „Plasma“ eingeschlossen und so in der Schwebe gehalten.
Fusionsreaktoren, die nach diesem Prinzip aufgebaut sind, gleichen in der Form einem überdimensionalen Rettungsring und werden als „Tokamak“-Reaktoren bezeichnet.

Fortschritte auf dem Weg zur Kernfusion machten in den letzten Jahren vor allem die Europäer. Das weltweit größte Experiment zur Kernverschmelzung findet zur Zeit im englischen Culham bei Oxford statt. An Jet (Joint European Torus) sind alle europäischen Fusionslaboratorien beteiligt. Hier wird am größten Schritt des Projekts, der Zündung und dem Unterhalt des entstehenden thermonuklearen Feuers, gearbeitet.

Denn erst wenn eine Temperatur von über 400 Millionen Grad Celsius und eine Dichte von mindestens 100 Billionen Teilchen je Kubikzentimeter über mehrere Sekunden hinweg aufrecht erhalten werden können, entsteht eine Kettenreaktion, bei der sich Deuterium – eine „schwere“ Form des Wasserstoffs – zu Helium umwandelt. Da Deuterium als Bestandteil des Wassers praktisch unbegrenzt zur Verfügung steht, glauben Optimisten, dass die Energieversorgung der Menschheit gesichert wäre, wenn es gelänge, diese Reaktion vollständig zu beherrschen.

Bei Versuchen, die Lebensdauer und Reinheit des Wasserstoffplasmas zu verbessern, kommt dem Reaktorgefäß zentrale Bedeutung zu. Trotz des Magnetfeldes gerät das heiße Plasma nämlich in Kontakt mit den umgebenden Wänden. Dies kann dazu führen, dass unerwünschte Verunreinigungen von der Wand abgeschlagen werden und in das Plasma eindringen. Eine Beschädigung der Wand führt zu Wärmeverlusten, die Temperatur zur Zündung des Plasmas kann dann nicht mehr erreicht werden.

Einen entscheidenden Beitrag zur Lösung dieses Problems brachte ein Experiment am Max-Planck-Institut für Plasmaphysik in Garching bei München. Bei der Versuchsanordnung mit dem Kürzel Asdex (Axialsymmetrisches Divertor-Experiment) gelang es, die gesamte äußere Randschicht des Plasmas auf magnetische Weise in separate Nebenkammern abzulenken. Die Plasmateilchen treffen daher erst abgekühlt und weit vom heißen Zentrum entfernt auf eine materielle Wand auf, wo sie abgepumpt werden können. So können auch störende Verunreinigungen – in einem brennenden Plasma auch die .Fusionsasche“ Helium – entfernt werden.

Gegenwärtig wird Jet nach dem Vorbild von Asdex umgerüstet; ein Nachfolgeexperiment namens Asdex Upgrade soll das Prinzip des Divertors jetzt auch unter Reaktorbedingungen untersuchen. Für diese Aufgabe genügt es, allein die äußeren zehn Zentimeter eines Reaktorplasmas zu reproduzieren. Das Untersuchungsobjekt, der Plasmaring, wird einen Radius von 1,70 Metern und ein Volumen von 13 Kubikmetern besitzen, Das einschließende Magnetfeld wird von 16 großen Magnetspulen erzeugt, die auf das ringförmige Plasmagefäß aufgefädelt sind. Insgesamt wird das neun Meter hohe Experiment ein Gewicht von 700 Tonnen haben.

Ein Team von 23 Ingenieuren und Physikern arbeitet seit 1981 an Planung und Entwurf. Die Investitionskosten von rund 200 Millionen Mark werden vom Max-Planck-Institut und der europäischen Forschungsbehörde Euratom getragen. Nach Fertigstellung der europaweit gefertigten Einzelkomponenten begann die Montage von Asdex Upgrade im Mai 1988. Die ersten Plasmadaten werden für Mitte 1990 erwartet. Erst danach fällt die Entscheidung über die weitere Zukunft der Fusionsforschung.

Zwei Möglichkeiten sind denkbar. Die Planungsgruppen für beide Projekte weilen derzeit in Garching zu Gast. Ein rein europäischer Fusionsreaktor wäre der Next European Torus (Net) als Nachfolgemodell zu Jet, der erstmals mit brennendem Plasma arbeiten soll. Großbritannien, Frankreich oder die Bundesrepublik kämen hierbei als Standort in Frage.

Model des Internationalen Fusionsreaktors ITER (Copyright ITER)

Model des Internationalen Fusionsreaktors ITER (Copyright ITER)

Denkbar ist aber auch eine weltweite Zusammenarbeit, an der außer den Europäern vor allem Japan, die Sowjetunion und die Vereinigten Staaten beteiligt wären. Der Internationale thermonukleare Experimental-Reaktor (Iter) ist dem Net im Design sehr ähnlich. Eine Fusionsanlage, die wirtschaftlich nutzbare Energie liefert, wird allerdings – wenn überhaupt – frühestens in der Mitte des nächsten Jahrhunderts die Arbeit aufnehmen können.

(erschienen in der WELT vom 28. Oktober 1989)

Was ist daraus geworden? Wir schreiben das Jahr 2015 und noch immer warten wir auf die kontrollierte Kernfusion als unerschöpfliche Energiequelle, die man uns versprochen hat. Während die Solarenergie mit einer vergleichsweise simplen Technik heute durchaus ihren Beitrag zur Energieversorgung leistet, gab es immer wieder Rückschläge und Verzögerungen beim ITER. Die internationale Zusammenarbeit funktioniert mal mehr, mal weniger gut. „Die USA waren von 1998 bis 2003 vorübergehend aus dem Projekt ausgestiegen, Kanada ist seit 2004 nicht mehr dabei“, weiß die Wikipedia. Die Kosten haben sich von 2,7 Milliarden Euro auf voraussichtlichen 6,6 Milliarden Euro mehr als verdoppelt, und wenn es noch teurer wird, werde man das durch Umschichtungen aus dem Agrar- und dem Forschungsetat decken, hat die EU angekündigt. Eine Versuch war´s wert. Jetzt aber denke ich, man sollte diesen Traum beerdigen, bevor noch mehr Steuergeld verbrannt wird.

Wenn Bodendenkmäler Tiefgaragen weichen

Die Pflege von Bodendenkmälern in deutschen Altstädten steht immer noch im Schatten der Baudenkmalspflege. Dies war die Essenz eines Kolloquiums des Landschaftsverbandes Rheinland und des Rheinischen Amts für Bodendenkmalpflege, das gestern in Bonn stattfand. Mittlerweile leben in der Bundesrepublik 85 Prozent der Bevölkerung in Städten. Dieser Trend hält an, wobei die Altstädte bevorzugt als Wohnviertel ausgewählt werden. Hier werden große Erdbewegungen vor allem durch die Ansiedelung von Banken, Hotels, Kaufhäusern sowie des Dienstleistungsgewerbes erforderlich.

Dr. Jürgen Kunow (Foto: Raimond Spekking / CC BY-SA 3.0 via Wikimedia Commons)

Dr. Jürgen Kunow (Foto: Raimond Spekking / CC BY-SA 3.0 via Wikimedia Commons)

Die Altstadt als „kompaktes Archiv von Bodenurkunden“ wird dabei natürlich in Mitleidenschaft gezogen, wie Dr. Jürgen Kunow (Bonn) erläuterte. Auch wenn der Zweite Weltkrieg in manchen Städten – zum Beispiel in Bonn – nur ein Zehntel der Gebäude unversehrt ließ, war die anschließende Neubesiedelung für die Bodenarchäologie nicht gravierend, da sie entlang der bestehenden Straßen und Kanalisationen erfolgte und sich weitgehend an die alten Bauflächen hielt.

Der Beginn der Zerstörung lässt sich im Fall Bonn genau auf das Jahr 1963 festlegen. Ab diesem Zeitpunkt nämlich wurden die letzten großen Freiflächen – etwa der Münsterplatz und der historische Markt – durch Tiefgaragen unterbaut, die von der öffentlichen Hand gefördert wurden. Die wenigen Grabungen, die damals möglich waren, standen unter einem erheblichen Zeitdruck, weshalb auch nur wenige Fundstücke geborgen werden konnten. Für Tiefgaragen sei daher, aus Sicht der Bodendenkmalspfleget, in Altstädten kein Platz – so Kunow.

Das Problem ist nicht auf das Rheinland beschränkt. In Trier stieß man vor zwei Jahren beim Bau von unterirdischen Parkplätzen auf eine palastartige Thermenanlage aus römischer Zeit, allerdings bewies man dort Sinn für die Vergangenheit und verzichtete auf ein Drittel der geplanten Stellplätze. Auch in Heidelberg legte man 1987 bei Bauarbeiten in der Altstadt wichtige Funde frei. Zwölf Monate blieben dem Landesdenkmalamt Baden-Württemberg, um die Schätze im Untergrund zu bergen, bevor dann die Arbeiten fortgesetzt wurden. Zu wenig Zeit für eine wirklich gründliche Untersuchung – wie man damals bemängelte. Dennoch konnten 278 Grabstätten und sieben Fäkaliengruben eines Spitalfriedhofs ausgewertet werden, was wichtige Rückschlüsse über Leben und Sterben der mittelalterlichen Stadtbevölkerung ermöglichte.

Die beengte Stadtsituation begrenzt die Möglichkeiten der Archäologen ebenso wie der Mangel an verlässlichen Unterlagen zu alten Bebauungen. Meist müssen die Experten auf Urkataster zurückgreifen, die aus den Jahren von 1820 bis 1840 stammen. Derzeit werden diese Dokumente für das Rheinland vom Landschaftsverband zusammengestellt und auf einen einheitlichen Maßstab gebracht.

Die Mitbestimmung der Bodendenkmalspfleger wurde vor allem für großflächige Stadtsanierungen gefordert, weil deren Ergebnisse meist besonders einschneidend seien. „Jede städtische Planung sollte sich der Schätze im Untergrund bewusst sein.“ Doch wolle man keineswegs die städtebaulichen Veränderungen insgesamt verhindern. „Das Denkmalschutzgesetz soll ja auch kein Bauverhinderungsgesetz sein“, kommentierte Kunow. Fälle wie der Körner Neumarkt, bei dem auf eine Neubebauung gänzlich verzichtet wurde, sollen demnach die Ausnahme bleiben.

In den letzten Jahren haben sich die Schwerpunkte der „Altstadtarchäologie“ von Rettungsgrabungen und Lustgrabungen“ an römischen Überresten weitgehend auf die Erforschung mittelalterlicher Stätten verlagert. Diese Forschung ist sehr personal- und kostenintensiv, so dass die Städtebauförderung künftig mehr in Anspruch genommen werden soll.

Dies wird in Nordrhein-Westfalen bereits praktiziert. Dr. Ulrich Giebeler vom Ministerium für Stadtentwicklung, Wohnen und Verkehr in Düsseldorf wies darauf hin, dass archäologische Arbeiten auch aus dem „sehr großen Topf“ der Stadterneuerungsmittel finanziert werden können. Um die Projekte der Stadtarchäologie zu unterstützen, könnte man auch die Bauherren solcher Projekte zur Kasse bitten, die Bodendenkmäler gefährden. Bei einem Baugenehmigungsverfahren etwa ließen sich diese Kosten nach dem Verursacherprinzip weitergeben.

(erschienen in der WELT am 26. Oktober 1989)

Umweltschutz mit Bußgeldern und Plastik-Verbot

Die Müllberge in der Bundesrepublik wachsen unaufhörlich, Gleichzeitig wird der Lagerplatz, der auf den Deponien zur Verfügung steht, immer weniger. Mit ungewöhnlichen Maßnahmen will die Stadt Nürnberg – hier fallen jährlich über eine Million Tonnen Abfall an – eine Lösung des Müllproblems erreichen. Nicht mehr Abfallbeseitigung, sondern Abfallwirtschaft heißt die Devise.

In Nürnberg produzieren 485000 Einwohner jährlich über eine Million Tonnen Abfall. Dem steht gegenüber eine Kapazität der städtischen Müllverbrennungsanlage (MVA) von maximal 260000 Tonnen. Damit ist Nürnberg sicherlich keine Ausnahme. Überall laufen die Brennöfen mit voller Leistung, die Abfallfluten, die hier nicht mehr abgenommen werden können, landen auf den immer knapper werdenden Deponien oder werden gar – im Zuge eines immer weiter zunehmenden Mülltourismus – ins Ausland gebracht.

Umweltreferent Rolf Praml will nun neue Wege beschreiten, um der wachsenden Müllberge Herr zu werden. Weil gute Worte und freundliche Appelle alleine nicht ausreichten, hat der Nürnberger Stadtrat jetzt verbindliche Vorschriften erlassen, die in der Bundesrepublik bisher einmalig sind. Nicht mehr Abfallbeseitigung, sondern Abfallwirtschaft heißt nun die Devise.

In diesem Verwaltungsbegriff steckt einiges an Brisanz: Die Reste unserer Wohlstandsgesellschaft sollen drastisch reduziert werden. Unter dem Motto „Trennen bringt’s“ werden ab ersten Januar des kommenden Jahres Wertstoffe wie Papier, Pappe, Glas und organische Abfalle (Biomüll) vom Restmüll getrennt, damit sie der Wiederverwendung zugeführt werden können. Das gilt auch für Gewerbemüll wie Holz, Metall und sortenreine Kunststoffe, soweit die entsprechenden Einrichtungen zur Verfügung stehen. Für diejenigen, die sich nicht an die neuen Gebote halten, stehen die „Folterinstrumente des städtischen Satzungsrechts zur Verfügung“, wie Praml erklärt.

Doch damit nicht genug: Bei Veranstaltungen auf öffentlichen Straßen, Wegen und Plätzen dürfen bald nur noch wiederverwendbare Verpackungen ausgegeben werden. Von dieser Vorschrift wird vor allem der berühmte Christkindlesmarkt betroffen sein, auf dem in diesem Jahr zum letzten Mal etwa 600000 Styroporbecher anfallen werden. Weihnachten 1990 wird der Glühwein dann aus Pfandgläsern getrunken.

Auch die Fast-Food-Ketten sollen nicht unbehelligt bleiben. Die Stadt kann Einweggeschirr, Plastikbecher und Pappschachteln verbieten, wenn diese die Abfallmenge erheblich vergrößern oder zur Verschmutzung von Straßen und Anlagen führen. Obwohl seitens der Regierung von Mittelfranken Bedenken gegen diesen „McDonalds- Paragraphen“ bestehen, hält Praml ein gerichtliches Verfahren für unwahrscheinlich.

Trotz der strengen Verordnungen setzt der ehemalige Ministerialrat im hessischen Umweltministerium nämlich auf Kooperation statt Konfrontation. Auch städtische Dienststellen müssen ihren Beitrag zum Umweltschutz leisten, indem sie dafür Sorge tragen, dass Abfall vermieden und die Wiederverwendung von Werkstoffen gefördert wird. „Wir wollen ein Klima erzeugen, dass die Öffentlichkeit sieht: Die Behörden kümmern sich. Davon erwarten wir uns eine Unterstützung unserer Umweltpolitik“, erklärt Praml hierzu.

Erste Ergebnisse dieser Politik sind bereits vorzuweisen: Als jüngst die bestehende Reststoffdeponie erweitert werden musste (allen Bemühungen, das Abfallvolumen zu reduzieren, zum Trotz), wurde diese Maßnahme einstimmig im rot-grün dominierten Stadtrat beschlossen. Während es den meisten Gemeinden große Schwierigkeiten bereitet, neue Mülldeponien anzulegen oder bestehende zu erweitern, kam es in Nürnberg zu keinerlei Bürgerprotesten. Praml führt diese Akzeptanz in der Bevölkerung auf die Einsicht zurück, das alles getan werde, um unnötigen Müll zu vermeiden.

Schule machen könnte auch die enge Zusammenarbeit zwischen Umweltschützern und den städtischen Behörden. Schon jetzt wird ein Teil des Biomülls und der Grünabfälle, die von der Stadt kompostiert werden, an den Bund für Umwelt und Naturschutz Deutschland (BUND) weitergereicht. Dieser packt den Kompost ab und bietet ihn in einer Reihe von Supermärkten zum Verkauf an. Die Erlöse aus diesem Projekt fließen dem gemeinnützigen BUND zu, der damit weitere Umweltprojekte finanziert.

Doch nicht nur der Biomüll muss beseitigt werden. Dieser macht nämlich nur zehn Prozent der Gesamtmenge an Abfall aus, drei Viertel sind nicht einmal brennbar. Der überwiegende Teil besteht aus Bauschutt und Erdaushub. Über eine halbe Million Tonnen kommen so alleine in Nürnberg jährlich zusammen. Die Trennung in wiederverwertbare Materialien (Beton, Ziegel, Steine, Holz), gefährliche Stoffe und unschädlichen Abfall wird in Nürnberg nun zur Pflicht.

Schon jetzt besteht ein Abkommen mit der Deutschen Bundesbahn, die „entschärfte“ Abfälle am Bahnhof entgegennimmt. Ziel der speziellen Kippwaggons ist eine alte Kiesgrube im Rhein-Main-Kreis, die zur Zeit rekultiviert wird. Die Gleise führen direkt an die Grube heran, ohne großen Aufwand kann das Material ausgekippt werden. Die Kiesgrube wird so wieder in ihren ursprünglichen Zu stand zurückversetzt. 200000 Tonnen verschwanden so im letzten Jahr und trugen sogar dazu bei, verbrauchte Natur zurückzugewinnen, statt wert vollen Deponieraum zu verschwenden.

Ein Besuch in der Müllverbrennungsanlage (MVA) macht klar, dass es an der Zeit ist, umzudenken: An die 550 Mal am Tag kippen die Wagen der städtischen Müllabfuhr und des Gewerbes hier ihre Fuhren in die riesige Grube, von wo der Abfall mit Lastkränen in die Verbrennungsöfen gefüttert wird. Innerhalb eines Arbeitstages kommen so 1100 bis 120 Tonnen zusammen. Wie Betriebsingenieur Gerold Wittek erläutert, arbeite die MVA rund um die Uhr, siebe Tage in der Woche, mit maximaler Leistung. Immer wieder erscheine Lastkraftwagen, die vornehmlich mit Holz und Pappe beladen sind: Rohstoffe, die wiederverwertet werde könnten, die hier aber aufwendig beseitigt werden müssen.

Ein Blick auf die Statistik zeigt dass in der Bundesrepublik trotz stagnierendem Bevölkerungswachstums jährlich zwischen 0,5 und 3 Prozent mehr Müll anfallen. Dieser Trend ist seit Jahrzehnten ungebrochen. Reinhard Arndt, Betriebsleiter der MVA, hofft, dass die neue Abfallwirtschaftssatzung greift, sonst wird die Erweiterung der Anlage oder gar ein Neubau fällig. Die Kosten hierfür würden über 400 Millionen Mark betragen.

(überarbeitete Fassung meines Artikels für die WELT vom 12. Oktober 1989)

Harald Varmus und Michael Bishop gewinnen den Nobelpreis für Medizin 1989

Harald E. Varmus (Quelle: Wikipedia Commons)

Harald E. Varmus (Quelle: Wikipedia Commons)

Ausgezeichnet werden in diesem Jahr die beiden amerikanischen Mediziner Harald E. Varmus und J. Michael Bishop. Varmus wurde am 18. Dezember 1939 in Oceanside im Staat New York geboren. Er besuchte das Amherst College in Massachusetts und studierte dann in Harvard. 1966 promovierte er an der Columbia-Universität. Michael Bishop wurde am 22. Februar 1936 in York im US-Staat Pennsylvania geboren. Er studierte in Gettysburg und Harvard und arbeitete danach an den National Institutes of Health bei Washington. Gemeinsam arbeiten die Preisträger an der Abteilung Mikrobiologie und Immunologie der Universität von Kalifornien in San Francisco

Michael Bishop und Harold Varmus wurden für ihre Entdeckung des „zellulären Ursprungs der retroviralen Onkogene“ ausgezeichnet. In der Begründung für die Vergabe des Medizin-Nobelpreises heißt es: „Die Entdeckung betrifft eine große Menge von Genen, die das normale Wachstum und die Teilung der Zellen kontrollieren. Störungen in einem oder einigen dieser Gene verwandeln sie in Onkogene (Griechisch: onkos – Geschwulst, Tumor). Dies kann dazu führen, dass eine normale Zelle in eine Tumorzelle verwandelt wird und eine Krebsgeschwulst veranlasst.“

Bestimmte Viren können die normalen Gene in ihre Erbsubstanz aufnehmen. Dabei können diese in Onkogene umgewandelt werden. Bei der Vermehrung der Viren werden die veränderten Gene wieder in das menschliche Erbgut eingebaut.

Schon um die Jahrhundertwende wurde erstmals der Verdacht geäußert, dass Viren Krebs verursachen können. Peyton Rous vom amerikanischen Rockefeller Institut gelang es 1910, Tumoren zwischen Hühnern zu übertragen. Rous benutzte dazu einen Extrakt aus den Zellen befallener Tiere. Er äußerte damals die Vermutung, dass hier Viren im Spiel seien, stieß damit aber bei seinen Kollegen auf taube Ohren.

Erst Jahrzehnte später – das Elektronenmikroskop war in der Zwischenzeit erfunden worden – konnte das Virus zweifelsfrei nachgewiesen werden. Im Alter von 85 Jahren erhielt Rous mit dem Nobelpreis des Jahres 1966 eine späte Anerkennung seiner Arbeiten.

 J. Michael Bishop (Quelle: General Motors Cancer Research Foundation, via Wikipedia Commons)

J. Michael Bishop (Quelle: General Motors Cancer Research Foundation, via Wikipedia Commons)

Natürlich war man nicht damit zufrieden, nur zu wissen, dass Viren Tumoren hervorrufen können. Wie genau erreicht das Virus die drastischen Änderung in Form und Eigenschaften der befallenen Zellen? Die Beantwortung dieser Frage wurde erheblich erleichtert, als man fand, dass bestimmte Tumorviren, die sogenannten Retroviren, in Gewebekulturen Veränderungen an lebenden Zellen hervorrufen können, die denen in Tumorzellen ähneln. Als die moderne Biologie das Zerlegen der Erbsubstanz in kleinere Abschnitte ermöglichte, konnte man fragen, welcher Teil des Virus für die krebsartigen Veränderungen der Wirtszellen verantwortlich war.

Beim Rous-Sarkoma Virus entdeckte Steven Martin von der Universität Berkeley das erste „Krebsgen“. Viren bestehen im wesentlichen aus einigen wenigen Genen, verpackt in einer Hülle aus Eiweißen. Nach dem Eindringen in ihre Wirtszellen werden gemäß den Anweisungen der  retroviralen Gene Eiweißstoffe produziert, die das Virus zu seiner Vermehrung benötigt. Eine andere Vermehrungsmöglichkeit für diese „Parasiten der Zelle“ besteht darin, das Erbmaterial des Virus in das zelleigene Erbmaterial einzuschmuggeln. Mit jeder Zellteilung wird dann das Virus vermehrt und kann sogar, wenn es sich in einer Keimzelle einnistet, auf die nächste Generation übertragen werden.

Michael Bishop und Harald Varmus haben mit ihren Arbeiten herausgefunden, woher Retroviren wie das Rous-Sarkoma Virus ihre krebserregenden Gene haben. 1972 überprüften Bishop und Varmus mit Dominique Stehelin, die „Krebsgen-Hypothese“, die am Nationalen Krebsinstitut (NCI) aufgestellt worden war. Dort hatten Robert Huebner und George Todaro vermutet, dass die Krebsgene der untersuchten Viren zum genetischen „Gepäck“ aller Zellen gehören. Bei einer Virusinfektion, die weit in der Evolution zurückläge, hätten die Viren Kopien normaler zellulärer Gene „aufgepickt“.

Wenn diese Überlegung richtig ist, so dachten die Nobelpreisträger, müsste sich das „Krebsgen“ des Rous-Sarkoma Virus auch in normalen Zellen nachweisen lassen. Dieses Unternehmen allerdings glich der berühmten Suche nach der Stecknadel im Heuhaufen. Die Zellen von Wirbeltieren enthalten nämlich – anders als die untersuchten Viren – zehntausende verschiedener Gene. Stehelin war es, der eine Gen-Sonde herstellte, mit der sich das gesuchte Gen aus der großen Menge des restlichen Erbmaterials herausfischen ließ.

Er machte sich dabei die Tatsache zunutze, dass das Erbmaterial (DNA) in Form eines Doppelstranges vorliegt, dessen Hälften zueinander passen wie Schlüssel und Schloss. Nach dem Mischen der viralen Genkopie mit den Hälften des Doppelstranges findet das Krebsgen sein zelluläres Gegenstück und lagert sich an dieses an. Eine radioaktive Markierung der Gensonde erlaubte es den Forschern, diesen Vorgang zu beobachten. Der Beweis, das es in normalen Zellen Gene gab, die mit dem Krebsgen verwandt waren, war damit erbracht.101

1976 zogen dann Bishop, Varmus und Stehelin die Schlussfolgerung, dass das Onkogen im Virus kein wirkliches Virusgen ist, sondern ein normales Zellgen, welches das Virus in der Wirtszelle aufgegriffen und weitergeführt hat. Dies warf aber die Frage auf, warum dann nicht alle „normalen“ Zellen zu Tumorzellen werden. Hierauf fand man gleich zwei Antworten. Die viralen Krebsgene unterscheiden sich meistens nämlich doch von ihren zellulären Vorläufern, nur sind die Unterschiede so gering, dass sie erst nach einer sehr genauen Untersuchung des jeweiligen Erbmaterials zu Tage treten. Man kennt heute Dutzende von Onkogenen, zusammen mit den Eiweißstoffen (Proteine) die gemäß dieser Bauanleitungen in den Zellen gefertigt werden.

Bei den Hunderten von Bausteinen dieser Proteine kann ein einziger Austausch genügen, um die Eigenschaften des Proteins völlig zu verändern Die Kontrolle über Zellwachstum und Zellteilung geht verloren; ein Krebsgeschwür kann entstehen.

Als zweite Möglichkeit kann ein Virus, das Teile seines Erbmaterial in das „gesunde“ Erbmaterial einführt, auch die Regulation in der Zelle durcheinander bringen. Wird die Anzahl der gefertigten Moleküle dagegen von einem Virus bestimmt, kann es leicht zur Überproduktion mancher Stoffe kommen, ebenfalls mit fatalen Folgen.

Mittlerweile hat Stehelin die Auszeichnung seiner US-Kollegen als „sehr ungerecht“ verurteilt. „Ich habe die Arbeit ganz allein gemacht, von A bis Z“, äußerte der Franzose, der als Erstautor in dem Artikel geführt wird, mit dem die Ergebnisse des Teams 1976 erstmalig publik gemacht wurden.

(überarbeitete Fassung meines Artikel in der WELT vom 10. Oktober 1989)

Technologiepark Heidelberg: Aus Forschern werden Unternehmer

Der „schnelle Transfer innovativen Wissens zu modernsten Produktionsmethoden“ wurde von Ministerpräsident Lothar Späth als eines der Hauptziele bei der Gründung des Technologieparks Heidelberg im November 1985 beschrieben: Anwendungsorientierte Forschung zum Wohle von Wirtschaft und Wissenschaft. Erste Früchte hat dieses Projekt bereits getragen. Die Wahl des Standortes Heidelberg mit seiner Vielzahl an internationalen Forschungsinstituten und der ältesten Universität auf deutschem Boden hat Manager und Wissenschaftler beflügelt.

Rund 180 Arbeitsplätze haben die Firmen geschaffen, die sich am Rande des Universitätsgeländes niedergelassen haben. Doch der Geschäftsführer der Technologiepark Heidelberg GmbH, Karsten Schröder, kann einen weiteren Erfolg vorweisen. Da die Forschung auch schon erste Früchte trägt, wurde zusätzlich ein „Produktionspark“ erschlossen, in dem ebenfalls mehr als 150 Angestellte arbeiten.

Die Stadt Heidelberg betreibt, so Schröder, keine direkte Firmenförderung, stellt aber Räume bereit, hilft beim Überwinden bürokratischer Hürden und vermittelt Kontakte nach außen. Geht alles nach Plan, wird der zweite Bauabschnitt gegen Ende 1990 fertig gestellt.

Ein Mann der ersten Stunde ist Professor Christian Birr, der mit der Gründung seiner Firma Orpegen im Herbst 1982 der Eröffnung des Technologieparks um Jahre zuvorkam. Birr ist ehemaliger Angehöriger des Max-Planck-Institutes für medizinische Forschung, von dem er sich Ende 1983 trennte. Die Patentrechte, die er während seiner Karriere als Forscher erwarb, bilden einen wichtigen Teil des Know-hows, auf dem der Erfolg der Biotechnologie-Firma ruht.

Die Firma Heidelberg Instruments überträgt Erkenntnisse, die am Institut für angewandte Physik der Universität gewonnen wurden, in die Praxis. Ein Ergebnis dieser Zusammenarbeit: der erste Laseraugentomograph, mit dem Schnittbilder des menschlichen Auges erzeugt werden können.

Prominentes Gesicht: Auch Peter Gruss, langjähriger Präsident der Max-Planck-Gesellschaft war Unternehmer im Technologiepark Heidelberg (Foto: Axel Griesch via Wikimedia Commons)

Prominentes Gesicht: Auch Peter Gruss, langjähriger Präsident der Max-Planck-Gesellschaft war Unternehmer im Technologiepark Heidelberg (Foto: Axel Griesch via Wikimedia Commons)

Werner Franke, Ekkehard Bautz, Peter Gruß und Günter Hämmerling taten sich 1983 zusammen, um die Progen Biotechnik GmbH zu gründen. Die Wissenschaftler und Professoren der Universität und des Deutschen Krebsforschungszentrums (DKFZ) wollten gemeinsam mit industriellen Investoren Reagenzien und Testverfahren für Diagnostik und Therapie entwickeln.

„Biologische Altlastensanierung“ nennt sich ein Verfahren, bei dem Mikroorganismen, die im verseuchten Boden leben, aktiviert werden, um giftige Lösungsmittel und Kohlenwasserstoffe zu beseitigen. Anfang dieser Woche begannen auf dem Gelände der ehemaligen Chemiefabrik Dr. Freund in Sandhausen bei Heidelberg Bohrarbeiten für das bisher größte Projekt dieser Art in Deutschland. Entwickelt wurde das Verfahren unter Förderung des Bundesministeriums für Forschung und Technologie (BMFT) durch die International Biotechnology Laboratories GmbH (lBL).

Um es den Mikroben zu ermöglichen, die Giftstoffe in unschädliches Kohlendioxid und Wasser zu zerlegen, werden spezielle Nährstoffe in den Boden eingepresst. Wie Karl Massholder mitteilte, werden im Rahmen der Zusammenarbeit mit den Instituten für Umweltphysik, Mikrobiologie und dem Chemischen Institut weitere 17 Schadensfälle bearbeitet. IBL ist außerdem an der Finanzierung von Doktorarbeiten beteiligt, die zu neuen Lösungen bei Umweltproblemen führen könnten.

(erschienen in der WELT am 6. Oktober 1989)

Medikamente aus Schweden für die ganze Welt

Schwedens Arzneimittelhersteller haben Weltruf. Die Arzneimittelexporte lagen 1988 bei 1,8 Milliarden Mark, die Zuwachsrate gegenüber 1987 erreichte 23 Prozent. Zusammen mit der Biotechnologie gehören pharmazeutische Präparate damit zu den expansivsten Teilgebieten innerhalb der Chemiebranche. Die Gewinne werden bemerkenswerterweise zum größten Teil außerhalb Schwedens erwirtschaftet. Vor allem die Bundesrepublik bildet hier einen wichtigen Markt und ist gleichzeitig Sitz verschiedener Tochterunternehmen der Schweden.

Flagge SchwedenEine Belegschaft von fast 7000 Angestellten macht die Astra AB mit ihren Tochtergesellschaften Draco und Hässle zum größten Pharmakonzern Skandinaviens. Die Gesamteinnahmen im abgelaufenen Geschäftsjahr betrugen über zwei Milliarden Mark. Dabei setzt die Astra offensichtlich stark auf Forschung und Entwicklung neuer Produkte. Jeder vierte Mitarbeiter ist auf diesem Sektor tätig, die Kosten hierfür beliefen sich 1988 auf rund 400 Millionen Mark.

Medikamente zur Behandlung von Herz- und Kreislaufkrankheiten (Seloken®) und gegen Atemwegserkrankungen sowie Lokalbetäubungsmittel (Xylocain®, Scandicain®) machen den größten Teil der Einkünfte des Konzerns aus, die zu 82 Prozent von außerhalb Schwedens stammen. Hauptabnehmer ist die Bundesrepublik Deutschland, gefolgt von Schweden, Japan und den USA.

Die in Uppsala beheimatete Pharmacia steht, was Umsatz und Zahl der Mitarbeiter angeht, nach der Astra an zweiter Stelle. 5700 Angestellte erwirtschafteten im vergangenen Jahr einen Umsatz von 1,2 Milliarden Mark; der Forschungsetat betrug über 300 Millionen. Hauptanteilseigner ist der Volvo-Konzern, der 29 Prozent der Aktien hält und zu 46 Prozent stimmberechtigt ist.

Nach dem Erwerb der Firmen Leo, Ferrosan und LKD im Jahr 1986 hat das Unternehmen jetzt eine Produktpalette, die von Therapeutika über ophthalmologische und diagnostische Erzeugnisse bis zur Biotechnologie reicht. In diesen Sektor fallen auch die Aufreinigung von Eiweißstoffen und Zellkultursysteme.

Eine Tochtergesellschaft der Staatsholding Procordia ist die Kabi Vitrum AB. Die Kabi gehört zu den führenden Unternehmen bei der Infusionstherapie und der klinischen Ernährung. Medikamente. die injiziert werden, bilden ebenfalls einen wichtigen Sektor der Firma. Mit rund 3600 Angestellten wurde 1988 ein Verkaufserlös von umgerechnet über einer Milliarde Mark erzielt. Rund 150 Millionen flossen in die Erforschung und Entwicklung neuer Produkte.

Kabi vertreibt mehrere Substanzen zur Auflösung von Blutgerinnseln und zur Hemmung der Blutgerinnung. Hierher gehört der aus Bakterien gewonnene Eiweißstoff Streptokinase ebenso wie der komplexe Zucker Heparin. Bahnbrechend war die weltweit erstmalige Produktion eines menschlichen Wachstumshormons mit Hilfe der Gentechnik. Zuvor musste das Hormon aus den Hirnanhangdrüsen Verstorbener Spender gewonnen werden, wobei es in seltenen Fällen zu tödlich verlaufenen Viruserkrankungen kam. Durch die Fusion mit der 700 Mann starken Pharmazeutikfirma Pfrimmer in Erlangen avancierte der schwedische Pharmariese auch in der Bundesrepublik in den Kreis der wichtigsten Unternehmen auf dem Krankenhaussektor.

(erschienen in der WELT am 3. Oktober 1989)

Immuntherapie – Schützenhilfe durch körpereigene Kräfte

Krebstherapien, die das menschliche Immunsystem aktivieren sollen, haben in klinischen Versuchen erste Erfolge vorzuweisen. Sollten sich die Ergebnisse, die amerikanische Wissenschaftler jetzt vorgelegt haben, bestätigen, wäre dies ein Silberstreif am Horizont für Patienten, die unter Krebs im fortgeschrittenen Stadium leiden.

Die Forscher selbst warnen jedoch vor übertriebenen Hoffnungen, besonders angesichts der Tatsache, dass diese Richtung der Krebsforschung bisher zu zahlreichen Fehlschlägen geführt hat. Bereits seit zwanzig Jahren bemüht man sich, körpereigene Abwehrmechanismen zu stärken, die Krebszellen erkennen und ausschalten können. Wie Jean-Claude Bystryn vom Medical Center der Universität New York erklärt, hängt das Wachstum eines Krebsgeschwürs nicht alleine von dem Krebs selbst ab, sondern auch davon, ob und wie der Körper auf diese Fehlfunktion reagiert.

Die neuen Therapien zeigen erste Erfolge bei so schwierig zu handhabenden Leiden wie dem bösartigen Hautkrebs (Melanom) sowie dem Krebs des Darms und der Nieren. Während alte Behandlungsversuche sich mit der unspezifischen Anregung des Immunsystems versuchten – etwa durch Injektion des Bazillus Calmette-Guerrin (BCG), wird heute ein neuer Ansatz erprobt.

Die Tumorzellen selbst sind es, die dem Patienten bei einer Operation entnommen werden. Sie dienen dann – durch Strahlung abgetötet und mit BCG vermischt – der Aktivierung bestimmter Zellen des Immunsystems. In Verbindung mit BCG oder anderen Immunstimulantien werden die weißen Blutkörperchen (Lymphozyten) dann in die Lage versetzt, auch solche Tumorzellen zu erkennen und anzugreifen, die sie bis dahin „übersehen“ haben. Eine andere Methode erprobt Professor Volker Schirrmacher am Deutschen Krebsforschungszentrum in Heidelberg. Durch Infektion mit Viren sollen Tumorzellen für das Immunsystem sichtbar werden.

Michael Hanna, der einen dieser Impfstoffe entwickelt hat, äußerte gegenüber dem Wissenschaftsmagazin „Science“, dass die Anzahl der Rückfälle nach der chirurgischen Entfernung eines Darmkrebses um mehr als die Hälfte verringert werden konnte. Bisher stand man der Metastasenbildung nach derartigen Eingriffen eher hilflos gegenüber. „Ich glaube, das ist sehr dramatisch“, sagte der Forscher, der seine gegenwärtigen Erfolge zum großen Teil auf Tierversuche an Meerschweinchen zurückführt. Dort gelang es schon Anfang der siebziger Jahre, Tumoren durch Injektion von BCG zu bekämpfen.

Obwohl die neuen Impfstoffe offensichtlich die Bildung von Tochtergeschwülsten verhindern können, ist noch nicht genug Zeit für ein endgültiges Urteil verstrichen. Erst wenn sich die 5-Jahres-Überlebensrate der Patienten verbessert, kann man wirklich von einem Erfolg sprechen.

Auch die „Krebsimpfstoffe“ haben jedoch ihre Nachteile. Um Tumorzellen aus einer bösartigen Geschwulst des Patienten zu gewinnen, ist immer ein operativer Eingriff erforderlich. Weil sich das Immunsystem nach einer solchen Operation erst einmal „erholen“ muss, kann die erste Injektion frühestens drei Wochen nach diesem Eingriff gegeben werden.

In der Zwischenzeit müssen die Zellen konserviert werden – eine Aufgabe, für die die meisten Chirurgen nicht vorbereitet sind. Beim Melanom besteht ein weiteres Problem darin, dass die primären Tumoren, aus denen die Krebszellen isoliert werden müssen, oft zu klein sind, um die erforderliche Anzahl an Zellen bereitzustellen.

Trotz aller Bedenken sind die Forscher optimistisch. Nach über zwei Jahrzehnten erfolgloser Anläufe, stehen die Chancen, doch noch eine Immuntherapie gegen den Krebs zu entwickeln, heute nicht mehr ganz so schlecht.

(erschienen in der WELT vom 16. September 1989)

Was ist daraus geworden? Langsam, aber sicher sind die Forscher voran gekommen bei der Entwicklung von Immuntherapien gegen Krebs. Inzwischen gibt es tatsächlich eine Impfung, die Gebärmutterhalskrebs verhindern kann, und die ersten gentechnisch hergestellten Antikörper sind im Einsatz in der Klinik. Die Wikipedia widmet dem Thema einen sehr ausführlichen Beitrag und auch ich bleibe an dem Thema dran – versprochen.