Zum Hauptinhalt springen

Verbrennung ohne Schadstoffe?

Wenn Professor Jürgen Warnatz, Direktor des Institutes für technische Verbrennung an der Universität Stuttgart, seine Arbeit beschreibt, hört sich das so an: „Flammen sind äußerst komplizierte dreidimensionale, zeitabhängige, physikalisch-chemische Systeme, in denen sich ständig unterschiedlichste Reaktionen überlagern.“ Kein Wunder also, daß Warnatz zur Untersuchung von Verbrennungsvorgängen auf die Hilfe eines Supercomputers angewiesen ist. Wenn dieser beispielsweise die Verbrennung des einfachen Moleküls Methan (CH4) simuliert, werden vierhundert verschiedene Reaktionen und vierzig Zwischenprodukte erfaßt.

Damit bietet das Elektronenhirn erhebliche Vorteile gegenüber der klassischen Chemie, in der meist nur Anfangs- und Endprodukt berücksichtigt werden können. In der Computersimulation können Brennstoffgemisch, Druck und Temperatur unabhängig voneinander variiert und berechnet werden; zeitraubende Versuche werden überflüssig. Die praktischen Konsequenzen dieser Forschung liegen auf der Hand: Die optimalen Verbrennungsbedingungen für Gas, Öl und Kohle lassen sich erstmals berechnen, schädliche Nebenprodukte können vermindert werden.

„Wir sind auf dem Weg zu einer Energiegewinnung mit hohem Wirkungsgrad bei gleichzeitig geringer Schadstoffemission“, sagt Warnatz. Dieses Ziel wurde in der Kraftwerkstechnik bisher verfehlt; es galt als unmöglich, beide Vorteile zu vereinen. Denn um eine hohe Energieausbeute zu erzielen, müssen Verbrennungen bei hoher Temperatur erfolgen, wodurch der Anteil an unverbrannten Kohlenwasserstoffen und Stickoxiden ansteigt.

Die Einsatzmöglichkeiten der Computersimulation sind damit aber noch nicht erschöpft: In Automotoren, Heizungsanlagen, Flugzeugturbinen, ja sogar bei der umstrittenen Müllverbrennung könnten die freigesetzten Schadstoffe reduziert werden, wenn es den Forschern gelänge, Druck, Temperatur und Brennstoffgemisch optimal aufeinander abzustimmen. Dies wäre ökologisch und wirtschaftlich sinnvoller, als die entstehenden Abgase mit immer besseren und aufwendigeren Filtern zu reinigen.

(erschienen in „DIE WELT“ am 5. April 1991)

Amgen erhält Patent auf EPO

In den Vereinigten Staaten darf ein Eiweiß, welches das Wachstum von roten Blutkörperchen anregt, künftig nur noch von der Firma Amgen vertrieben werden. Die Entscheidung des US-Patentamtes garantiert Amgen Exklusivrechte auf die gentechnisch hergestellte Substanz Erythropoietin (EPO). Einem Forscher des Unternehmens war es 1983 als erstem gelungen, das Gen zu finden und zu isolieren, welches die Erbinformation für EPO enthält. Die Substanz, welche natürlicherweise in der Niere gebildet wird, hat sich bei der Behandlung von Dialysepatienten als hilfreich erwiesen und könnte auch ausgewählten Aidspatienten zugutekommen.

(erschienen in „DIE WELT“ am 2. April 1991)

Software-Test Norton Backup

Ein perfektes Instrument zur Sicherung der wertvollen Daten, die jeder ernsthafte Computernutzer auf seiner Festplatte ansammelt – dies ist der Anspruch des englischsprachigen Programmes Norton Backup 1.1. Innerhalb von fünf Minuten ist die Installation abgeschlossen.

Nach mehreren Kurztests, in denen das Programm die optimalen Einstellungen für den jeweiligen Computer eigenständig vornimmt, erscheint die beruhigende Meldung, man könne nun zuverlässige Sicherheitskopien anfertigen. Weitere Fragen beantwortet ein gut gegliedertes Handbuch auf 140 Seiten.

Schnell und sicher erfolgt der „Backup“ durch direkten Zugriff auf den Arbeitsspeicher und gleichzeitiges Beschreiben der Disketten. Nach der Auswahl der zu sichernden Dateien und Verzeichnisse berechnet Norton Backup die Anzahl der benötigten Floppys und den Zeitaufwand. Leicht verunsichert wird der Anwender möglicherweise durch die Warnlampe des Laufwerkes, die – Zeit ist Geld – gleich gar nicht mehr ausgeschaltet wird.

Statt unsäglichen Parametern, die den altbackenen DOS-Befehlen „Backup“ und „Restore“ hinzuzufügen sind, kann der „User“ menügesteuert und mausunterstützt sein eigenes Backup-Rezept erstellen. Drei Benutzerebenen, fünf verschiedene Arten von Backups und mehrere sinnvolle Optionen wie Datenkompression und -verifizierung können kombiniert werden mit der Auswahl einzelner Dateien, Verzeichnisse oder Dateitypen.

Dies und die Möglichkeit, verschiedene frei definierte Sicherungsstrategien abzuspeichern und in Makros zusammenzufassen, machen das Norton Backup zum derzeit besten Programm seiner Klasse. Zu bemängeln wäre allenfalls der hohe Preis von 399 Mark, eine Investition, die sich erst nach der Rettung verlorengeglaubter Daten bezahlt machen dürfte.

„Norton Backup 1.1“ für IBM-PC und Kompatible. Markt und Technik Verlag AG, 8013 Haar bei München.

(erschienen in „DIE WELT“ 28. März 1991)

Was wurde daraus? Endlich ´mal ein Programm, das nicht an Altersschwäche gestorben ist! Stattdessen gibt es eine ganze Produktfamilie, die neben dem Backup in der Cloud auch gleich Schutz vor Viren bietet, die Passwörter verwaltet und andere komfortable Optionen bietet – und das wahlweise für 1 bis 10 Geräte, wie hier bei Amazon.

Schreiben wie gedruckt

Eine neue Entwicklung auf dem Gebiet der elektronischen Datenverarbeitung könnte schon bald vielen Computeranwendern Erleichterung bringen. Nach den Vorstellungen der kalifornischen Firma Go wird nämlich ein sogenannter Clipboard-Computer bald schon das Erlernen zahlreicher Befehle überflüssig machen. Der Rechner, der etwa 8000 Mark kosten soll, ist außerdem in der Lage, handschriftliche Eingaben direkt in Druckbuchstaben zu übersetzen. Diese Erfindung könnte einen Engpaß beseitigen, der bisher die optimale Nutzung der Elektronenhirne verhindert hat.

Die Rechenleistung und die Speicherkapazität von Computern hat sich in der letzten Dekade so enorm gesteigert, daß durchaus erschwingliche Maschinen weitaus mehr zu bieten haben, als die meisten Anwender zu nutzen in der Lage sind. Ob eine Telefonnummer unter Tausenden von Datensätzen herausgesucht wird, umfangreiche Texte zu trennen sind oder eben mal gewaltige Zahlenkolonnen aufaddiert werden, stets wird die Aufgabe innerhalb von Sekundenbruchteilen erledigt. Die Geräte (Hardware) und Programme (Software), welche derartige Wunderdinge leisten, kosten kaum mehr als ein Monatsgehalt und sind mittlerweile selbst in Kaufhäusern in reicher Auswahl zu finden.

Einen Haken hat diese schöne neue Elektronikwelt allerdings: Nicht jeder kann mit dem Computer umgehen. Die Bedienung leistungsfähiger Programme ist – entgegen den Beteuerungen der Hersteller – meist alles andere als trivial. Eine brauchbare Textverarbeitung oder ein gutes Datenbankprogramm kommt heutzutage nicht selten mit einer Gebrauchsanleitung von mehreren tausend Seiten daher. Diese „Standardsoftware“ bietet theoretisch genug Möglichkeiten, um ganze Handelsketten oder Behörden zu verwalten, doch der normale „User“ wird nur einen winzigen Bruchteil der Fähigkeiten dieser Systeme sinnvoll nutzen können. Ein Großteil der Arbeitszeit wird somit durch das Erlernen unnötiger Befehle und Funktionen verbraucht.

Schlimmer noch: Im Bereich der von IBM dominierten Personal Computer herrscht eine verwirrende Fülle an unterschiedlichen Befehlssprachen. Für den Benutzer heißt das, daß er in schnellem Wechsel seine Kenntnisse an die jeweils neueste Software-Generation anpassen muß, um nicht den Anschluß zu verlieren. Der von der Firma Go im kalifornischen Foster City entwickelte Clipboard Computer könnte – so die Meinung von Experten – entscheidend dazu beitragen, die bisherigen Engpässe zu überwinden.

Das elegante System, welches nach dreieinhalbjähriger geheimer Entwicklungsarbeit präsentiert wurde, wiegt etwa zwei Kilogramm und hat das Format eines Schreibmaschinenblattes. Die Eingabe von Buchstaben, Zahlen und Satzzeichen erfolgt nicht mehr über eine herkömmliche Tastatur, sondern mittels eines „elektronischen Bleistiftes“ direkt auf den Bildschirm. Dieser erkennt – dank eines Programmes mit dem Namen PenPoint – sorgfältige Handschrift und wandelt diese direkt in Druckbuchstaben um. Ein großer Vorteil des Rechners liegt in der einfachen Bedienung, wodurch das Auswendiglernen komplexer Befehlsfolgen überflüssig wird.

Um etwa Sätze oder Worte zu löschen, muß der Benutzer diese lediglich durchstreichen. Ein kleines Karo genügt, um dem Computer zu signalisieren, daß an der markierten Stelle neuer Text eingefügt wird. Diese erstaunlichen Leistungen gehen auf eine fast dreißigjährige Forschung in der Erkennung von Handschriften zurück. Wie das Nachrichtenmagazin „Time“ berichtet, will sich die Firma Go auf den Vertrieb und die Lizenzierung der Software konzentrieren. Damit hofft man, von dem expandierenden Markt für kleine, tragbare Computer – den sogenannten Notebooks – zu profitieren.

Marktführer IBM, NCR und eine Tochterfirma des amerikanischen Herstellers Tandy werden voraussichtlich noch in diesem Jahr Computermodelle auf den Markt bringen, die auf der neuen Software basieren. Inzwischen ist auch Microsoft, der weltweit größte Hersteller von Computerprogrammen, auf den neuen Trend aufmerksam geworden: In Kürze soll ein Konkurrenzprogramm unter dem Namen Pen Windows auf den amerikanischen Markt kommen.

(erschienen in „DIE WELT“ am 27. März 1991)

Was wurde daraus? Obwohl die Idee seinerzeit durchaus reizvoll schien, hat sich das Pen Computing bis heute nicht wirklich durchsetzen können. Die Firma Go bekam es sowohl mit Microsoft als auch mit Apple zu tun, diverse Klagen wegen Patentverletzungen verliefen im Sande. Man wurde von AT & T gekauft und trotz der vielen Vorschusslorbeeren letztlich fallen gelassen, ohne jemals größere Umsätze gemacht zu haben. Auf Amazon gab es z.B. den schlauen Pen von LiveScribe zu kaufen, der die Übersetzung von Handschriften tatsächlich bewerkstelligt, aber auch der hat offenbar kein größeres Publikum gefunden. Ich vermute, dass mit der immer besseren Spracherkennungs-Software von Google, Siri, Alexa & Co. das Schönschreiben mit dem Computerstift keine große Zukunft mehr hat.

Schlacht kann auf Bildschirm verfolgt werden

Amerikanischen Spionagesatelliten wird in der allseits erwarteten Bodenoffensive der alliierten Streitkräfte im Golfkrieg eine entscheidende Rolle zufallen. Diese Ansicht vertraten mehrere hochkarätige Experten auf der Tagung der Amerikanischen Gesellschaft zur Förderung der Wissenschaft (AAAS) in Washington. Danach steht der irakischen Armee im besetzten Kuwait, die über keinerlei Möglichkeiten der Aufklärung verfügt, die bestinformierte Streitmacht aller Zeiten gegenüber.

Wie William Burrows von der Universität Washington erläuterte, gelang es den Vereinigten Staaten in jüngster Zeit, alle wesentlichen Herausforderungen an die Technik der Spionagesatelliten zu erfüllen. So sind die Satelliten des Typs Keyhole (Schlüsselloch) in der Lage, Bilder zu liefern, die von den Bodentruppen der Alliierten direkt empfangen werden können. Die Amerikaner, welche im Besitz der geeigneten Empfangsgeräte sind, könnten die Schlacht quasi am Bildschirm verfolgen – zumindest so, wie sie sich aus großer Höhe darbietet.

Die kleinsten Details, die so mit Unterstützung von bildverarbeitenden Computern noch ausgemacht werden können, haben eine Größe von etwa zehn Zentimetern. Für radargestützte Satelliten beträgt die Auflösung etwa 30 Zentimeter. Auf die Frage, warum es trotz dieser teuren High-Tech-Geräte nicht gelingt, etwa alle Abschußrampen für die sowjetischen Scud-Raketen zu entdecken oder gar Saddam Hussein selbst rund um die Uhr zu überwachen, bot Burrows eine einleuchtende Erklärung:

Das Nadelöhr ist schon lange nicht mehr die Aufzeichnung der Daten, sondern deren Auswertung. Praktisch alle Angehörigen der Nationalen Sicherheitsbehörde NSA, die des Arabischen mächtig sind, befinden sich derzeit am Persischen Golf. Dennoch können bei weitem nicht alle abgehörten Gespräche ausgewertet werden. Bei rund 11.000 Telefongesprächen, die der Satellit Rhyolite schon 1970 synchron aufzeichnen konnte, verwundert das nicht.

(erschienen in „DIE WELT“ am 20. Februar 1991)

Besuch im Supermarkt der Wissenschaften

Was haben Gentherapie und – Abtreibungspille, Kosmologie und Ackerbau gemeinsam? Welcher Zusammenhang besteht zwischen Regenwald und Golfkrieg, zwischen der Zukunft der Nasa und dem Berufsbild von Zahnärzten, zwischen Frauen in der Wissenschaft und der Verbreitung von Atomwaffen?

All diese Themen und mehr werden auf einer einzigen Mammut-Konferenz besprochen. Die Rede ist von der Tagung der Amerikanischen Akademie zur Förderung der Wissenschaften (AAAS), die heute in Washington zu Ende geht. Fast 6000 Teilnehmer nutzten mehr als 1000 Vorträge, um ihren Wissensdurst zu stillen. Zusammen beanspruchte die Schar interessierter Laien, Studenten, Professoren und Journalisten gleich mehrere Hotelkomplexe in der amerikanischen Hauptstadt.

Fast eine Woche dauerte der alljährliche „Supermarkt der Wissenschaften“, der in diesem Jahr zum 157. Mal stattfand und damit zu einer der traditionsreichsten Veranstaltungen der USA zählt. Die 1848 gegründete Akademie ist mit 132.000 Mitgliedern die weltweit führende wissenschaftliche Vereinigung. 290 individuelle Gesellschaften sind ihr angeschlossen. Die Akademie veröffentlicht mit „Science“ eines der angesehensten (und auflagenstärksten) Wissenschaftsmagazine und bietet ihren Mitgliedern weltweite Exkursionen unter fachkundiger Leitung an.

Aber auch sonst macht die Vereinigung zur Förderung der Wissenschaft ihrem Namen alle Ehre. Eine bessere Schulbildung zählt genauso zu ihren Zielen wie die Förderung von Minderheiten, Frauen und Behinderten in der Wissenschaft. „Wichtigste Aufgabe unserer jährlichen Treffen ist es, die Kontroversen in der Forschung an die Öffentlichkeit zu tragen“ erklärt Joan Wrather, die mit ihren Kollegen eine Heerschar von etwa 700 Medienvertretern betreute.

Kontroversen in der Wissenschaft, die gibt es auch im eher fortschrittsgläubigen Amerika reichlich. Gleich mehrere Vorträge widmeten sich der „Abtreibungspille“ RU-486, einem Präparat, welches das Einnisten einer bereits befruchteten Eizelle in der Gebärmutter verhindert und dem bislang nur in Frankreich – und dies nach langer Debatte – die Zulassung erteilt wurde. US-Wissenschaftlern ist derzeit jegliche Forschung mit dem Präparat verboten, welches noch für mehrere andere Anwendungen im Gespräch ist. So könnte RU-486 eingesetzt werden, um den Gebärmutterhals bei der Geburt zu erweitern und damit die Zahl der Kaiserschnitte zu reduzieren.

Auch bei der Bekämpfung bestimmter Tumoren, die von der Zufuhr des Schwangerschaftshormons Östrogen abhängig sind, könnte RU- 486 hilfreich sein. Durch die öffentliche Diskussion dieser Thematik sollen Fakten von Emotionen getrennt werden. Gesetzgebung und Politik werden darauf aufmerksam gemacht, daß amerikanische Wissenschaftler von einem breiten Forschungsgebiet praktisch ausgeschlossen werden.

Neben brisanten Themen wie der Aids-Epidemie, oder dem Zusammenhang zwischen Drogen, Erziehung und Gewalt steht auch zur Debatte, wofür Forschungsgelder am sinnvollsten einzusetzen sind. Viele Forscher fürchten, daß prestigeträchtige Großobjekte wie die geplante Raumstation oder die Sequenzierung des menschlichen Erbgutes sich zu schwarzen Löchern entwickeln könnten, in denen all das Geld verschwindet, welches besser in eine Vielzahl kleiner Objekte zu investieren wäre.

Auch wenn viele Teilnehmer angesichts des überwältigenden Informationsangebotes hin- und hergerissen wurden zwischen harter Forschung und spielerischem Entdecken, Ethik und Esoterik, ist eines gewiß: Die Veranstaltung der AAAS ist immer ein faszinierendes Schaufenster der Wissenschaft und Paradebeispiel für den viel beschworenen Dialog mit der Öffentlichkeit.

(erschienen in „DIE WELT“ am 19. Febuar 1991)

Was wurde daraus? Aus RU-486 wurde Mifepriston (Handelsname Mifegyne), es darf seit dem Jahr 2007 in der EU und in der Schweiz für einen Schwangerschaftsabbruch bis zur 9. bzw. Woche eingesetzt werden. Unterdessen hat man sich in Europa von der AAAS inspirieren lassen und 2004 mit dem Euroscience Open Forum (ESOF) ebenfalls eine interdisziplinäre Wissenschaftskonferenz ins Leben gerufen.

Gen-Probe für Lincolns Krankheiten

Auch 126 Jahre nach der Ermordung Abraham Lincolns streiten Experten noch über den Gesundheitszustand des amerikanischen Präsidenten zum Zeitpunkt des Attentats. Mit Hilfe einer äußerst empfindlichen Nachweismethode ist eine Antwort auf die Fragen der Historiker jetzt in greifbare Nähe gerückt. Ein Komitee, eingesetzt vom Nationalen Gesundheits- und Medizinmuseum der Vereinigten Staaten, soll zunächst überprüfen, ob Gewebeproben Lincolns und anderer historischer Persönlichkeiten für das Verfahren noch gut genug erhalten sind. Außerdem müßten ethische und rechtliche Einwände gegen die geplante Genanalyse überprüft werden, meldet die „Herald Tribune“.

Das Museum mit Standort in Washington verfügt über rund 17000 Ausstellungsstücke, darunter auch die blutigen Manschetten des Arztes, der Lincolns Leiche nach dem Mordanschlag in Ford’s Theater untersuchte, zwei Locken, sowie mehrere Knochensplitter, die von der Kopfwunde des Präsidenten stammen. Obwohl der Anschlag mehr als ein Jahrhundert zurückliegt, dürfte das Erbmaterial Lincolns in den Proben noch weitgehend intakt sein. Dann aber genügt theoretisch eine einzige Zelle, um Lincolns Gene in unbegrenzten Mengen zu vervielfachen.

Wissenschaftler machen sich dabei Eiweißstoffe zunutze, die das genetische Material der Zelle – die DNA – verdoppeln können. Innerhalb kurzer Zeit erhalten die Forscher auf diese Weise Milliarden von Kopien, die dann weiter untersucht werden können. Diese Methode der Genvermehrung – im Fachjargon mit PCR abgekürzt – findet in den letzten Jahren immer breitere Anwendung.

Da keine zwei Menschen exakt gleiches Erbmaterial haben (eineiige Zwillinge ausgenommen), wird das Verfahren manchmal benutzt, um nach Schwerverbrechen das Erbmaterial des Angeklagten mit den Blut oder Samenspuren vor Ort zu vergleichen. Aufgrund der großen Stabilität der DNA wurde sogar schon bei ägyptischen Mumien der Versuch einer Genanalyse unternommen – allerdings mit eher bescheidenem Erfolg.

Trotz der großen Empfindlichkeit der PCR-Methode ist Skepsis angebracht, ob beispielsweise die Krankengeschichte Lincolns bald lückenlos vorliegen wird. Historiker vermuten in diesem Fall aufgrund indirekter Hinweise, daß Lincoln an einer Erbkrankheit litt (dem Marfan-Syndrom), die zur Schwächung von Knochen, Sehnen und Gefäßen führt und in den meisten Fällen einen frühen Tod bedeutet. Äußerlich macht sich das Marfan Syndrom durch hohen, schlanken Körperwuchs und ungewöhnlich lange Gliedmaßen und Finger bemerkbar.

Sollte diese Diagnose zutreffen, dann hätte Lincoln, der zum Zeitpunkt des Attentats 56 Jahre alt war, in ständiger Todesgefahr gelebt. Mehrere Biographen gehen außerdem davon aus, daß Lincoln unter Depressionen litt, doch ist eine erbliche Grundlage für dieses Leiden noch nicht zweifelsfrei erwiesen. Solange aber die Gene, welche für das Marfan-Syndrom oder auch für Depressionen verantwortlich sind, noch nicht identifiziert sind, bleiben die Theorien der Historiker bloße Spekulationen. Auch wenn die Expertenkommission schließlich grünes Licht für eine Untersuchung der Überreste des Präsidenten gibt, werden sich die Geschichtsforscher vermutlich noch mehrere Jahre gedulden müssen, bis die Molekularbiologen ein abschließendes Urteil über Lincolns Gebrechen abgeben können.

Wenn Gene aus der Kanone fliegen

Während eine gespannte Öffentlichkeit die ersten zaghaften Versuche zur Gentherapie beim Menschen verfolgt, planen Biologen und Mediziner schon den nächsten Schritt in die Zukunft. Doch wie soll die Raffinesse eines Verfahrens übertroffen werden, in dem gentechnisch veränderte Viren winzige Bruchstücke der menschlichen Erbinformation in hochspezialisierte Immunzellen einschmuggeln, die dann – so die Hoffnung aller Beteiligten – zu Milliarden ausschwärmen, um die Arbeit des Chirurgen überflüssig zu machen?

Nicht komplizierter, sondern einfacher müssen die Techniken werden, damit möglichst viele kranke Menschen von den Ergebnissen der modernen Biologie profitieren können, so lautet die verblüffende Antwort der Experimentatoren. Erste Resultate weisen darauf hin, daß die Retroviren, welche in der Vergangenheit zum Gegenstand hitziger Diskussionen wurden, bald abgelöst und durch simplere Methoden des Gentransfers ersetzt werden könnten, Bisher hatte man die Viren als „Schlüssel“ zur Zeile angesehen, weil sie sich darauf spezialisiert hatten, ihr eigenes Erbmaterial zwischen die Gene der Wirtszelle einzuschmuggeln.

Steven Rosenberg und seine Mitarbeiter am National Institute of Health im amerikanischen Maryland hatten sich diese Eigenschaft zunutze gemacht, die Viren ihrer Vermehrungsfähigkeit beraubt und sie dann zu „Genfähren“ umgebaut. Vielversprechende Erbanlagen, wie jüngst die Bauanleitung für den Tumor Nekrose Faktor, konnten so mit Hilfe der gezähmten Viren Zellen des menschlichen Immunsystems hinzugefügt werden. Theoretisch kann jedes Gen, jeder molekulare Bauplan. den die Forscher bisher isolieren konnten, auf diese Weise verfrachtet werden und defekte oder fehlende Erbanlagen ersetzen.

Da die Anzahl bekannter Gene schon seit Jahren explosionsartig zunimmt, verfügen die Wissenschaftler schon heute über ein ganzes Arsenal an molekularen Blaupausen, beispielsweise für Hormone und Wachstumsfaktoren, strukturgebende Eiweiße oder Botenstoffe des Immunsystems. Dazu gehören auch solche Gene, deren Abwesenheit oder Defekt für eine Reihe verheerender Erbkrankheiten verantwortlich sind.

Die Gentherapie zielt nun darauf ab, die jeweils betroffenen Zellen zu reparieren, doch ergeben sich hier mehrere Engpässe, die bisher noch nicht überwunden werden konnten: Zum einen widersetzen sich die weitaus meisten der über 200 Zelltypen in unserem Körper dem Gentransfer mittels Retroviren. Die beiden bisher angelaufenen Versuche zur Gentherapie am Menschen beschränkten sich auf die Manipulation von weißen Blutzellen; diese aber sind mit einer Lebensdauer von wenigen Monaten relativ kurzlebig, so daß die Behandlung vermutlich mehrmals – oder gar lebenslang – wiederholt werden muß.

Ein weiteres Argument gegen die Viren lautete: Durch den rein zufälligen Einbau fremder Gene irgendwo auf dem über einen Meter langen menschlichen Erbgut könnten lebenswichtige Erbanlagen auseinandergerissen oder Onkogene aktiviert werden, die dann Krebserkrankungen auszulösen vermögen.

Obwohl eine weitere neue Technik, das „Gene-Targeting“, den Einbau der Ersatzgene zu einem hochpräzisen Vorgang machen könnte, bliebe ein drittes Problem weiter ungelöst: Die Prozedur läßt sich aller Voraussicht nach nicht rückgängig machen. Sollten unerwünschte Nebenwirkungen auftreten, kann der behandelnde Arzt ein einmal transferiertes Gen nicht einfach „absetzen“, wie dies etwa bei einem Arzneimittel möglich wäre.

Trotz aller Einwände und Bedenken könnte die Gentherapie bei einer Reihe von gravierenden Krankheiten zum Einsatz kommen; zunächst vor allem in solchen Fällen, bei denen alle anderen Methoden versagen. In jüngster Zeit konnte zudem gezeigt werden, daß ein Gentransfer auch ohne Viren stattfinden kann. So gelang es beispielsweise John Wolff vom Waisman Center der Universität Wisconsin in Zusammenarbeit mit Philip Felgner von der kalifornischen Firma Vical, intakte Gene durch direktes Einspritzen in die Muskelzellen von Mäusen zu übertragen („Science“, Band 247, S.1465).

Wolff und Felgner beobachteten, daß die eingebrachten Gene in den Versuchstieren die Produktion dreier Eiweißstoffe (CAT, Luziferase und ß-Galaktosidase) dirigierten – und das bis zu sechs Monaten. Darüber hinaus konnten die Wissenschaftler auch recht genau steuern, wieviel Eiweiß produziert wurde, indem sie die Menge an injizierter DNA entsprechend veränderten. Damit eröffnet sich die Möglichkeit, auch solche Krankheiten zu behandeln, bei denen sich die Gentherapeuten bislang in einer Sackgasse wähnten.

Ein Einbau von Genen in das Erbgut der Zielzellen ist, das bestätigten auch andere Arbeitsgruppen, nicht mehr in allen Fällen nötig. Dies verwunderte die Experten vor allem deshalb, weil fremde, „nackte“ Erbsubstanz (DNA) nach bisheriger Erkenntnis von den infizierten Zellen binnen kurzer Zeit in ihre Bausteine zerlegt werden sollte. Trotzdem meldete fast ein Dutzend voneinander unabhängiger Laboratorien, daß die Fremd-DNA teilweise über Monate hinweg intakt blieb und das biochemische Geschehen der Wirtszelle dirigierte („Nature“, Band 349, S. 351).

Nicht nur die Nadel dient indes dazu, die molekularen Baupläne in Form von DNA an Ort und Stelle zu verfrachten. Vielmehr haben die Forscher ein ganzes Arsenal von Methoden entwickelt, um beispielsweise auch diejenigen Zellen zu erreichen welche die Atemwege auskleiden oder die Wände unserer Blutgefäße bilden. Bestandteile der Zellmembran etwa – sogenannte Phosphoglyceride – können mit Wasser nach einer Ultraschallbestrahlung tropfenförmige Strukturen bilden, die in der Lage sind, Erbsubstanz zu transportieren Mit diesen mikroskopisch kleinen Kügelchen (Liposomen) gelang es beispielsweise bei Schweinen, Erbmaterial in die Wände von arteriellen Blutgefäßen zu verfrachten.

Die jetzige Todesursache Nummer eins in den westlichen Industrieländern könnte einmal ein mögliches Anwendungsgebiet dieser Versuche werden: Herz- und Kreislaufkrankheiten wie Arteriosklerose oder überhöhter Blutdruck ließen sich im Prinzip durch gentechnisch veränderte Zellen beeinflussen, die darauf programmiert würden, für einen bestimmten Zeitraum blutdrucksenkende Mittel direkt in den Blutstrom abzusondern. Die derzeit wohl spektakulärste Errungenschaft auf diesem Gebiet aber stellt die „Genkanone“ dar, eine Apparatur, mit der sich DNA-Moleküle wie Kugeln verschießen lassen („Nature“, Band 346, S.776). Dabei nutzt man die Eigenschaft nackter Erbsubstanz aus, sich an mikroskopisch kleine Partikel aus Gold oder Tungsten anzuheften. Die Teilchen können dann durch allerlei explosionsartige Verbrennungsprozesse (auch Schwarzpulver kommt vereinzelt zum Einsatz) abgefeuert werden. Vorläufig allerdings ist diese Anwendung erst bis zum Reagenzglas fortgeschritten, so daß die Spekulation darüber, ob jemals Patienten mit einer Genkanone beschossen werden könnten, den Autoren von Science-Fiction-Romanen vorbehalten bleibt.

Quellen:

  • Wolff JA, Malone RW, Williams P, et al. Direct gene transfer into mouse muscle in vivo. Science. 1990;247(4949 Pt 1):1465–1468. doi:10.1126/science.1690918.
  • Felgner, P., Rhodes, G. Gene therapeutics. Nature 349, 351–352 (1991). doi: 10.1038/349351a0.
  • Johnston, S. Biolistic transformation: microbes to mice. Nature 346, 776–777 (1990). doi: 10.1038/346776a0.

(erschienen in „DIE WELT“ am 9. Februar 1991)

Die größte Ölpest aller Zeiten

Einen traurigen Rekord mußten Umweltschützer in dieser Woche aus der Kriegsregion am Persischen Golf vermelden: Noch nie wurde so viel Rohöl in die Natur entlassen wie in den vergangenen Tagen. Die Rede ist von etwa zwei Milliarden Litern, das entspricht dem Fassungsvermögen von sieben Supertankern oder der fast unvorstellbaren Anzahl von 100000 Tanklastzügen

Mittlerweile haben die Ölteppiche Ausmaße von mehreren tausend Quadratkilometern erreicht, und noch immer konnte der Zufluß nicht vollständig gestoppt werden. Zum Vergleich: Als die 300 Meter lange Exxon Valdez am 24. März 1989 vor Alaska auf ein Riff auflief, ergossen sich im Verlaufe weniger Tage mehr als 40 Millionen Liter Öl in den Prinz-William-Sund und verursachten die letzte große Ölpest. 36000 Vögel, darunter 150 Weißkopf-Seeadler, sowie 1000 Otter, über 30 Robben, fast 20 Grauwale und 5 Seelöwen waren in den Monaten nach der Katastrophe tot aufgefunden worden.

Die Zahl der Tiere, welche qualvoll verendeten, liegt aber wahrscheinlich noch viel höher, da viele Kadaver im Meer versanken. Noch heute finden sich Spuren der Katastrophe an Hunderten von Kilometern der ehemals unberührten Küste. Dies, obwohl die geologischen Verhältnisse das Abwaschen der Felsen eher begünstigen.

Die Materialkosten und die Löhne für die 11000 Arbeiter, die zeitweise eingesetzt wurden, beliefen sich für den Erdölkonzern Exxon bisher auf fast 2 Milliarden Dollar, wobei noch anstehende Schadensersatzforderungen diese Summe nochmals weiter erhöhen könnten. Sechs Monate hatten die Aufräumarbeiten gedauert, doch konnte in diesem Zeitraum kaum ein Zehntel des ausgelaufenen Öls beseitigt werden.

Allerdings bedeutet das nicht, daß die restlichen 90 Prozent noch immer in den Tiefen der arktischen Gewässer liegen müssen. Rohöl besteht aus einem Gemisch von über 500 verschiedenen Substanzen; in Raffinerien läßt sich das zähflüssige Ausgangsmaterial zu so verschiedenen Substanzen wie Teer oder Waschbenzin verarbeiten. Im Persischen Golf verflüchtigten sich manche Bestandeile wie etwa kurzkettige Alkane schon innerhalb der ersten Tage.

Was übrig bleibt, sind vorwiegend langkettige Moleküle, die im Prinzip biologisch abbaubar sind. Allerdings wird die Arbeit für die überall natürlich vorkommenden Mikroorganismen umso größer, je mehr Verzweigungen sich in den Ketten der Kohlenwasserstoffmoleküle finden. Ringförmige Moleküle gar, die sogenannten Zykloalkane, sind auch für die Vielfalt der natürlich vorkommenden Bakterienarten nur schwer abbaubar. Die verbleibenden Erdölreste verhalten sich unterschiedlich, je nachdem, wie stark sie in Wasser löslich sind. Die schlechtlöslichen (hydrophoben) Anteile, die etwa 15 Prozent ausmachen, bilden Klumpen, während der überwiegende Rest mit Wasser jenen wenig stabilen Ölschlamm ergibt, der aufgrund seiner Konsistenz als „Mousse“ bezeichnet wird.

Früher oder später gelangt ein Teil des Öls an der Küste; dann hängt die Verweilzeit stark vom Wellenschlag ab. Da der Persische Golf als Randmeer kaum Wellengang zeigt, muß man mit Jahren statt mit Monaten rechnen: andererseits wird der Abbau der Ölreste durch Mikroben bei den extrem hohen Temperaturen schneller vor sich gehen als in Alaska. Teilweise erreicht das Wasser im Golf über dreißig Grad.

Die größte Ölpest aller Zeiten – bis zu Saddam Husseins Wahnsinnstat – wurde am 16. März 1978 ausgelöst, als der steuerlose Supertanker „Amoco Cadiz“ in stürmischem Wetter vor der bretonischen Küste auf Grund lief. Die gesamte Ladung von 220 Millionen Litern hatte sich damals ins Meer ergossen.

Insgesamt wurde die Ölfirma Amoco zu Schadensersatzleistungen von fast 130 Millionen Dollar an 90 Kommunen und Interessenverbände verurteilt. Heute – nach dreizehn Jahren – sind die Spuren der Katastrophe fast völlig verschwunden. Zwar sind die bretonischen Austernfischer mit ihren Äußerungen sehr zurückhaltend, doch weiß man, daß jede diesbezügliche Aussage von der Firma Amoco als gefundenes Fressen für das laufende Berufungsverfahren angesehen würde. Auch wenn die Fischer bereits wenige Monate nach der Katastrophe ihre Arbeit wiederaufnehmen konnten, will niemand einen Persilschein ausstellen.

Wie bei jeder Ölkatastrophe ist es äußerst schwierig, zuverlässige Angaben über die langfristigen Auswirkungen auf Tier- und Pflanzenwelt zu erhalten. Bisher liegen nur sehr wenige Untersuchungen zu diesem Thema vor. Eine Ausnahme bildet eine Ölpest, die 1986 an der Karibikküste des Panamakanals entstand und deren Folgen von Wissenschaftlern über mehrere Jahre hinweg verfolgt wurden. Wie die Forscher in der Zeitschrift „Science“ beschrieben, starben alle Bodenbewohner wie Seegras, Algen und Schwämme innerhalb kurzer Zeit ab. Fische konnten sich größtenteils der Katastrophe entziehen und in saubere Meeresregionen abwandern. Doch auch bei diesen Tieren war die Fortpflanzungsrate stark erniedrigt. Die Wiederbesiedlung mit Muscheln und Krebsen dauerte Jahre, wohingegen sich Schnecken mit ihren verschließbaren Gehäusen vor einer Ölpest besser zu schützen vermochten.

Besonders empfindlich auf eine Wasserverschmutzung reagieren Korallen, die an einen festen Standort gebunden sind. Bei der erwähnten Ölpest starben bis in eine Wassertiefe von drei Metern 75 Prozent aller Steinkorallen ab. Am Persischen Golf brachte der saudische Minister für Land- und Wasserwirtschaft, Abderrahman Ibn Abdelasis, den Plan vor, noch lebende Korallenbänke mit Hilfe besonderer Techniken ins Rote Meer zu transportieren, wo ähnliche Lebensbedingungen wie im Persischen Golf herrschten.

Ob dieser Plan sich in die Tat umsetzen läßt, muß jedoch angesichts der kriegerischen Auseinandersetzungen stark bezweifelt werden. Verschiedene Inseln mit besonders schützenswerter Fauna wie Dschana, Kurain und Safanyeh sollen durch Barrieren vor dem Öl geschützt werden, doch wird die Priorität sicherlich dem Schutz der Trinkwasserversorgung gelten.

Professor Wilfried Gunkel von der biologischen Bundesanstalt Helgoland gibt sich angesichts der Dimensionen von Saddams Ölteppich eher pessimistisch, was die Möglichkeiten technischer Eingriffe angeht. Letztendlich wird man die Arbeit der Natur überlassen müssen. Dennoch sieht Gunkel einen Silberstreif am Horizont. „Ich glaube, daß unter den gegebenen Umständen 80 bis 95 Prozent des ausgeflossenen Öls innerhalb von ein bis zwei Jahren verschwinden werden. Bei allen bisherigen Ölkatastrophen waren die Folgen nicht so dramatisch, wie sie ursprünglich geschildert wurden. Öl ist eine natürliche Substanz und daher prinzipiell abbaubar.“

Ob dies für die Muschelbänke und Korallenriffe, für Krabben und Seekühe, für Schildkröten und Wasserschlangen oder für die Vielzahl der einheimischen und durchziehenden Vögel am Persischen Golf noch rechtzeitig geschieht, bleibt allerdings dahingestellt. Schon vor Ausbruch der Kämpfe galt die Region als einer der meistverschmutzten Seefahrtswege der Welt. Nicht nur die langjährigen Kämpfe zwischen Iran und dem Irak waren dafür verantwortlich. Während sich beispielsweise 1983 nach irakischen Bombenangriffen auf das Nowruz-Ölfeld eine Flut von 175 Millionen Litern in den Golf ergoß, nutzten viele Tankerkapitäne die Situation aus: Sie vergrößerten den Schaden für die Umwelt noch zusätzlich, indem sie durch die illegale-Reinigung der Öltanks weitere Millionen von Litern zu der „schwarzen Pest“ hinzuaddierten.

(erschienen in „Die WELT“ am 2. Februar 1991 unter meinem Pseudonym Claudia Sahler)

Was wurde daraus? Auf Wikipedia findet sich eine lange Liste von Tankerunfällen und anderen Verursachern einer Ölpest. Die Schätzung zum Golfkrieg lautet 800.000 bis 1,7 Millionen Tonnen. Das ist deutlich weniger, als die 2 Milliarden Liter in meinem Artikel, aber immer noch mehr als bei jedem anderen Ereignis freigesetzt wurden.

Erstmals Gentherapie gegen Hautkrebs erprobt

Zum ersten Mal haben Wissenschaftler die Methode der Gentherapie angewandt, um eine Krebserkrankung beim Menschen zu bekämpfen. Am Nationalen Gesundheitsinstitut im US-Bundesstaat Maryland wurden einer 29 Jahre alten Frau und einem 49jährigen Mann gentechnisch veränderte Blutzellen injiziert.

Man erhofft sich von dieser Behandlung Fortschritte zunächst bei der Bekämpfung des malignen Melanoms, einer bösartigen Form von Hautkrebs, die kaum zu behandeln ist und weltweit jährlich Tausende von Opfern fordert. Diese Form des Hautkrebses ist im Gegensatz zu den meisten anderen Arten nur selten heilbar.

Aufgabe der gentechnisch manipulierten Immunzellen ist es, den Bauplan für einen Eiweißstoff in die Nähe von wuchernden Krebszellen zu bringen. Dieser Eiweißstoff – es handelt sich um den Tumor Nekrose Faktor TNF – soll dann vor Ort seine Wirkung entfalten und auch sehr kleine Tochtergeschwüre (Metastasen) vernichten, die für das Skalpell des Chirurgen nicht zu erreichen sind.

Unter Leitung von Dr. Steven Rosenberg hatten die Arzte den beiden Patienten zunächst weiße Blutzellen entnommen, die sich in einem bösartigen Melanom angesammelt hatten. Diese Zellen des Immunsystems, deren Aufgabe unter anderem darin besteht, krebsartig entartete Zellen aufzuspüren und zu vernichten, sind beim malignen Melanom offensichtlich nicht in der Lage, Krebszellen wirkungsvoll zu bekämpfen. Kompliziert wird die Erkrankung vor allem dadurch, daß sich sehr schnell Tochtergeschwüre bilden, die die Funktion lebenswichtiger Organe behindern.

Um den entnommenen Zellen die Erbanlagen für TNF hinzuzufügen, benutzten Rosenberg und seine Kollegen French Anderson und Michael Blaese ein Virus als „Genfähre“. Das „Moloney-Mäuse-Leukämie-Virus“, welches nach Überzeugung der Forscher für den Patienten völlig ungefährlich ist, wurde zuvor künstlich geschwächt, um die Sicherheit noch weiter zu erhöhen.

Erfolg dieser Maßnahme: Die Viren können zwar das gewünschte Gen in die weißen Blutzellen des Patienten einschmuggeln; sie können sich im menschlichen Körper aber nicht mehr vermehren. Die veränderten Immunzellen vermehrten die Forscher dann massenhaft in Zellkulturen – ein Verfahren, das mehrere Wochen in Anspruch nimmt. In einem zweiten Schritt wurden die Zellen zu Milliarden in den Blutkreislauf der Patienten zurückgegeben. „Wir hoffen, die Tür zu einer neuen Art der Krebsbekämpfung zu öffnen, aber das Verfahren ist noch in einem sehr frühen Entwicklungsstadium“, dämpfte Rosenberg allzu hohe Erwartungen.

In dieser Studie wird vor allem die Sicherheit des Experimentes überprüft. Falls sich keine unvorhergesehenen Komplikationen ergeben, wird der Versuch auf zunächst 50 Patienten erweitert werden. Damit erreicht eine bislang 16jährige Forschungstätigkeit Rosenbergs ihren vorläufigen Höhepunkt, die darauf abzielt, die menschlichen Erbinformationen gezielt zur Krebsbekämpfung einzusetzen.

Vorausgegangen waren dem historischen Experiment ausgiebige Untersuchungen über den Verbleib von gentechnisch veränderten Zellen im menschlichen Körper. Dazu war den weißen Blutzellen bereits vor einem Jahr ein sogenanntes Marker-Gen eingepflanzt worden, mit dem sich die manipulierten Zellen von den unveränderten des Patienten unterscheiden ließen.

Der erste Versuch überhaupt, eine menschliche Krankheit mit Hilfe der Gentherapie zu heilen, wurde im September des vergangenen Jahres begonnen. Ein vier Jahre altes Mädchen, das unter einer äußerst seltenen Immunschwächekrankheit litt, zeigt nach vorläufigen Verlautbarungen bereits eine deutliche Besserung seines Gesundheitszustandes.

Das Eiweiß TNF, das jetzt in der Gentherapie erstmalig angewendet wurde, hatte schon vor Jahren in Zellkulturen und im Tierversuch seine Fähigkeit bewiesen, Tumoren zu bekämpfen und war eine der ersten Substanzen auf der langen Liste gentechnisch hergestellter Wirkstoffe. Auch in Deutschland darf diese Substanz seit kurzem mit Hilfe von genmanipulierten Bakterien produziert werden.

(erschienen in „DIE WELT“ am 31. Januar 1991)  

Was wurde daraus? Fast 30 Jahre nach Erscheinen dieses Artikels finde ich bei einer Literatursuche auf PubMed annähernd 20.000 Publikationen zum Thema. Mehr als 2000 dieser Artikel erwähnen klinische Studien, jedoch ist die „Impfung gegen Hautkrebs“ immer noch nicht in der Praxis angekommen. Mindestens zwei derartige Studien laufen derzeit auch in Deutschland, wie ich einem Bericht der Melanoma Research Alliance entnehme. Nach zahlreichen Enttäuschung auf diesem Gebiet halte ich mich mit der Berichterstattung zurück bis die Daten zu einer größeren Zahl von Patienten in einer renommierten Fachzeitschrift erscheinen.