Zum Hauptinhalt springen

Zwangsarbeit in der Forschung

Zu 1750 Stunden unbezahlter Forschungsarbeit wurde Syed Zaki Salahuddin verurteilt. Der Wissenschaftler hatte bis vor kurzem noch im Labor des Amerikaners Robert Gallo an der Aufklärung der Immunschwäche Aids gearbeitet. Richter John Hargrove befand ihn jetzt für schuldig, öffentliche Forschungsgelder missbraucht zu haben. Nun muss Salahuddin 12.000 Dollar Geldstrafe zahlen und während der nächsten vier Jahre unentgeltlich sämtliche freien Samstage opfern, um nach den Ursachen des rätselhaften Yuppie-Syndroms zu forschen. Einer der Ankläger meinte dazu: „Ich halte es für eine gute Idee, Salahuddins wissenschaftliche Fähigkeiten auszunutzen.“ In ähnlichen Fällen waren Wissenschaftler zu EDV-Arbeiten verurteilt worden. Über den Erreger der Yuppie-Krankheit, die durch dauerhafte Müdigkeit gekennzeichnet ist, gibt es derzeit nur Spekulationen. Vermutlich handelt es sich dabei um ein Virus.

(erschienen in der WELT am 14. November 1990. Letzte Aktualisierung am 10. Mai 2017)

Weitere Infos zum Fall Salahuddin fand ich in der New York Times.

Umweltmessnetz für die Meere

Norwegen mit seiner wild zerklüfteten Küstenlinie und den tief eingeschnittenen Fjorden ist stark vom Einfluss des Nordatlantik geprägt. Die großen Anstrengungen, die hier unternommen werden, um diesen Lebensraum zu erforschen und zu überwachen erscheinen unter diesem Blickwinkel gut verständlich.

Norwegische Unternehmen sind deshalb auch maßgeblich an einem Forschungsprojekt der EG beteiligt, welches sich hinter dem Namen Euromar verbirgt. Die Abkürzung steht für die „Entwicklung moderner Technologien zur Erforschung ökologischer Kausalzusammenhänge in den europäischen Meeren“. Ziel ist vor allem die Entwicklung eines Umweltmessnetzes für die Meere rund um Europa.

Die in Trendheim ansässige Firma Oceanor betreibt bereits ein dichtes Netz aus verankerten und frei treibenden Messbojen, das vor allem dem Schutz der Aquakulturen dient. Bekanntlich bezieht Norwegen einen nicht geringen Teil seiner Einkünfte aus dem Fischfang und den Lachsen, die in schwimmenden Netzkäfiganlagen gehalten werden.

Bei Oceanor verweist man darauf, dass die derzeitigen Überwachungsmethoden für marine Umgebungen den strengen Qualitätsanforderungen der Wissenschaft nicht genügen. Bei Umweltkatastrophen wie der Algenblüte im Frühjahr 1988 oder Tankerunfällen müssen Informationen über die Wasserqualität sofort parat sein. Auch Umweltschutzgesetze müssen sich auf verlässliche Zahlen stützen können, sei es um wirtschaftlich aufwendige Maßnahmen begründen zu können, sei es wegen der „Umweltkriminellen“ die nur in den seltensten Fällen überführt werden können.

Voraussetzung für die Erfüllung all dieser Wünsche sind zunächst einmal Messgeräte, die den rauhen Bedingungen auf See widerstehen können. Da die Sensoren viele Jahre hindurcharbeiten sollen, müssen sie der ständigen Bewegung ebenso trotzen können wie den wuchsfreudigen Muscheln und Algen.

Sind diese Grundvoraussetzungen gegeben, so können Nährstoffe ebenso erfasst werden wie der Schwermetallgehalt, Temperatur ebenso wie Strömungsgeschwindigkeit und viele andere Messgrößen. Dieses „Mermaid-Programm“, wird vom Forschungszentrum Geesthacht bei Hamburg (GKSS) koordiniert.

Ein weiteres Projekt von Euromar (Opmod) besteht darin, die Übertragung der gesammelten Daten – via Funk und Satellit – zu sichern und Methoden zu entwickeln, mit denen die Zahlenflut bestmöglich ausgewertet werden kann. Über Telefon sollen die Daten dann abzufragen sein. Außer Norwegen sind auch Finnland, Frankreich, Deutschland, Schweden und Portugal beteiligt.

Bei Oceanor ist man optimistisch, Verteidigungsministerien, die Fisch- und Ölindustrie sowie öffentliche Behörden als Käufer gewinnen zu können, wenn Opmod im nächsten Jahr einsatzbereit ist.

(erschienen in der WELT am 13. November 1990. Letzte Aktualisierung am 8. Mai 2017)

Was ist daraus geworden? Gar nicht so einfach, den Erfolg dieser Projekte nachzuverfolgen, geschweige denn zu bewerten. Ich fand dazu fast keine Unterlagen im (frei zugänglichen Teil des) Internet. Oceanor wurde von einer größeren Firma geschluckt, baut aber weiter Messbojen. Das Forschungszentrum Geesthacht hat sich umbenannt (auch so eine Unsitte deutscher Forschungseinrichtungen), und das Wörtchen „Euromar“ klingt so gut, dass es gleich von einer handvoll verschiedener Firmen und Projekte reklamiert wird, die mit dem hier erwähnten aber nichts zu tun haben 🙁

Berichte der Enquete-Kommission Erdatmosphäre

Drei Drucksachen des Deutschen Bundestages sind die Grundlage für die Darstellung der drängendsten Umweltprobleme unserer Zeit. In insgesamt vier Bänden werden die Ergebnisse der Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ dargelegt. Von der Zerstörung der Ozonschicht über den Schutz der Tropenländer bis zu globalen Klimaveränderungen reicht die Thematik. Zahlreiche Abbildungen begleiten den klar und verständlich gehaltenen Text, dem eine weite Verbreitung auch in öffentlichen Bibliotheken zu wünschen wäre.

Schutz der Erdatmosphäre“, 640 S., 48 Mark; „Schutz der Tropenwälder“, 983 S.,58 Mark; „Schutz der Erde“ (zwei Bände, ab Januar im Handel), ca, 1600 S., 98 Mark. Economica Verlag/Verlag C. F. Müller.

(erschienen in der WELT  am 8. November 1990. Aktualisiert am 7. Mai 2017)

P.S.: Habe leider nur zwei der drei Drucksachen zum Download gefunden: Schutz der Erdatmosphäre, und Schutz der Erde

Gentechnik: Freilandversuch mit Petunien gescheitert

31000 gentechnisch veränderte Petunien, die seit Mai auf dem Gelände des Max-Planck-Institutes für Züchtungsforschung wachsen, hatten keine negativen Auswirkungen auf die Umwelt. Allerdings erlebten die Genetiker einige Überraschungen.

Das erste Freisetzungsexperiment mit gentechnisch veränderten Organismen in Deutschland ist beendet. Ziel des heftig umstrittenen Versuches war es, „springende Gene“ zu isolieren, Erbanlagen also, die nicht wie der überwiegende Teil der genetischen Information einen festen Platz auf dem fadenförmigen Erbgutstrang – der DNA – haben.

Für Pflanzengenetiker ist die Petunie ein nützliches Werkzeug. Beim Kölner Freilandversuch allerdings machte das heiße Wetter im August die Pläne der Forscher zunichte. (Von M.S. del., J.N.Fitch lith. [Public domain], via Wikimedia Commons)

Streng genommen ist das Experiment gescheitert, weil es den Forschern nicht gelungen ist, das ursprünglich gesetzte Ziel zu erreichen. Allerdings erlebten die Wissenschaftler um Professor Heinz Saedler am Kölner Max-Planck-Institut für Züchtungsforschung eine Überraschung die „uns wahnsinnig fasziniert und die wir in Zukunft weiter studieren wollen“, erklärte der Genetiker vor der Bonner Wissenschaftspressekonferenz.

Die springenden Gene (Transposons) sind nur schwer zu beobachten, da ein Ortswechsel nur äußerst selten erfolgt. Saedler und sein Kollege Peter Meyer haben nun eine Art Falle gebaut, mit der sie hofften, dieses merkwürdige Verhalten der Transposons nachweisen zu können. Sie verfrachteten dazu ein Gen aus dem Mais in die Petunien, welches der weiß blühenden Elternlinie eine lachsrote Farbe verlieh. Aus den Petunien wurden durch diese Genmanipulation „transgene“ Pflanzen, Organismen also, die Erbanlagen einer fremden Art in sich tragen.

Zwischen 10000 und einer Million Petunienblüten, wären nach den Schätzungen der Forscher nötig gewesen, um das seltene Ereignis zu erfassen. Dann nämlich, wenn ein Transposon an die Stelle springt, an der das Maisgen sitzt, wird die Erbinformation zur Produktion des Blütenfarbstoffes zerstört, die entsprechende Blüte – so dachten die Wissenschaftler – müsste sich dann durch den Verlust der roten Farbe verraten.

Verabschiedet sich das Transposon später wieder von seinem Wirkungsort, so wird die ursprüngliche Erbinformation wiederhergestellt; es entstehen rotweiß gepunktete oder gestreifte Blüten, allesamt Zeugen der verborgenen Aktivität von Transposons. Weil sich die erforderliche Anzahl von Petunien nur in einem gigantischen Gewächshaus unterbringen ließen, stellten die Forscher den Antrag auf einen Freilandversuch, der wegen mutmaßlicher Gefahren für Mensch und Umwelt auf heftige Opposition in der Öffentlichkeit und bei den meisten Parteien stieß.

Nach einer öffentlichen Anhörung und vor Verabschiedung des Gentechnikgesetztes erhielten die Kölner Wissenschaftler die amtliche Genehmigung für die erstmalige Freisetzung gentechnisch veränderter Organismen in Deutschland. Am 14. Mai dieses Jahres wurden die Pflanzen ausgebracht, im Juni standen die Forscher dann vor einem rotblühenden, 5000 Quadratmeter großen Feld, und harrten gespannt der wenigen Blüten, die ihre rote Farbe verlieren sollten. Nach der Hitzewelle des Augustes allerdings stellten sie zu ihrem Erstaunen fest, dass sich sämtliche Pflanzen weiß gefärbt hatten.

Schuld waren allerdings nicht die Transposons, wie sich bald herausstellte, sondern das intensive ultraviolette Licht und die hohen Temperaturen, welche zu einem Abbau des empfindlichen Blütenfarbstoffes geführt hatten. Nachdem die roten Blätter abgeworfen wurden, bildeten sich neue, doch wurde auch diesmal eine überraschend hohe Anzahl von weißen, rotweiß gestreiften oder gepunkteten Blüten beobachtet – jedenfalls weitaus mehr als die Wissenschaftler erwartet hatten.

Einige weiße Petunien, die von Gegnern der Gentechnik heimlich angepflanzt wurden, erkannten die Forscher schnell als „Kuckuckseier“, was von Professor Josef Schell mit der Bemerkung quittiert wurde, dies sei ein gelungener Witz gewesen. Derartige Aktionen wären ihm lieber als angedrohte Bomben.

Eine Untersuchung der restlichen Pflanzen, von denen 17 mit molekularbiologischen Methoden genau geprüft wurden, zeigte, dass die beobachteten Farbänderungen hier ebenfalls durch Umwelteinflüsse zustande kamen. Die wenigen Transposons, welche wirklich gesprungen waren, konnten von den Genetikern nicht dingfest gemacht werden. Das Steuerelement des Farbstoffgens war verändert worden, eine Entwicklung, die die Wissenschaftler nicht vorausgesehen hatten.

Anfang Oktober wurde der Antrag für das zweite Freilandexperiment gestellt. Das soll dann helfen, einige der Fragen zu beantworten, die im ersten Experiment aufgeworfen wurden.

(erschienen in der WELT am 1. November 1990. Aktualisiert am 1. Mai 2017)

Was ist daraus geworden? Da ich selbst Molekularbiologie studiert habe, erschien mir die Kritik von Umweltschützern und Grünen an derartigen Versuchen teils unfundiert, teil ideologisch motiviert (siehe auch dieser ZEIT-Artikel). Sicherlich hat man damit vielen Wissenschaftlern und auch der Industrie das Leben schwer gemacht. Den weltweiten Siegeszug der Grünen Gentechnik konnten deren Gegner allerdings nicht aufhalten. Bis heute gibt es keinen Nachweis, das damit auch nur ein einziger Mensch zu Schaden gekommen wäre.

Ein Kunstplanet für Ökologen und Raumfahrer

In der Wüste Arizonas entsteht derzeit eine „Erde im Westentaschenformat“. Es handelt sich dabei um das größte selbsterhaltende Ökosystem, das je gebaut wurde. Wenn das 60 Millionen Dollar teure Projekt im Dezember fertiggestellt wird, werden vier Männer und vier Frauen einziehen, denen die „Biosphäre II“ die Welt bedeuten wird.

Und das ist wörtlich zu verstehen, denn die „Bionauten“ werden volle zwei Jahre lang hermetisch von der Außenwelt abgeriegelt sein. Abgesehen von Strom, Sonnenlicht und Informationen muss die Crew um den deutschen Projektleiter Bernd Zabel ab dem 5. Dezember völlig ohne fremde Hilfe zurechtkommen. An diesem Tag nämlich werden die Luftschleusen vor den laufenden Kameras des US-Fernsehens verriegelt.

Außer Zabel werden zwei Amerikanerinnen und zwei Amerikaner, zwei Engländerinnen und ein Belgier alles selbst erzeugen müssen, was sie verbrauchen. Doch damit nicht genug; sie werden auch lernen müssen, nicht im eigenen Abfall zu ersticken, wobei gegenwärtig noch nicht abzusehen ist, welche Herausforderung hier die größere ist.

Das Experiment, welches hauptsächlich vom texanischen Milliardär Edward Bass getragen wird, verfolgt zweierlei Ziele: Zum einen handelt es sich um eine Art Test für einen längeren Raumflug. Sollten wirklich einmal Menschen auf dem Mars landen, so werden sie allein für die Anreise fast ein Jahr brauchen. Auch für eine Kolonie auf dem roten Planeten oder dem Mond wäre es erstrebenswert, möglichst unabhängig von der Außenwelt zu sein. Ein ständiger Nachschub von der Erde aber ist aus technischen und praktischen Gründen wenig sinnvoll. Ob sich ein geschlossener Kreislauf wirklich über mehrere Jahre hinweg aufrechterhalten lässt, ist eine der Fragen, die das Projekt Biosphäre 11 beantworten soll.

Abgespact: Das Bibliotheksgebäude der Biosphere 2 heute (Foto von Gleam CC BY-SA 3.0 via Wikipedia)

Außerdem erhofft man sich von dem Langzeitexperiment neue Erkenntnisse über die Funktion der Biosphäre I – wie die Erde im Projektjargon liebevoll genannt wird. Dazu wurden auf nur 1,3 Hektar Fläche eine ganze Reihe von Ökosystemen nachgebaut: Unter einer 26 Meter hohen Glaskuppel dominiert tropischer Regenwald die Anlage, der entlang eines Flusses allmählich in die Savanne übergeht. Durch dorniges Gestrüpp führt der Weg schließlich in eine Wüstenlandschaft, während der Fluss durch einen Brackwassersumpf in den „Ozean“ gelangt.

Diese Lebenszone wiederum setzt sich zusammen aus einer Lagune samt Korallenriff und einer „Tiefseeregion“, in die nur wenig Licht gerät. Elf Meter ist der Ozean der Bionauten tief und kann Wellen schlagen, die über einen Meter hoch sind. All diese Vielfalt findet sich auf einer Länge von nur 150 Metern, eine Leistung, auf die Margret Augustine vom federführenden kanadischen Unternehmen „Space Biosphere Ventures“ besonders stolz ist.

Die acht – unverheirateten – Biosphärenbewohner werden ihren Lebensraum mit einer Vielzahl von Pflanzen und Tieren teilen, die nur dank der ausgefeilten Architektur und hochmoderner Techniken in dieser „Arche Noah“ Platz finden. Sechs Jahre lang haben Wissenschaftler daran gearbeitet, für buchstäblich Tausende verschiedener Arten ein Heim zu schaffen.

Dabei wurde die ganze Erde durchsucht, um geeignete Spezies ausfindig zu machen. Das Sammelsurium der Organismen erstreckt sich über die gesamte Leiter der Evolution: Von Affen, Kaninchen und Kolibris über Frösche, Schildkröten, Schlangen und Fische bis hin zu Bienen, Spinnen, Kakerlaken und Termiten reicht das Spektrum – nicht zu reden von den Mikroorganismen, die gar nicht zu erfassen sind. Wie viele dieser Arten nach Ablauf der zwei Jahre ausgerottet sein werden, ist nicht abzusehen; ein Ziel von Biosphäre II ist es schließlich, die optimale Zusammensetzung an Lebewesen für ein stabiles Okosystem zu erkunden.

„Ich betrachte das Ganze als ein phantastisches und zugleich dem Gemeinwohl dienendes Abenteuer“, freut sich Zabel und fügt hinzu: „Je näher der Starttermin kommt, um so aufgeregter werde ich.“ Wer glaubt, Zabel und seine Kollegen müssten ein Dasein fristen wie seinerzeit Robinson Crusoe, befindet sich allerdings im Irrtum.

Die medizinische Versorgung des Teams wird durch den 66jährigen Roy Walford gewährleistet, der als Ältester an dem Projekt teilnimmt. Im äußersten Notfall könnten kranke Bionauten auch durch eine Luftschleuse geborgen werden, ohne das geschlossene System zu stören. Auch werden die Crewmitglieder nicht etwa im Urwald schlafen und sich nach Art von Survivalkünstlern von unappetitlichem Gewürm ernähren müssen. Vielmehr hat jeder seinen Privatraum von 34 Quadratmetern im Hauptgebäude der Biosphäre, wo komplett eingerichtete Labors mit Computern und Telekommunikationseinrichtungen zur Verfügung stehen.

Hier wird auch der größte Teil der Nahrung produziert. In Tanks schwimmen Reispflanzen und afrikanische Buntbarsche, die Algen fressen und selbst als Speisefische dienen. Auf diesem fünftel Hektar wachsen auch das Gemüse sowie Früchte und Gewürze für die Männer und Frauen der Biosphäre II.

Auch für eine gelegentliche handfeste Mahlzeit wurde vorgesorgt: Vietnamesische Hängebauchschweine dienen als Fleischlieferanten, dazu gibt es Ziegenmilch und Hühnereier. All dies muss den Pionieren der Biosphärenforschung wie ein Traum erscheinen: Während nämlich den Bionauten in der Wüste Arizonas 140000 Kubikmeter Raum zur Verfügung stehen, müssen sowjetische Kosmonauten im Experimentierkomplex „Bios- 3“ mit bescheidenen 300 Kubikmetern Vorlieb nehmen.

Das entspricht einem drei Meter hohen Quader auf einer Grundfläche mit zehn Metern Kantenlänge. Der steht im Institut für Biophysik der Sibirischen Abteilung der sowjetischen Akademie der Wissenschaften, wo man Biosphärenexperimente schon zu Beginn der sechziger Jahre aufgenommen hat.

Bios-3 bietet „Platz“ für bis zu drei Personen, hatte im jüngsten Experiment allerdings nur zwei Bewohner. Drei der vier Räume dienten als „Phytodrome“ der Pflanzenzucht und erwirtschafteten täglich rund 300 Gramm Weizenkorn sowie 500 Gramm Kraut, Wurzelfrüchte, Gurken und Tomaten je Bewohner. Beruhigende Bilanz nach fünf Monaten Aufenthalt: Man habe „weder direkte noch entfernte negative Änderungen des Gesundheitszustandes“ beobachtet – ein Grund mehr für die Crew der Biosphäre II, sich auf die zwei Jahre zu freuen, in denen sie alleinige Herrscher ihres Miniplaneten sein werden.

(erschienen in der WELT am 27.Oktober 1990. Letzte Aktualisierung am 26. April 2017)

Was ist daraus geworden? Für mich als Biologen wenig überraschend gab es eine ganze Reihe von Problemen, und die Biosphäre II erreichte niemals ein biologisches Gleichgewicht, das ihre Bewohner auf Dauer von der Außenwelt unabhängig gemacht hätte. Im zweiten Jahr musste Sauerstoff zugeführt werden, und ein 2. Anlauf wurde nach 6. Monaten beendet. Heute präsentiert sich Biosphere 2 als ökologisches Forschungszentrum, Konferenzort und Museum mit dem stolzen Eintrittspreis von 20 Dollar. Es war gut und richtig, dieses Experiment zu unternehmen, aber die wichtigste Lektion daraus lautet für mich, mit der Biosphäre I pfleglich umzugehen.

Verdauungshilfe aus dem Genlabor

Ein gentechnisch hergestellter Futterzusatz soll schon im nächsten Jahr den Phosphatausstoß der Niederlande reduzieren helfen. Phytase, so der Name des Eiweißstoffes, ist für den Einsatz in der Schweine- und Geflügelzucht vorgesehen. Experten gehen davon aus, dass mit dieser Maßnahme jährlich 25 Millionen Tonnen Phosphat weniger freigesetzt werden. Dies ist mehr, als mit der Einführung phosphatfreier Waschmittel erreicht werden konnte.

Phosphate tragen maßgeblich zur Gewässerbelastung bei. Die Substanz wird in der Landwirtschaft in großen Mengen freigesetzt, da sie in der Gülle und auch im Kunstdünger enthalten ist. Da aber die riesigen Mengen Phosphat von den Kulturpflanzen nicht vollständig genutzt werden können, gelangt der Rest in die Flüsse und Meere. Heftiges Algenwachstum bis zum „Umkippen“ der Gewässer kann die Folge sein.

Auf einer Tagung der Deutschen Landwirtschafts-Gesellschaft stießen die Ausführungen von Dr. Rob Beudecker daher auf großes Interesse. Beudecker berichtete über Bemühungen, den Schadstoffausstoß der niederländischen Landwirtschaft zu reduzieren. Ausgangspunkt der Forscher war die Überlegung, dass handelsübliches Mischfutter für die Schweine- und Geflügelzucht mit mineralischem Futterphosphat ergänzt werden muss, obwohl der Phosphatgehalt pflanzlicher Nahrung theoretisch ausreichend für die Tiere wäre. Die Bioverfügbarkeit des Phosphates ist unzureichend, weil die Tiere das vorhandene Phosphat nur schlecht verwerten können.

Zwei Drittel des pflanzlichen Phosphates liegen nämlich in Form von Phytinsäure vor, welche nur mit einem bestimmten Eiweißstoff – der Phytase – „geknackt“ werden kann. Wiederkäuer bekommen die Phytase von Mikroorganismen im Pansen, geliefert, Schweine müssen ebenso wie Geflügel ohne die nützlichen Darmbewohner auskommen.

Das Enzym Phytase wird in gentechnisch veränderten Pilzen der Gattung Aspergillus hergestellt und als Futtermittelzusatz benutzt. Es verbessert die Aufnahme von Phosphat bei Geflügel und Schweinen und schont dadurch die Umwelt (Von Ayacop – adapted from http://www.pdb.org/pdb/files/1ihp.pdb using PyMOL, Gemeinfrei, via Wikipedia)

Die Idee, Phytase ins Futter zu mischen, wurde zwar schon vor 20 Jahren zum Patent angemeldet; erst jetzt aber bietet die Gentechnik die Möglichkeit, diesen Biokatalysator in großen Mengen zu niedrigen Preisen zu produzieren. Die Wissenschaftler der Firma Gistbrocades untersuchten über 1000 Mikroorganismen, um dann einen Pilz der Gattung Aspergillus zu isolieren, welcher eine Phytase produzierte, die den Ansprüchen des Marktes genügt: Das Eiweiß ist hochaktiv, vor allem unter den chemischen Bedingungen, die im Kropf des Geflügels sowie im Magen von Schweinen und Vögeln herrschen. Außerdem überlebt die Phytase aus Aspergillus die hohen Temperaturen, die bei der Pelletierung von Futtermitteln entstehen, fast ohne Aktivitätsverlust.

Um das Eiweiß in großen Mengen herstellen zu können, isolierten die Wissenschaftler den molekularen Bauplan für die Phytase und übertrugen dieses Gen erfolgreich auf einen Produktionsstamm. Bei der Verfütterung der so gewonnenen Phytase ergab sich, dass die Verfügbarkeit des Phosphates für Schweine und Geflügel um 20 Prozent zugenommen hatte, gleichzeitig wurde von den Tieren ein Drittel weniger Phosphat mit der Gülle ausgeschieden – was Beudecker für einen sinnvollen Beitrag zum Umweltschutz hält.

Beudecker erwartet jetzt eine Ausnahmegenehmigung der Regierung, sobald der Nachweis erbracht ist, dass die rekombinante Phytase für den Verbraucher unbedenklich ist. Schon im nächsten Jahr soll dann das Futtermittel in Zusammenarbeit mit der BASF auf den holländischen Markt gebracht werden.

In Deutschland ist eine solche Entwicklung übrigens nicht so schnell zu erwarten: In einer Empfehlung des Bundestages wurde die Regierung vor wenigen Wochen aufgefordert, sich in der EG dafür einzusetzen, dass gentechnische Methoden nicht eingesetzt werden, um in der Landwirtschaft weitere Leistungssteigerungen zu erzielen.

(erschienen in der WELT am 23. Oktober 1990. Letzte Aktualisierung am 16. April 2017)

Was ist daraus geworden? Gistbrocades wurde 1998 von der Firma DSM aufgekauft. Ganz selbstverständlich ist heute die Zugabe gentechnisch hergesteller Phytase zum Futter von Schweinen und Geflügel. Und wo früher Horrorszenarien zur Gentechnik an die Wand gemalt wurden, spricht man jetzt von einer „Verbesserung der Nachhaltigkeit“.

„Meisterleistung der organischen Synthese“

Der mit vier Millionen Kronen (umgerechnet etwa 1,07 Millionen Mark) dotierte Nobelpreis für Chemie geht in diesem Jahr an den US-Amerikaner Elias James Corey. Die Königliche Schwedische Akademie der Wissenschaften würdigte damit die „Meisterleistung bei der Entwicklung der organischen Synthese“ des 62jährigen Corey, der an der Harvard-Universität in Cambridge im US-Bundesstaat Massachusetts lehrt.

Der Nobelpreisträger Elias James Corey in einem Porträt aus dem Jahr 2007 (Von Trvthchem personal photo – Eigenes Werk, CC0, via Wikipedia)

In der Begründung der Akademie heißt es, weiter: „Die Entwicklung der Kunst organischer Synthese während der letzten 100 Jahre hat zu effektiven industriellen Methoden der Herstellung von Plasten und anderen Kunstfibern, Lacken und Farben, Unkraut- und Insektenbekämpfungsmitteln, sowie von Vitaminen und Arzneimitteln geführt. Sie hat in hohem Maße zu hohem Lebensstandard, guter Gesundheit und langem Leben beigetragen, wie sie zumindest die westliche Welt genießt.“

Der Preisträger, mit über 650 wissenschaftlichen Beiträgen in der Fachliteratur kein Unbekannter, habe mit seinen Arbeiten Wegweisendes bei der Entwicklung und Herstellung biologisch aktiver Produkte geleistet, die zum Beispiel als Heilmittel eingesetzt werden.

Der Hintergrund für Coreys Erfolge liegt darin, dass er mit strikter Logik die Grundlagen der sogenannten retrosynthetischen Analyse entwickelt hat. Dies bedeutet, dass man von der gedachten Struktur eines Moleküls ausgeht, das man herstellen möchte. Dabei wird festgelegt, welche Verbindungen getrennt werden sollen, und dann ihre Struktur Schritt für Schritt vereinfacht. „Dabei wird man entdecken, dass gewisse Bruchstücke bereits bekannt sind bzw. ihre Struktur und Synthese beschrieben worden ist“, so das Komitee.

Wenn man auf diese Art und Weise in der Analyse gewissermaßen rückwärts von einer komplexen Struktur zu bereits bekannten geschritten ist, kann man damit beginnen, das Molekül aufzubauen, es zu synthetisieren. Es hat sich gezeigt, dass sich diese Methode ausgezeichnet für die Bearbeitung im Computer eignet, was zu einem kräftigen Schub bei der Planung von Synthesen geführt hat.

(erschienen in der WELT am 18. Oktober 1990. Letzte Aktualisierung am 16. April 2017)

Was ist daraus geworden? Corey war auch nach dem Nobelpreis fleißig; die Zahl seiner Publikationen stieg auf über 1000. Damit sei er einer der meistzitierten Wissenschafter, heißt es auf der Webseite der Harvard Universität, wo Corey mittlerweile emeritiert ist. Zusätzlich hat er mehrere Bücher geschrieben, darunter „The Logic of Chemical Synthesis„, „Molecules and Medicine„, und „Enantioselective Chemical Synthesis„.

US-Raumfahrt in der Krise

Die amerikanische Weltraumbehörde Nasa steckt in Schwierigkeiten. Während in 600 Kilometern Höhe das zwei Milliarden Dollar teure Weltraumteleskop „Hubble“ als Zielscheibe für den Spott und die Enttäuschung der Astronomengemeinde dient, ist die Bodenmannschaft im Kennedy Space Center mittlerweile zum vierten Mal in fünf Monaten daran gescheitert, die Raumfähre „Columbia“ zu starten.

Musste jahrelang am Boden bleiben: Das Space Shuttle Discovery auf der Startrampe im Kennedy Space Center (Bild: NASA via Wikipedia)

Ingenieure und Techniker versuchen derzeit verzweifelt, ein Leck in der Treibstoffzufuhr unter Kontrolle zu bringen. Schmirgelpapier sei in den Treibstoffkreislauf der Columbia gelangt, vermutet ein Nasa-Mitarbeiter, der es vorzieht, anonym zu bleiben. Auch die beiden Schwesterschiffe „Atlantis“ und „Discovery“ liegen am Boden fest.

Mitglieder des amerikanischen Kongresses sind inzwischen auf die wiederholten Flops aufmerksam geworden. Nachdem sich abgezeichnet hatte, dass Hubble als teuerstes wissenschaftliches Gerät im Weltall nur einen Bruchteil seiner Aufgaben würde erfüllen können, erklärte Senator Al Gore: „Die Nasa schuldet den Steuerzahlern eine Erklärung und das Versprechen, dass so etwas nie wieder geschieht.“

Jetzt beginnen Politiker aller Parteien die Finanzierung der geplanten Raumstation – derzeitiger Kostenvoranschlag 37 Milliarden Dollar – in Frage zu stellen. Sie äußern Zweifel an der Fähigkeit der Nasa, dieses Prestigeobjekt zu bauen und zu unterhalten.

Für diese Zweifel gibt es handfeste Gründe: Jährlich 3800 Stunden Weltraumspaziergänge wären nötig, um alleine die Wartungsarbeiten an der Raumstation durchführen zu können, befand eine unabhängige Studie. Dies hätte eine unerwartet hohe Strahlenbelastung der Astronauten zur Folge. Aber: Die Entwicklung unempfindlicher Roboter steckt noch in den Kinderschuhen.

Die Nasa selbst hatte den Wartungsaufwand erheblich unterschätzt. Ursprünglich war man von 130 Stunden pro Jahr ausgegangen. Wenn es dem Expertenteam im Johnson Space Center im texanischen Houston nicht gelingen sollte, dieses Problem zu lösen, wird die Raumstation mit dem schönen Namen „Freedom“ nicht gebaut werden können. Dann wäre auch das europäische Raumlabor „Columbus“ nutzlos, das an die Raumstation gekoppelt werden soll und für dessen Planung ebenfalls bereits Milliardensummen ausgegeben worden sind.

Einige Weltraumhistoriker glauben, den Beginn der Misere auf den Tag genau festlegen zu können. Nicht einmal ein Jahr war seit der ersten Mondlandung vergangen, als der damalige Präsident Richard Nixon unter dem Eindruck des Vietnamkrieges und gewaltiger Haushaltsprobleme der Weltraumeuphorie einen Dämpfer versetzte. „Die Raumfahrt muss wieder ihren Platz zwischen den nationalen Prioritäten einnehmen“, bemerkte er am 7. März 1970 und wies damit das Ansinnen zurück, eine ständige Mondbasis einzurichten und eine bemannte Expedition zum Mars vorzubereiten.

„Damals entwickelte sich in der Nasa eine Festungsmentalität, erklärt Professor John M. Logsdon, Direktor des Instituts für Weltraumpolitik an der George-Washington-Universität. Man begann, um das große Geld zu kämpfen und schlug Programme vor, die jedem alles versprachen. Schwärme von Lobbyisten versuchten dem Weißen Haus, dem Kongress und dem Verteidigungsministerium das Shuttle-Programm schmackhaft zu machen.

Diese wiederverwendbaren Raumfähren sollten billig, sicher und vielseitig sein und – nicht zu vergessen – 24000 Arbeitslätze schaffen. Von den damals angepeilten bis zu 60 Missionen im Jahr erreichte die Nasa niemals mehr als neun. Unter dem steigenden Druck, die aufgeblähten Pläne doch noch zu realisieren, wurden Sicherheitsvorkehrungen missachtet und die Warnungen der Techniker in den Wind geschlagen.

Am 28. Januar 1986 ereignete sich dann die unvermeidliche Katastrophe: Bei der Explosion der „Challenger“ kamen sieben Astronauten ums Leben. Zweieinhalb Jahre lang musste man das Feld fast ganz den Sowjets überlassen, ehe die „Discovery“ am 29. September 1988 die Zwangspause der Amerikaner beendete.

Heute sind die Sowjets den Amerikanern in der bemannten Raumfahrt um Jahre voraus. Seit 1971 haben Kosmonauten rund 6000 Tage an Bord ihrer Raumstationen zugebracht und damit eine fast kontinuierliche Präsenz von Menschen im Weltall ermöglicht.

Gleichzeitig verfügt die UdSSR über ein breites Spektrum einsatzbereiter Transportraketen, einschließlich ihrer eigenen Raumfähre „Buran“ und deren Trägerrakete „Energija“, die bis zu 100000 Kilogramm Nutzlast in eine erdnahe Umlaufbahn bringen kann. Mehr als seinen Vorgängern scheint Präsident George Bush jetzt daran gelegen zu sein, der amerikanischen Raumfahrt wieder eine langfristige Perspektive zu vermitteln. Für 1991 ist eine Erhöhung des Budgets um 23 Prozent auf 15,2 Milliarden Dollar vorgesehen. Ob diese Finanzspritze ausreicht, um das angeknackste Selbstvertrauen der 24000 festangestellten Nasa-Mitarbeiter zu heben, bleibt abzuwarten.

(erschienen am 21. September 1990 in der WELT. Letzte Aktualisierung am 21. März 2017)

Was ist daraus geworden? Wer spricht heute noch über die bemannte Raumfahrt? Die großen Visionen aus dem vorigen Jahrhundert sind passé, ein Opfer von politischem Größenwahn, gepaart mit Wankelmut, Unfällen und nicht eingehaltenen Versprechen. Auch die Raumfähre Columbia explodierte drei Jahre nach meinem Artikel auf der Rückkehr von ihrer 28. Mission, alle sieben Besatzungsmitglieder starben dabei. Auch scheiterten die USA daran, die Raumstation „Freedom“ aus eigener Kraft zu bauen. Nun ja, dies hatte vielleicht auch sein gutes, denn so wurde daraus die Internationale Raumstation ISS. Die fliegt tatsächlich alle 90 Minuten über unsere Köpfe, auch wenn so manch einer den Nutzen dieser Einrichtung bezweifelt, die die Steuerzahler laut Europäischer Weltraumagentur etwa 100 Milliarden Euro kostet. Immerhin erwies sich das Hubble-Weltraumteleskop als später Erfolg, nachdem man die technische Defekte in mehreren bemannten Missionen korrigiert hatte.

Chaos und Evolution: Die Anfänge des Lebens

Unser Körper besteht zu rund zwei Dritteln aus Wasser. Dazu kommen noch Kohlenstoff, Stickstoff und eine Vielzahl von selteneren Elementen. Aus dem komplexen Zusammenspiel dieser unbelebten Bausteine sind über Milliarden von Jahren hinweg die vielfältigsten Lebensformen entstanden, von den „primitiven“ Urbakterien bis hin zur „Krone der Schöpfung“, Homo sapiens – der vernunftbegabte Mensch – hat sich nicht nur die Erde untertan gemacht; wir sind auch als einzige Art in der Lage, über unsere Entstehung‘ nachzudenken.

Wie entsteht Ordnung aus Chaos, Leben aus toter Materie? Aristoteles, der die Entstehung von Fischen und Insekten aus Schlamm gelehrt hatte, irrte ebenso wie Johan Baptista van Helmont, der im Mittelalter ein Rezept für die „Erzeugung“ von Mäusen aus Getreide und schmutziger Wäsche entwickelte.

Stanley Miller im Jahr 1999. In seinen Experimenten zur Entstehung des Lebens erzeugte der Biochemiker aus einfachsten Zutaten die Bausteine des Lebens. (Quelle: NASA/Wikipedia)

Bereits in den fünfziger Jahren wurde nachgewiesen, wie aus den einfachen Gasen der Uratmosphäre so hochkomplizierte Moleküle des Lebens wie Eiweiße und Nukleinsäuren entstanden sein könnten. Stanley Miller, damals noch Chemiestudent in Chicago, erhitzte eine Mischung aus Kohlendioxid, Methan, Ammoniak und Wasserstoff mit Wasser. Die Gewitter der Uratmosphäre wurden durch elektrische Entladungen, das Sonnenlicht durch UV-Lampen ersetzt.

Zum großen Erstaunen der Fachwelt gelang es Miller, nicht nur Zucker und Fettsäuren, sondern auch Nukleotide und Aminosäuren herzustellen, die Bausteine der Nukleinsäuren und Eiweiße also. Schließlich produzierten die Wissenschaftler in ihren Glaskolben sogar kurze Nukleinsäuren und Eiweißketten.

Aus dem Zusammenwirken von einigen simplen Gasen konnten also Moleküle mit überraschenden neuen Eigenschaften entstehen; eins plus eins ist manchmal mehr als zwei. Eiweiße und Nukleinsäuren sind nämlich in der Lage, Informationen zu speichern und zu vermehren. Die Reihenfolge ihrer Bausteine liefert die Betriebsanleitung, nach der alle Lebewesen funktionieren.

Das Wechselspiel zwischen diesen beiden Molekülklassen macht Leben überhaupt erst möglich. Ein Naturgesetz – der zweite Hauptsatz der Thermodynamik – besagt nämlich, dass unser gesamtes Universum unaufhaltsam einem Zustand völliger Zufälligkeit und Unordnung zustrebt, den wir Wärmetod nennen. Nukleinsäuren und Eiweiße schaffen dagegen Inseln der Ordnung, Lebewesen also, indem sie die Unordnung im Universum durch ihren Stoffwechsel vergrößern.

Nachdem also die Entstehung der ersten primitiven Nukleinsäuren und Eiweiße geklärt scheint, bleibt die Frage nach dem Urahn aller Lebewesen. Irgendwann müssen die vorhandenen Bauteile sich selbständig zum ersten zellähnlichen Gebilde organisiert haben, von dem wir alle abstammen. Ein ganz unwahrscheinlicher Zufall soll nach Ansicht des Nobelpreisträgers Jacques Monod alle Bestandteile der „Urzelle“ zusammengeführt haben. Wenn Monod recht hat, wäre die Urzeugung ein mit Sicherheit einmaliger Vorgang. Die Erde als der einzige bewohnte Planet im Universum?

Thomas R. Cech fand Hinweise, wonach die einfache Nukleinsäure RNA gleichzeitig als Informationsträger funktioniert und biochemische Reaktionen ausführen kann. (Von Jane Gitschier [CC BY 2.5 (http://creativecommons.org/licenses/by/2.5)], via Wikimedia Commons)

Die Entdeckung eines anderen Nobelpreisträgers zeigt einen Ausweg aus dem Dilemma: Der Amerikaner Thomas Cech fand heraus, dass sich unter günstigen Umständen eine einzelsträngige Nukleinsäure (RNA) selbst verdoppeln kann, und dafür nicht auf Eiweiße angewiesen ist. Diese molekularen Vielzweckkünstler sind also gleichzeitig Träger von Information und Funktion; befehlendes und ausführendes Element in einem. Viele Experten glauben darum, dass RNA-Moleküle an der Schwelle zum Lebendigen stehen.

Diese Beobachtung kann allerdings nur die Entstehung relativ kurzer RNA-Moleküle erklären, denn die Verdoppelung der RNA ist sehr fehleranfällig, Auch die einfachsten Lebewesen tragen heute tausendmal längere Erbfaden mit sich, die aus einer zweisträngigen Nukleinsäure – der DNA – bestehen. Diese „Doppelhelix“ ist stabiler und bei der Verdoppelung weniger fehleranfällig als die RNA, dafür aber längst nicht so vielseitig.

Mit seinen Experimenten am Göttinger Max-Planck-Institut für Biophysikalische Chemie will ein dritter Nobelpreisträger diesen „Knackpunkt“ der Evolution erhellen. Professor Manfred Eigen hat mit seiner Arbeitsgruppe einen ganzen Maschinenpark entworfen, mit dem die Evolution der ersten RNA-Moleküle simuliert werden soll. Der 62jährige Physiker glaubt, dass verschiedene Typen von RNA-Molekülen sich zu Anfang gegenseitig bei der Vermehrung halfen. Diese Art von Teamwork – Eigen spricht von einem „Hyperzyklus“ – ist ein weiteres Beispiel dafür, wie aus der Kombination bekannter Bausteine neue Eigenschaften entstehen könnten.

Chaosforscher sprechen von „Nichtlinearität“, was besagt, dass neue Wechselwirkungen zwischen den Teilen des Systems auftreten, die nicht vorherzusehen sind. Der Physiker und Philosoph Dr. Bernd Olaf Küppers bringt diese Beobachtung auf den Punkt, indem er sagt: „Das Ganze ist mehr als die Summe seiner Teile.“ Evolution läuft demnach gesetzmäßig ab, ist aber nicht voraussagbar.

„Evolution ist Chaos mit Rückkopplung“, meint der amerikanische Physiker Joseph Ford, einer der Pioniere der Chaosforschung. In den Versuchen am Göttinger Max-Planck-Institut besorgen Roboter diese Rückkopplung. Bei der Verdoppelung der verschiedenen RNA-Moleküle in ihren Reagenzgläsern schleichen sich Fehler ein. So entstehen Nachkommen mit veränderten Eigenschaften. Eigens Maschinen suchen nun automatisch diejenigen RNAs heraus, die sich am schnellsten vermehren und bieten diesen Molekülen die Möglichkeit zur weiteren Vermehrung. Innerhalb erstaunlich kurzer Zeit entstehen so RNA-Typen, die sich an ihre künstliche Umgebung optimal angepasst haben.

Vieles spricht dafür, dass sich vor rund vier Milliarden Jahren auf der Erde ein ähnlicher Prozess abgespielt hat. Mehrere erfolgreiche RNA-Moleküle bildeten vielleicht einen Hyperzyklus, zu dem später auch primitive Eiweiße hinzutraten.

Die Einzelheiten dieser Entwicklung werden sich wohl nie genau aufklären lassen. Es bleiben Lücken in unserer Vorstellung, die momentan noch mit recht diffusen Ideen verdeckt werden. So ist es beispielsweise immer noch unklar, wie sich ein erfolgreicher Hyperzyklus samt Eiweißen von seiner Umgebung abgrenzen und so die erste Zelle bilden konnte. Auch der Übergang von der RNA zur DNA als Träger der Erbinformation verschwimmt im Rückblick auf geschätzte 4000 Millionen Jahre Entwicklung.

(erschienen in der WELT am 20. August 1990. Letzte Aktualisierung am 19. März 2017)

Biologen entdecken den Laser als Werkzeug

Wie von Geisterhand gesteuert, bewegen sich die beiden Zellen aufeinander zu; ein Kampf David gegen Goliath bahnt sich an. Die kleine „Killerzelle“ berührt schließlich die viel größere Tumorzelle und beginnt sofort, den Kontrahenten mit winzigen Giftpfeilen zu beschießen. Diese Giftpfeile – es handelt sich um den Eiweißstoff Perforin – ordnen sich in der Hülle der Tumorzelle zu Kanälen an. Wasser strömt in die Tumorzelle, unter dem Mikroskop schwillt Goliath an und droht zu zerplatzen.

Doch noch ist der Zweikampf nicht beendet; die Tumorzelle wehrt sich und scheint die eingedrungene Flüssigkeit abzupumpen, wie der verminderte Durchmesser erkennen lässt. Minutenlang tobt der Kampf um Leben und Tod, am Ende aber stirbt die Tumorzelle: David bleibt Sieger. Regisseur dieses faszinierenden Schauspiels ist der Diplomchemiker Stefan Seeger am Physikalisch-Chemischen Institut der Universität Heidelberg. Unverzichtbares Hilfsmittel: ein Infrarotlaser, mit dem die Hauptdarsteller nach Belieben über die Bühne geschoben werden können, die in diesem Fall aus einem Objektträger besteht.

Schon länger ist es möglich, Materie mit Laserlicht zu bewegen oder festzuhalten – die Fachleute sprechen vom „Beamen“ und haben bereits bewiesen, dass dieses Thema mehr ist als nur Science-Fiction. Arthur Ashkin, ein Mitarbeiter in den Labors der amerikanischen Telefongesellschaft AT &T, berichtete 1987 als erster von Versuchen, Bakterien und Viren mit gebündeltem Licht einzufangen. Möglich wurde dies durch den Einsatz neuartiger Geräte, sogenannter Nd:YAG·Laser (Neodymium-Yttrium-Aluminium-Granat), die ein Licht relativ schwacher Intensität mit einer Wellenlänge von 1064 Nanometern (milliardstel Meter) aussenden.

Im Gegensatz zu anderen Lasertypen, die als Schneidewerkzeuge oder Bohrer eingesetzt werden, zeigt der Nd:YAG·Laser nur eine schwache Wechselwirkung mit biologischen Materialien. Dennoch lässt sich der Laserstrahl so fokussieren, dass in seinem Brennpunkt Kräfte bis zum 700000fachen der Erdbeschleunigung auftreten. In den Händen des Experten wird der Infrarotlaser zu einer unglaublich feinen und überdies noch sterilen „optischen Pinzette“.

In der Heidelberger Arbeitsgruppe um Privatdozent Dr. Karl-Otto Greulich arbeiten Physiker, Chemiker und Molekularbiologen Hand in Hand. Dabei war der Erfolg dieses LABIO-Programmes (für Laser in der Biologie) keineswegs von Anfang an garantiert. Heute bilden die Heidelberger eine der wenigen Gruppen weltweit, die auf große Erfahrungen bei der Laserchirurgie an einzelnen Zellen verweisen kann.

Die Einsatzmöglichkeiten sind vielfältig und könnten beispielsweise die Immunologie um neue Erkenntnisse bereichern. Mit der optischen Pinzette lassen sich nicht nur einzelne Zellen steuern. Auch die Kräfte, die bei Wechselwirkungen zwischen den verschiedenen Zellen wirken, kann man messen. Beispielsweise ließen sich die Anziehungskräfte zwischen Abwehrzellen und Tumorzellen messen und mit der Anzahl von Rezeptormolekülen auf der Zelloberfläche vergleichen. Die Zahl dieser Ankerplätze schwankt nämlich zwischen einigen hundert und mehreren hunderttausend.

Vielleicht, so argumentieren einige Forscher, werden bestimmte Tumorzellen deswegen vom Abwehrsystem „übersehen“, weil nicht genug Rezeptoren vorhanden sind, um die Zellen der Immunabwehr an sich zu binden – eine Theorie, die sich jetzt überprüfen lässt.

Einer amerikanischen Arbeitsgruppe gelang es kürzlich sogar, die Kraft zu messen, mit der sich eine menschliche Samenzelle fortbewegt. Zeugungsunfähigkeit wird in schätzungsweise einem Prozent der Fälle mit schwächlichen Spermien in Verbindung gebracht, die unfähig sind, die Hülle der weiblichen Eizelle zu durchstoßen. In den Vereinigten Staaten denkt man deshalb schon daran, diesen Samenzellen den Weg „freizuschießen“. Ein gezielter Laserpuls auf die Membran einer Eizelle könnte sie kurzfristig für den Samen durchlässig machen.

Die Heidelberger haben allerdings nicht die Absicht, ihre Laser auf dem Gebiet der künstlichen Befruchtung einzusetzen oder gar menschliches Erbmaterial zu manipulieren. Stattdessen verweist Greulich auf andere Einsatzmöglichkeiten für seine Werkzeuge. Monoklonale Antikörper etwa, jene hochspezifischen Abwehrmoleküle des Immunsystems, müssen derzeit noch mit der unfreiwilligen Hilfe von Mäusen hergestellt werden. Dazu werden kurzlebige, antikörperproduzierende B·Zellen aus der Maus im Reagenzglas „blind“ mit unsterblichen Tumorzellen verschmolzen. In einem aufwendigen Suchverfahren müssen dann jene äußerst seltenen Hybride gefunden werden, die den Anforderungen der Wissenschaftler entsprechen: Unsterblich und somit beliebig vermehrbar sollen sie sein und Antikörper produzieren, die möglichst nur ein Ziel erkennen – in der Praxis sind das häufig die Tumoren menschlicher Krebspatienten.

Mit Hybridzellen menschlichen Ursprungs erhofft man sich eine bessere Erfolgsquote, doch können Patienten – anders als Mäuse – nicht mit Tumorzellen vorgeimpft werden, um die B-Zellen auf ihr Ziel zu programmieren. Darum sind B-Zellen mit der gewünschten Spezifität im menschlichen Blut nur sehr schwer zu finden, Die Lasertechnik bietet jetzt die Möglichkeit, die wenigen aussichtsreichen Kandidaten gezielt mit Tumorzellen zu verschmelzen.

Als „Schweißbrenner“ dient ein Laser, der kurzfristig auf die Stelle gerichtet wird, an der sich die beiden Zelltypen berühren. Die so entstandene Hybridzelle kann unter dem Mikroskop mit der optischen Pinzette herausgegriffen werden, eine zeitraubende Suche ist im Gegensatz zur „blinden“ Fusion nicht mehr nötig. Ein Nadelöhr müssen die Heidelberger Wissenschaftler allerdings noch durchqueren, bevor ihre Methode zur Routinetechnik wird: Die Hybridzellen weigern sich derzeit hartnäckig, die begehrten Antikörper zu produzieren.

(erschienen in der WELT am 11. August 1990. Letzte Aktualisierung am 18. März 2017)

Was ist daraus geworden? Ich erinnere mich noch an ein Seminar, das ich während des Diplomstudiums über das Thema „Laserpinzetten in der Biologie“ gehalten habe. Der Professor hielt diese Versuche für nutzlose Spielereien und meinen Vortrag für ziemlich überflüssig. In der Redaktion wurde es dagegen dankbar angenommen und im Rückblick bin ich stolz, dieses zukunftsträchtige Thema schon früh aufgegriffen zu haben. Über die Lasermanipulation von Zellen und Geweben gibt es inzwischen zahlreiche Lehrbücher, und eine Literatursuche zu „Optical Tweezers“ lieferte mir in der Datenbank PubMed 2750 Einträge.