Zum Hauptinhalt springen

Rezepte gegen das Waldsterben

Der Wald kommt unter die Räder. So lautete bisher die auf den Punkt gebrachte Befürchtung von Naturschützern, Umweltforschern und Forstbesitzern. Immer deutlicher wurde in den letzten Jahren, daß die beachtlichen Erfolge bei der Luftreinhaltung zunichte gemacht werden durch die scheinbar unaufhaltsame Zunahme der Verkehrs, durch unser aller Drang nach der Freiheit auf den eigenen vier Rädern.

Gewachsen ist aber auch die Einsicht, daß die früher als „natürlich“ eingestuften Abfälle einer hochtechnisierten Landwirtschaft dem deutschen Wald heute nicht weniger schaden als die rauchenden Schornsteine der Nachkriegsjahre.

In zehn Jahren Waldschadensforschung  wurden gut 700 Projekte von Bund, Ländern und der Deutschen Forschungsgemeinschaft finanziert, auf etwa 360 Millionen Mark beläuft sich inzwischen die Rechnung. Dazu kommen 420 Millionen Mark aus Steuergeldern für „flankierende forstliche Maßnahmen“, die es den Waldbesitzern ermöglichen sollten, die Widerstandsfähigkeit der Waldökosysteme zu erhalten und zu verbessern. Eine schmerzfreie und billige Lösung des Problems ist dennoch nicht in Sicht.

„Die Forstwirtschaft hat relativ wenige Möglichkeiten, zu reagieren. Die Wälder sind den Emissionen schutzlos preisgegeben“, sagt Professor Karl Kreutzer vom Lehrstuhl für Bodenkunde der Forstwirtschaftlichen Fakultät der Universität München. Auch die Kalkung, mit der die Versauerung der Böden bekämpft werden soll, ist kein Allheilmittel. Auf seinen Versuchsflächen im Höglwald zwischen München und Augsburg wies Kreutzer nach, daß vermehrt Nitrat gebildet wird. Die Ionen werden mit dem Regen ausgeschwemmt und stellen eine langfristige Bedrohung für das Trinkwasser dar.

Zu den trüben Zukunftsaussichten kommt die Tatsache hinzu, daß die bisherigen Maßnahmen zur Luftreinhaltung am Gesundheitszustandes des deutschen Waldes wenig zu ändern vermochten. Während sich Nadelbaumarten seit Jahren langsam erholen, geht es mit den wichtigsten Laubbäumen weiter bergab. Dabei wurden in den letzten 15 Jahren eine ganze Reihe von Gesetzen und Verordnungen erlassen, die oftmals mit hohen Erwartungen verknüpft waren:

Noch zu Beginn der achtziger Jahre wurden in der alten Bundesrepublik weit über drei Millionen Tonnen Schwefeldioxid jährlich in die Luft geblasen, von denen vier Fünftel auf das Konto von Kraftwerken und Industrie gingen. Mit der Großfeuerungsanlagen-Verordnung von 1983 ging die Ära der rauchenden Schornsteine dann zu Ende. Vor allem der Einführung von Rauchgas-Entschwefelungsanlagen ist es zu verdanken, daß die SO2-Emissionen der alten Bundesländer mittlerweile um siebzig Prozent zurückgegangen sind. Durch Betriebsstilllegungen und die Umrüstung bestehender Anlagen klärt sich der Himmel über Ostdeutschland deutlich schneller, doch liegen noch keine neuen Zahlen vor.

Ob die bisherigen Anstrengungen dem Wald geholfen haben, ist schwer zu beurteilen. Wie Professor Wolfram Elling an der Fachhochschule Weihenstehphan in Freising zeigen konnte, scheint es bei Tannen und Fichten schon in der ersten Hälfte der achtziger Jahre zu einer Art Trendwende gekommen zu sein. An der besonders stark von den neuartigen Waldschäden betroffenen Weißtanne ließ sich dies an den immer breiter werdenden Jahresringen ablesen.

Allerdings gilt diese Beobachtung nur für noch erholungsfähige Bäume, wie der Dendrochronologe betont. Aber während Frost und Dürre für das Sterben der Weißtannen ebenso wie die Versauerung der Böden anscheinend nur von untergeordneter Bedeutung sind, ist der Zusammenhang zwischen örtlicher Schwefelbelastung und dem Schädigungsgrad dieser Baumart eindeutig.

Ein weiterer Hinweis darauf, daß die Reduktion des Schwefeldioxidausstoßes zumindest eine Entlastung für den Wald gebracht hat, stammt von Untersuchungen, bei denen die Nadelmasse von Fichten im Flachland bestimmt wurde. Sie nahm etwa ab 1985 so stark zu, daß die früheren Verluste heute kaum mehr zu erkennen sind. „Erholungsfähige“ Bäume, die auf 800 Metern Höhe im Fichtelgebirge geschlagen wurden, zeigen außerdem den bereits bei den Weißtannen beobachteten Zuwachs in der Breite der Jahresringe. „Die sehr deutliche Drosselung der Schwefeldioxidemissionen während des letzten Jahrzehnts kann hier mitspielen, liefert aber keine ausreichende Erklärung“, relativiert Professor Elling.

Eine Reduktion der Stickoxide hatte man sich von der im Sommer 1983 beschlossenen Einführung des Katalysators bei Personenkraftwagen erhofft. Die Vereinigten Staaten und Japan hatten zu diesem Zeitpunkt schon vorexerziert, daß der Ausstoß dieser Gase am Einzelfahrzeug durch den Einbau des Kat um 90 Prozent veringert werden kann. Dagegen hatten sich die NOx-Emissionen aus dem bundesdeutschen Kraftfahrzeugverkehr zwischen 1970 und 1982 fast verdoppelt: 1,4 Millionen Tonnen Stickoxide jährlich strömten damals durch den Auspuff in die Umwelt. Mit steuerlichen Anreizen und der europaweiten Einführung von bleifreiem Benzin hoffte man, diesen Betrag bis 1990 mindestens zu halbieren.

Inzwischen hat sich diese Kalkulation aber als Milchmädchenrechnung erwiesen, die Emissionen sind gegenüber 1982 um ein Drittel gestiegen. Seit der Einführung des Katalysator-Autos vor zehn Jahren wuchs die Zahl der Pkw in den alten Bundesländern von 24 auf über 32 Millionen. Die wiedervereinigten Deutschen legten 1991 zusammen 866 Milliarden Kilometer zurück, das entspricht etwa 6000 Mal der Entfernung von der Erde zur Sonne. Vier von fünf Kilometern wurden dabei im Auto gefahren, mit steigender Tendenz seit 1970.

Zwar werden mittlerweile 99 Prozent aller neuzugelassenen Pkw mit geregeltem Drei-Wege-Kat ausgeliefert, auf den Straßen rollen aber momentan noch sechs von zehn Karossen „hinten ohne“. Verschärfend kommt noch hinzu, daß der durchschnittliche Verbrauch der in Deutschland zugelassenen Pkw 1991 noch immer 9,9 Liter auf 100 Kilometer betrug, gegenüber 10,7 Litern im Jahre 1975. Die technischen Verbesserungen der letzten 16 Jahre kamen also nicht der Umwelt zugute sondern gingen laut einer Erklärung des Umweltbundesamtes einher mit einem „Trend zu leistungsstärkeren und schwereren PKW, die mit höheren Geschwindigkeiten gefahren werden.“

Für den Vorsitzenden des Bund für Umwelt und Naturschutz Deutschland (BUND), Hubert Weinzierl, stellt sich daher die Frage: „Sind wird bereit, den Wald unserer überbordenden Mobilität zu opfern?“. Auch Waldschadensforscher Kreutzer fordert „nicht nur den Kat, sondern kleinere Autos mit geringerem Treibstoffverbrauch.“

Die im Juli angekündigte sogenannte Sommersmogverordnung aber bringt in dieser Hinsicht keine Verbessserung. Im Auftrag der Bundesregierung hatte das Umweltministerium einen Entwurf ausgearbeitet, nach dem „Konzentrationswerte“ für Stickoxide, Benzol und Ruß ab Juli 1995 in Kraft treten und drei Jahre später nochmals verschärft werden sollen. Die örtlichen Behörden dürfen bei Überschreiten der Werte auf die Bremse treten und den Verkehr durch Umleitungen, Straßensperren, Geschwindigkeitsbeschränkungen und Fahrverbote drosseln.

Der Anreiz zum Kauf eines Katalysatorautos besteht darin, daß diese von Fahrverboten verschont bleiben sollen. Ursprünglich wollte Umweltminister Klaus Töpfer die schärferen Werte schon zum früheren Datum durchsetzen. Wie frustrierte Mitarbeiter hinter vorgehaltener Hand bekennen, scheiterte der Vorstoß aber am Widerstand der Ministerien für Verkehr und Wirtschaft, die zudem noch die Stimme des Kanzlers auf ihrer Seite wußten.

Durch die Sommersmogverordnung werden in erster Linie die Anwohner vielbefahrener Straßen entlastet. Sie dürfen darauf hoffen, in Zukunft weniger Gifte schlucken zu müssen. „Eine deutliche Minderung der Emissionen von Vorläufersubstanzen für Ozon“, wie sie Umweltminister Klaus Töpfer erwartet hält Dr. Holger Brackemann, Pressesprecher im Umweltbundesamt, aber für unrealistisch. Selbst bei weitgehenden Sperrungen der Innenstädte ergäben sich lediglich Veränderungen im Prozentbereich. Nötig seien aber Reduktionen um 70 bis 80 Prozent, hieß es bei der Behörde, die unter anderem für die wissenschaftliche Beratung des Umweltministers verantwortlich ist.

Derzeit liegt die Sommersmogverordnung ohnehin auf Eis. „Sie wird auf absehbare Zeit nicht in Kraft treten, es gibt Probleme, die Verordnung in der Bundesregierung konsensfähig zu machen und im Bundesrat durchzubringen.“, räumte Dr. Görgen ein. Widerstand kommt besonders von den Finanzministern der Länder, denen die voraussichtlichen Kosten zu hoch erscheinen, „den Umweltministern wiederum ist die Verordnung viel zu lasch“, schildert Görgen das Gerangel.

Erschwert wird die Durchsetzung von Schutzgesetzen für den Wald auch durch eine mangelnde Haftungspflicht. Hätten Waldbesitzer ein Recht auf Ausgleich der gewaltigen Verluste, die ihnen letztlich durch die Luftverschmutzung entstehen, so könnte dies zu einer Versöhnung der Gegensätze zwischen Umwelt- und Finanzministern führen.

Als Beleg für den mangelnden Handlungswillen der Bundesregierung verweisen Naturschützer gerne auf eine höchstrichterlich dokumentierte Gesetzeslücke: Schon vor sechs Jahren urteilte der Bundesgerichtshof gegenüber der Stadt Augsburg und einem Schwarzwälder Waldbesitzer, die auf Schadensersatz geklagt hatten, daß dafür die entsprechende Rechtsgrundlage fehle. Der Sache nach seien die Waldschäden jedoch „entschädingungswürdig und entschädigungsbedürftig“.

Nun muß das Verfassungsgericht darüber urteilen, wer wen entschädigen muß und mit wessen Geld dies geschehen soll. Ministerialrat Peter Splett, der im Landwirtschaftsministerium für die neuartigen Waldschäden zuständig ist, weiß, das die Forderung nach Ausgleichszahlungen leicht zu stellen, aber nur schwer umzusetzen ist. „Eine Entschädigung setzt voraus, daß man die Ansprüche juristisch klar formulieren kann.“ Dies sei aber angesichts der hochkomplexen Vorgänge im Ökosystem Wald fast unmöglich. Gegenüber dem Finanzministerium konnte man deshalb nicht einmal ungefähre Angaben über die Höhe der zu erwartenden Forderungen machen.

So steht zu befürchten, daß auch die Landwirte sich den Auflagen widersetzen werden, die derzeit in Bonner Ministerien angedacht werden. Ausgangspunkt der Überlegungen ist die Erkenntnis, daß in Folge einer intensiven Tierhaltung und der damit zusammenhängenden überreichlichen Ausbringung der anfallenden Gülle enorme Mengen an Stickstoff in Form von Ammoniak freigesetzt werden.

Unter dem Strich schädigt die Landwirtschaft den Wald daher noch stärker als der Individualverkehr, so die Bilanz eines Hintergrundpapiers aus dem Bundesforschungsministerium. Laut Abteilungsleiter Helmut Schulz soll mit einer Düngeverordnung, „die mittlerweile von der Bundesregierung in Angriff genommen wurde“, erreicht werden, daß Stickstoff in der Landwirtschaft nur noch dort eingesetzt wird, wo die Pflanzen ihn wirklich brauchen.

Vorgesehen ist auch, daß in Großtieranlagen Schadstofffilter eingebaut werden müssen. Dies wäre dann ein weiteres Mosaiksteinchen in der kaum noch überschaubaren Fülle von Gesetzen, Verordnungen, Abgaben, Steuern und technischen Maßnahmen, mit denen der Wald gerettet werden soll, ohne den Wähler zu verprellen.

(Originalmanuskript zu einem Artikel für Bild der Wissenschaft, erschienen in der Dezember-Ausgabe 1993)

Weitere Infos:

  1. Wolfram Elling, Waldschäden und Waldschadensforschung – eine kritische Zwischenbilanz, Naturwissenschaftliche Rundschau Heft 5/92, Seite 184.
  2. Caroline Möhring/BMFT, 10 Jahre Waldschadensforschung, Bonn 1992
  3. Umweltbundesamt, Jahresbericht 1992

Mikrochip soll Blinden helfen

Die Entwicklung eines Mikrochips, der im Auge von Blinden die Funktion bestimmter Sehzellen ersetzen könnte, steht nach fünfjähriger Arbeit kurz vor dem Abschluß. John Wyatt vom Massachusetts Institute of Technology und sein Kollege Joseph Rizzo wollen mit dem elektronischen Bauteil die Funktion von Stäbchen und Zäpfchen übernehmen, zweier Zelltypen in der Netzhaut, die bei bestimmten Augenleiden zerstört werden. Die Forscher gründen ihre Hoffnung darauf, daß bei diesen Krankheiten – Retinitis pigmentosa und Makuladegeneration – lediglich solche Zellen ausfallen, die das einfallende Licht erkennen und in elektrische Impulse umsetzen. Die Weiterleitung der Nervenreize zum Sehzentrum des Gehirns wird dagegen von anderen, unbeschädigten, Nervenzellen übernommen.

Diese Nerven sollen nun von dem Mikrochip stimuliert werden. Dazu wird durch die Augenlinse einfallendes Licht zunächst auf eine Vielzahl von Photorezeptoren fokussiert. Die Photorezeptoren produzieren dann Strom, der an ein Elektrodengitter weitergeleitet wird. Die Elektroden wiederum sollen die intakten Nervenzellen reizen und damit beim Patienten ein Bild hervorrufen. Ein Prototyp des Chips wird in etwa sechs Monaten für erste Tierversuche zur Verfügung stehen.

(Meldung für Deutschlandfunk, Forschung aktuell. Sendetermin unbekannt. Ebenfalls erschienen in der Saarbrücker Zeitung am 6.1.1994.)

Quelle: Pressestelle des MIT

Mineralfasern schuld am Sick-Building-Syndrom?

Mineralfasern könnten wenigstens zum Teil die Ursache von Erkrankungen sein, die als „Sick building syndrome“ (SBS) zusammengefaßt werden. Dagegen war weder für die Luftqualität noch für die Zahl der Raucher in Büroräumen ein eindeutiger Zusammenhang mit den Beschwerden von Angestellten herzustellen.

Zu diesem Ergebnis kommen Wissenschaftler der Universität Cornell im US-Bundesstaat New York nach der Auswertung von mehr als 4000 SBS-Fällen aus Bürogebäuden der östlichen USA. Symptome sind Kopfschmerzen, Müdigkeit, Hautausschläge, Konzentrationsschwäche, Gelenkschmerzen und Anfälligkeit für Infektionen.

„Obwohl viele Menschen davon ausgehen, daß SBS mit gasförmigen Luftschadstoffen in Zusammenhang steht, haben viele Studien einschließlich unserer eigenen diesen Zusammenhang nicht belegen können“, sagte Alan Hedge, Professor für Design und Umweltanalyse. Ein Teil dieser Ergebnisse ist jetzt in den „Proceedings of the Building Design and Technology Conference“ (Brüssel, 1993) veröffentlicht worden.

„Wenn wir dagegen die industriellen Mineralfasern betrachten, die oftmals nicht gemessen werden, so finden wir Berichte über SBS viel häufiger an Orten mit einer hohen Konzentration von Mineralfasern“, erklärte Hedge. Darüber hinaus habe die Verwendung von Filtern einen drastischen Rückgang der Beschwerden bewirkt.

(erschienen in der Ärzte-Zeitung am 26. November 1993)

Strom öffnet Hautporen

Durch kurze elektrische Impulse kann die Durchlässigkeit der Haut für Arzneimittel erheblich verbessert werden. Amerikanischen Wissenschaftlern ist es am Massachusetts Institute of Technology mit dieser Methode gelungen, den Transport verschiedener Medikamente durch die Haut bis zum Zehntausendfachen zu erhöhen. Die Arbeit von Robert Langer und James Weaver ist deshalb so bedeutsam, weil die menschliche Haut gegenüber den allermeisten Substanzen eine undurchdringliche Barriere darstellt. Nur sehr wenige Arzneimittel gelangen in ausreichender Menge in die Blutbahn, wenn sie in Form von Salben aufgetragen werden.

Langer und Weaver benutzten sowohl menschliche Hautproben als auch lebende Ratten und fanden dabei heraus, daß die kurzen Stromschläge zur Bildung von Poren in der äußersten Hautschicht, der Epidermis, führten. Solange die angelegte Spannung weniger als 100 Volt betrug, waren die Änderungen in der Durchlässigkeit der Haut nur vorübergehender Natur. Außerdem fanden die Forscher keinerlei Anzeichen für einen Gewebeschaden

(erschienen in der Süddeutschen Zeitung am 25. November 1993; gesendet im Deutschlandfunk)

Quelle: Prausnitz MR, Bose VG, Langer R, Weaver JC. Electroporation of mammalian skin: a mechanism to enhance transdermal drug delivery. Proc Natl Acad Sci U S A. 1993 Nov 15;90(22):10504-8. doi: 10.1073/pnas.90.22.10504.

Rückenwind für sanfte Landwirtschaft

Forschungsmittel von etwa 17 Mio. DM, die das Land Nordrhein-Westfalen in den letzten zehn Jahren an der Bonner Universität in der Förderung einer umweltverträglichen und standortgerechten Landwirtschaft investiert hat, haben sich inzwischen amortisiert. Dieser Meinung ist zumindest Professor Wilfried Werner, Sprecher des Lehr- und Forschungsschwerpunktes, an dem derzeit 15 verschiedene Institute beteiligt sind. „Die Fördergelder werden sich auch weiterhin gut verzinsen“, sagte Werner anläßlich einer Fachtagung, zu der die laufenden Projekte vorgestellt wurden.

Die in Bonn und auf dem Versuchsbetrieb Wiesengut bei Hennef entwickelten Produktionsverfahren zielen auf einen geschlossenen Nährstoffkreislauf innerhalb der Betriebe. Durch den gleichzeitigen Anbau von Ackerbohnen mit Senfpflanzen kann beispielsweise der Bedarf an stickstoffhaltigem Dünger reduziert und die Anreicherung von trinkwassergefährdendem Nitrat im Boden weitgehend verhindert werden, wie Martin Justus vom Institut für organischen Landbau berichtete.

Um die Backqualität von Weizen aus organischem Anbau zu steigern, erprobten Joachim Schulz-Marquardt und Markus Weber eine neue Pflanzmethode. Beim sogenannten Streifenanbau von Weizen mit Klee und anderen Pflanzen aus der Familie der Knöllchenbildner „wächst“ der Dünger regelrecht aus dem Acker: Der gehäckselte Klee setzt seine mineralischen Bestandteile nur langsam frei und ermöglicht dadurch die Aufzucht eines Qualitätsweizens mit hohem Proteingehalt. Auf dem Backwarenmarkt trifft dieser Weizen derzeit auf eine erhöhte Nachfrage nach Vollkorn- und Auszugsmehlen.

Neben dem „Nährstoffmanagement“ spielt in Bonn aber auch die Kontrolle von Ernteschädlingen mit biologischen Methoden eine wichtige Rolle, ebenso die artgerechte Haltung von Nutztieren und eine Minimierung des Arzneimittelverbrauchs. Erklärte Absicht des Programmes ist es denn auch, die gewonnen Erkenntnisse möglichst zügig interessierten Landwirten zur Verfügung zu stellen.

Nach Auskunft von Professor Ullrich Köpke vom Institut für Organischen Landbau widmen sich mittlerweile rund 100 Betriebe in Nordrhein-Westfalen der sanften Landwirtschaft. Bundesweit werden 0,7% aller Nutzflächen organisch bewirtschaftet. Die „Ökobauern“ produzieren zwar ein Drittel weniger als vergleichbare konventionelle Nachbarbetriebe, sie erzielen aber am Markt deutlich höhere Preise. Dabei werden in den westlichen Bundesländern 80% der Einnahmen über die Direktvermarktung erzielt. Unter dem· Strich ist das Pro-Kopf-Einkommen dieser Betriebe daher deutlich höher. Lediglich im Vergleich mit konventionellen Spitzenbetrieben schneiden die organisch bewirtschafteten Güter schlechter ab, sagte Köpke.

Für die Zukunft befürchtet Köpke allerdings einen Strukturwandel und einen Rückgang der Erträge für die Öko-Betriebe. Ein Grund dafür ist ironischerweise ein EG-weites Subventionsprogramm, das vor zwei Jahren ins Leben gerufen wurde. Er gewährt neuen Biobetrieben einen Zuschuß von etwa 450 DM pro Jahr und Hektar. Die Pioniere des organischen Landbaus gehen dagegen leer aus.

Während der fünfjährigen Laufzeit des Programms sind sie gegenüber den Newcomern bei gleichen Kosten stark benachteiligt. Die Verdoppelung der ökologisch bewirtschafteten Flächen in Nordrhein-Westfalen seit 1991 hat bereits zu einem Preisverfall für organisch produziertes Getreide geführt. Über weitere Hilfen für die Bio-Bauern wird derzeit in Brüssel verhandelt.

(erschienen in den VDI-Nachrichten am 5. November 1993)

Eine Socke für die Gasleitung

Gewaltige Probleme bei der Umstellung der Gasversorgung sind für Berto Schnichels nichts Neues: Der Betriebsdirektor der Bonner Stadtwerke erinnert sich noch an den Beginn der sechziger Jahre: „Bei Goch am Niederrhein hatten sie damals so viele Lecks – da waren fast schon Gasfelder in der Straße.“ Keine Schlamperei am Bau, sondern die „einfache“ Umstellung der Versorgung von feuchtem Stadt- auf trockenes Erdgas hatte die Lecks hervorgerufen.

Kleine Ursache – große Wirkung: Weil jede Muffe im Netz mit Hanffasern abgedichtet worden war, gab es mit einem Mal reichlich Arbeit. Die Fasern, die von dem durchziehenden Stadtgas ständig  feuchtgehalten worden waren, hatten an Volumen verloren, sobald nur noch das trockene Erdgas durch die Leitungen strömte, und begannen, ihren Dienst zu versagen. Bei sechs Meter langen Rohrstücken mußte natürlich im gleichen Abstand mit Leckagen gerechnet werden. Gefahr drohte vor allem dort, wo das explosive Gas in Keller oder Postschächte hätte eindringen können.

Die Geschichte – von den Versorgungsunternehmen längst zu den Akten gelegt – wiederholt sich jetzt im östlichen Teil Deutschlands, wo zu DDR-Zeiten das auf der Grundlage von Braunkohle erzeugte Synthesegas verbrannt wurde. Zusätzlich zur Umstellung mußten die alten Rohre nach der Wende auch noch eine Druckanhebung von 11 auf 22 Millibar verkraften. Sie wurde erforderlich, um der wachsenden Nachfrage nach dem neuen, sauberen, Energieträger gerecht zu werden. Allein die Vereinigten Elektrizitätswerke Westfalen AG (VEW), die mit ihren Partnern 60 Prozent der Gasversorgung in der ehemaligen DDR abdecken, haben inzwischen 350000 Haushalte umgestellt und wollen bis Ende des Jahres weitere 300000 ans Netz anschließen.

Am gravierendsten ist das Problem in Berlin, wo „so etwa 17000 Leckstellen“ bis 1995 abgedichtet werden sollen. „Aber es waren auch schon ´mal mehr“, tröstet Jürgen Stur, Pressesprecher der Berliner Gaswerke. Immerhin wurden seit dem Fall der Mauer gut 5000 Löcher gestopft. Etwa zwei Drittel von insgesamt 6685 Kilometer Gasleitungen im Berliner Untergrund verlaufen im ehemaligen Westteil der Stadt und sind recht gut in Schuß. Dagegen finden sich in den östlichen Stadtteilen über 1200 Kilometer Gußrohre, die teilweise noch in der ersten Hälfte des vergangenen Jahrhunderts gelegt wurden. Durch die Lecks können offensichtlich auch Wachstumsschäden an Straßenbäumen hervorgerufen werden. Rund 3000 Exemplare waren betroffen, durch die Sanierungsmaßnahmen sei jedoch eine „deutliche Entlastung“ erreicht worden.

Rund 700 Kilometer sind laut Stur noch zu sanieren; die Berliner hätten demnach allen Grund, sich auf umfangreiche Bauarbeiten samt zugehöriger Verkehrsstaus, Umleitungen, und lärmträchtiger Erdarbeiten gefaßt zu machen. Einem in Japan entwickelten Verfahren zur Schlauchauskleidung von Druckrohren haben es die gestreßten Großstadtbewohner nun zu verdanken, daß sich der Ärger in Grenzen hält.

Die Methode, mit der die Gasleitungen vor den in Japan häufigen Erdbeben geschützt werden sollten, ist das Resultat einer engen Zusammenarbeit zwischen der Tokyo Gas Company und dem Ashimori-Konzern. Beim sogenannten Paltem-Verfahren werden nicht nur die Nerven der Anwohner, sondern auch die öffentlichen Kassen geschont. Die vergleichsweise geringen Erdarbeiten machen die Methode zumindest in Großstädten und anderen verkehrsreichen Regionen zu einer preiswerten Alternative. Statt die Straße auf ganzer Länge aufzureißen und neue Rohre zu legen, müssen nämlich lediglich einige Kopflöcher geöffnet werden. Nach einer gründlichen Reinigung des zu sanierenden Leitungsabschnitts wird durch diese Öffnungen dann ein extrem belastbarer Gewebeschlauch aus Polyesterfasern unter Luftdruck in die alten Leitungen eingestülpt.

Dieser Kunststoffschlauch wurde zuvor mit einem Zweikomponentenkleber gefüllt und in einem Druckkessel auf eine Trommel gewickelt. Mit dem Einleiten von Druckluft wird der Schlauch dann umgestülpt wie eine alte Socke, wobei der Kleber an die Rohrwand gepreßt wird. Im nächsten Arbeitsschritt wird von einem mobilen Heißdampferzeuger produzierter Dampf in die Leitung geschickt, wodurch der Kleber innerhalb von zwei Stunden aushärtet. Schließlich müssen noch die zugeklebten Hausanschlüße durch einen videoüberwachten Roboter vom Rohr aus wieder aufgeschnitten werden. Der ganze Prozeß dauert etwa zwei bis drei Tage je Rohrabschnitt. Bei einer Zugfestigkeit des „Liners“ von 150 N/mm und einem Berstdruck von 5 bar sind die sanierten Leitungen dann auch gegen starke Beanspruchungen bestens gewappnet.

„Wir sind voll beschäftigt“, verkündet Dieter Hausdorf, Geschäftsführer der Kanal-Müller-Gruppe, die seit Juli des vergangenen Jahres mit dem Paltem-Verfahren arbeitet. Während damals vorwiegend im Raum Halle/Leipzig saniert wurde, hat man sich jetzt mit Dortmund erstmals auch einem Standort in den alten Ländern zugewandt. Dort sind die Leitungen zwar in der Regel in einem besseren Zustand, dennoch müssen auch die 227000 Kilometer „westdeutscher“ Rohre instandgehalten werden, deren mittlere Lebenserwartung etwa 80 Jahre beträgt. Die Kosten dafür beliefen sich nach Angaben des Bundesverbandes der deutschen Gas und Wasserwirtschaft im letzten Jahr auf 5,7 Milliarden Mark; bis 1995 rechnet man mit weiteren 17 Milliarden Mark, wobei für die neuen Länder noch keine Kostenschätzung vorliegt.

Nicht immer lohnt sich das Schlauchrelining, aber „je schwieriger die Umgebung, umso größer ist das Preisgefälle zwischen Auswechseln und Sanieren“, erklärt Hausdorf. Je nach Boden und Verkehrsverhältnissen muß für den Neubau einer Leitung mit 70 bis 300 Mark pro Meter gerechnet werden. Für eine Standardleitung von 150 Millimetern kostet das Paltem-Verfahren etwa 150 Mark je laufenden Meter, die Erdarbeiten schlagen hier nur mit durchschnittlich 25 Mark zu Buche. Begrenzt wird der Einsatz der Methode ebenso wie das verwandte Phoenix-Verfahren zum einen durch die Reduktion der Rohrkapazität als Folge des verringerten Durchmessers. Auch bei einer allzu hohen Zahl von Hausanschlüßen, die ja nachträglich wieder eröffnet werden müssen, kann die Rentabilitätsgrenze unterschritten werden. Außerdem werden parallel verlaufende Gas und Wasserleitungen aus Kostengründen oftmals gemeinsam erneuert.

Doch auch hier zeichnen sich Fortschritte ab: Weil das Verfahren prinzipiell auch auf die Sanierung von Wasserleitungen zu adaptieren wäre, blickt man bei der Kanal-Müller-Gruppe optimistisch in die Zukunft. Für den Praktiker Berto Schichels steht jedenfalls fest: „Das Folien-Relining ist heute sicherlich eines der besten Sanierungsverfahren“.

(geschrieben für die VDI-Nachrichten im Juni 1993. Erscheinungsdatum unbekannt.)

Genanalysen – Chancen und Risiken

Fluch und Segen zugleich birgt die Möglichkeit einer Gendiagnose, wie der Amerikaner Henry T. Lynch aus eigener Erfahrung zu berichten weiß. Der grauhaarige Wissenschaftler von der Creighton Universität im Bundesstaat Nebraska hat seine ganze Karriere der Untersuchung erblicher Krebserkrankungen gewidmet – eine besonders bösartige Form des Darmkrebses, das Lynch-Syndrom, trägt sogar seinen Namen.

Auf einem Fachkongreß in Bonn schilderte der Mediziner kürzlich die enormen Belastungen, unter denen die weiblichen Mitglieder einer Großfamilie aus Omaha zu leiden haben. Bei dieser Familie tritt eine aggressive, erbliche Krebsform seit Generationen mit erschreckender Häufigkeit auf. Jede zweite Frau in dieser Familie muß damit rechnen, daß sich in der Brust- oder in den Eierstöcken lebensbedrohliche Geschwüre bilden.

Ein molekularbiologisches Verfahren, das erst in den letzten Jahren entwickelt wurde, erlaubt es seit kurzem, die Frauen anhand ihrer Gene in zwei gleichgroße Gruppen zu trennen: Mitglieder der einen Gruppe werden von ihrer Angst erlöst; ihr Krebsrisiko ist nicht höher als das in der normalen Bevölkerung. Die Frauen der anderen Gruppe tragen dagegen mit 98-prozentiger Wahrscheinlichkeit ein defektes Gen. „Im Prinzip können wir das zum Zeitpunkt der Geburt feststellen“, sagt Lynch, der selbst einen wichtigen Beitrag zur Entwicklung der Methode geleistet hat.

Für Frauen in der zweiten Gruppe ist das  Risiko drastisch erhöht, schon in mittlerem Alter an dem erblichen Brust-Ovariar Krebs-Syndrom (HBOC) zu erkranken. Auch durch halbjährliche Untersuchungen der bedrohten Organe und selbst die vorsorgliche operative Entfernung der Eierstöcke kann die Gefahr lediglich verringert werden. Nachdem Lynch die Frauen in ihrer vertrauten Umgebung in persönlichen Gesprächen über ihre Lage aufgeklärt hatte, stellte er eine Frage, die mit zunehmender Verbreitung genanalytischer Verfahren auf immer mehr Menschen zukommen wird: „Wollen Sie wirklich wissen, ob Sie in 15, 20 oder 40 Jahren damit rechnen müssen, an einer möglicherweise unheilbaren, tödlichen Krankheit zu leiden?“

Nach einer dreiwöchigen Bedenkzeit und eingehender Beratung entschieden sich die meisten Frauen schließlich für den Gentest. Menschliche Dramen hätten sich abgespielt, als die Resultate bekannt gegeben wurden, erinnert sich Lynch. Dramatisch auch ein weiteres Ergebnis: Unter den Frauen, bei denen ein defektes Gen gefunden wurde, verlangte die Hälfte, sämtliche Eintragungen in den Krankenakten zu löschen.

„Die Versicherungen sind ganz wild auf diese Daten, weil sie die Menschen mit erhöhtem Risiko am liebsten ausschließen würden“, erläutert Lynch. Um ähnliche Machenschaften in Deutschland bereits im Keim zu ersticken, streben Mitglieder aller im Bundestag vertretenen Fraktionen eine Ergänzung des Grundgesetzes an. Dort soll, gemäß einem Vorschlag der Verfassungskommission, in Artikel 74 die künstliche Befruchtung beim Menschen sowie die Untersuchung und die künstliche Veränderung von Erbinformationen aufgenommen werden. Ein Gesetz zur Genomanalyse würde damit auch der Zustimmung des Bundesrates bedürfen und hätte dann – im Gegensatz zu anderen gesundheitsrechtlichen Gesetzen – über die Ländergrenzen hinaus Gültigkeit.

Von einer bundeseinheitlichen Regelung erwartet die forschungspolitische Sprecherin der SPD, Edelgard Bulmahn zum Beispiel eine Garantie der „informationellen Selbstbestimmung“. Genetische Daten müßten demnach im Patienten-Arzt-Verhältnis verbleiben und dürften nicht an Dritte weitergegeben werden.

Nach Meinung von Kritikern wird es für solch eine Regelung höchste Zeit: Das „Human Genome Projekt“, mit dem in weltweiter Kooperation alle Erbanlagen des Menschen entschlüsselt werden sollen, schreitet schneller voran, als selbst Optimisten zu hoffen wagten. Schon Ende des nächsten Jahres könnten sämtliche geschätzt 75000 Gene des Homo sapiens kartiert sein (Anmerkung: Die Schätzung war viel zu hoch; derzeit geht man von ca. 21000 menschlichen Genen aus).

Die Versuchung, aufgrund der dann vorliegenden Daten, ungeborene Kinder, Ehepaare, Arbeitssuchende und Versicherungsnehmer anhand ihrer genetischen Daten zu beurteilen, wird auch unter Wissenschaftlern als ernsthafte Bedrohung empfunden. So befanden sich der amerikanische Gentherapie-Pionier French Anderson und sein Landsmann, der Gentechnik-Kritiker Jeremy Rifkin schon vor drei Jahren in seltener Übereinstimmung mit ihrer Forderung nach umfassendem Schutz für die genetischen Daten des Einzelnen.

Fundamentale ethische und soziale Probleme sieht auch der renommierte Molekularbiologe Benno Müller-Hill auf die Gesellschaft zukommen. In einem Beitrag für die britische Fachzeitschrift „Nature“ wagte der am Institut für Genetik der Universität zu Köln arbeitende Professor kürzlich einen Ausblick auf die nächsten dreißig Jahre. Er geht davon aus, daß Fortschritte in der Erkennung genetischer Eigenschaften am Anfang stehen, die Behandlung von Krankheiten dagegen möglicherweise um Jahrzehnte hinterher hinken wird.

Müller-Hill, der seine Kollegen neben der Arbeit als Grundlagenforscher auch mit Enthüllung über medizinische Verbrechen während des Dritten Reiches konfrontierte, lehnt Gentests keinesfalls grundsätzlich ab. „Wenn eine Person einen Gentest wünscht, dann soll sie den auch haben.“ Praktische Tests seinen aber sinnvoller. So wäre ein einfacher Rechentest bei der Aufnahme an der mathematischen Fakultät einer Universität sicherlich nützlicher als eine – derzeit noch nicht machbare – Genomanalyse. „Auch wenn es um den Arbeitsschutz geht, bin ich gegen erzwungene Gentests“, sagte Müller-Hill gegenüber den VDI-Nachrichten.  Allerdings räumt der Gen-Ethiker ein, daß Menschen, die ihrem Arbeitgeber oder der Versicherung freiwillig Daten präsentieren, welche auf ein geringes Risiko hinweisen, trotzdem im Vorteil wären.

Die Zuverlässigkeit derartiger Risikoanalysen wäre ohnehin begrenzt. Denn auch wenn ein Labortechniker in zehn Jahren möglicherweise in der Lage sein sollte, mit einem einfachen Test festzustellen, ob ein Embryo bereits eine Veranlagung für Krebs, Herzkrankheiten oder Fettleibigkeit hat – Zeitpunkt und Schweregrad der Erkrankung werden sich bestimmt nicht auf einer Farbskala ablesen lassen. Ein Großteil der menschlichen Eigenschaften scheint zudem von mehreren Genen gleichzeitig beeinflußt zu sein. Das, den Bundestag beratende Büro für Technikfolgen-Abschätzung weist darauf hin, daß die Wahrscheinlichkeit des Ausbruchs einer Krankheit trotz einer „genetischen Veranlagung“ häufig nur 10 bis 20 Prozent beträgt. Die pränatale Diagnose solch schwer zu quantifizierender Eigenschaften wie Intelligenz und Toleranz muß deshalb nicht prinzipiell unmöglich sein. Derzeit werden bereits Untersuchungen an verschiedenen Hunderassen durchgeführt mit dem Ziel, den Einfluß der Erbsubstanz auf die Charaktereigenschaften der Tiere zu ermitteln.

Auch ohne derartige Forschungsprojekte werden die sozialen Spannungen zunehmen, glaubt Müller-Hill. „Man kann sich vorstellen, daß es zu Protestbewegungen derjenigen kommt, die beschlossen haben, ihre genetische Identität nicht preiszugeben. Es wird auch Fundamentalisten geben, die sich niemals testen lassen, weil sie selbst die Resultate nicht wissen wollen. All diese Gruppen werden schwere soziale Nachteile in Kauf nehmen müssen.“

Die Wende werde erst kommen, prophezeit der Genetiker, wenn die obersten Gerichte entscheiden, daß die „genetische Ungerechtigkeit“ ungeheure Ausmaße annommen hat. Dann werde man es Angestellten und Versicherungsnehmern erlauben, falsche Daten zu präsentieren, ohne sie dafür gesetzlich zu belangen. Ein ganz ähnliches Urteil fällte übrigens im Frühjahr das Bundesverfassungsgericht: Schwangere Frauen dürfen beim Einstellungsgespräch über ihren Zustand lügen, befanden Deutschlands oberste Richter.

Der „Schatten genetischer Ungerechtigkeit“ wird nach der Prognose Müller-Hills vor allem auf diejenigen fallen, die von einem der zahlreichen Leiden des zentralen Nervensystems befallen sind. Erbanlagen, die für Schizophrenie, manische Depression oder niedrige Intelligenz verantwortlich sein können, vermutet er in Europa und den Vereinigten Staaten bei mindestens zehn Prozent der Bevölkerung. „Es wird nun behauptet, diese Eigenschaften seien vererbt. Tatsächlich ist aber sowohl der Einfluß der Familie als auch die Beitrag von Umweltfaktoren noch unklar.“

Eine Öffentlichkeit, die davon überzeugt ist, daß etwa eine bestimmte Geisteskrankheit ausschließlich auf defekte Gene zurückzuführen ist, wird die Erforschung und Beseitigung möglicher anderer Ursachen daher vernachlässigen, befürchtet der Molekularbiologe. „Es ist so viel einfacher, eine Pille zu verschreiben, als die sozialen Zustände zu ändern, die für die Schwere der Symptome verantwortlich sind.“

Den Schluß, daß man auf das Wissen über „gute“ und „schlechte“ Gene verzichten könne, hält Müller-Hill aber für falsch. Die neuen Kenntnisse würden seiner Meinung nach lediglich die Realität sichtbar machen und dadurch die Ungerechtigkeit in der Welt betonen. Dadurch würden dann Gesetze erforderlich, um die genetisch Benachteiligten zu schützen. „Soziale Gerechtigkeit muß genetische Ungerechtigkeit kompensieren.“

(Originalfassung eines Artikels für die VDI-Nachrichten, erschienen am 8. Oktober 1993)

Weitere Infos / Quellen:

  1. Müller-Hill B. The shadow of genetic injustice. Nature. 1993 Apr 8;362(6420):491-2. doi: 10.1038/362491a0.
  2. Hennen, Leo; Petermann, Thomas; Schmitt, J.-J.: TA-Projekt „Genomanalyse“: Chancen und Risiken genetischer Diagnostik. Endbericht (kostenlos abrufbar hier).

Streit um Genfood

Von „Genfraß“ und „Frankenfood“ reden die einen, „bessere, gesündere und billigere Lebensmittel“ versprechen die anderen: Nahrung, die zumindest teilweise mit Hilfe gentechnischer Methoden produziert wird, erregt in jedem Fall das Gemüt des deutschen Verbrauchers. Der will, wie Umfragen belegen, lieber naturbelassene Kost. Trotzdem werden die Verpackungen vorerst keinen Hinweis auf die Art der Herstellung tragen, obwohl dank EG-weiter „Harmonisierung“ immer mehr „neuartige Nahrung“ in einheimischen Supermärkten Einzug hält.

Schon heute findet die Gen-Nahrung ihren Weg in deutsche Mägen, still und heimlich, zu Hause und im Urlaub. Besonders Amerika-Reisende haben mit ziemlicher Sicherheit schon einen Vorgeschmack auf künftige Entwicklungen bekommen – freilich, ohne etwas davon zu bemerken. So gilt es als sicher, daß die Gentechniker bei der Herstellung des Süßstoffes Aspartam („Nutrasweet“) ihre Hände im Spiel haben.

Zudem wird fast die Hälfte aller Hartkäsesorten im Land der unbegrenzten Möglichkeiten mit Chymosin aus dem Genlabor hergestellt. Das Eiweiß, welches die Reifung des Käses auch in Dänemark, Großbritannien, Portugal und der Schweiz beschleunigen darf, stammt aus Bakterien, denen Forscher ein Rindergen ins Erbgut eingebaut haben. Traditionell wird Chymosin zur Käseherstellung aus dem Labmagen von Kälbern gewonnen, die Substanz ist jedoch identisch mit dem gentechnisch hergestellten Chymosin aus Bakterien.

Während nun Kälberlabferment zu über 90 Prozent aus Verunreinigungen besteht, die letztlich im Käse enden, sind bakterielle Chymosinpräparate vergleichsweise sauber: Sie entfalten zu fast 90 Prozent das gewünschte Eiweiß, dazu einige harmlose Salze aus dem Reinigungsprozeß und einen sehr kleinen Anteil fremder Eiweiße aus den, das Chymosin produzierenden, Mikroorganismen.

Das strenge deutsche Gentechnikgesetz kommt in diesem· Fall nicht zum Tragen, weil es keine speziellen Regelungen für Lebensmittel enthält: Der Gen-Käse enthält zwar einen Stoff – eben das Chymosin -, der aus dem Genlabor stammt, nicht aber lebensfähige genmanipulierte Mikroorganismen.

Wer allerdings in Deutschland gentechnisch hergestellte Hefen und Bakterien zur Produktion von Bier, Brot und Joghurt nutzen will, braucht eine Erlaubnis zum „„Inverkehrbringen gentechnisch veränderter Organismen“. Während derartige Genehmigungen in Deutschland äußerst zögerlich erteilt werden, sind britische Bäcker und Braumeister bereits am Werk: Für die Bierherstellung wurden Hefen entwickelt, die Light-Biere direkt produzieren, die Reifezeit des Gerstensaftes verkürzen und das Verstopfen der Filteranlagen durch den Abbau pflanzlicher Riesenmoleküle verhindern.

Hin und wieder scheinen die Manager der Lebensmittelindustrie jedoch die Rechnung ohne den Verbraucher zu machen: So entwickelte die kalifornische Firma Calgene eine Tomate, die unter dem Namen „Flavr savr“ (Geschmacksretter) Furore machte. Die Reifung des Nachtschattengewächses ist um längere Zeit verzögert worden, weil die Calgene-Forscher eines von etwa 100000 Tomatengenen gezielt abgeschaltet haben.

Das unter natürlichen Umständen für den Abbau der Tomaten-Zellwände verantwortliche Enzym wird durch diesen Trick nur noch in winzigen Mengen gebildet, die biologische Uhr der Pflanze nach der Reifung praktisch angehalten. Die „Gentomaten“ werden – im Gegensatz zu ihren Artgenossen aus herkömmlicher Zucht – als rote, reife Früchte gepflückt. Den Händlern werden dadurch längere Lagerzeiten ermöglicht.

Ernst-Ludwig Winnacker vom Genzentrum der Universität München zählt zu den wenigen, die bisher das Versprechen auf einen „Geschmack wie von der Staude“ überprüft haben. Ganz hervorragend habe sie geschmeckt, erinnert sich der Professor. Im Gegensatz zu den 40 deutschen Spitzenköchen, die kürzlich – ohne Geschmacksprobe – einen Appell gegen die EG-weite Zulassung gentechnisch veränderter Lebensmittel veröffentlichten, vermag Winnacker weder eine Gesundheitsgefährdung noch einen Qualitätsverlust auszumachen.

Aber obwohl alle gesetzlichen Auflagen erfüllt und die Unbedenklichkeit des Verzehrs mehrfach amtlich attestiert wurde, droht die Markteinführung des feuerroten Geschmacksretters. zu scheitern: Die amerikanischen Verbraucher zeigten kein Interesse an den Früchten, und auch ein großer Lebensmittelhersteller wird seine Suppen weiterhin mit herkömmlichen Tomaten zubereiten, obwohl die Firma die Forschungsarbeiten ursprünglich mitfinanziert hatte.

Viel Zeit verbringt Winnacker damit, die Ängste der Deutschen vor der Gentechnik zu entkräften. Eine schleichende Vergiftung durch Gen-Nahrung, wie einige Kritiker sie bereits an die Wand malen, hält er für „Blödsinn“. „In den Mahlzeiten, die wir täglich zu uns nehmen, sind durchschnittlich sieben Gramm Erbsubstanz enthalten“, rechnet Winnacker vor – fremde Gene in Hülle und Fülle also. Im Mund oder spätestens im Magen haben die Gene von Rind und Radieschen, Schwein und Scholle, Krabbe und Kartoffel reichlich Zeit, sich planlos zu durchmischen, ohne daß dadurch eine besondere Gefahr hervorgerufen werde.

Etwas vorsichtiger fällt die Analyse von Klaus-Dieter Jany aus, der sich an der Karlsruher Bundesforschungsanstalt für Ernährung hauptberuflich dem Thema verschrieben hat. Der Professor hält den Einsatz der Gentechnik im Lebensmittelbereich für nicht mehr und nicht weniger riskant als die Anwendung herkömmlicher Verfahren.

Voraussetzung sei allerdings, daß die am Gentransfer beteiligten Organismen und Erbmoleküle ebenso genau bekannt seien wie die Ernährungsgewohnheiten der Verbraucher. Bei verantwortungsvollem Einsatz der Gentechnik sieht Jany die Chance, „erstmals gesundheitliche Risiken von Lebensmitteln zu vermindern und deren Nährwert zu erhöhen.“

Ganz anderer Meinung ist da Beatrix Tappeser vom Öko-Institut Freiburg. „Die Gentechnik sollte im Bereich der Lebensmittel nicht eingesetzt werden“, forderte die Biologin kürzlich in einer Expertenanhörung des Gesundheitsausschusses des Deutschen Bundestages. Als Grund für ihre Bedenken zitierte die Kritikerin die amerikanische Gesundheitsbehörde FDA, die unter anderem allergische Reaktionen auf die neuen Lebensmittel für möglich hält.

Auch sei ungeklärt, inwieweit gentechnisch veränderte Organismen ihre neuen Eigenschaften auf die Darmbakterien des Menschen übertragen können und welche langfristigen Folgen sich daraus ergeben, sagte Frau Tappeser. „Wenn Politik und Wissenschaft sich nicht einigen können, muß zumindest eine Kennzeichnungspflicht her, damit der Verbraucher beim. Einkauf selbst entscheiden kann.“

Für eine Kennzeichnungspflicht plädierte nicht nur die Mehrzahl der bei der Anhörung anwesenden Experten. Auch die Bundesregierung vertritt diesen Standpunkt gegenüber der EG. Bis zum Abschluß des Gesetzgebungsverfahrens allerdings wird gegessen, was – ungekennzeichnet – auf den Tisch kommt.

(erschienen in der Stuttgarter Zeitung vom 1. Oktober 1993)

Buchbesprechung: Die veränderte Zelle

Während in Deutschland die Behandlung „unheilbar“ krebskranker Menschen mit Hilfe der Immuntherapie noch in den Kinderschuhen steckt, verfügt der Amerikaner Steven Rosenberg über ausreichend Erfahrung, um ein ganzes Buch dem Thema zu widmen.

Nach gut zwanzig Jahren angewandter Spitzenforschung zog der vom US-Magazin Newsweek als „medizinischer Superstar“ bejubelte Rosenberg eine erste Bilanz: Seine Autobiographie „Die veränderte Zelle“ (in verschiedenen Ausgaben erhältlich bei Amazon), die der heute 53-jährige zusammen mit dem Journalisten John M. Barry verfaßt hat, liest sich über weite Strecken spannend wie ein Krimi.

Ein Rätsel, das ihm vor dreiundzwanzig Jahren der Patient James DeAngelo in der Notaufnahme eines Krankenhauses in West Roxburry aufgegeben hatte, sollte Rosenberg nicht mehr loslassen:

Zwölf Jahre nachdem der „hoffnungslose Fall“ von Magenkrebs mit einer Vielzahl von Tumoren und Metastasen zum Sterben nach Hause geschickt wurde, geriet DeAngelo im Sommer 1968 an den jungen Assistenzarzt Rosenberg. Der entfernte ihm in einem Routineeingriff die Gallenblase und stellte dabei mit ungläubigem Staunen fest, daß sämtliche Krebsgeschwüre spurlos verschwunden waren.

Niemand hatte den stoppelbärtigen Kriegsveteranen behandelt. Der Körper dieses Mannes hatte den Krebs besiegt. Unter den -zig Millionen Opfern der Krankheit waren damals weltweit ganze vier Fälle bekannt, in denen sich Magenkrebs von selbst zurückgebildet hatte.

„Wie?“ – so die Frage, die Rosenberg seither mit einer Energie verfolgt, die an Besessenheit grenzt. 

Versuche, bei denen Krebspatienten die Abwehrzellen von Schweinen injiziert wurden, muten aus heutiger Sicht bestenfalls naiv, schlimmstenfalls verantwortungslos an. Die oft in allen Details beschriebenen chirurgischen Eingriffe, die teilweise rabiaten Therapieversuche und die Erläuterung unzähliger Komplikationen und Nebenwirkungen könnten leicht den Eindruck eines Fanatikers erwecken, dem jedes Mittel recht ist.

Doch das Bild trügt. Dem hochbegabten Sohn einer jüdischen Einwandererfamilie geht es um die Rettung von Menschenleben. Teilnahmebedingung für die klinischen Versuche am Nationalen Krebsinstitut in Maryland ist, daß sämtliche anderen Möglichkeiten ausgeschöpft wurden.

Rosenberg beschreibt seine Patienten einfühlsam als Mütter und Familienväter, mal mutig, mal angstvoll, hin und wieder spricht er auch von Freundschaft.

Umso mehr verbittert es ihn, wenn er nach zehnjährigem Ringen bilanzieren muß: „Dreißig Tote ohne Wenn und Aber. Ich hatte jeden einzelnen dieser Patienten gekannt, und zwar gut.“ Das war 1984, ein Jahr, in dem die Gentechnik Rosenbergs Arbeiten einen großen Schub verlieh.

Für seine Versuche benötigte der Chefchirurg einem vielversprechenden Botenstoff, Interleukin II (IL-2), der die oft zahnlosen Abwehrzellen des Immunsystems in gefährliche Killer verwandeln kann. Allerdings hatte der Weltkonzern Du Pont dreißig Mitarbeiter gebraucht, um in einjähriger Arbeit gerade 35 tausendstel Gramm aus der Milz von Mäusen herzustellen – viel zu wenig für all die Fragen, die in unzähligen Experimenten geklärt werden mußten.

Die kalifornische Firma Cetus dagegen übertrug die menschliche Erbinformation zur Herstellung des Interleukins auf Bakterienzellen. Innerhalb weniger Tage konnte man jetzt die Leistung des Pharmariesen Du Pont um ein Vielfaches übertreffen. Die Aktienkurse schossen in die Höhe, doch der Durchbruch im Kampf gegen den Krebs war nirgendwo in Sicht:

„Ich behandelte weiterhin Patienten mit IL-2. Sie starben.“ Hätte Rosenberg damals – nach 75 Toten – aufgegeben, wer hätte es ihm verdenken können?

Kurz danach bringt die Kombination von IL-2 und Killerzellen, die vom Patienten entnommen und im Labor vermehrt wurden, endlich den ersehnten Erfolg. „Es war als hätte mir jemand in den Magen getreten“, erinnert sich Rosenberg an den Anblick des Röntgenbildes, das am 29.1.85 eindeutig den Rückgang der Tumoren bei einer sterbenskranken Marinesoldatin dokumentierte. Sie erfreut sich noch heute bester Gesundheit.

Die nackten Zahlen mögen ernüchtern: Über 1200 Patienten – die meisten mit Nieren- oder Hautkrebs in einem weit fortgeschrittenen Stadium – erhielten bisher die von Rosenberg entwickelte Immuntherapie. Bei Drei von Vieren blieb die Behandlung ohne Wirkung. Teilerfolge in Form längerer Überlebenszeiten waren jedoch bei 15 Prozent der Patienten zu verbuchen; bei jedem zehnten verschwanden die Tumoren sogar vollständig.

„Vielleicht werde ich das Rätsel nie lösen“, räumt der 53-jährige am Ende seiner Autobiographie ein. Trotzdem: „Ein paar große Stücke des Puzzlespiels liegen jetzt an der richtigen Stelle. Und ich suche weiter.“

(gelesen und geschrieben für die „WELT“, Erscheinungsdatum unbekannt.)

Politiker misstrauen Gentests

Die Genomanalyse ermöglicht die Früherkennung von Krankheiten. Doch je weiter die menschlichen Gene entschlüsselt werden, desto größer ist auch die Möglichkeit, das neue Wissen zu mißbrauchen. Das ergab eine Studie im Auftrag des Büros der Technikfolgenabschätzung des Bundestages (TAB). Für Forschungspolitiker entsteht daraus die Forderung nach gesetzlichen Regelungen für die Nutzung der Genomanalyse.

Die immer schneller voranschreitende Entschlüsselung des menschlichen Erbmaterials wird nach Meinung der Experten eine ganze Reihe ethischer und rechtlicher Probleme mit sich bringen. Für den Einzelnen werde diese Entwicklung von größerem Einfluß sein als beispielsweise die Entdeckung der Kernspaltung, mußmaßte Professor Karl-Hans Laermann vor der Bonner Wissenschaftspressekonferenz. „Eine freiwillige Selbstbeschränkung reicht deshalb nicht aus – wir streben eine bundesweite Regelung an“, sagte der forschungspolitische Sprecher der FDP-Bundestagsfraktion.

Schon heute besteht die Möglichkeit, über 700 verschiedene Krankheiten durch einen Gentest festzustellen. Zum Teil handelt es sich dabei um Krankheiten mit tödlichem Ausgang, für die es noch keinerlei Therapie gibt.

In der TAB-Studie wird nicht nur der Trend erkennbar, die Möglichkeiten der vorgeburtlichen Diagnose immer mehr auszuschöpfen. Es zeichnet sich auch ab, daß unerwünschte Merkmale immer häufiger mit „krank“ gleichgesetzt werden. Edelgard Bulmahn, stellvertretende forschungspolitische Sprecherin der SPD-Bundestagsfraktion, verwies in diesem Zusammenhang auf eine Befragung von Schwangeren, die ergab, daß eine genetische Veranlagung des Embryos zur Fettleibigkeit für 18 % aller Frauen ein Grund zur Abtreibung wäre.

Um derartige Mißbräuche auszuschließen, forderte Frau Bulmahn, pränatale Genomanalysen nur in Ausnahmen zuzulassen, etwa dann, wenn es sich um schwerwiegende Krankheiten handelt, deren Erkennung eine Behandlung vor der Geburt ermöglicht. Ebenfalls erlaubt wäre ein Gentest zur Früherkennung schwerwiegender Krankheiten, die im Kindes-oder Jugendalter auftreten und nicht therapierbar sind. Ein entsprechender Indikationskatalog sollte von der ärztlichen Standesvertretung unter Beteiligung von Patienten-Selbsthilfegruppen erstellt werden, meinte die SPD-Abgeordnete.

Enge Grenzen müssen nach dem Willen aller Beteiligten auch bei den Versicherungsgesellschaften gezogen werden, die ein besonders großes Interesse daran haben, ihr Risiko durch den Ausschluß krankheitsgefährdeter Menschen zu minimieren, was in den USA schon heute der Fall ist. „Die exakte Kenntnis des individuellen Risikos ist mit dem Versicherungsgedanken der Solidargemeinschaft unvereinbar“, erklärte dazu Karl-Hans Laermann. Deshalb dürften genetische Analysen in diesem Zusammenhang nicht gefordert werden. Ob man sich mit diesen Vorstellungen auf EG-Ebene durchsetzen kann, wurde jedoch allgemein bezweifelt.

Am Arbeitsplatz soll eine Analyse des Erbguts nur dann möglich sein, wenn dadurch Risiken für den Arbeitnehmer vermieden werden. Beispiel: Für den Bäckerlehrling wäre es gesundheitsschädigend, wenn er seine Mehlstauballergie nicht rechtzeitig erkennt. Dem Arbeitgeber darf dagegen nach den Vorstellungen der Forschungspolitiker kein Anspruch auf die genetischen Daten seiner Angestellten gewährt werden.

Ergänzt werden soll der Schutz der persönlichen genetischen Daten durch das „Recht auf Wissen“. Demnach wird es dem Einzelnen prinzipiell erlaubt sein, einen Gentest in Anspruch zu nehmen, allerdings nur nach vorheriger Beratung durch einen Fachmann. Fraglich bleibt dann bloß, was ein gesunder junger Mensch macht, wenn er durch einen Test erfährt, daß er mit 40 an einer unheilbaren Krankheit leiden wird. Das ist die Kehrseite des Wissens.

(erschienen in den VDI-Nachrichten am 24. September 1993)