Zum Hauptinhalt springen

Neue Arzneien gegen die Depression

In den 1990er Jahren wurde ich häufig von meinen Kunden auf medizinische Fachkonferenzen geschickt, einschließlich sogenannter Satellitensymposien, die dort von den Herstellern neuer Medikamente veranstaltet wurden. Dabei traten reihenweise mehr oder weniger renommierte Ärzte auf, die – natürlich gegen Honorar – ihre Argumente für die neuen und gegen die alten Präparate vortrugen. Die Kosten der Journalisten für die Anreise und Unterbringung wurden in aller Regel ebenfalls von der Pharmaindustrie übernommen, was natürlich Zweifel an der Glaubwürdigkeit dieser Veranstaltungen weckt. Doch ganz so einfach ist es nicht, denn auch Satellitensymposien bieten oftmals hochwertige Informationen, wie das folgende Beispiel zeigt:

Trizyklische Antidepressiva (TCA) werden bei schweren Gemütskrankheiten noch immer häufiger verschrieben als Monoaminooxidase-Hemmer und die recht neue Klasse der selektiven Serotonin-Wiederaufnahme-Hemmer (SSRI) zusammen. Zwar gibt es keine Beweise für eine bessere Wirksamkeit der neuen Präparate gegenüber den „klassischen“ TCA; in puncto Sicherheit und Verträglichkeit ergeben sich jedoch deutliche Unterschiede zwischen den verschiedenen Medikamenten-Klassen. Die Frage, inwieweit diese Unterschiede neue Standards bei der Therapie von Depressionen rechtfertigen, stand im Mittelpunkt eines Satelliten-Symposiums der Firma SmithKline Beecham während des 6. Kongresses des European College of Neuropsychopharmacology in Budapest.

Als großen pharmakologischen Vorteil der SSRIs benannte Professor Yves Lecrubier vom Pariser Hôpital de la Salpêtrière deren niedrige Affinität für α- und ß-adrenerge Rezeptoren. Paroxetin, Fluvoxamin, Fluoxetin und das in Deutschland noch nicht zugelassene Sertralin hätten deshalb keine kardiovaskulären Wirkungen, was zur Sicherheit beitrage. Die ebenfalls geringe Affinität für muskarinische Rezeptoren verhindere ebenso wie die fehlenden Wechselwirkungen mit histaminischen Rezeptoren eine Beeinträchtigung der geistigen Leistungsfähigkeit. „Die Akzeptanz der SSRIs in den meisten Ländern beruht wahrscheinlich nicht auf deren Wirksamkeit, sondern auf dem günstigen Nebenwirkungsprofil“, mutmaßte Lecrubier. Die neuen Antidepressiva schienen ihm zwar gleichermaßen wirksam wie die älteren Substanzen, es fehle aber noch der Nachweis, daß Subpopulationen depressiver Patienten unter kurzfristiger Therapie mit SSRIs oder den neueren MOA-Hemmern besser ansprechen würden.

Zur oftmals postulierten „vergleichbaren Wirksamkeit“ von selektiven Serotonin-Wiederaufnahme-Hemmern mit trizyklischen Antidepressiva wurden auf einer begleitenden Presseveranstaltung neue Daten präsentiert. So berichtete der niedergelassene Arzt Dr. Peter Stott aus dem britischen Tadworth über eine Studie Paroxetin (täglich 20 Milligramm) versus Amitriptylin (täglich 75 Milligramm) an über 500 Patienten im Alter von 18 bis 65 Jahren. Alle Probanden hatten zu Beginn der Untersuchung mindestens einen Wert von 16 auf der Montgomery-Asberg Depressionsskala und über 11 Einheiten auf der „Clinical Anxiety“-Skala.

Im Verlauf der achtwöchigen Therapie sanken die Werte in beiden Gruppen auf beiden Skalen praktisch parallel auf weniger als die Hälfte der Eingangswerte. Anticholinerge Nebenwirkungen wurden in der Amitriptylin-Gruppe signifikant häufiger beobachtet, ebenso Mundtrockenheit, welche unter dem trizyklischen Antidepressivum mit 27 Prozent die häufigste Nebenwirkung darstellte. Dagegen klagten in der Paroxetin-Gruppe 19 Prozent der Probanden über Übelkeit; hier ergab sich ein signifikanter Unterschied zuungunsten des SSRIs.

Abgebrochen wurde die Studie – meist wegen Nebenwirkungen und dem Ausbleiben eines klinischen Effektes, selten wegen mangelnder Compliance – von 37 Prozent der Patienten unter Amitriptylin, sowie 26 Prozent in der Paroxetin-Gruppe. Der Unterschied war statistisch nicht signifikant.

Die bessere Verträglichkeit von Paroxetin gegenüber TCA (meist Amitriptylin) betonte auch Professor Stuart Montgomery von der St. Mary´s Hospital Medical School, London. Unter knapp 4000 Patienten fand der Psychiater eine durch Nebenwirkungen bedingte Abbruchrate von 12,1 Prozent für Paroxetin gegenüber 15,8 Prozent für TCA. Dieses Ergebnis blieb signifikant auch unter Einbeziehung der Abbrüche wegen mangelnder Wirksamkeit (17,1 gegen 21,0 Prozent).

Immer wieder in den Vordergrund gestellt wurde in Budapest das erhöhte Suizid-Risiko für Patienten unter trizyklischen Antidepressiva. Professor Richard Farmer von der Charing Cross Hospital Medical School der Universität London zufolge sind bei jedem zehnten Selbstmord in England und Wales TCA im Spiel. Die enorm hohe Suizidalität unter schwer depressiven Patienten könnte laut Farmer um ein Fünftel reduziert werden, wenn nur noch Medikamente verschrieben würden, die auch in Überdosis gut toleriert werden. Der Mediziner mit dem Spezialgebiet Arzneimittelsicherheit präsentierte Daten für England und Wales, wonach für die TCA Amitriptylin, Imipramin und Clomipramin 73, 55 bzw. 26 Tote je Million ausgeschriebener Rezepte ermittelt wurden, für die verschiedenen SSRIs dagegen weniger als ein Todesfall.

„Die Sicherheit bei Überdosen sollte in Betracht gezogen werden bei der Verschreibung von Medikamenten an suizidgefährdete Patienten. Es gibt auch gute Gründe dafür, diesen Faktor bei der Zulassung von Arzneimitteln in Betracht zu ziehen“, sagte Farmer.

Gegen die Verschreibung von SSRIs sprechen auf den ersten Blick deren vergleichsweise hohe Kosten. Diesem Argument begegnete Professor John Feighner, San Diego mit der Behauptung, die Gesamtkosten pro erfolgreich behandeltem Patienten seien für Paroxetin niedriger als für Imipramin. Dies habe eine Studie mit über 700 schwer depressiven stationären Patienten für die Vereinigten Staaten ergeben, die auch nach Umrechnung auf britische Verhältnisse Bestand habe. Als Gründe für das überraschende Resultat nannte Feighner die schlechtere Compliance und die höhere Abbruchrate unter TCA.

(erschienen im Deutschen Ärzteblatt am 3. Dezember 1993)

Quelle: Satellitensymposium der Firma SmithKline Beecham beim 6. Kongress des European College of Neuropsychopharmacology in Budapest. 10.-14. Oktober 1993)

Hautkrebs mit „Genspritze“ geschrumpft

Der erste klinische Ver­such zum direkten Gentransfer wurde erfolgreich abgeschlossen. Wie Gary Nabel und seine Mitarbeiter vom Medizinischen Zentrum der Universität Michigan in der jüngsten Ausgabe der Fachzeitschrift PNAS berichten, konnte das „therapeutische Potential“ und die Sicherheit der Methode an fünf Patienten bestätigt werden, die unter einem malignen Melanom des Stadiums IV litten.

Im Rahmen der klinischen Phase-I-Studie injizierten die Forscher eine Mischung aus Liposomen und nackter Erbsubstanz jeweils sechs Mal direkt in die Tumoren. Die Konzentration der eingesetzten DNA übertraf dabei diejenige in den vorausgegangenen Tierversuchen um den Faktor sechs. Es handelte sich dabei um Gensequenzen, welche für das Transplantationsantigen HLA-B7 codieren. HLA-B7, das bei den Probanden zuvor nicht nachweisbar war, wurde daraufhin von bis zu zehn Prozent der Tumorzellen in der Nähe der Einstichstelle synthetisiert.

Anschließend habe man starke Hin­weise auf eine verstärkte Reaktivität zytotoxischer T-Zellen gegen das frem­de Antigen gefunden, berichtete Nabel. Eine Immunantwort gegen die Fremd-DNA wurde dagegen nicht beobachtet. „Alle Patienten tolerierten die Behand­lung gut; akute Komplikationen gab es nicht.“

In einem Fall wurde nach kutaner Injektion eine vollständige Regression nicht nur des behandelten Knotens er­zielt, sondern auch entfernter Metasta­sen, darunter ein drei Zentimeter durchmessendes Geschwür der Lunge. Vorausgegangene chirurgische Maßnahmen waren bei diesem Patienten ebenso wirkungslos geblieben wie Strahlen- und Chemotherapie, die Gabe von Interferon sowie eine Immunthe­rapie mit BCG und Interleukin 2.

Auf einem Symposium des Verbundes Klinisch-Biomedizinische Forschung hatte Nabel kürzlich in Heidelberg eingeräumt, daß die direkte Injektion nackter DNA in den Tumor „wenig elegant“ erscheinen möge. „Aber wenn man Gene an einen bestimmten Ort im Körper des Patienten haben will, sollte man sie einfach dort platzieren. Liposomen bilden dabei eine wichtige und möglicherweise sicherere Alternative gegenüber den gebräuchlichen viralen Vektoren.“

(Original-Manuskript für einen Artikel in der Ärzte-Zeitung vom 2. Dezember 1993. Eine Publikumsversion wurde gesendet im Deutschlandfunk am 1. Dezember 1993.)

Quelle: Nabel GJ, Nabel EG, Yang ZY, Fox BA, Plautz GE, Gao X, Huang L, Shu S, Gordon D, Chang AE. Direct gene transfer with DNA-liposome complexes in melanoma: expression, biologic activity, and lack of toxicity in humans. Proc Natl Acad Sci U S A. 1993 Dec 1;90(23):11307-11. doi: 10.1073/pnas.90.23.11307.

Hepatitis C: Die lange Suche nach dem Virus

Während der „Aids-Skandal“ in der vorigen Woche seinen vorläufigen Höhepunkt erreichte, wurden in Bonn zwei Männer geehrt, die sich abseits der großen Schlagzeilen um die Sicherheit von Blutpräparaten verdient gemacht haben. Daniel Bradley und Michael Houghton gelang es in zwei Jahrzehnten hartnäckiger Detektivarbeit, das Hepatitis C-Virus aufzuspüren – einen Erreger, der ebenso wie das Immunschwächevirus HIV durch Blut und Blutprodukte übertragen werden kann. Für ihre Arbeiten erhielten die beiden Biochemiker jetzt zusammen mit dem Deutschen Hans-Georg Rammensee den mit 100000 Mark dotierten Robert-Koch-Preis, eine der höchsten wissenschaftlichen Auszeichnungen der Bundesrepublik Deutschland.

Das Hepatitis C-Virus (HCV) ruft bei der Mehrzahl der Infizierten eine langwierige Leberentzündung hervor. Bei jedem Zehnten entwickelt sich eine Zirrhose – eine Krankheit bei der Leberzellen zerstört und die Funktion des Organs gefährdet werden. In einigen wenigen Prozent der Fälle kommt es 15 bis 25 Jahre nach der Infektion sogar zum Leberkrebs.

Diesem Risiko standen Ärzte und Patienten bis vor kurzem noch relativ hilflos gegenüber: Zwar wurden Schutzmaßnahmen und Impfungen gegen das ebenfalls auf dem Blutwege übertragene Hepatitis B-Virus, und das vergleichsweise harmlose, über Fäkalien verbreitete Hepatitis A-Virus schon in den 1970er Jahren entwickelt. Trotzdem kam es auch weiterhin nach Bluttransfusionen zu Hepatitiserkrankungen. Vier Fünftel dieser, per Ausschlußdiagnose als „Nicht-A-Nicht-B-Hepatitis“ (NANBH) benannten Infektionen gingen, wie man heute weiß, auf das Konto von HCV.

In Deutschland ging die Zahl der dem Bundesgesundheitsamt gemeldeten Fälle von 7396 im Jahre 1980 auf 851 im Jahr 1990 drastisch zurück. Einen Beitrag zu diesen Erfolg bildete dabei die immer strengere Auswahl der Blutspender während der sich ausbreitenden Aids-Epidemie. Ein Bluttest, mit dem man die an HCV Erkrankten direkt hätte nachweisen können, stand aber nicht zur Verfügung. Einerseits wurden deshalb viele Infizierte übersehen, andererseits wurden willige Spender unnötigerweise zurückgewiesen.

Die NANBH war zwar als schwerwiegendes Gesundheitsproblem erkannt worden, die Fahndung nach dem Erreger erwies sich jedoch als ebenso frustrierend wie die Suche nach der sprichwörtlichen Nadel im Heuhaufen. Bis zum heutigen Tag ist es auch mit den modernsten Elektronenmikroskopen nicht gelungen, das Virus sichtbar zu machen.

Für Bradley begann die Suche 1977, als wieder einmal eine Lieferserie des hochkonzentrierten Blutgerinnungsfaktor VIII aus dem Verkehr gezogen werden mußte. Zwei Bluterpatienten hatten sich mit NANBH infiziert, was früh genug festgestellt wurde, um den noch nicht verbrauchten Teil der Charge dem Zentrum für Krankheitskontrolle (CDC) im amerikanischen Atlanta zur Verfügung zu stellen. Dort erhielt Bradley den Auftrag, den geheimnisvollen Erreger aus dem Material zu isolieren und dessen Eigenschaften zu ermitteln.

Zwar gelang es, mehrere Schimpansen zu infizieren und krankhafte Veränderungen der Leber festzustellen, ansonsten tappte man aber weiter im Dunkeln. Immerhin konnte man zeigen, daß Blutplasma seine infektiösen Eigenschaften verlor, wenn es mit Chloroform behandelt wurde. Da Chloroform die fetthaltigen Hüllen anderer Viren aufzulösen vermag, schloß Bradley auf ein sehr kleines, umhülltes Virus.

Die typischen Veränderungen in den infizierten Zellen verglich der Amerikaner dann sorgfältig mit dem Krankheitsbild bei zahlreichen anderen Virusinfektionen. Er fand Parallelen zu bestimmten Pflanzen-, Insekten- und Tierviren, die alle eines gemeinsam hatten: Das Erbmaterial bestand aus Ribonukleinsäure (RNS). Ein Großteil der bekannten Virusfamilien, die stattdessen Desoxyribonukleinsäure (DNS) benutzen, wurde deshalb von der weiteren Suche ausgenommen. Schließlich fand Bradley heraus, daß der oder die Erreger der NANBH ein eher kleines Virus sein mußte: Selbst Filter, deren Poren kleiner als ein Zehntausendstel Millimeter war, konnten sie noch passieren.

Die Arbeitsgruppe um Bradley versuchte dann, im Blut infizierter Menschen und Schimpansen Antikörper gegen den großen Unbekannten zu finden. 40000 Versuchsreihen später war klar, daß viel zu wenige Virusbestandteile im Blut waren, um die „Spürhunde“ des Immunsystems in ausreichender Menge zu binden und damit sichtbar zu machen. „Man kann aus Steinen kein Blut pressen“, sagte Bradley jetzt in Bonn mit Rückblick auf die zahlreichen Fehlschläge und Enttäuschungen.

Schließlich setzte er in seinem Labor in Atlanta alles daran, zellfreie Blutflüssigkeit (Plasma) mit möglichst vielen „infektiösen Einheiten“ zu gewinnen. Dahinter stand die Idee, einzelne Abschnitte des Erbmaterials „blind“ zu isolieren und durch molekularbiologische Verfahren zu vermehren. Den Schimpansen „Don“ und „Rodney“ wurde deshalb während ihrer Krankheitsschübe bis zu 11 Jahre lang immer wieder Plasma abgenommen und auf Infektiosität getestet. Die gesammelten Fraktionen höchster Aktivität enthielten schließlich eine Million infektiöser Einheiten je Milliliter.

Um aus den gut drei Litern Flüssigkeit das Erbmaterial des Erregers herauszufischen, bedurfte es der Zusammenarbeit mit einem Spezialisten: Bei der im kalifornischen Emeryville ansässigen Chiron Corporation machte sich der gebürtige Brite Michael Houghton an die Aufgabe, die von seinen immer wieder gescheiterten Kollegen als reine Zeitverschwendung abqualifiziert wurde.

Nach fünf ergebnislosen Jahren verfiel man auf den Trick, alle Nukleinsäuren aus einem Teil des wertvollen Plasmas durch Zentrifugation zu konzentrieren und diese Erbinformationen in sogenannte Expressionsvektoren einzuschleusen. Expressionsvektoren sind gentechnisch hergestellte „Sklavenmoleküle“ aus DNS, deren Aufgabe darin besteht, die in fremden Nukleinsäuren verschlüsselten Botschaften lesbar zu machen.

Verpackt in Expressionsvektoren wurden die Bruchstücke genetischen Materials in Bakterien eingeschleust, welche dann die Übersetzung in zahllose Eiweiße besorgten. Mit Antikörpern aus dem Blut eines NANBH-Patienten gelang es schließlich, unter einer Million Bakterienkolonien eine einzige Kolonie herauszufischen. Sie produzierte relativ große Mengen von einem Eiweiß des gesuchten Parasiten und enthielt folglich zumindest ein Bruchstück von dessen Erbanlagen.

Die fehlenden Teile konnten dann mit Standardmethoden der molekularen Biologie schnell gefunden und zusammengesetzt werden. Man hatte mit der neu entwickelten „Schrotschuß-Technik“ einen unsichtbaren Erreger identifiziert, über dessen Eigenschaften man vorher nur spekulieren konnte. Das Verfahren eignet sich auch zum Aufspüren anderer, noch unbekannter Krankheitserreger.

Aus den viralen Eiweißen, die jetzt in großer Menge hergestellt werden konnten, entwickelte die Firma Chiron einen Bluttest, der 1989 auf den Markt kam. Durch Anwendung dieses Test bei der Auswahl von Blutspendern habe man die Häufigkeit der Posttransfusionshepatitis weltweit um 90 Prozent senken können, verkündete Houghton in Bonn.

Einen perfekten Schutz vor HCV gibt es zwar immer noch nicht, der größte Teil der Infektionen wird aber inzwischen vermieden, wie Gregor Caspari vom Institut für Medizinische Virologie der Justus-Liebig-Universität in Gießen bestätigte. Mittlerweile ist auch die zweite Generation von Bluttests im Einsatz. Eine großangelegte Untersuchung an 200000 deutschen Blutspendern belegt, daß die unvermeidlichen Lücken weiter geschlossen wurden.

Ein anderes Problem rückt jetzt in den Mittelpunkt des Interesses: HCV ist nämlich auch für viele Leberleiden verantwortlich, die nicht durch Blut oder Blutprodukte übertragen werden – es sind also noch nicht alle Übertragungswege bekannt. Weltweit dürfte HCV eine der wichtigsten Ursachen von Leberkrebs sein, mutmaßte Hoechst-Vorstandschef Wolfgang Hilger in seiner Laudatio bei der Preis-Verleihung. Für Bradley und Houghton ist die Arbeit deshalb noch lange nicht zu Ende: Sie haben inzwischen mit der Entwicklung eines Impfstoffes gegen den noch immer unsichtbaren Erreger begonnen.

(erschienen in der Süddeutschen Zeitung am 2. Dezember 1993)

Parvoviren – Verbündete gegen Krebs?

Die Verbündeten von Jörg Schlehofer sind alles andere als groß. Rund fünf Millionen Parvoviren müßte man aneinanderreihen, um auf eine Strecke von nur einem Zentimeter zu kommen. Selbst unter dem Elektronenmikroskop sind die Winzlinge nur als kleine graue Pünktchen zu erkennen.

Dennoch hoffen Schlehofer und sein belgischer Kollege Jean Rommelaere darauf, Parvoviren als hochpräzise Werkzeuge für die Krebstherapie zu nutzen. Immerhin schädigen die Parasiten unter den hunderten verschiedener Zelltypen des Menschen fast ausschließlich jene Irrläufer, die in Form von Tumoren und Metastasen das Leben der Patienten bedrohen.

In gesunden Zellen können sich die Zellpiraten dagegen nicht vermehren. Mit Tierversuchen an Hamstern und Nacktmäusen konnten die Wissenschaftler am Forschungsschwerpunkt Angewandte Tumorvirologie außerdem zeigen, daß Tumorzellen gegenüber einer Bestrahlung empfindlicher reagieren, wenn sie zuvor mit Parvoviren infiziert wurden.

„Das interessiert natürlich die Strahlentherapeuten sehr“, sagt Schlehofer, für den Internationale Zusammenarbeit mehr ist als nur ein Schlagwort: Die zurückliegenden Monate hat der DKFZ-Angestellte größtenteils am Pasteur-Institut im französischen Lille verbracht. Gleichzeitig pflegt er die Verbindungen zur Radiologischen Universitätsklinik Heidelberg, wo das Konzept schon bald auch an den ersten Krebspatienten erprobt werden soll.

Zuvor gilt es allerdings, mögliche Risiken auszuschließen. „Kann das Virus, mit dem wir hier arbeiten, wirklich keine Krankheiten beim Menschen auslösen?“, lautet die Frage, die für Schlehofer im Mittelpunkt steht. Außerdem wird überprüft, ob Parvoviren vielleicht sogar gesunde Menschen vor Krebs schützen können. Beim Gebärmutterhalskrebs deutet jedenfalls alles darauf hin, „daß die Patientinnen sich seltener mit dem Virus auseinandergesetzt haben, als die Normalbevölkerung“.

Weltweit beginnt man zu erkennen, daß Viren mehr sind als Krankheitserreger und lästige Parasiten. Als Lastenträger für Therapiegene könnten sie in jene Winkel des Körpers vordringen, die für das Skalpell des Chirurgen unerreichbar sind. Selbst Tumoren des Gehirns haben amerikanische Forscher mit Hilfe solcher Gen-Taxis schon attackiert. Auch wenn der Ausgang dieses Experiments noch ungewiß ist, stehen die Chancen gut, daß den Ärzten schon bald ein neues „Instrument“ zur Verfügung steht, an dessen Einsatz noch vor zehn Jahren allenfalls Science-Fiction Autoren zu denken wagten.

(erschienen in Ausgabe 3/4 1993 des „einblick“, der Zeitschrift des Deutschen Krebsforschungszentrums)

Antisense-RNS: Blockade mit System

Manchmal zahlt es sich aus, der Herde nicht zu folgen: Als Georg Sczakiel vor sieben Jahren von den ersten Versuchen erfuhr, Gene mit „Gegen-Genen“ zu hemmen, wurden Forschungen auf diesem Gebiet noch als „sehr riskant für den persönlichen Werdegang“ eingestuft.

Heute ist Sczakiel Leiter einer sechsköpfigen Arbeitsgruppe am Zentrum für angewandte Tumorvirologie des DKFZ. Er zählt zur einer schnell wachsenden Schar von Wissenschaftlern, die daran arbeiten, einzelne Erbanlagen mit bisher unerreichter Präzision zu blockieren.

Der gelernte Chemiker macht sich dabei eine wesentliche Eigenschaft des fadenförmigen Erbmoleküls DNS zunutze, welches eigentlich aus zwei „zusammengeklebten“ Hälften besteht: Alle Informationen sind in der Regel nur auf einem Strang verschlüsselt. Dessen spiegelbildliches Gegenstück dient lediglich zur Stabilisierung, verdeckt dabei aber die eigentliche molekulare Botschaft. Erst wenn die anhänglichen Partner durch ein ganzes Arsenal von Biomolekülen für Sekundenbruchteile voneinander gelöst werden, kann die Zelle eine Kopie des molekularen Bauplans erstellen. Diese Boten-RNS dient dann außerhalb des Zellkerns als Vorlage für die Produktion eines Biokatalysators.

Hier aber kann Sczakiel mit seinen „molekularen Bremsklötzen“ einen Riegel vorschieben. Es handelt sich dabei um Antisense-RNS, ein mit gentechnischen Methoden hergestelltes Spiegelbild der Boten-RNS. Beide Moleküle schmiegen sich aneinander und verknäulen dabei zum unlesbaren Doppelstrang, ganz ähnlich dem DNS-„Muttermolekül“. Der Clou der Methode besteht darin, daß es für jedes Gen nur einen RNS-Typ gibt, der sich mit einer maßgeschneiderten Antisense-RNS lahmlegen läßt.

Daß Sczakiel mit dieser Technik ausgerechnet am Krebsforschungszentrum versucht, die Vermehrung des Aids-Virus zu blockieren versucht, mag zunächst verblüffen. DKFZ-Chef Harald zur Hausen läßt den Nachwuchswissenschaftler trotzdem gewähren, denn das Prinzip der Genhemmung durch Antisense-Moleküle ist universell anwendbar. Dank der weltweiten Bemühungen zur Entschlüsselung der menschlichen Erbanlagen sind inzwischen eine ganze Reihe von Genen bekannt, deren Überaktivität das Krebswachstum begünstigt. In den Vereinigten Staaten wurden die ersten Kandidaten bereits ins Visier genommen.

(erschienen in Ausgabe 3/4 1993 des „einblick“, der Zeitschrift des Deutschen Krebsforschungszentrums)

Rezepte gegen das Waldsterben

Der Wald kommt unter die Räder. So lautete bisher die auf den Punkt gebrachte Befürchtung von Naturschützern, Umweltforschern und Forstbesitzern. Immer deutlicher wurde in den letzten Jahren, daß die beachtlichen Erfolge bei der Luftreinhaltung zunichte gemacht werden durch die scheinbar unaufhaltsame Zunahme der Verkehrs, durch unser aller Drang nach der Freiheit auf den eigenen vier Rädern.

Gewachsen ist aber auch die Einsicht, daß die früher als „natürlich“ eingestuften Abfälle einer hochtechnisierten Landwirtschaft dem deutschen Wald heute nicht weniger schaden als die rauchenden Schornsteine der Nachkriegsjahre.

In zehn Jahren Waldschadensforschung  wurden gut 700 Projekte von Bund, Ländern und der Deutschen Forschungsgemeinschaft finanziert, auf etwa 360 Millionen Mark beläuft sich inzwischen die Rechnung. Dazu kommen 420 Millionen Mark aus Steuergeldern für „flankierende forstliche Maßnahmen“, die es den Waldbesitzern ermöglichen sollten, die Widerstandsfähigkeit der Waldökosysteme zu erhalten und zu verbessern. Eine schmerzfreie und billige Lösung des Problems ist dennoch nicht in Sicht.

„Die Forstwirtschaft hat relativ wenige Möglichkeiten, zu reagieren. Die Wälder sind den Emissionen schutzlos preisgegeben“, sagt Professor Karl Kreutzer vom Lehrstuhl für Bodenkunde der Forstwirtschaftlichen Fakultät der Universität München. Auch die Kalkung, mit der die Versauerung der Böden bekämpft werden soll, ist kein Allheilmittel. Auf seinen Versuchsflächen im Höglwald zwischen München und Augsburg wies Kreutzer nach, daß vermehrt Nitrat gebildet wird. Die Ionen werden mit dem Regen ausgeschwemmt und stellen eine langfristige Bedrohung für das Trinkwasser dar.

Zu den trüben Zukunftsaussichten kommt die Tatsache hinzu, daß die bisherigen Maßnahmen zur Luftreinhaltung am Gesundheitszustandes des deutschen Waldes wenig zu ändern vermochten. Während sich Nadelbaumarten seit Jahren langsam erholen, geht es mit den wichtigsten Laubbäumen weiter bergab. Dabei wurden in den letzten 15 Jahren eine ganze Reihe von Gesetzen und Verordnungen erlassen, die oftmals mit hohen Erwartungen verknüpft waren:

Noch zu Beginn der achtziger Jahre wurden in der alten Bundesrepublik weit über drei Millionen Tonnen Schwefeldioxid jährlich in die Luft geblasen, von denen vier Fünftel auf das Konto von Kraftwerken und Industrie gingen. Mit der Großfeuerungsanlagen-Verordnung von 1983 ging die Ära der rauchenden Schornsteine dann zu Ende. Vor allem der Einführung von Rauchgas-Entschwefelungsanlagen ist es zu verdanken, daß die SO2-Emissionen der alten Bundesländer mittlerweile um siebzig Prozent zurückgegangen sind. Durch Betriebsstilllegungen und die Umrüstung bestehender Anlagen klärt sich der Himmel über Ostdeutschland deutlich schneller, doch liegen noch keine neuen Zahlen vor.

Ob die bisherigen Anstrengungen dem Wald geholfen haben, ist schwer zu beurteilen. Wie Professor Wolfram Elling an der Fachhochschule Weihenstehphan in Freising zeigen konnte, scheint es bei Tannen und Fichten schon in der ersten Hälfte der achtziger Jahre zu einer Art Trendwende gekommen zu sein. An der besonders stark von den neuartigen Waldschäden betroffenen Weißtanne ließ sich dies an den immer breiter werdenden Jahresringen ablesen.

Allerdings gilt diese Beobachtung nur für noch erholungsfähige Bäume, wie der Dendrochronologe betont. Aber während Frost und Dürre für das Sterben der Weißtannen ebenso wie die Versauerung der Böden anscheinend nur von untergeordneter Bedeutung sind, ist der Zusammenhang zwischen örtlicher Schwefelbelastung und dem Schädigungsgrad dieser Baumart eindeutig.

Ein weiterer Hinweis darauf, daß die Reduktion des Schwefeldioxidausstoßes zumindest eine Entlastung für den Wald gebracht hat, stammt von Untersuchungen, bei denen die Nadelmasse von Fichten im Flachland bestimmt wurde. Sie nahm etwa ab 1985 so stark zu, daß die früheren Verluste heute kaum mehr zu erkennen sind. „Erholungsfähige“ Bäume, die auf 800 Metern Höhe im Fichtelgebirge geschlagen wurden, zeigen außerdem den bereits bei den Weißtannen beobachteten Zuwachs in der Breite der Jahresringe. „Die sehr deutliche Drosselung der Schwefeldioxidemissionen während des letzten Jahrzehnts kann hier mitspielen, liefert aber keine ausreichende Erklärung“, relativiert Professor Elling.

Eine Reduktion der Stickoxide hatte man sich von der im Sommer 1983 beschlossenen Einführung des Katalysators bei Personenkraftwagen erhofft. Die Vereinigten Staaten und Japan hatten zu diesem Zeitpunkt schon vorexerziert, daß der Ausstoß dieser Gase am Einzelfahrzeug durch den Einbau des Kat um 90 Prozent veringert werden kann. Dagegen hatten sich die NOx-Emissionen aus dem bundesdeutschen Kraftfahrzeugverkehr zwischen 1970 und 1982 fast verdoppelt: 1,4 Millionen Tonnen Stickoxide jährlich strömten damals durch den Auspuff in die Umwelt. Mit steuerlichen Anreizen und der europaweiten Einführung von bleifreiem Benzin hoffte man, diesen Betrag bis 1990 mindestens zu halbieren.

Inzwischen hat sich diese Kalkulation aber als Milchmädchenrechnung erwiesen, die Emissionen sind gegenüber 1982 um ein Drittel gestiegen. Seit der Einführung des Katalysator-Autos vor zehn Jahren wuchs die Zahl der Pkw in den alten Bundesländern von 24 auf über 32 Millionen. Die wiedervereinigten Deutschen legten 1991 zusammen 866 Milliarden Kilometer zurück, das entspricht etwa 6000 Mal der Entfernung von der Erde zur Sonne. Vier von fünf Kilometern wurden dabei im Auto gefahren, mit steigender Tendenz seit 1970.

Zwar werden mittlerweile 99 Prozent aller neuzugelassenen Pkw mit geregeltem Drei-Wege-Kat ausgeliefert, auf den Straßen rollen aber momentan noch sechs von zehn Karossen „hinten ohne“. Verschärfend kommt noch hinzu, daß der durchschnittliche Verbrauch der in Deutschland zugelassenen Pkw 1991 noch immer 9,9 Liter auf 100 Kilometer betrug, gegenüber 10,7 Litern im Jahre 1975. Die technischen Verbesserungen der letzten 16 Jahre kamen also nicht der Umwelt zugute sondern gingen laut einer Erklärung des Umweltbundesamtes einher mit einem „Trend zu leistungsstärkeren und schwereren PKW, die mit höheren Geschwindigkeiten gefahren werden.“

Für den Vorsitzenden des Bund für Umwelt und Naturschutz Deutschland (BUND), Hubert Weinzierl, stellt sich daher die Frage: „Sind wird bereit, den Wald unserer überbordenden Mobilität zu opfern?“. Auch Waldschadensforscher Kreutzer fordert „nicht nur den Kat, sondern kleinere Autos mit geringerem Treibstoffverbrauch.“

Die im Juli angekündigte sogenannte Sommersmogverordnung aber bringt in dieser Hinsicht keine Verbessserung. Im Auftrag der Bundesregierung hatte das Umweltministerium einen Entwurf ausgearbeitet, nach dem „Konzentrationswerte“ für Stickoxide, Benzol und Ruß ab Juli 1995 in Kraft treten und drei Jahre später nochmals verschärft werden sollen. Die örtlichen Behörden dürfen bei Überschreiten der Werte auf die Bremse treten und den Verkehr durch Umleitungen, Straßensperren, Geschwindigkeitsbeschränkungen und Fahrverbote drosseln.

Der Anreiz zum Kauf eines Katalysatorautos besteht darin, daß diese von Fahrverboten verschont bleiben sollen. Ursprünglich wollte Umweltminister Klaus Töpfer die schärferen Werte schon zum früheren Datum durchsetzen. Wie frustrierte Mitarbeiter hinter vorgehaltener Hand bekennen, scheiterte der Vorstoß aber am Widerstand der Ministerien für Verkehr und Wirtschaft, die zudem noch die Stimme des Kanzlers auf ihrer Seite wußten.

Durch die Sommersmogverordnung werden in erster Linie die Anwohner vielbefahrener Straßen entlastet. Sie dürfen darauf hoffen, in Zukunft weniger Gifte schlucken zu müssen. „Eine deutliche Minderung der Emissionen von Vorläufersubstanzen für Ozon“, wie sie Umweltminister Klaus Töpfer erwartet hält Dr. Holger Brackemann, Pressesprecher im Umweltbundesamt, aber für unrealistisch. Selbst bei weitgehenden Sperrungen der Innenstädte ergäben sich lediglich Veränderungen im Prozentbereich. Nötig seien aber Reduktionen um 70 bis 80 Prozent, hieß es bei der Behörde, die unter anderem für die wissenschaftliche Beratung des Umweltministers verantwortlich ist.

Derzeit liegt die Sommersmogverordnung ohnehin auf Eis. „Sie wird auf absehbare Zeit nicht in Kraft treten, es gibt Probleme, die Verordnung in der Bundesregierung konsensfähig zu machen und im Bundesrat durchzubringen.“, räumte Dr. Görgen ein. Widerstand kommt besonders von den Finanzministern der Länder, denen die voraussichtlichen Kosten zu hoch erscheinen, „den Umweltministern wiederum ist die Verordnung viel zu lasch“, schildert Görgen das Gerangel.

Erschwert wird die Durchsetzung von Schutzgesetzen für den Wald auch durch eine mangelnde Haftungspflicht. Hätten Waldbesitzer ein Recht auf Ausgleich der gewaltigen Verluste, die ihnen letztlich durch die Luftverschmutzung entstehen, so könnte dies zu einer Versöhnung der Gegensätze zwischen Umwelt- und Finanzministern führen.

Als Beleg für den mangelnden Handlungswillen der Bundesregierung verweisen Naturschützer gerne auf eine höchstrichterlich dokumentierte Gesetzeslücke: Schon vor sechs Jahren urteilte der Bundesgerichtshof gegenüber der Stadt Augsburg und einem Schwarzwälder Waldbesitzer, die auf Schadensersatz geklagt hatten, daß dafür die entsprechende Rechtsgrundlage fehle. Der Sache nach seien die Waldschäden jedoch „entschädingungswürdig und entschädigungsbedürftig“.

Nun muß das Verfassungsgericht darüber urteilen, wer wen entschädigen muß und mit wessen Geld dies geschehen soll. Ministerialrat Peter Splett, der im Landwirtschaftsministerium für die neuartigen Waldschäden zuständig ist, weiß, das die Forderung nach Ausgleichszahlungen leicht zu stellen, aber nur schwer umzusetzen ist. „Eine Entschädigung setzt voraus, daß man die Ansprüche juristisch klar formulieren kann.“ Dies sei aber angesichts der hochkomplexen Vorgänge im Ökosystem Wald fast unmöglich. Gegenüber dem Finanzministerium konnte man deshalb nicht einmal ungefähre Angaben über die Höhe der zu erwartenden Forderungen machen.

So steht zu befürchten, daß auch die Landwirte sich den Auflagen widersetzen werden, die derzeit in Bonner Ministerien angedacht werden. Ausgangspunkt der Überlegungen ist die Erkenntnis, daß in Folge einer intensiven Tierhaltung und der damit zusammenhängenden überreichlichen Ausbringung der anfallenden Gülle enorme Mengen an Stickstoff in Form von Ammoniak freigesetzt werden.

Unter dem Strich schädigt die Landwirtschaft den Wald daher noch stärker als der Individualverkehr, so die Bilanz eines Hintergrundpapiers aus dem Bundesforschungsministerium. Laut Abteilungsleiter Helmut Schulz soll mit einer Düngeverordnung, „die mittlerweile von der Bundesregierung in Angriff genommen wurde“, erreicht werden, daß Stickstoff in der Landwirtschaft nur noch dort eingesetzt wird, wo die Pflanzen ihn wirklich brauchen.

Vorgesehen ist auch, daß in Großtieranlagen Schadstofffilter eingebaut werden müssen. Dies wäre dann ein weiteres Mosaiksteinchen in der kaum noch überschaubaren Fülle von Gesetzen, Verordnungen, Abgaben, Steuern und technischen Maßnahmen, mit denen der Wald gerettet werden soll, ohne den Wähler zu verprellen.

(Originalmanuskript zu einem Artikel für Bild der Wissenschaft, erschienen in der Dezember-Ausgabe 1993)

Weitere Infos:

  1. Wolfram Elling, Waldschäden und Waldschadensforschung – eine kritische Zwischenbilanz, Naturwissenschaftliche Rundschau Heft 5/92, Seite 184.
  2. Caroline Möhring/BMFT, 10 Jahre Waldschadensforschung, Bonn 1992
  3. Umweltbundesamt, Jahresbericht 1992

Dioxin – Wie gefährlich ist es wirklich?

Dioxin ‑ ein einziges Wort genügt, um auch heute noch, 17 Jahre nach dem Chemieunfall im italienischen Seveso, Angst und Schrecken zu verbreiten. Die Bilder der vom Gift entstellten Gesichter, der toten Tiere und der Bagger, die monatelang den verseuchten Boden abtrugen, haben ihre Spuren hinterlassen. Als 1982 auch noch die 2400 Einwohner des amerikanischen Städtchens Times Beach ihre Heimat wegen Dioxin‑verseuchter Böden verlassen mußten, war die Substanz endgültig zum „Supergift“ geworden.

Mit immer empfindlicheren Geräten haben Wissenschaftler sich daraufhin auf die Suche gemacht. Dabei fand man heraus, daß über 200 verschiedene Arten von Dioxinen und den verwandten Furanen immer dann gebildet werden, wenn chlorhaltige Substanzen bei Temperaturen über 250 Grad verbrennen. Die „Kinder des Feuers“, wie sie manchmal bezeichnet werden, entweichen nicht nur aus Müllverbrennungsanlagen, sondern auch aus Hausheizungen und den Auspuffrohren unserer Autos, beim Rauchen und beim Schmelzen von Metallen.

Nicht alle dieser Verbindungen sind gleichermaßen giftig, die Suche der Forscher konzentriert sich deshalb auf rund drei Dutzend Stoffe, unter denen das Seveso‑Gift an erster Stelle steht. Inzwischen ist es möglich, ein einziges Dioxin‑Molekül unter einer Billion anderer Teilchen aufzuspüren. Kein Wunder also, daß die Wissenschaftler fast überall fündig wurden: Im Waldboden ebenso wie im Zeitungspapier, in Kaffeefiltern und Kosmetika, auf Kinderspielplätzen und in der Muttermilch.

Trotz alledem ist die Gefahr nicht so groß, wie die Schlagzeilen vermuten lassen. Im Gegensatz zu anderen Schadstoffen wie Asbest und Benzol streiten sich die Gelehrten noch immer darüber, ob kleine Mengen Dioxin beim Menschen Krebs verursachen können.

Selbst unter den 10000 Erwachsenen und Kindern von Seveso konnte man bisher weder eine erhöhte Krebsrate noch Anzeichen für eine Schädigung der Immunabwehr finden.

Alles deutet darauf hin, daß Menschen längst nicht so empfindlich gegenüber dem „Supergift“ sind, wie man früher vermutete. Für die zuständigen Behörden ‑ das Umweltbundesamt und das Bundesgesundheitsamt ‑ bleibt Vorsicht dennoch oberstes Gebot. Sie wiederholten kürzlich ihre Forderung nach neuen Maßnahmen, um Mensch und Umwelt zu schützen.

Um ganz sicher zu gehen, sollten täglich nicht mehr als ein billionstel Gramm Dioxin je Kilogramm Körpergewicht aufgenommen werden, verlangten die Gesundheitswächter in einem Bericht zum 2. Internationalen Dioxin‑Symposium. Die tatsächliche Belastung liegt in Deutschland etwa doppelt so hoch, doch ist auch diese Menge so winzig, daß selbst im Laufe von 100 Jahren alle Deutschen zusammen nicht einmal ein halbes Gramm abbekämen.

Der weitaus größte Teil der Schadstoffe, nämlich 95 Prozent, wird dabei über die Nahrung aufgenommen, vor allem über Fleisch und Fisch, Eier und Milchprodukte. Auch Muttermilch enthält Dioxin in vergleichsweise hohen Konzentrationen, weil aber „die Belastung nur kurze Zeit stattfindet und das Stillen nachweislich von großem Nutzen ist“, sind sich die Experten darin einig, daß alle Säuglinge trotzdem vier bis sechs Monate voll gestillt werden sollten.

Mit einer Reihe von Verordnungen und Verboten hat Umweltminister Klaus Töpfer inzwischen erste Erfolge im Kampf gegen die Dioxine erzielt. Die 50 deutschen Müllverbrennungsanlagen, aus deren Schornsteinen noch vor fünf Jahren insgesamt 400 Gramm Dioxinäquivalente entwichen, sind dank modernster Technik schon deutlich sauberer geworden und sollen in drei Jahren nur noch vier Gramm freisetzen.

Chlorhaltige Zusatzstoffe im Benzin wurden verboten und auch die einheimischen Papier‑ und Zellstoffstoffhersteller verzichten mittlerweile auf das Element, dessen Gegenwart die Entstehung des „Supergiftes“ begünstigt.

Eine Dioxinverordnung, mit der schon im Januar die weltweit niedrigsten Grenzwerte für 25 Verbindungen festgelegt wurden, ist allerdings noch immer nicht rechtskräftig: Schlimmstenfalls wird man in Bonn ein ganzes Jahr auf die nötige Zustimmung der Brüsseler EG‑Bürokraten warten müssen.

Geschrieben für die Neue Apotheken Illustrierte, Erscheinungsdatum unbekannt

Quelle: Bericht zum 2. Internationalen Dioxin-Symposium.

Mikrochip soll Blinden helfen

Die Entwicklung eines Mikrochips, der im Auge von Blinden die Funktion bestimmter Sehzellen ersetzen könnte, steht nach fünfjähriger Arbeit kurz vor dem Abschluß. John Wyatt vom Massachusetts Institute of Technology und sein Kollege Joseph Rizzo wollen mit dem elektronischen Bauteil die Funktion von Stäbchen und Zäpfchen übernehmen, zweier Zelltypen in der Netzhaut, die bei bestimmten Augenleiden zerstört werden. Die Forscher gründen ihre Hoffnung darauf, daß bei diesen Krankheiten – Retinitis pigmentosa und Makuladegeneration – lediglich solche Zellen ausfallen, die das einfallende Licht erkennen und in elektrische Impulse umsetzen. Die Weiterleitung der Nervenreize zum Sehzentrum des Gehirns wird dagegen von anderen, unbeschädigten, Nervenzellen übernommen.

Diese Nerven sollen nun von dem Mikrochip stimuliert werden. Dazu wird durch die Augenlinse einfallendes Licht zunächst auf eine Vielzahl von Photorezeptoren fokussiert. Die Photorezeptoren produzieren dann Strom, der an ein Elektrodengitter weitergeleitet wird. Die Elektroden wiederum sollen die intakten Nervenzellen reizen und damit beim Patienten ein Bild hervorrufen. Ein Prototyp des Chips wird in etwa sechs Monaten für erste Tierversuche zur Verfügung stehen.

(Meldung für Deutschlandfunk, Forschung aktuell. Sendetermin unbekannt. Ebenfalls erschienen in der Saarbrücker Zeitung am 6.1.1994.)

Quelle: Pressestelle des MIT

Mineralfasern schuld am Sick-Building-Syndrom?

Mineralfasern könnten wenigstens zum Teil die Ursache von Erkrankungen sein, die als „Sick building syndrome“ (SBS) zusammengefaßt werden. Dagegen war weder für die Luftqualität noch für die Zahl der Raucher in Büroräumen ein eindeutiger Zusammenhang mit den Beschwerden von Angestellten herzustellen.

Zu diesem Ergebnis kommen Wissenschaftler der Universität Cornell im US-Bundesstaat New York nach der Auswertung von mehr als 4000 SBS-Fällen aus Bürogebäuden der östlichen USA. Symptome sind Kopfschmerzen, Müdigkeit, Hautausschläge, Konzentrationsschwäche, Gelenkschmerzen und Anfälligkeit für Infektionen.

„Obwohl viele Menschen davon ausgehen, daß SBS mit gasförmigen Luftschadstoffen in Zusammenhang steht, haben viele Studien einschließlich unserer eigenen diesen Zusammenhang nicht belegen können“, sagte Alan Hedge, Professor für Design und Umweltanalyse. Ein Teil dieser Ergebnisse ist jetzt in den „Proceedings of the Building Design and Technology Conference“ (Brüssel, 1993) veröffentlicht worden.

„Wenn wir dagegen die industriellen Mineralfasern betrachten, die oftmals nicht gemessen werden, so finden wir Berichte über SBS viel häufiger an Orten mit einer hohen Konzentration von Mineralfasern“, erklärte Hedge. Darüber hinaus habe die Verwendung von Filtern einen drastischen Rückgang der Beschwerden bewirkt.

(erschienen in der Ärzte-Zeitung am 26. November 1993)

Strom öffnet Hautporen

Durch kurze elektrische Impulse kann die Durchlässigkeit der Haut für Arzneimittel erheblich verbessert werden. Amerikanischen Wissenschaftlern ist es am Massachusetts Institute of Technology mit dieser Methode gelungen, den Transport verschiedener Medikamente durch die Haut bis zum Zehntausendfachen zu erhöhen. Die Arbeit von Robert Langer und James Weaver ist deshalb so bedeutsam, weil die menschliche Haut gegenüber den allermeisten Substanzen eine undurchdringliche Barriere darstellt. Nur sehr wenige Arzneimittel gelangen in ausreichender Menge in die Blutbahn, wenn sie in Form von Salben aufgetragen werden.

Langer und Weaver benutzten sowohl menschliche Hautproben als auch lebende Ratten und fanden dabei heraus, daß die kurzen Stromschläge zur Bildung von Poren in der äußersten Hautschicht, der Epidermis, führten. Solange die angelegte Spannung weniger als 100 Volt betrug, waren die Änderungen in der Durchlässigkeit der Haut nur vorübergehender Natur. Außerdem fanden die Forscher keinerlei Anzeichen für einen Gewebeschaden

(erschienen in der Süddeutschen Zeitung am 25. November 1993; gesendet im Deutschlandfunk)

Quelle: Prausnitz MR, Bose VG, Langer R, Weaver JC. Electroporation of mammalian skin: a mechanism to enhance transdermal drug delivery. Proc Natl Acad Sci U S A. 1993 Nov 15;90(22):10504-8. doi: 10.1073/pnas.90.22.10504.