Zum Hauptinhalt springen

Selumetinib – wirksam gegen Neurofibrome, aber nicht verfügbar

Eine seltene Erbkrankheit, die bei Kindern Nerventumore verursacht, kann offenbar mit dem Wirkstoff Selumetinib erfolgreich bekämpft werden, zeigt eine kleine Studie mit 24 Teilnehmern. Das als Neurofibromatose Typ 1 (NF1) bekannte Leiden verursacht häufig Geschulste, die nicht operiert werden können. Diese inoperablen plexiformen Neurofibrome wurden jedoch bei allen 24 Kindern in der Studie gebremst, und bei 17 von ihnen schrumpften sie sogar um 20 bis 50 Prozent.

Dr. Widemann vom US-Krebsforschungszentrum NCI leitet mehrere Studien zum Neurofibrom (Foto: NCI)

Den größten Erfolg erzielten die Wissenschaftler um Dr. Brigitte C. Widemann, Leiterin des Pediatric Oncology Branch am National Cancer Institute der USA bei einem Mädchen, das wegen sehr großer Neurofibrome an Hüfte und Unterleib ständig unter Schmerzen litt und an den Rollstuhl gefesselt war. Durch die Behandlung verringerte sich die Tumormasse fast um die Hälfte; sie musste auch keine Schmerzmedikamente mehr einnehmen und war wieder in der Lage, längere Strecken zu laufen. Wie der Webseite von Widemann zu entnehmen ist, sind nun gleich mehrere Folgestudien geplant, die den Nutzen von Selumetinib bei Kindern wie auch Erwachsenen beweisen sollen.

Die auch nach ihrem Entdecker Morbus Recklinghausen benannte Krankheit betrifft etwa jedes 3000ste Neugeborene, davon entwickeln ein Fünftel bis zur Hälfte die hier behandelten plexiformen Neurofibrome. Sie können, je nach Lage, zu Schmerzen und Entstellungen führen, zu Blindheit, geschwächten Gliedmaßen, oder auch zu Darm- und Blasenschwäche. Vielen kann durch eine Operationen geholfen werden, bei einem Viertel ist dies allerdings nicht möglich.

Prof. Victor-Felix Mautner, Leiter der Neurofibromatose-Ambulanz am Universitätsklinikum Eppendorf sprach von einer „bedeutsamen Arbeit“ für Menschen, die durch NF-1 entstellt werden. Trotz dieses Erfolges wird Selumetinib aber in Deutschland wohl auf längere Zeit nicht verfügbar sein. Die Firma AstraZeneca, die den Wirkstoff ursprünglich gegen Lungenkrebs entwickeln wollte, ist damit nämlich in einer großen Studie gescheitert. Die Folge ist, dass Selumetinib von den Behörden für die Behandlung nicht zugelassen wurde, und auch nicht für „individuelle Heilversuche“ zur Verfügung steht. „Und dies wird auch nicht so schnell passieren“, befürchtet Mautner.

(eine ausführliche Fachversion dieser Nachricht ist erschienen am 6. Januar 2017 bei Medscape)

Quelle:

Dombi E, et al.: Activity of Selumetinib in Neurofibromatosis Type 1-Related Plexiform Neurofibromas. N Engl J Med. 2016 Dec 29;375(26):2550-2560. doi: 10.1056/NEJMoa1605943.

Spinale Muskelatrophie: Hoffnung durch Antisense-Technik

Mithilfe einer neuartigen genetischen Technik ist es Wissenschaftlern erstmals gelungen, das Fortschreiten der Spinalen Muskelatrophie (SMA) bei Säuglingen und Kleinkindern zu verlangsamen – einer fatalen und bislang kaum aufzuhaltenden neurodegenerativen Erkrankung. „Dies ist eine vielversprechende Behandlungsmethode für die häufigste genetische Todesursache im Kindesalter“, so Prof. Christine Klein, Leiterin des Instituts für Neurogenetik an der Universität Lübeck und Vizepräsidentin der Deutschen Gesellschaft für Neurologie (DGN). Darüber hinaus könne man davon ausgehen, dass die hier genutzte Methode der Antisense-Technik auch für andere Erkrankungen und Indikationen angepasst werden und dort ebenfalls erfolgreich sein könnte.

Den Beweis, dass die Antisense-Technik funktionieren kann, haben nordamerikanische Neurologen mit einer Studie erbracht, über die sie in der Fachzeitschrift The Lancet berichten. Insgesamt 20 Säuglinge, die zwischen der dritten Lebenswoche und dem sechsten Lebensmonat an der Spinalen Muskelatrophie erkrankt waren, haben Richard S. Finkel vom Nemours Children´s Hospital und seine Kollegen behandelt.

Ursache der Erkrankung war in allen Fällen ein fehlendes bzw. defektes Gen für einen Nerven-Schutzfaktor (Survival Motor Neuron 1, SMN1). Ohne dieses Eiweiß gehen die Motoneuronen des Rückenmarks und des Hirnstammes zugrunde, die die Bewegungen einschließlich des Schluckens und des Atmens kontrollieren. Die Folgen sind fatal: Nicht einmal ein Viertel der Kinder überlebte bislang ohne künstliche Beatmung die Diagnose um mehr als zwei Jahre.

Vor diesem Hintergrund erhielten alle Teilnehmer den Wirkstoff Nusinersen in Form mehrerer Injektionen ins Nervenwasser des Rückenmarks. Zwar verstarben vier der 20 Babys trotz der Behandlung. Zum Zeitpunkt des Berichtes aber waren 16 noch am Leben. 13 von ihnen konnten ohne fremde Hilfe atmen, und bei 14 hatte sich die Muskelfunktion gebessert. Teilweise konnten diese Kleinkinder nun den Kopf aufrecht halten, greifen, stehen und sogar laufen. Solche Veränderungen hatte man bislang bei unbehandelten Kindern mit dieser Form von SMA nicht beobachtet. „Eine Heilung bedeutet das nicht“, sagt Prof. Klein, „aber die Therapie scheint wirksam zu sein.“

Die Neurologin hebt hervor, dass der molekulare Mechanismus der Methode wie geplant funktioniert hat: Nusinersen ist ein synthetisch hergestelltes Molekül, das spezifisch konstruiert wurde um ein Ersatzgen für SMN1 zu aktivieren, das fast baugleiche SMN2. Es könnte theoretisch ebenfalls den Nerven-Schutzfaktor liefern, der die Motoneuronen am Leben hält. Allerdings enthält SMN2 einen „Webfehler“, der die Übersetzung der Erbinformation in das rettende Eiweiß um 75 bis 90 Prozent verringert.

Diesen Webfehler konnte Nusinersen offenbar beheben. Das von Wissenschaftlern der Firma Ionis hergestellte synthetische Molekül heftet sich an einer genau vorausberechneten Stelle an ein Zwischenprodukt (Boten-RNS), welches die in SMN2 enthaltenen Erbinformationen an die Eiweißfabriken der Zellen übermittelt. Nusinersen verhindert dadurch, dass aus der SMN2-Boten-RNS ein Abschnitt entfernt wird und die Erbinformation unbrauchbar wird. Die Menge korrekt übersetzter Boten-RNS stieg um das 2,6-fache auf einen Anteil von 50 bis 69 %. Durch Messungen der Eiweißkonzentration im Rückenmark konnten die Forscher schließlich noch zeigen, dass die in dieser Studie behandelten Kinder um durchschnittlich 63,7 % Prozent mehr SMN-Protein bildeten, als unbehandelte Kinder.

Die Nebenwirkungen des Verfahrens wurden von den Patienten gut toleriert, sodass die genetische Therapie von Prof. Klein als „in akzeptabler Weise sicher“ eingestuft wird. Eine weitere, noch nicht veröffentlichte Studie mit Nusinersen bei älteren Patienten mit SMA war ebenfalls erfolgreich, teilte die Hersteller-Firma Ionis mit. Und unmittelbar vor Weihnachten gab die US-Zulassungsbehörde FDA bekannt, dass Nusinersen unter dem Handelsnamen Spinraza für die Behandlung der SMA sowohl bei Säuglingen als auch bei Erwachsenen zugelassen wurde (Inzwischen liegt auch eine Zulassung der europäischen Arzenimittelbehörde EMA vor).

„Als das weckt begründete Hoffnung auf die so lange erwartete Wende in der translationalen Anwendung von Erkenntnissen aus der Molekulargenetik von der reinen Diagnostik hin zu klinisch-therapeutischen Anwendungen im Sinne einer personalisierten Medizin“, so Prof. Klein. Die Antisense-Technik könne auch auf andere Erkrankungen angepasst werden, erwartet die DGN-Vizepräsidentin.

Während bei SMA die Übersetzung eines „schwachen“ Gens gefördert wird, ließe sich stattdessen auch das Ablesen schädlicher Gene verhindern. Im Tierversuch ist dies beispielsweise bei Mäusen schon gelungen, die als Modell für die Huntington´sche Krankheit dienten. Aber auch in klinischen Studien wurde und wird die Antisense-Technik bereits erprobt, beispielsweise gegen die Amyotrophe Lateralsklerose (ALS), Rheuma, Asthma, Morbus Crohn sowie eine Vielzahl von Krebserkrankungen.

(Vorlage für eine Pressemitteilung der Deutschen Gesellschaft für Neurologie vom 5. Januar 2017)

Quellen:

Impfstoff gegen Ebola

Schon im kommenden Jahr könnte ein hochwirksamer Impfstoff gegen das gefürchtete Ebola-Virus in den besonders gefährdeten Ländern Afrikas zur Verfügung stehen. Grund für diesen Optimismus ist der Ausgang mehrerer Studien mit fast 6000 Menschen, die vorwiegend in Guinea in direkten oder indirekten Kontakt mit Ebola-Infizierten Personen gekommen waren, und die den neuen Impfstoff „rVSV-ZEBOV“ bekommen hatten.

In der Fachzeitschrift The Lancet berichten Forscher um die WHO-Angestellte Dr. Ana Maria Henao-Restrepo über Einzelheiten: Demnach wurden die Teilnehmer der Studie nach dem Losverfahren entweder sofort geimpft, oder mit einer Verzögerung von drei Wochen. In der ersten Gruppe waren nach zehn Tagen keine Viren mehr festzustellen, in der zweiten Gruppe erkrankten dagegen 23 Menschen an der Seuche. Knapp drei Monate lang schauten die Forscher auch nach möglichen Nebenwirkungen von rVSV-ZEBOV. Dabei kam es zu einem Fall von extrem hohem Fieber und einer Überempfindlichkeitsreaktion, die beide glimpflich ausgingen. Ansonsten traten lediglich milde Nebenwirkungen auf Kopfweh, Müdigkeit und Muskelschmerzen.

„Beim nächsten Mal gewappnet“ – WHO-Direktorin Kieny (Foto: WHO)

Der Impfstoff, der auf einem gentechnisch veränderten Virus (VSV) basiert, war zuvor an Affen getestet worden, wo er Neuinfektionen zu 100 Prozent verhindern konnte. Bei bereits infizierten Tieren verhinderte rVSV-ZEBOV den Ausbruch der Krankheit immerhin in jedem zweiten Fall. rVSV-ZEBOV wirkt möglicherweise nicht gegen alle Stämme des Ebola-Virus gleich gut. Besonders effektiv verhindert der Impfstoff aber den Ausbruch der Zaire-Variante von Ebola, die mit einer Sterblichkeit von bis zu 90 Prozent zu den tödlichsten Infektionskrankheiten überhaupt zählt.

Die Globale Impfallianz GAVI hat fünf Millionen Dollar zugesagt, um einen Vorrat von 300.000 Dosen des Impfstoffes anzulegen. „Wenn die nächste Epidemie kommt, werden wir gewappnet sein“, sagt die Studienleiterin Dr. Marie-Paule Kieny, Stellvertretende Generaldirektorin für Gesundheitssystem und Innovation der WHO in Genf.

(eine ausführliche Fachversion dieser Nachricht ist erschienen am 4. Januar 2017 bei Medscape)

Quellen:

Forschung für die Ärmsten der Armen

Im Forschungsinstitut Icrisat nahe dem indischen Hyderabad kämpfen Forscher gegen den Hunger in der Welt. Wichtigste Waffe sind dabei uns unbekannte Pflanzen wie Sorghum und Perlhirse. Sie ermöglichen – im Gegensatz zu den Hochleistungsgewächsen der grünen Revolution – auch in einer unerbittlichen Umwelt noch akzeptable Ernten für eine weiter wachsende Weltbevölkerung. 750 Millionen Menschen, die in den semiariden Tropen täglich mit primitivsten Mitteln ums Überleben kämpfen müssen, profitieren von der Arbeit des Instituts, das vorwiegend aus den Steuergeldern der wichtigsten Industrieländer finanziert wird.

Vier Pflanzenarten bilden heute die Nahrungsgrundlage für den größten Teil der Menschheit: Mais und Reis, Kartoffeln und Weizen heißen die Gewächse, die in gemäßigten Klimazonen Rekordernten bringen – dank regelmäßiger Niederschläge, dem Einsatz von Düngemitteln und Pestiziden, dank künstlicher Bewässerung und einer weitgehend technisierten Landwirtschaft.

Dort aber, wo die Natur weniger freigebig ist, wo die Böden ebenso arm sind an Nährstoffen wie die Bauern an Geld, dort wo der Regen – wenn überhaupt – nur sporadisch fällt, sind die Menschen auf Pflanzen angewiesen, die auf europäischen Märkten nur selten zu finden sind. Die Rede ist von Sorghum und Perlhirse, von Hühner- und Taubenerbsen (Cicer arietinum und Cajanus cayan) sowie der immerhin als Snack verbreiteten Erdnuß.

Ohne diese fünf Pflanzen jedoch wären 750 Millionen Menschen in den semiariden Tropen ihrer Nahrungsgrundlage beraubt. Die semiariden Tropen (SAT) umfassen rund 20 Millionen Quadratkilometer in 50 Ländern beiderseits des Äquators, von Angola und Australien bis Zaire und Zimbabwe.

Zwar liegen die meisten SAT-Länder auf dem afrikanischen Kontinent, in einem über 1000 Kilometer breiten Gürtel um den zentralafrikanischen Regenwald, doch werden auch weite Teile Mexikos, Boliviens, Thailands und Pakistans zu dieser Landschaft gerechnet, in der erratische Regenfälle und nährstoffarme Böden den Bauern das Leben schwermachen. Diesen Bauern zu helfen ist das Hauptanliegen von Icrisat (International Crops Research Institute for the Semi-Arid Tropics), einem gewaltigen Forschungsinstitut im indischen Patancheru. „Wir arbeiten für die Ärmsten der Armen“, erklärt der leitende Direktor Dr. James Ryan. „Unser Ziel ist es, als Weltzentrum zur Verbesserung der Erträge und Qualität von Sorghum, Hirse, Hühnererbsen, Taubenerbsen und Erdnüssen zu dienen.“

Doch damit nicht genug: Icrisat soll außerdem als Genbank für diese Pflanzen fungieren, ebenso wie als Ausbildungsstätte und Koordinationszentrum für den Technologietransfer. Icrisat, das in diesem Jahr mit über 60 Millionen Mark finanziert wird, bietet hierfür ideale Voraussetzungen, denn auch Indien gehört zum größten Teil zu den semiariden Tropen.

Die rund 100 Top-Wissenschaftler der Forschungsstation werden in ihrer Arbeit von etwa 1500 Angestellten unterstützt – ein Verhältnis, das europäischen und amerikanischen Wissenschaftlern traumhaft erscheinen muß. Pflanzenzüchter und Insektenforscher, Landwirte und Botaniker, Genetiker und Mikrobiologen, Biochemiker und Virologen arbeiten hier in fachübergreifenden, problemorientierten Teams zusammen. Ziel ist es, die günstigen Eigenschaften verschiedener Rassen zu kombinieren und auch unter erschwerten Bedingungen, bei minimalem Einsatz von Düngemitteln und Pestiziden, noch akzeptable Ernten zu erreichen.

Ein unverzichtbares Hilfsmittel ist dabei die Icrisat-Genbank mit ihren über 100.000 lsolaten, die in weltweiten Sammelaktionen aufgespürt oder von Forschem in den Ländern der SAT direkt nach Hyderabad geschickt wurden.

Die Genbank beherbergt in ihren Tiefkühlschränken und wohlklimatisierten Lagerräumen jeweils mehrere tausend Nachkommen einer Pflanze, die in Samenform aufbewahrt werden. In mehrjährigen Abständen wird überprüft, ob die Samen noch keimungsfähig sind. Sobald der Anteil der „toten“ Samen die 15-Prozent-Marke übersteigt, muß das jeweilige Isolat aufgezogen und bis zur Samenreife hochgepäppelt werden. Diese „Enkel“ der ursprünglich gesammelten Pflanzen wandern dann wieder in peinlich genau gekennzeichnete Plastikbüchsen oder werden in Aluminiumfolien eingeschweißt – der Kreislauf beginnt von neuem.

Der gewaltige Arbeitsaufwand macht sich bezahlt, denn versteckt im Erbgut all dieser Pflanzen finden sich die Gene, die zahllosen Ernteschädlingen – von Pilzen und Würmern über Fliegen, Käfer und Raupen bis hin zu den verschiedensten Arten von Viren – den Appetit verderben. Auch andere Eigenschaften, wie Hitze- und Kälteresistenz sowie die Fähigkeit, auch längere Dürreperioden zu überstehen, schlummern in den Kühlschränken der Genbank.

Sogar die Zeit, welche die Pflanzen zum Wachstum von der Aussaat bis zur Ernte benötigen, unterliegt weitgehend dem Regime der Gene. Hühnererbsen, die in Südasien einen wichtigen Eiweißlieferanten darstellen, benötigen zwischen 75 und 150 Tage, wobei die längste Wachstumszeit häufig die größten Erträge bringt. Für die Taubenerbse, die zusätzlich noch als Windschutz, Brennstoff, Düngemittel und Viehfutter Verwendung findet, liegt die Wachstumszeit zwischen 110 und 180 Tagen.

Da beide Pflanzen erst nach der Regenperiode gesät werden, steht, besonders in trockenen Gebieten, oft nur wenig Zeit für das Wachstum der Frucht zur Verfügung. Aufgabe der Icrisat-Forscher ist es dann, für jeden Standort die „optimale“ Pflanze zu finden und der Natur gegebenenfalls durch Züchtung auf die Sprünge zu helfen.

„Jede Pflanze, die wir in die Genbank aufnehmen, wird genauestens auf ihre Eigenschaften überprüft“, erläutert Dr. Prasado Rao. Aus diesem Eignungstest gewinnen die Forscher der Genbank 30 bis 40 Meßwerte, die Aufschluß geben sollen über den optimalen Einsatz der Gewächse auf den Feldern der Welt. Auch für Versuche, bei denen günstige Eigenschaften verschiedener Wildstämme in weitverbreitete Rassen eingekreuzt werden, sind die Daten der Genbank unverzichtbar.

„Wir haben eine Politik der offenen Tür. Auf Anfrage kann jeder auf die hier registrierten Pflanzen zugreifen. Wir schicken ihm dann den Samen mit den gewünschten Eigenschaften zu“, betont Ryan die Richtlinien seines Instituts, das vorwiegend aus dem Steueraufkommen der industrialisierten Länder finanziert wird. Die Gesamtzahl der Proben, die von Hyderabad aus in die ganze Welt verschickt wurden, dürfte noch in diesem Jahr die Millionengrenze überschreiten.

Den finanziellen Nutzen dieser Aktionen kann Ryan nicht pauschal beziffern, doch zwei besonders erfolgreiche Icrisat-,“Produktionen“, die Perlhirsen ICMH 451 und WC-C75, brachten alleine den indischen Bauern einen Ertragszuwachs, dessen Wert den Jahresetat des Instituts übersteigt. Dennoch wäre es unrealistisch, auf eine zweite grüne Revolution zu hoffen, um die katastrophalen Folgen einer anhaltenden globalen Bevölkerungsexplosion zu mildern.

Zwar konnten in den sechziger Jahren mit hochgezüchteten Varietäten auf den Reisfeldern Asiens gewaltige Ertragssteigerungen erzielt werden; dies wurde jedoch erkauft durch eine starke Abhängigkeit von (teuren) Düngemitteln und (gefährlichen) Insektiziden. Nur wenn beides in reichem Maße vorhanden war, konnten die Rekordernten, die auf landschaftlichen Versuchsstationen erzielt wurden, auch in der Praxis erreicht werden. Dann kam die große Ernüchterung:

„Der unmäßige Gebrauch von Insektiziden im asiatischen Raum hat zu einer großen Anzahl von Schädlingsplagen geführt“, so Ryan. „Wir wissen, daß wir uns im Umgang mit der Natur nicht gerade mit Ruhm bekleckert haben.“ Diese Einsichten haben zum Umdenken geführt. Integrierter Pflanzenbau heißt die neue Philosophie, bei der biologische und chemische Methoden der Schädlingsbekämpfung sorgfältig aufeinander abgestimmt werden.

Im Zusammenspiel von schädlingsresistenten Pflanzen, Fruchtwechsel und variablen Saat- und Erntezeiten will man die Zahl der Mitesser unter einer wirtschaftlich akzeptablen Schwelle halten. Das offensichtlich unrealistische Vorhaben, die Schädlinge komplett auszurotten, gehört somit der Vergangenheit an. Ryan glaubt auch, den Grund für diesen Sinneswandel zu kennen: „Eine zunehmend kritische Öffentlichkeit hat in der agrochemischen Industrie zu einer gewissen Nervosität geführt. Man sorgt sich um Profite und das Image. In zehn Jahren werden die Vorräte an Insektiziden erschöpft sein, die im Westen längst verboten sind, aber immer noch ihren Weg in die Entwicklungsländer finden.“

Der integrierte Pflanzenbau werde daher eine immer wichtigere Rolle bei gemeinnützigen Instituten wie Icrisat spielen, prophezeit der Direktor. Dafür aber braucht man Geld, und das, bemängelt Ryan, wird zunehmend knapper. „Die Geberländer sind ziemlich selbstzufrieden geworden. Wahrscheinlich liegt das daran, daß es in den letzten Jahren keine wirklich großen Hungersnöte gegeben hat.“

(erschienen in „DIE WELT“ am 27. Dezember 1991. ICRISAT wurde besucht auf Einladung der Welternährungsorganisation der UNO (FAO))

Warum Allergien zunehmen

Die Zunahme allergischer Erkrankungen in den letzten Jahrzehnten ist nicht mehr wegzudiskutieren. Welche Rolle dabei den Luftschadstoffen zukommt, ist zwar noch nicht zweifelsfrei geklärt, doch mehren sich die Hinweise darauf, daß unter anderem Feinstäube und Dieselrußpartikel eine Rolle spielen. Weniger eindeutig ist die Datenlage beim Tabakrauch. Hier stehen scheinbar überzeugenden Befunden, mit denen ein solcher Zusammenhang belegt werden soll, solche gegenüber, die Passivrauchen als Ursache allergischer Reaktionen nahezu ausschließen. Dies waren einige der Aussagen, die Anfang September beim Kongreß „Fortschritte der Allergologie, Immunologie und Dermatologie“ in Davos die Diskussion beherrschten.

Professor Dr. Brunello Wüthrich, Leiter der Allergiestation der Dermatologischen Klinik am Universitätsspital Zürich, legte Daten vor, die einen starken Zuwachs der Pollinose in diesem Jahrhundert eindeutig belegen. In der Schweiz wurden dazu erstmals 1926 Untersuchungen an 77.000 Personen angestellt, die eine Prävalenz von 0,82 Prozent ergaben. 1958 hatte sich dieser Wert bereits auf fünf Prozent erhöht; mittlerweile liegt er nach Wüthrichs eigenen Erhebungen bei rund zehn Prozent. Auch aus Japan, Schweden und der Bundesrepublik liegen gut gesicherte Erkenntnisse vor, die diesen Trend bestätigen.

„Die immer wieder diskutierte Frage, ob allergische Krankheiten in den letzten Jahrzehnten wirklich zugenommen haben, kann für die Pollinose eindeutig mit ja beantwortet werden. Klinische und tierexperimentelle Beobachtungen deuten darauf hin, daß, nebst genetischen Faktoren Luftschadstoffe entscheidend das Manifestwerden der Pollenallergie beeinflussen“, so Wüthrich.

Als mögliche Gründe für den Anstieg der Heuschnupfenprävalenz zog Wüthrich mehrere Faktoren in Betracht. Durch eine gezielte Bewirtschaftung von Äckern und Weideland kommt es heute zu wesentlich stärkeren Schwankungen der Pollenkonzentrationen für einzelne Arten. Auch gibt es Hinweise darauf, daß die Einführung neuer Arten zumindest lokal einen Anstieg der Pollinose bewirkte. Erwiesen ist auch, daß die Zunahme der Luftschadstoffe eine erhöhte Permeabilität der Epithelien für Allergene zur Folge hat.

Die Frage „Sind die Pollen selbst aggressiver geworden?“ untersucht Professor Dr. Heidrun Behrendt vom Medizinischen Institut für Umwelthygiene der Heinrich-Heine-Universität in Düsseldorf. Ein neues Forschungsgebiet, die Allergotoxikologie, beschäftigt sich mit dem Einfluß und der Wirkung von Schadstoffen auf die Induktion, die Auslösung und die Unterhaltung allergologischer Erkrankungen. Erschwert werden diese Untersuchungen dadurch, so Behrendt, daß die Schäden sich oft erst nach Jahren oder Jahrzehnten eindeutig bemerkbar machen. „Eine weitere Schwierigkeit ist, daß die biologische Wirkung von Umweltschadstoffen in der Regel keine akute ist, sondern durch die wiederholte Aufnahme kleiner Dosen hervorgerufen wird und das Zusammenwirken mehrerer Schadstoffe entweder gleichzeitig oder in Folge auftritt. Diese Kombinationswirkung macht es schwer, ursächliche Faktoren herauszuarbeiten.“

Als mögliche Übeltäter werden derzeit vor allem Luftschadstoffe wie Schwefeldioxid (SO2), Stickoxide (NOX), organische Kohlenwasserstoffe und Feinstaub verdächtigt. Diese Substanzen werden in den alten Bundesländern teilweise in Größenordnungen von mehreren Millionen Tonnen jährlich freigesetzt. Bei Dieselrußpartikeln beläuft sich diese Zahl auf 70.000 Tonnen, und auch die jährlich 32.000 Tonnen Pestizide könnten eine wichtige Rolle spielen.

Wichtig sind vor allem Staubpartikel, weil hier mehr als 1000 organische und anorganische Stoffe adsorbiert werden, die dann in Partikelform durch die Makrophagen des Immunsystems aufgenommen werden und dort ihre Wirkung entfalten.

Die Kombination der Schadstoffe mit Allergenen kann offensichtlich auf zwei Ebenen stattfinden; nämlich im Bereich des Organismus, wo die Sensibilisierung gefördert werden kann, oder aber auf der Ebene der Allergenträger, da die Pollen selbst gleichfalls den Luftschadstoffen ausgesetzt sind. So zeigen neue Studien, daß die Expression des Birkenpollenallergens in städtischen Regionen mit starkem Automobilverkehr deutlich verstärkt ist.

Der wissenschaftliche Leiter der Veranstaltung, Professor Dr. Siegfried Borelli, bezeichnete es als „durchaus nachvollziehbar“, daß Luftschadstoffe als Wegbereiter von Allergien dienen könnten. Borelli, der gleichzeitig Direktor der Dermatologischen Klinik der TU München sowie der Klinik für Dermatologie und Allergie Davos ist, schilderte das derzeitige Gedankengebäude: „Die Vorstellung geht dahin, nach der Emission in den frühen Morgenstunden gelangten Pollenkörner auf Grund der Lufterwärmung in höhere Luftschichten. Am Nachmittag kehrten diese Pollen, wie kleine Igel von Schwebstaubpartikeln aus der verschmutzten Luft besetzt, in die unteren Luftschichten zurück.“

Wie Professor Behrendt anhand eindrucksvoller elektronenmikroskopischer Aufnahmen zeigen konnte, werden die Pollen an den Kontaktstellen mit den Schadstoffpartikeln präaktiviert, so daß Eiweiße aus dem Polleninneren unter die Oberfläche gelangen. Im Organismus würden die Allergene dann in modifizierter Form rasch und in großen Mengen freigesetzt. Sowohl die Proteinzusammensetzung als auch das IgE-Bindungsmuster dieser Allergene sind dann nachweislich verändert.

(erschienen in der Pharmazeutischen Zeitung am 28. November 1991)

Wenn die Neuronen im Gleichtakt schlagen

Wie schafft es unser Gehirn, Objekte, die beispielsweise auf dem Arbeitstisch herumliegen, überhaupt als Objekte zu erkennen? Für die meisten Menschen existiert dieses Problem überhaupt nicht, denn man „sieht“ ja die Kaffeetasse und den Kugelschreiber, kann diese Gegenstände mit großer Selbstverständlichkeit greifen und von der Unterlage unterscheiden.

Für die Hirnforscher ist dies allerdings keine gültige Erklärung. Denn „eigentlich“ bekommen die Nervenzellen der menschlichen Netzhaut ja nur ein zweidimensionales – flaches – Abbild der Umgebung geboten, eine Fläche, die sich aus unterschiedlich hellen oder dunklen Grautönen zusammensetzt.

Erschwerend kommt noch hinzu, daß dieses Bild durch das Zusammenspiel von Pupille und Augenlinse auf den Kopf gestellt wird. Doch damit nicht genug; schließlich haben wir zwei Augen und somit zwei Abbilder zu berücksichtigen, die ähnlich, aber nicht identisch sind.

Nochmals komplizierter wird die Angelegenheit, wenn man bedenkt, daß die in Blickrichtung rechts außen liegenden Gegenstände schlußendlich in der Sehrinde der linken Hirnhälfte registriert werden und umgekehrt. Dies ist nur möglich, weil jeweils die Hälfte der Nerven einer Netzhaut über eine „Kreuzung“ – das Chiasma opticum – im Zwischenhirn laufen muß. Nachdem die einlaufenden Nervenreize noch eine „Umspannstation“ überwinden müssen, entsteht schließlich in der Sehrinde der Eindruck eines Bildes.

Die Kaffeetasse, die halblinks vor uns steht, wird somit von Nervenzellen im linken und im rechten Auge registriert. Bemerkenswerterweise laufen diese Meldungen dann in einer Hirnregion, der Sehrinde, wieder zusammen; die zwei gemeldeten Kaffeetassen verschmelzen zu einer.

Genaugenommen könnte dieser Schaltplan der Nervenzellen aber nur erklären, wie die Bildpunkte, aus denen unsere Tasse besteht, von der Netzhaut bis in die Sehrinde gelangen. Die eigentliche Abgrenzung des Objekts „Kaffeetasse“ von der Unterlage besorgt das Zusammenspiel mehrerer Gruppen von Nervenzellen, die bei Säugetieren in der Sehrinde zu finden sind. Durch Teamwork erkennen diese Zellen, daß hier ein Gegenstand vorliegt.

Die Information, die vom Auge kommt, wird auf schätzungsweise 20 oder 25 Regionen parallel verteilt. Jeder Abschnitt beschäftigt sich dann mit einem Aspekt des Bildes, etwa mit Farbe, Form oder Lokalisation im Raum. Eine dieser Gruppen wird beispielsweise nur dann aktiv, wenn mehrere Bildpunkte gleicher Lichtstärke auf einer Linie liegen.

Eine andere Gruppe von Nervenzellen registriert vielleicht den Kontrast, das heißt den Unterschied in der Lichtstärke, zwischen der weißen Tasse und der grünen Schreibunterlage. Wieder eine andere Gruppe von Nervenzellen reagiert überhaupt nicht, weil sie auf Bewegung „geeicht“ ist. Diese Sensoren sind besonders hilfreich, wenn ein Objekt, das sich kaum vom Untergrund abhebt (ein Chamäleon etwa), sich zu regen beginnt.

Das allgemeine Prinzip, nach dem Figuren von ihrem Hintergrund unterschieden werden können, beruht also auf dem Erkennen von zusammengehörigen (kohärenten) Merkmalen. Die Gruppen von Nervenzellen aber, die beispielsweise die Farbe oder die Orientierung eines Gegenstandes registrieren, sind im Gehirn relativ weit verstreut. Die Entfernung beträgt bei Zellgruppen in einer Hirnhälfte bis zu sieben Millimeter, ein gewaltiger Abstand, zumindest nach dem Maßstab der Neuroanatomen.

Erst in jüngster Zeit ist man dahintergekommen, wie verschiedene Zellgruppen, die auf das gleiche Merkmal ansprechen, miteinander in Verbindung bleiben: Offensichtlich entladen diese Zellen sich im Gleichtakt, wenn sie auf den gleichen Gegenstand reagieren. Sie „feuern“ ihre Impulse dann jeweils zum gleichen Zeitpunkt, und das 40 bis 60 Mal in einer Sekunde. Mißt man dagegen Zellen, die ihre Reize nicht von einem abgrenzbaren Gegenstand empfangen, so ergibt sich ein wildes Durcheinander von aktiven und ruhigen Phasen. Offensichtlich sprechen diese Zellen nicht miteinander.

Diese Ergebnisse aus dem Labe des Frankfurter Neurobiologen Wolf Singer stießen ursprünglich auch auf Skepsis in der Forschergemeinde. Im Gegensatz zu philosophischen Erklärungsversuchen konnten verschiedene Vorhersagen des Modells allerdings im Experiment überprüft werden. Bisher hat dieses Modell zur Entstehung des menschlichen Bewußtseins jedenfalls alle Prüfsteine überwinden können.

(erschienen in „DIE WELT“ am 22. November 1991)

Der lange Weg zum intelligenten Roboter

Der erste Schritt ist getan: Deutsche Wissenschaftler haben eine Nervenzelle und einen Transistor miteinander verbunden. Die Nervenzelle als biologische Einheit erzeugt einen äußerst schwachen Stromimpuls, der an das elektronische Bauteil weitergeleitet und dort tausendfach verstärkt wird. Während die Ulmer Forscher ausgehend von der „biologisch-technischen Synapse“ langfristig an die Entwicklung neuer Sensoren denken, ist die Fantasie mancher Zeitgenossen den technischen Möglichkeiten bereits weit vorausgeeilt.

Sie träumen davon, die Fähigkeiten von Mensch und Maschine zu vereinen und so die biologisch gesetzten Grenzen des eigenen Daseins zu überwinden. Zeuge dieser Träume ist eine Fülle von mehr oder weniger gut gemachten Büchern und Kinofilmen, vom Science-Fiction-Klassiker „2001 – Odyssee im Weltraum“ mit dem eigensinnigen Bordcomputer HAL 9000 bis hin zum Kampf zwischen guten und bösen Androiden in der Hollywood-Produktion Terminator II.

Noch aus der Zeit des kalten Krieges stammt der Vorschlag, Raketen mit Taubenhirnen auszustatten. Wenn es irgendwie gelänge, die Zellen eines Tieres „umzuprogrammieren“, könnte man eine intelligente Waffe schaffen, die dann fähig sein sollte, ihr Ziel selbstständig aufzuspüren. Natürlich, so argumentierte man, wären solche Geschosse auch in der Lage, Freund von Feind zu unterscheiden und lohnende Ziele ausfindig zu machen.

Ob derartige Ausgeburten der Ingenieurskunst jemals Realität werden, steht in den Sternen. Cruise-Missiles jedenfalls weichen heutzutage auch ohne Taubenhirn nur wenige Meter von ihrem Ziel ab, und die ehemals aufsehenerregende Idee wurde zu den Akten gelegt. Dennoch ist die Leistungsbilanz moderner Computer im Vergleich zum Tierreich eher ernüchternd. Die Rechenkraft eines Schneckenhirns beispielsweise wird heute gerade von den neuesten Bürocomputern bewältigt. Die schnellsten Supercomputer können es immerhin schon mit einem Mäusegehirn aufnehmen, sind allerdings selten unter zehn Millionen Mark zu haben.

Doch obwohl diese Wunderwerke (die Supercomputer) schon gut 100 Milliarden Informationseinheiten (Bit) pro Sekunde verarbeiten können, bleibt es doch in aller Regel bei der stumpfsinnigen Rechenarbeit. Noch immer sind alle „gewöhnlichen“ Computer bewegungsunfähig. Nur wenige Roboter können heute bereits zwei Treppenstufen überwinden, ohne auf die Nase zu fallen.

Diese Prototypen wie der 220 Kilogramm schwere „Asshy“ im Shibaura Institut für Technologie, Tokyo, sind hingegen zu sehr damit beschäftigt, die Balance zu halten, als daß man sie auch noch mit Rechenaufgaben belästigen könnte. Mit seiner stattlichen Größe von 210 Zentimetern vermag Asshy zwar durchaus zu beeindrucken, Gehversuche sind aber auch nach über zwanzig Jahren Forschung noch mit einem großen Risiko behaftet, wie Asshys geistiger Vater, Akira Sato bereitwillig einräumt.

Eine Ausnahme bilden lediglich die insektenähnlichen Roboter, die am Massachusetts Institute of Technology von Rodney Brooks entwickelt werden. Das bisher erfolgreichste Modell, der sechsbeinige „Genghis“ hat etwa die Größe eines Schuhkartons und schafft es immerhin seine Bewegungen zu koordinieren. Was fehlt ist allerdings nach immer ein Roboter – ob in Menschengestalt oder nicht – der die Fähigkeit zur freien Bewegung kombiniert mit einer akzeptablen Rechenleistung.

Doch wäre es nicht wunderbar, wenn man einer Maschine auch Entscheidungen zumuten könnte, die ein gewisses Urteilsvermögen voraussetzen? Wenn diese Maschinen in der Lage wären, Probleme selbsttätig zu erkennen und zu lösen? Wäre dies nicht ein weiterer Schritt hin zu ein Gesellschaft, in der die Menschen nur noch das tun, was ihnen zusagt?

In diese Richtung bewegen sich die Vorstellungen von Hans Moravec, Direktor des Labors für mobile Roboter an der amerikanischen Carnegie Mellon Universität. Er eröffnet sein unter Wissenschaftlern heiß diskutiertes, Buch „Mind Children“ mit den Worten: „Ich glaube, daß Roboter mit menschlicher Intelligenz in fünfzig Jahren weit verbreitet sei werden.“

Über die Frage, ob derartige Maschinen jemals ein „Bewußtsein“ entwickeln können, gehen die Ansichten ebenfalls stark auseinander. Moravec ist der Meinung, daß alles was dafür gebraucht wird, ein Modell der Außenwelt sei, das komplex genug ist um die Konsequenzen verschiedener Entscheidungen durchzuspielen. Er glaubt, dass der Zeitpunkt schon abzusehen ist, an dem jede wichtige körperliche oder geistige Funktion des Menschen ein künstliches Pendant haben wird. „In spätestens fünfzig Jahren haben wir den intelligenten Roboter, eine Maschine die denken und handeln wird wie ein Mensch.“

(erschienen in „DIE WELT“ am 13. November 1991)

Ethische Fragen drängen sich auf

Im jüngsten Kino-Kassenschlager, dem „Terminator II„, wird der Zuschauer mit einer recht gewalttätigen Vision geschockt: Intelligente Maschinen, von Menschen erdacht und gebaut, sollen im Jahr 1997 die amerikanische Verteidigung übernehmen. Als die Militärs feststellen, daß die Supercomputer ein eigenes Bewußtsein entwickeln, versucht man den Stecker zu ziehen. Die Maschinen antworten mit einem atomaren Gegenschlag; drei Milliarden Menschenleben werden ausgelöscht.

Die Geschichte von den Robotern, die durchdrehen und die Kontrolle an sich reißen, ist zwar alles andere als neu, dennoch gibt es Grund zur Vorsicht. Als die Computer des amerikanischen Lenkwaffenkreuzers Vincennes am 3. Juli 1988 einen iranischen Airbus nicht von einem Militärjet zu unterscheiden vermochten, verloren 290 Zivilisten ihr Leben. Wenn schon „gewöhnliche“ Technologie zu derartigen fatalen Verwechselungen führen kann, ist dann die Gefahr durch denkende, lernfähige und somit auch unberechenbare Computer nicht ungleich größer?

Eine neue Broschüre des Bundesforschungsministeriums räumt hierzu ein, daß die Anwendungsmöglichkeiten neuronaler Netzcomputer „natürlich auch den Keim zu unkontrollierbarer Eigendynamik“ in sich bergen. Aus diesem Grunde sei eine die technische Entwicklung begleitende Technikbewertung erforderlich, formulierte eine zehnköpfige Expertenkommission. An eine Einschränkung der Forschungstätigkeit oder gar an ein Verbot der Entwicklung neuronaler Netze wird aber nicht gedacht. Zu vielfältig sind offensichtlich die Vorteile der neuen Technologie, die von medizinischen Anwendungen über Spracherkennung und -übersetzung bis hin zur Erkundung des Weltalls reichen, um nur einige Beispiele zu nennen.

Schon länger als die Neuroinformatiker machen sich Biologen und Mediziner Gedanken über die Konsequenzen ihres Tuns. Denn einerseits finden die Resultate der Neurobiologie ja unmittelbaren Eingang bei der Entwicklung künstlicher Neuronaler Netze; andererseits bringt die Erforschung des menschlichen Gehirns auch eine Vielzahl eigener ethischer Probleme mit sich.

Schon die Experimente selbst, die ja in den weitaus meisten Fällen an Versuchstieren durchgeführt werden, stoßen oft auf heftige Kritik in der Öffentlichkeit. Bilder von jungen Katzen oder von Menschenaffen, deren Hirnströme mit Hilfe von implantierten Elektroden gemessen werden, haben – nicht nur auf den Tierfreund – eine stark emotionalisierende Wirkung. Ob die Tiere bei diesen Experimenten nun Schmerz empfinden oder nicht, ob die Experimente zu meßbaren Fortschritten in der Medizin führen und ob diese Art der Nutzung von Mitgeschöpfen mehr oder weniger grausam ist als die gemeinhin akzeptierte Massentierhaltung, danach wird nur in Ausnahmefällen gefragt.

Der Frankfurter Hirnforscher Wolf Singer ist sicher kein Einzelfall: „Wenn Rundfunk oder Fernsehen anrufen, heißt es immer nur: Hier haben wir was gegen Sie vorliegen. Sie können, wenn Sie wollen, um fünf vorbeikommen und noch schnell ein Statement zu Ihrer Verteidigung abgeben.“ Zu komplex sind wohl die Probleme, mit denen die Neuroforscher zu kämpfen haben, zu gering der „Unterhaltungswert“, um die notwendige öffentliche Diskussion anzustoßen, an der beide Seiten brennend interessiert sein sollten.

Denn je mehr wir über die Funktion der grauen Zellen herausfinden, umso größer werden auch die Chancen zur Manipulation. Einer Ratte, der man die Möglichkeit gegeben hatte, durch Tastendruck eine Elektrode im eigenen Hirn zu stimulieren, betätigte den „Lustschalter“ an die 5000-mal in der Stunde – bis sie erschöpft zusammenbrach.

Buchautor Johannes Holler („Das neue Gehirn“) bezeichnet das Hirn zu Recht als den größten Drogenhersteller und -Konsumenten. Die dort hergestellten Botenstoffe verändern im Zusammenspiel mit ihren Ankerplätzen in jeder Sekunde unsere Wirklichkeit; erzeugen Liebe und Lust, Haß und Depression. Rund 70 Botenstoffe und 50 Ankerplätze sind bisher bekannt, und ständig werden neue dazu entdeckt.

Durch die gezielte Entwicklung neuer Medikamente könnte beispielsweise die Wirkung des Rauschgiftes Cannabis aufgehoben werden, indem man den seit kurzem bekannten Ankerplatz blockiert. Auch einem Eiweiß, an dem Kokain seine Wirkung entfaltet, sind die Forscher auf der Spur. Ein Ersatzstoff für Nikotin, das ebenfalls bestimmte Rezeptoren im Gehirn aktiviert, könnte Millionen Raucher von ihrer Sucht befreien.

Doch nicht nur Suchtkranke, sondern auch Millionen von Patienten, die alleine in Deutschland an Depressionen, Schizophrenie, Epilepsie und der Alzheimer´schen Krankheit leiden, wollen die Möglichkeiten der Neuroforschung nutzen. Sie vertrauen darauf, daß unsere Gesellschaft mit den Risiken und Versuchungen dieser Wissenschaft besser zurechtkommt als lustbesessene Laborratten.

(erschienen in „DIE WELT“ am 8. November 1991)

Fleißig arbeiten und wissenschaftlich denken

Der Robert-Koch-Preis, einer der höchsten deutschen Wissenschaftspreise, wurde gestern in Bonn verliehen. Preisträger der mit 100.000 Mark dotierten Auszeichnung sind der Belgier Walter Fiers und der Japaner Tadatsugu Taniguchi. Die Robert-Koch-Medaille in Gold für das Lebenswerk eines Forschers erhielt Professor Werner Schäfer, „einer der großen Pioniere der Virusforschung in Deutschland“, wie der Laudatio zu entnehmen war.

Alljährlich ehrt die Robert-Koch-Stiftung mit der Preisvergabe Wissenschaftler, die sich besondere Verdienste bei der Erforschung von Infektions- und anderen Volkskrankheiten erworben haben. Diese Anforderung trifft auf den 79jährigen Schäfer sicherlich in besonderem Maße zu. Professor Rudolf Rott, Direktor des Instituts für Virologie der Universität Gießen, lobte den gebürtigen Westfalen: „Bei ihm haben wir gelernt, nicht nur fleißig und sauber zu arbeiten, sondern auch naturwissenschaftlich zu denken.“

Einer von vielen Influenza-Viren: Der Erreger der Schweine-Grippe unter dem Elektronenmikroskop (Photo: C. S. Goldsmith and A. Balish, CDC / Public domain)

Ausgehend vom Hühnerpestvirus und anderen Vertretern aus der Gruppe der Myxoviren wandte sich Schäfer bald auch den Krankheitserregern beim Menschen zu. Am Tübinger Max-Planck-Institut für Virusforschung fand er heraus, daß seine Geflügelviren nahe verwandt waren mit den Partikeln, welche die Volksseuchen Influenza, Mumps und Masern hervorrufen. Die Influenza oder echte Grippe war bis zur Einführung weltweiter Impfkampagnen eine der großen Geißeln der Menschheit; alleine bei der Epidemie der Jahre 1918 und 1919 starben über 20 Millionen.

Schäfer war es, der aus seinen Untersuchungen die – richtige – Vermutung ableitete, daß bestimmte Geflügelviren ein unerschöpfliches Reservoir für die Entstehung immer neuer Influenzavarianten sein könnten. Auch die Überlegung, daß sich ein vollständiger Impfschutz erreichen ließe, wenn man dem menschlichen Immunsystem bestimmte Eiweiße von der Oberfläche der Viren präsentieren würde, erwies sich im Nachhinein als richtig.

Anfang der sechziger Jahre begann sich der gelernte Tierarzt dann mit Retroviren zu beschäftigen, zu denen auch das damals noch unerkannte Aidsvirus HIV gehört. Für diese Gruppe von Krankheitserregern entwickelte Schäfer ein Strukturmodell, das heute allgemein anerkannt ist. „Häufig stehen allerdings Schäfer und Mitarbeiter nicht mehr als Quellenangabe unter diesen Modellen“, monierte der Preisträger.

Bahnbrechende Erfolge bei der Erforschung von tierischen Viren hat auch Walter Fiers von der Universität Gent vorzuweisen. Er entschlüsselte 1978 als erster die komplette Erbinformation eines Tumorvirus. SV 40, so der Name des Erregers, kann bei Hamstern bösartige Geschwüre verursachen. Auch das dafür verantwortliche Gen konnte Fiers isolieren. Dieser Triumph führte dann unmittelbar zur Entdeckung eines menschlichen Gens – p 53 -, das eine genau entgegengesetzte Wirkung hat. Das p 53 ist ein sogenanntes Suppressorgen; eine von vielen Erbanlagen, deren Beschädigung zur Krebsentstehung führen kann.

Ende der siebziger Jahre wandte sich Fiers ebenso wie der japanische Preisträger Taniguchi der Erforschung von Botenstoffen zu, die innerhalb eines Organismus bereits in kleinsten Mengen die Entwicklung von Geweben und Zellen beeinflussen können. Während Fiers die Interferone untersuchte, von denen man sich anfangs große Hoffnungen für eine Krebstherapie gemacht hatte, erforschte Taniguchi die Wirkung einer anderen Stoffklasse, der Interleukine.

Besonders Interleukin-2, so weiß man heute, wirkt auf mehrere verschiedene Typen von Immunzellen. Für detaillierte Untersuchungen stand aber zunächst nicht genug an diesem Eiweiß zur Verfügung. Das änderte sich erst, als Taniguchi das Gen, also den molekularen Bauplan, für Interleukin-2 isolierte und mit Hilfe von bakteriellen Zellen in größeren Mengen herstellen konnte. Aus dem Zusammenspiel mit anderen Botenstoffen, so hofft der Japaner, könnten sich bald schon neue Ansätze zur Krebstherapie ergeben.

(erschienen in „DIE WELT“ am 5. November 1991)

Sprechende Maschine

Einen Computer, der Texte erkennt und vorliest, präsentierte Professor Terrence Sejnowski in einer amerikanischen Fernsehshow. Die Zuschauer waren begeistert von der ersten TV-Demonstration eines künstlichen neuronalen Netzes. Ein perfektioniertes System könnte etwa Blinden aus der Zeitung vorlesen; öffentliche Bibliotheken ließen sich per Telefon abfragen.

Nur Marvin Minsky, der jahrelang gepredigt hatte, daß derartige Leistungen nur mit der Progammiertechnik der Künstlichen Intelligenz zu verwirklichen seien, wollte das „Gestammel“ nicht verstanden haben. Wie auch immer, der Computer verdankt seine Fähigkeiten einem Programm (NETtalk), das eine Anordnung von mehreren Hundert Nervenzellen in drei Schichten simuliert. Die Eingabeschicht erkennt Textstücke von je sieben Buchstaben und ist über eine Zwischenschicht mit 26 „Ausgabeneuronen“ verbunden. Diese spezialisieren sich auf 17 Phoneme, auf Pausen, Betonungen und Übergänge – die Grundelemente der Sprache.

Anfangs gibt der angeschlossene Lautsprecher nur Unsinn von sich, doch wird nach jedem Fehler die korrekte Aussprache in der Ausgabeschicht eingestellt und die Stärke der Verbindungen zur Zwischenschicht verändert. Verbesserte Aussprache wird mit verstärkten Verbindungen zur Ausgabeschicht „belohnt“ und umgekehrt; langsam tastet man sich an das richtige Ergebnis heran.

Nach dem Lernen einiger Tausend Worte klingt das Netz in etwa 90 Prozent aller Fälle richtig – und das völlig ohne Regelwerk und ohne eine lange Liste der vielen sprachlichen Ausnahmeregeln. Unbekannte Worte werden fast so gut erkannt wie bereits einstudierte. NetTalk lernt also Regeln, die weder Linguisten noch Neurobiologen noch Programmierer bisher ergründen konnten.

(erschienen in „DIE WELT“ am 30. Oktober 1991)