Zum Hauptinhalt springen

Forschung für die Ärmsten der Armen

Im Forschungsinstitut Icrisat nahe dem indischen Hyderabad kämpfen Forscher gegen den Hunger in der Welt. Wichtigste Waffe sind dabei uns unbekannte Pflanzen wie Sorghum und Perlhirse. Sie ermöglichen – im Gegensatz zu den Hochleistungsgewächsen der grünen Revolution – auch in einer unerbittlichen Umwelt noch akzeptable Ernten für eine weiter wachsende Weltbevölkerung. 750 Millionen Menschen, die in den semiariden Tropen täglich mit primitivsten Mitteln ums Überleben kämpfen müssen, profitieren von der Arbeit des Instituts, das vorwiegend aus den Steuergeldern der wichtigsten Industrieländer finanziert wird.

Vier Pflanzenarten bilden heute die Nahrungsgrundlage für den größten Teil der Menschheit: Mais und Reis, Kartoffeln und Weizen heißen die Gewächse, die in gemäßigten Klimazonen Rekordernten bringen – dank regelmäßiger Niederschläge, dem Einsatz von Düngemitteln und Pestiziden, dank künstlicher Bewässerung und einer weitgehend technisierten Landwirtschaft.

Dort aber, wo die Natur weniger freigebig ist, wo die Böden ebenso arm sind an Nährstoffen wie die Bauern an Geld, dort wo der Regen – wenn überhaupt – nur sporadisch fällt, sind die Menschen auf Pflanzen angewiesen, die auf europäischen Märkten nur selten zu finden sind. Die Rede ist von Sorghum und Perlhirse, von Hühner- und Taubenerbsen (Cicer arietinum und Cajanus cayan) sowie der immerhin als Snack verbreiteten Erdnuß.

Ohne diese fünf Pflanzen jedoch wären 750 Millionen Menschen in den semiariden Tropen ihrer Nahrungsgrundlage beraubt. Die semiariden Tropen (SAT) umfassen rund 20 Millionen Quadratkilometer in 50 Ländern beiderseits des Äquators, von Angola und Australien bis Zaire und Zimbabwe.

Zwar liegen die meisten SAT-Länder auf dem afrikanischen Kontinent, in einem über 1000 Kilometer breiten Gürtel um den zentralafrikanischen Regenwald, doch werden auch weite Teile Mexikos, Boliviens, Thailands und Pakistans zu dieser Landschaft gerechnet, in der erratische Regenfälle und nährstoffarme Böden den Bauern das Leben schwermachen. Diesen Bauern zu helfen ist das Hauptanliegen von Icrisat (International Crops Research Institute for the Semi-Arid Tropics), einem gewaltigen Forschungsinstitut im indischen Patancheru. „Wir arbeiten für die Ärmsten der Armen“, erklärt der leitende Direktor Dr. James Ryan. „Unser Ziel ist es, als Weltzentrum zur Verbesserung der Erträge und Qualität von Sorghum, Hirse, Hühnererbsen, Taubenerbsen und Erdnüssen zu dienen.“

Doch damit nicht genug: Icrisat soll außerdem als Genbank für diese Pflanzen fungieren, ebenso wie als Ausbildungsstätte und Koordinationszentrum für den Technologietransfer. Icrisat, das in diesem Jahr mit über 60 Millionen Mark finanziert wird, bietet hierfür ideale Voraussetzungen, denn auch Indien gehört zum größten Teil zu den semiariden Tropen.

Die rund 100 Top-Wissenschaftler der Forschungsstation werden in ihrer Arbeit von etwa 1500 Angestellten unterstützt – ein Verhältnis, das europäischen und amerikanischen Wissenschaftlern traumhaft erscheinen muß. Pflanzenzüchter und Insektenforscher, Landwirte und Botaniker, Genetiker und Mikrobiologen, Biochemiker und Virologen arbeiten hier in fachübergreifenden, problemorientierten Teams zusammen. Ziel ist es, die günstigen Eigenschaften verschiedener Rassen zu kombinieren und auch unter erschwerten Bedingungen, bei minimalem Einsatz von Düngemitteln und Pestiziden, noch akzeptable Ernten zu erreichen.

Ein unverzichtbares Hilfsmittel ist dabei die Icrisat-Genbank mit ihren über 100.000 lsolaten, die in weltweiten Sammelaktionen aufgespürt oder von Forschem in den Ländern der SAT direkt nach Hyderabad geschickt wurden.

Die Genbank beherbergt in ihren Tiefkühlschränken und wohlklimatisierten Lagerräumen jeweils mehrere tausend Nachkommen einer Pflanze, die in Samenform aufbewahrt werden. In mehrjährigen Abständen wird überprüft, ob die Samen noch keimungsfähig sind. Sobald der Anteil der „toten“ Samen die 15-Prozent-Marke übersteigt, muß das jeweilige Isolat aufgezogen und bis zur Samenreife hochgepäppelt werden. Diese „Enkel“ der ursprünglich gesammelten Pflanzen wandern dann wieder in peinlich genau gekennzeichnete Plastikbüchsen oder werden in Aluminiumfolien eingeschweißt – der Kreislauf beginnt von neuem.

Der gewaltige Arbeitsaufwand macht sich bezahlt, denn versteckt im Erbgut all dieser Pflanzen finden sich die Gene, die zahllosen Ernteschädlingen – von Pilzen und Würmern über Fliegen, Käfer und Raupen bis hin zu den verschiedensten Arten von Viren – den Appetit verderben. Auch andere Eigenschaften, wie Hitze- und Kälteresistenz sowie die Fähigkeit, auch längere Dürreperioden zu überstehen, schlummern in den Kühlschränken der Genbank.

Sogar die Zeit, welche die Pflanzen zum Wachstum von der Aussaat bis zur Ernte benötigen, unterliegt weitgehend dem Regime der Gene. Hühnererbsen, die in Südasien einen wichtigen Eiweißlieferanten darstellen, benötigen zwischen 75 und 150 Tage, wobei die längste Wachstumszeit häufig die größten Erträge bringt. Für die Taubenerbse, die zusätzlich noch als Windschutz, Brennstoff, Düngemittel und Viehfutter Verwendung findet, liegt die Wachstumszeit zwischen 110 und 180 Tagen.

Da beide Pflanzen erst nach der Regenperiode gesät werden, steht, besonders in trockenen Gebieten, oft nur wenig Zeit für das Wachstum der Frucht zur Verfügung. Aufgabe der Icrisat-Forscher ist es dann, für jeden Standort die „optimale“ Pflanze zu finden und der Natur gegebenenfalls durch Züchtung auf die Sprünge zu helfen.

„Jede Pflanze, die wir in die Genbank aufnehmen, wird genauestens auf ihre Eigenschaften überprüft“, erläutert Dr. Prasado Rao. Aus diesem Eignungstest gewinnen die Forscher der Genbank 30 bis 40 Meßwerte, die Aufschluß geben sollen über den optimalen Einsatz der Gewächse auf den Feldern der Welt. Auch für Versuche, bei denen günstige Eigenschaften verschiedener Wildstämme in weitverbreitete Rassen eingekreuzt werden, sind die Daten der Genbank unverzichtbar.

„Wir haben eine Politik der offenen Tür. Auf Anfrage kann jeder auf die hier registrierten Pflanzen zugreifen. Wir schicken ihm dann den Samen mit den gewünschten Eigenschaften zu“, betont Ryan die Richtlinien seines Instituts, das vorwiegend aus dem Steueraufkommen der industrialisierten Länder finanziert wird. Die Gesamtzahl der Proben, die von Hyderabad aus in die ganze Welt verschickt wurden, dürfte noch in diesem Jahr die Millionengrenze überschreiten.

Den finanziellen Nutzen dieser Aktionen kann Ryan nicht pauschal beziffern, doch zwei besonders erfolgreiche Icrisat-,“Produktionen“, die Perlhirsen ICMH 451 und WC-C75, brachten alleine den indischen Bauern einen Ertragszuwachs, dessen Wert den Jahresetat des Instituts übersteigt. Dennoch wäre es unrealistisch, auf eine zweite grüne Revolution zu hoffen, um die katastrophalen Folgen einer anhaltenden globalen Bevölkerungsexplosion zu mildern.

Zwar konnten in den sechziger Jahren mit hochgezüchteten Varietäten auf den Reisfeldern Asiens gewaltige Ertragssteigerungen erzielt werden; dies wurde jedoch erkauft durch eine starke Abhängigkeit von (teuren) Düngemitteln und (gefährlichen) Insektiziden. Nur wenn beides in reichem Maße vorhanden war, konnten die Rekordernten, die auf landschaftlichen Versuchsstationen erzielt wurden, auch in der Praxis erreicht werden. Dann kam die große Ernüchterung:

„Der unmäßige Gebrauch von Insektiziden im asiatischen Raum hat zu einer großen Anzahl von Schädlingsplagen geführt“, so Ryan. „Wir wissen, daß wir uns im Umgang mit der Natur nicht gerade mit Ruhm bekleckert haben.“ Diese Einsichten haben zum Umdenken geführt. Integrierter Pflanzenbau heißt die neue Philosophie, bei der biologische und chemische Methoden der Schädlingsbekämpfung sorgfältig aufeinander abgestimmt werden.

Im Zusammenspiel von schädlingsresistenten Pflanzen, Fruchtwechsel und variablen Saat- und Erntezeiten will man die Zahl der Mitesser unter einer wirtschaftlich akzeptablen Schwelle halten. Das offensichtlich unrealistische Vorhaben, die Schädlinge komplett auszurotten, gehört somit der Vergangenheit an. Ryan glaubt auch, den Grund für diesen Sinneswandel zu kennen: „Eine zunehmend kritische Öffentlichkeit hat in der agrochemischen Industrie zu einer gewissen Nervosität geführt. Man sorgt sich um Profite und das Image. In zehn Jahren werden die Vorräte an Insektiziden erschöpft sein, die im Westen längst verboten sind, aber immer noch ihren Weg in die Entwicklungsländer finden.“

Der integrierte Pflanzenbau werde daher eine immer wichtigere Rolle bei gemeinnützigen Instituten wie Icrisat spielen, prophezeit der Direktor. Dafür aber braucht man Geld, und das, bemängelt Ryan, wird zunehmend knapper. „Die Geberländer sind ziemlich selbstzufrieden geworden. Wahrscheinlich liegt das daran, daß es in den letzten Jahren keine wirklich großen Hungersnöte gegeben hat.“

(erschienen in „DIE WELT“ am 27. Dezember 1991. ICRISAT wurde besucht auf Einladung der Welternährungsorganisation der UNO (FAO))

Am Patienten vorbei

Über ein Drittel aller vom Arzt verschriebenen Medikamente werden nicht eingenommen. Von den ausbleibenden Heilerfolgen einer ärztlichen Behandlung ganz abgesehen, beläuft sich allein der wirtschaftliche Schaden in den alten Bundesländern nach einer Schätzung auf fünf bis sieben Milliarden Mark.

Einige Leitlinien für das ärztliche Verhalten, mit denen dieses Problem der „Non-compliance“ abgemildert werden kann, präsentierte Privatdozent Dr. Uwe Gieler, Oberarzt des Zentrums für Haut- und Geschlechtskrankheiten der Philipps-Universität in Marburg, jetzt auf einem vielbeachteten Vortrag anläßlich der Tagung „Fortschritte der Allergologie, Immunologie und Dermatologie“ in Davos.

Prinzipiell gehe es darum, so Gieler, sich mit dem Patienten gegen die Krankheit zusammenzuschließen, der Arzt dürfe nicht gegen die Krankheit operieren, ohne den Patienten zu berücksichtigen. So zeigte eine Studie bei jugendlichen Patienten, daß in der Behandlung der Alopecia areata die Compliance umso besser ist, je mehr der Patient davon überzeugt ist, daß er selbst den Verlauf der Krankheit beeinflussen kann. „Wenn er das als Zufall oder Schicksal ansieht, dann sind die therapeutischen Möglichkeiten natürlich schlecht. Man muß in diesem Fall erst an dem Krankheitskonzept arbeiten, bevor man zu einer gezielten topischen oder gar systemischen Therapie kommen kann.“

In mehreren Studien wurde eine direkte Korrelation zwischen der Compliance und dem Bildungsgrad des Patienten festgestellt. Bei Dermatosen fand man auch einen Zusammenhang mit der Intensität und der Ausbildung der Dermatose. Der Vorstellung, daß der behandelnde Arzt schon abschätzen könne, inwieweit sich der Patient an die Anweisungen hält, widersprach Gieler.

Auf Seiten des Arztes oder Apothekers gibt es nach Gielers Ansicht eine ganze Reihe von Maßnahmen, um die Compliance zu verbessern. Dem Verhalten des Arztes kommt in diesem Zusammenhang eine besondere Bedeutung zu. Kann er sich optimal auf den Patienten einstellen, wirkt sympathisch und motiviert, so wird sich dies in der Regel auch auf die Einstellung des Kranken niederschlagen. „Faktoren, die mit dem Verhalten des Patienten zu tun haben, müßen wir ebenfalls kennen. Natürlich gibt es Patienten, die hypochondrisch veranlagt sind, und deshalb nur schwer für die Therapie zu gewinnen. Es gibt solche, die große Ängste haben etwa vor einer Cortisonanwendung, oder diejenigen, die eine sehr passive Einstellung gegenüber der eigenen Gesundheit haben.“

Besonders wichtig, und auch vom Arzt zu beeinflussen sind diejenigen Faktoren, die mit der Art und dem Inhalt der ärztlichen Instruktionen zu tun haben. Kurioserweise glauben einige Ärzte manchmal selbst nicht, daß ihre Instruktionen auch befolgt werden. „Wir müßen natürlich auch selbst daran glauben, daß die verordneten Therapien anschlagen und nur die Behandlungsschemata anwenden, von denen wir auch wirklich überzeugt sind. Auf der anderen Seite dürfen die Erwartungen auch nicht zu hoch werden, wir müßen die Erfolgschancen realistisch einschätzen.“

Die Instruktionen selbst seien häufig unverständlich. „Fachausdrücke wie ‚prognostische Faktoren‘ oder ‚ubiquitäre Allergene‘ können die meisten Patienten einfach nicht verstehen obwohl sie in den ’normalen‘ Sprachgebrauch des Arztes Eingang gefunden haben.“ Zu häufig läßt man sich nach Gielers Meinung auch dazu verführen, ein Zuviel an Informationen zu geben und den Patienten damit zu überladen. „Besser wenig kleine Informationen gezielt, als alles auf einmal“ rät der Dermatologe. Falsch sei es auch, unpräzise Informationen zu liefern, etwa dem Patienten zu raten, er solle ein Präparat solange einnehmen, wie er es selbst für nötig halte. Vermieden werden sollte der erhobene Zeigefinger („wenn Sie kein Cortison nehmen, brauchen Sie gar nicht wiederzukommen“) ebenso wie eine Verletzung des Selbstwertgefühls („andere Patienten haben es auch geschafft“).

Auch die Fähigkeit des Arztes, dem Patienten zuzuhören sei manchmal unterentwickelt, kritisierte Gieler. „Es ist nicht hilfreich, den Patienten mit schriftlichen Informationen vollzustopfen. Die schriftliche Information sollte ein Hilfsmittel sein, die nach der Sprechstunde nochmals konsultiert werden kann.“

Zusammenfassend betonte Gieler, daß eine Vielzahl von Studien erwiesen hätten, daß in punkto Compliance noch sehr viel Raum für Verbesserung sei. „Grundregeln sind: Einfache, klare Anweisungen, sympathisches Verhalten, der Versuch auf den Patienten einzugehen und das Umfeld der Erkrankung zu verstehen. Man sollte im Gespräch ein klares Ziel definieren und bei flankierenden Maßnahmen gegebenenfalls auch Bezugspersonen einzuschalten. Wenn diese Punkte ausreichend berücksichtigt werden, kann die Compliance des Patienten sicherlich deutlich verbessert werden.“

(offenbar unveröffentlichter Artikel von der Tagung „Fortschritte der Allergologie, Immunologie und Dermatologie“ in Davos, September 1991. Besucht für die Pharmazeutische Zeitung.)

Am Patienten vorbei

Über ein Drittel aller vom Arzt verschriebenen Medikamente werden nicht eingenommen. Von den ausbleibenden Heilerfolgen einer ärztlichen Behandlung ganz abgesehen, beläuft sich allein der wirtschaftliche Schaden in den alten Bundesländern nach einer Schätzung auf fünf bis sieben Milliarden Mark.

Einige Leitlinien für das ärztliche Verhalten, mit denen dieses Problem der „Non-compliance“ abgemildert werden kann, präsentierte Privatdozent Dr. Uwe Gieler, Oberarzt des Zentrums für Haut- und Geschlechtskrankheiten der Philipps-Universität in Marburg, jetzt auf einem vielbeachteten Vortrag anläßlich der Tagung „Fortschritte der Allergologie, Immunologie und Dermatologie“ in Davos.

Prinzipiell gehe es darum, so Gieler, sich mit dem Patienten gegen die Krankheit zusammenzuschließen, der Arzt dürfe nicht gegen die Krankheit operieren, ohne den Patienten zu berücksichtigen. So zeigte eine Studie bei jugendlichen Patienten, daß in der Behandlung der Alopecia areata die Compliance umso besser ist, je mehr der Patient davon überzeugt ist, daß er selbst den Verlauf der Krankheit beeinflussen kann. „Wenn er das als Zufall oder Schicksal ansieht, dann sind die therapeutischen Möglichkeiten natürlich schlecht. Man muß in diesem Fall erst an dem Krankheitskonzept arbeiten, bevor man zu einer gezielten topischen oder gar systemischen Therapie kommen kann.“

In mehreren Studien wurde eine direkte Korrelation zwischen der Compliance und dem Bildungsgrad des Patienten festgestellt. Bei Dermatosen fand man auch einen Zusammenhang mit der Intensität und der Ausbildung der Dermatose. Der Vorstellung, daß der behandelnde Arzt schon abschätzen könne, inwieweit sich der Patient an die Anweisungen hält, widersprach Gieler.

Auf Seiten des Arztes oder Apothekers gibt es nach Gielers Ansicht eine ganze Reihe von Maßnahmen, um die Compliance zu verbessern. Dem Verhalten des Arztes kommt in diesem Zusammenhang eine besondere Bedeutung zu. Kann er sich optimal auf den Patienten einstellen, wirkt sympathisch und motiviert, so wird sich dies in der Regel auch auf die Einstellung des Kranken niederschlagen. „Faktoren, die mit dem Verhalten des Patienten zu tun haben, müßen wir ebenfalls kennen. Natürlich gibt es Patienten, die hypochondrisch veranlagt sind, und deshalb nur schwer für die Therapie zu gewinnen. Es gibt solche, die große Ängste haben etwa vor einer Cortisonanwendung, oder diejenigen, die eine sehr passive Einstellung gegenüber der eigenen Gesundheit haben.“

Besonders wichtig, und auch vom Arzt zu beeinflussen sind diejenigen Faktoren, die mit der Art und dem Inhalt der ärztlichen Instruktionen zu tun haben. Kurioserweise glauben einige Ärzte manchmal selbst nicht, daß ihre Instruktionen auch befolgt werden. „Wir müßen natürlich auch selbst daran glauben, daß die verordneten Therapien anschlagen und nur die Behandlungsschemata anwenden, von denen wir auch wirklich überzeugt sind. Auf der anderen Seite dürfen die Erwartungen auch nicht zu hoch werden, wir müßen die Erfolgschancen realistisch einschätzen.“

Die Instruktionen selbst seien häufig unverständlich. „Fachausdrücke wie ‚prognostische Faktoren‘ oder ‚ubiquitäre Allergene‘ können die meisten Patienten einfach nicht verstehen obwohl sie in den ’normalen‘ Sprachgebrauch des Arztes Eingang gefunden haben.“ Zu häufig läßt man sich nach Gielers Meinung auch dazu verführen, ein Zuviel an Informationen zu geben und den Patienten damit zu überladen. „Besser wenig kleine Informationen gezielt, als alles auf einmal“ rät der Dermatologe. Falsch sei es auch, unpräzise Informationen zu liefern, etwa dem Patienten zu raten, er solle ein Präparat solange einnehmen, wie er es selbst für nötig halte. Vermieden werden sollte der erhobene Zeigefinger („wenn Sie kein Cortison nehmen, brauchen Sie gar nicht wiederzukommen“) ebenso wie eine Verletzung des Selbstwertgefühls („andere Patienten haben es auch geschafft“).

Auch die Fähigkeit des Arztes, dem Patienten zuzuhören sei manchmal unterentwickelt, kritisierte Gieler. „Es ist nicht hilfreich, den Patienten mit schriftlichen Informationen vollzustopfen. Die schriftliche Information sollte ein Hilfsmittel sein, die nach der Sprechstunde nochmals konsultiert werden kann.“

Zusammenfassend betonte Gieler, daß eine Vielzahl von Studien erwiesen hätten, daß in punkto Compliance noch sehr viel Raum für Verbesserung sei. „Grundregeln sind: Einfache, klare Anweisungen, sympathisches Verhalten, der Versuch auf den Patienten einzugehen und das Umfeld der Erkrankung zu verstehen. Man sollte im Gespräch ein klares Ziel definieren und bei flankierenden Maßnahmen gegebenenfalls auch Bezugspersonen einzuschalten. Wenn diese Punkte ausreichend berücksichtigt werden, kann die Compliance des Patienten sicherlich deutlich verbessert werden.“

(offenbar unveröffentlichter Artikel von der Tagung „Fortschritte der Allergologie, Immunologie und Dermatologie“ in Davos, September 1991. Besucht für die Pharmazeutische Zeitung.)

Mehr Allergien durch Luftverschmutzung?

Die Zunahme allergischer Erkrankungen in den letzten Jahrzehnten ist nicht mehr wegzudiskutieren. Welche Rolle dabei den Luftschadstoffen zukommt, ist zwar noch nicht zweifelsfrei geklärt, doch mehren sich die Hinweise darauf, daß unter anderem Feinstäube und Dieselrußpartikel eine Rolle spielen. Weniger eindeutig ist die Datenlage beim Tabakrauch. Hier stehen scheinbar überzeugenden Befunden, mit denen ein solcher Zusammenhang belegt werden soll, solche gegenüber, die Passivrauchen als Ursache allergischer Reaktionen nahezu ausschließen. Dies waren einige der Aussagen, die Anfang September beim Kongreß „Fortschritte der Allergologie, Immunologie und Dermatologie“ in Davos die Diskussion beherrschten.

Professor Dr. Brunello Wüthrich, Leiter der Allergiestation der Dermatologischen Klinik am Universitätsspital Zürich, legte Daten vor, die einen starken Zuwachs der Pollinose in diesem Jahrhundert eindeutig belegen. In der Schweiz wurden dazu erstmals 1926 Untersuchungen an 77.000 Personen angestellt, die eine Prävalenz von 0,82 Prozent ergaben. 1958 hatte sich dieser Wert bereits auf fünf Prozent erhöht; mittlerweile liegt er nach Wüthrichs eigenen Erhebungen bei rund zehn Prozent. Auch aus Japan, Schweden und der Bundesrepublik liegen gut gesicherte Erkenntnisse vor, die diesen Trend bestätigen.

„Die immer wieder diskutierte Frage, ob allergische Krankheiten in den letzten Jahrzehnten wirklich zugenommen haben, kann für die Pollinose eindeutig mit ja beantwortet werden. Klinische und tierexperimentelle Beobachtungen deuten darauf hin, daß, nebst genetischen Faktoren Luftschadstoffe entscheidend das Manifestwerden der Pollenallergie beeinflussen“, so Wüthrich.

Als mögliche Gründe für den Anstieg der Heuschnupfenprävalenz zog Wüthrich mehrere Faktoren in Betracht. Durch eine gezielte Bewirtschaftung von Äckern und Weideland kommt es heute zu wesentlich stärkeren Schwankungen der Pollenkonzentrationen für einzelne Arten. Auch gibt es Hinweise darauf, daß die Einführung neuer Arten zumindest lokal einen Anstieg der Pollinose bewirkte. Erwiesen ist auch, daß die Zunahme der Luftschadstoffe eine erhöhte Permeabilität der Epithelien für Allergene zur Folge hat.

Die Frage „Sind die Pollen selbst aggressiver geworden?“ untersucht Professor Dr. Heidrun Behrendt vom Medizinischen Institut für Umwelthygiene der Heinrich-Heine-Universität in Düsseldorf. Ein neues Forschungsgebiet, die Allergotoxikologie, beschäftigt sich mit dem Einfluß und der Wirkung von Schadstoffen auf die Induktion, die Auslösung und die Unterhaltung allergologischer Erkrankungen. Erschwert werden diese Untersuchungen dadurch, so Behrendt, daß die Schäden sich oft erst nach Jahren oder Jahrzehnten eindeutig bemerkbar machen. „Eine weitere Schwierigkeit ist, daß die biologische Wirkung von Umweltschadstoffen in der Regel keine akute ist, sondern durch die wiederholte Aufnahme kleiner Dosen hervorgerufen wird und das Zusammenwirken mehrerer Schadstoffe entweder gleichzeitig oder in Folge auftritt. Diese Kombinationswirkung macht es schwer, ursächliche Faktoren herauszuarbeiten.“

Als mögliche Übeltäter werden derzeit vor allem Luftschadstoffe wie Schwefeldioxid (SO2), Stickoxide (NOX), organische Kohlenwasserstoffe und Feinstaub verdächtigt. Diese Substanzen werden in den alten Bundesländern teilweise in Größenordnungen von mehreren Millionen Tonnen jährlich freigesetzt. Bei Dieselrußpartikeln beläuft sich diese Zahl auf 70.000 Tonnen, und auch die jährlich 32.000 Tonnen Pestizide könnten eine wichtige Rolle spielen.

Wichtig sind vor allem Staubpartikel, weil hier mehr als 1000 organische und anorganische Stoffe adsorbiert werden, die dann in Partikelform durch die Makrophagen des Immunsystems aufgenommen werden und dort ihre Wirkung entfalten.

Die Kombination der Schadstoffe mit Allergenen kann offensichtlich auf zwei Ebenen stattfinden; nämlich im Bereich des Organismus, wo die Sensibilisierung gefördert werden kann, oder aber auf der Ebene der Allergenträger, da die Pollen selbst gleichfalls den Luftschadstoffen ausgesetzt sind. So zeigen neue Studien, daß die Expression des Birkenpollenallergens in städtischen Regionen mit starkem Automobilverkehr deutlich verstärkt ist.

Der wissenschaftliche Leiter der Veranstaltung, Professor Dr. Siegfried Borelli, bezeichnete es als „durchaus nachvollziehbar“, daß Luftschadstoffe als Wegbereiter von Allergien dienen könnten. Borelli, der gleichzeitig Direktor der Dermatologischen Klinik der TU München sowie der Klinik für Dermatologie und Allergie Davos ist, schilderte das derzeitige Gedankengebäude: „Die Vorstellung geht dahin, nach der Emission in den frühen Morgenstunden gelangten Pollenkörner auf Grund der Lufterwärmung in höhere Luftschichten. Am Nachmittag kehrten diese Pollen, wie kleine Igel von Schwebstaubpartikeln aus der verschmutzten Luft besetzt, in die unteren Luftschichten zurück.“

Wie Professor Behrendt anhand eindrucksvoller elektronenmikroskopischer Aufnahmen zeigen konnte, werden die Pollen an den Kontaktstellen mit den Schadstoffpartikeln präaktiviert, so daß Eiweiße aus dem Polleninneren unter die Oberfläche gelangen. Im Organismus würden die Allergene dann in modifizierter Form rasch und in großen Mengen freigesetzt. Sowohl die Proteinzusammensetzung als auch das IgE-Bindungsmuster dieser Allergene sind dann nachweislich verändert.

(erschienen in der Pharmazeutischen Zeitung am 28. November 1991)

Warum Allergien zunehmen

Die Zunahme allergischer Erkrankungen in den letzten Jahrzehnten ist nicht mehr wegzudiskutieren. Welche Rolle dabei den Luftschadstoffen zukommt, ist zwar noch nicht zweifelsfrei geklärt, doch mehren sich die Hinweise darauf, daß unter anderem Feinstäube und Dieselrußpartikel eine Rolle spielen. Weniger eindeutig ist die Datenlage beim Tabakrauch. Hier stehen scheinbar überzeugenden Befunden, mit denen ein solcher Zusammenhang belegt werden soll, solche gegenüber, die Passivrauchen als Ursache allergischer Reaktionen nahezu ausschließen. Dies waren einige der Aussagen, die Anfang September beim Kongreß „Fortschritte der Allergologie, Immunologie und Dermatologie“ in Davos die Diskussion beherrschten.

Professor Dr. Brunello Wüthrich, Leiter der Allergiestation der Dermatologischen Klinik am Universitätsspital Zürich, legte Daten vor, die einen starken Zuwachs der Pollinose in diesem Jahrhundert eindeutig belegen. In der Schweiz wurden dazu erstmals 1926 Untersuchungen an 77.000 Personen angestellt, die eine Prävalenz von 0,82 Prozent ergaben. 1958 hatte sich dieser Wert bereits auf fünf Prozent erhöht; mittlerweile liegt er nach Wüthrichs eigenen Erhebungen bei rund zehn Prozent. Auch aus Japan, Schweden und der Bundesrepublik liegen gut gesicherte Erkenntnisse vor, die diesen Trend bestätigen.

„Die immer wieder diskutierte Frage, ob allergische Krankheiten in den letzten Jahrzehnten wirklich zugenommen haben, kann für die Pollinose eindeutig mit ja beantwortet werden. Klinische und tierexperimentelle Beobachtungen deuten darauf hin, daß, nebst genetischen Faktoren Luftschadstoffe entscheidend das Manifestwerden der Pollenallergie beeinflussen“, so Wüthrich.

Als mögliche Gründe für den Anstieg der Heuschnupfenprävalenz zog Wüthrich mehrere Faktoren in Betracht. Durch eine gezielte Bewirtschaftung von Äckern und Weideland kommt es heute zu wesentlich stärkeren Schwankungen der Pollenkonzentrationen für einzelne Arten. Auch gibt es Hinweise darauf, daß die Einführung neuer Arten zumindest lokal einen Anstieg der Pollinose bewirkte. Erwiesen ist auch, daß die Zunahme der Luftschadstoffe eine erhöhte Permeabilität der Epithelien für Allergene zur Folge hat.

Die Frage „Sind die Pollen selbst aggressiver geworden?“ untersucht Professor Dr. Heidrun Behrendt vom Medizinischen Institut für Umwelthygiene der Heinrich-Heine-Universität in Düsseldorf. Ein neues Forschungsgebiet, die Allergotoxikologie, beschäftigt sich mit dem Einfluß und der Wirkung von Schadstoffen auf die Induktion, die Auslösung und die Unterhaltung allergologischer Erkrankungen. Erschwert werden diese Untersuchungen dadurch, so Behrendt, daß die Schäden sich oft erst nach Jahren oder Jahrzehnten eindeutig bemerkbar machen. „Eine weitere Schwierigkeit ist, daß die biologische Wirkung von Umweltschadstoffen in der Regel keine akute ist, sondern durch die wiederholte Aufnahme kleiner Dosen hervorgerufen wird und das Zusammenwirken mehrerer Schadstoffe entweder gleichzeitig oder in Folge auftritt. Diese Kombinationswirkung macht es schwer, ursächliche Faktoren herauszuarbeiten.“

Als mögliche Übeltäter werden derzeit vor allem Luftschadstoffe wie Schwefeldioxid (SO2), Stickoxide (NOX), organische Kohlenwasserstoffe und Feinstaub verdächtigt. Diese Substanzen werden in den alten Bundesländern teilweise in Größenordnungen von mehreren Millionen Tonnen jährlich freigesetzt. Bei Dieselrußpartikeln beläuft sich diese Zahl auf 70.000 Tonnen, und auch die jährlich 32.000 Tonnen Pestizide könnten eine wichtige Rolle spielen.

Wichtig sind vor allem Staubpartikel, weil hier mehr als 1000 organische und anorganische Stoffe adsorbiert werden, die dann in Partikelform durch die Makrophagen des Immunsystems aufgenommen werden und dort ihre Wirkung entfalten.

Die Kombination der Schadstoffe mit Allergenen kann offensichtlich auf zwei Ebenen stattfinden; nämlich im Bereich des Organismus, wo die Sensibilisierung gefördert werden kann, oder aber auf der Ebene der Allergenträger, da die Pollen selbst gleichfalls den Luftschadstoffen ausgesetzt sind. So zeigen neue Studien, daß die Expression des Birkenpollenallergens in städtischen Regionen mit starkem Automobilverkehr deutlich verstärkt ist.

Der wissenschaftliche Leiter der Veranstaltung, Professor Dr. Siegfried Borelli, bezeichnete es als „durchaus nachvollziehbar“, daß Luftschadstoffe als Wegbereiter von Allergien dienen könnten. Borelli, der gleichzeitig Direktor der Dermatologischen Klinik der TU München sowie der Klinik für Dermatologie und Allergie Davos ist, schilderte das derzeitige Gedankengebäude: „Die Vorstellung geht dahin, nach der Emission in den frühen Morgenstunden gelangten Pollenkörner auf Grund der Lufterwärmung in höhere Luftschichten. Am Nachmittag kehrten diese Pollen, wie kleine Igel von Schwebstaubpartikeln aus der verschmutzten Luft besetzt, in die unteren Luftschichten zurück.“

Wie Professor Behrendt anhand eindrucksvoller elektronenmikroskopischer Aufnahmen zeigen konnte, werden die Pollen an den Kontaktstellen mit den Schadstoffpartikeln präaktiviert, so daß Eiweiße aus dem Polleninneren unter die Oberfläche gelangen. Im Organismus würden die Allergene dann in modifizierter Form rasch und in großen Mengen freigesetzt. Sowohl die Proteinzusammensetzung als auch das IgE-Bindungsmuster dieser Allergene sind dann nachweislich verändert.

(erschienen in der Pharmazeutischen Zeitung am 28. November 1991)

Wenn die Neuronen im Gleichtakt schlagen

Wie schafft es unser Gehirn, Objekte, die beispielsweise auf dem Arbeitstisch herumliegen, überhaupt als Objekte zu erkennen? Für die meisten Menschen existiert dieses Problem überhaupt nicht, denn man „sieht“ ja die Kaffeetasse und den Kugelschreiber, kann diese Gegenstände mit großer Selbstverständlichkeit greifen und von der Unterlage unterscheiden.

Für die Hirnforscher ist dies allerdings keine gültige Erklärung. Denn „eigentlich“ bekommen die Nervenzellen der menschlichen Netzhaut ja nur ein zweidimensionales – flaches – Abbild der Umgebung geboten, eine Fläche, die sich aus unterschiedlich hellen oder dunklen Grautönen zusammensetzt.

Erschwerend kommt noch hinzu, daß dieses Bild durch das Zusammenspiel von Pupille und Augenlinse auf den Kopf gestellt wird. Doch damit nicht genug; schließlich haben wir zwei Augen und somit zwei Abbilder zu berücksichtigen, die ähnlich, aber nicht identisch sind.

Nochmals komplizierter wird die Angelegenheit, wenn man bedenkt, daß die in Blickrichtung rechts außen liegenden Gegenstände schlußendlich in der Sehrinde der linken Hirnhälfte registriert werden und umgekehrt. Dies ist nur möglich, weil jeweils die Hälfte der Nerven einer Netzhaut über eine „Kreuzung“ – das Chiasma opticum – im Zwischenhirn laufen muß. Nachdem die einlaufenden Nervenreize noch eine „Umspannstation“ überwinden müssen, entsteht schließlich in der Sehrinde der Eindruck eines Bildes.

Die Kaffeetasse, die halblinks vor uns steht, wird somit von Nervenzellen im linken und im rechten Auge registriert. Bemerkenswerterweise laufen diese Meldungen dann in einer Hirnregion, der Sehrinde, wieder zusammen; die zwei gemeldeten Kaffeetassen verschmelzen zu einer.

Genaugenommen könnte dieser Schaltplan der Nervenzellen aber nur erklären, wie die Bildpunkte, aus denen unsere Tasse besteht, von der Netzhaut bis in die Sehrinde gelangen. Die eigentliche Abgrenzung des Objekts „Kaffeetasse“ von der Unterlage besorgt das Zusammenspiel mehrerer Gruppen von Nervenzellen, die bei Säugetieren in der Sehrinde zu finden sind. Durch Teamwork erkennen diese Zellen, daß hier ein Gegenstand vorliegt.

Die Information, die vom Auge kommt, wird auf schätzungsweise 20 oder 25 Regionen parallel verteilt. Jeder Abschnitt beschäftigt sich dann mit einem Aspekt des Bildes, etwa mit Farbe, Form oder Lokalisation im Raum. Eine dieser Gruppen wird beispielsweise nur dann aktiv, wenn mehrere Bildpunkte gleicher Lichtstärke auf einer Linie liegen.

Eine andere Gruppe von Nervenzellen registriert vielleicht den Kontrast, das heißt den Unterschied in der Lichtstärke, zwischen der weißen Tasse und der grünen Schreibunterlage. Wieder eine andere Gruppe von Nervenzellen reagiert überhaupt nicht, weil sie auf Bewegung „geeicht“ ist. Diese Sensoren sind besonders hilfreich, wenn ein Objekt, das sich kaum vom Untergrund abhebt (ein Chamäleon etwa), sich zu regen beginnt.

Das allgemeine Prinzip, nach dem Figuren von ihrem Hintergrund unterschieden werden können, beruht also auf dem Erkennen von zusammengehörigen (kohärenten) Merkmalen. Die Gruppen von Nervenzellen aber, die beispielsweise die Farbe oder die Orientierung eines Gegenstandes registrieren, sind im Gehirn relativ weit verstreut. Die Entfernung beträgt bei Zellgruppen in einer Hirnhälfte bis zu sieben Millimeter, ein gewaltiger Abstand, zumindest nach dem Maßstab der Neuroanatomen.

Erst in jüngster Zeit ist man dahintergekommen, wie verschiedene Zellgruppen, die auf das gleiche Merkmal ansprechen, miteinander in Verbindung bleiben: Offensichtlich entladen diese Zellen sich im Gleichtakt, wenn sie auf den gleichen Gegenstand reagieren. Sie „feuern“ ihre Impulse dann jeweils zum gleichen Zeitpunkt, und das 40 bis 60 Mal in einer Sekunde. Mißt man dagegen Zellen, die ihre Reize nicht von einem abgrenzbaren Gegenstand empfangen, so ergibt sich ein wildes Durcheinander von aktiven und ruhigen Phasen. Offensichtlich sprechen diese Zellen nicht miteinander.

Diese Ergebnisse aus dem Labe des Frankfurter Neurobiologen Wolf Singer stießen ursprünglich auch auf Skepsis in der Forschergemeinde. Im Gegensatz zu philosophischen Erklärungsversuchen konnten verschiedene Vorhersagen des Modells allerdings im Experiment überprüft werden. Bisher hat dieses Modell zur Entstehung des menschlichen Bewußtseins jedenfalls alle Prüfsteine überwinden können.

(erschienen in „DIE WELT“ am 22. November 1991)

Wenn die Neuronen im Gleichtakt schlagen

Wie schafft es unser Gehirn, Objekte, die beispielsweise auf dem Arbeitstisch herumliegen, überhaupt als Objekte zu erkennen? Für die meisten Menschen existiert dieses Problem überhaupt nicht, denn man „sieht“ ja die Kaffeetasse und den Kugelschreiber, kann diese Gegenstände mit großer Selbstverständlichkeit greifen und von der Unterlage unterscheiden.

Für die Hirnforscher ist dies allerdings keine gültige Erklärung. Denn „eigentlich“ bekommen die Nervenzellen der menschlichen Netzhaut ja nur ein zweidimensionales – flaches – Abbild der Umgebung geboten, eine Fläche, die sich aus unterschiedlich hellen oder dunklen Grautönen zusammensetzt.

Erschwerend kommt noch hinzu, daß dieses Bild durch das Zusammenspiel von Pupille und Augenlinse auf den Kopf gestellt wird. Doch damit nicht genug; schließlich haben wir zwei Augen und somit zwei Abbilder zu berücksichtigen, die ähnlich, aber nicht identisch sind.

Nochmals komplizierter wird die Angelegenheit, wenn man bedenkt, daß die in Blickrichtung rechts außen liegenden Gegenstände schlußendlich in der Sehrinde der linken Hirnhälfte registriert werden und umgekehrt. Dies ist nur möglich, weil jeweils die Hälfte der Nerven einer Netzhaut über eine „Kreuzung“ – das Chiasma opticum – im Zwischenhirn laufen muß. Nachdem die einlaufenden Nervenreize noch eine „Umspannstation“ überwinden müssen, entsteht schließlich in der Sehrinde der Eindruck eines Bildes.

Die Kaffeetasse, die halblinks vor uns steht, wird somit von Nervenzellen im linken und im rechten Auge registriert. Bemerkenswerterweise laufen diese Meldungen dann in einer Hirnregion, der Sehrinde, wieder zusammen; die zwei gemeldeten Kaffeetassen verschmelzen zu einer.

Genaugenommen könnte dieser Schaltplan der Nervenzellen aber nur erklären, wie die Bildpunkte, aus denen unsere Tasse besteht, von der Netzhaut bis in die Sehrinde gelangen. Die eigentliche Abgrenzung des Objekts „Kaffeetasse“ von der Unterlage besorgt das Zusammenspiel mehrerer Gruppen von Nervenzellen, die bei Säugetieren in der Sehrinde zu finden sind. Durch Teamwork erkennen diese Zellen, daß hier ein Gegenstand vorliegt.

Die Information, die vom Auge kommt, wird auf schätzungsweise 20 oder 25 Regionen parallel verteilt. Jeder Abschnitt beschäftigt sich dann mit einem Aspekt des Bildes, etwa mit Farbe, Form oder Lokalisation im Raum. Eine dieser Gruppen wird beispielsweise nur dann aktiv, wenn mehrere Bildpunkte gleicher Lichtstärke auf einer Linie liegen.

Eine andere Gruppe von Nervenzellen registriert vielleicht den Kontrast, das heißt den Unterschied in der Lichtstärke, zwischen der weißen Tasse und der grünen Schreibunterlage. Wieder eine andere Gruppe von Nervenzellen reagiert überhaupt nicht, weil sie auf Bewegung „geeicht“ ist. Diese Sensoren sind besonders hilfreich, wenn ein Objekt, das sich kaum vom Untergrund abhebt (ein Chamäleon etwa), sich zu regen beginnt.

Das allgemeine Prinzip, nach dem Figuren von ihrem Hintergrund unterschieden werden können, beruht also auf dem Erkennen von zusammengehörigen (kohärenten) Merkmalen. Die Gruppen von Nervenzellen aber, die beispielsweise die Farbe oder die Orientierung eines Gegenstandes registrieren, sind im Gehirn relativ weit verstreut. Die Entfernung beträgt bei Zellgruppen in einer Hirnhälfte bis zu sieben Millimeter, ein gewaltiger Abstand, zumindest nach dem Maßstab der Neuroanatomen.

Erst in jüngster Zeit ist man dahintergekommen, wie verschiedene Zellgruppen, die auf das gleiche Merkmal ansprechen, miteinander in Verbindung bleiben: Offensichtlich entladen diese Zellen sich im Gleichtakt, wenn sie auf den gleichen Gegenstand reagieren. Sie „feuern“ ihre Impulse dann jeweils zum gleichen Zeitpunkt, und das 40 bis 60 Mal in einer Sekunde. Mißt man dagegen Zellen, die ihre Reize nicht von einem abgrenzbaren Gegenstand empfangen, so ergibt sich ein wildes Durcheinander von aktiven und ruhigen Phasen. Offensichtlich sprechen diese Zellen nicht miteinander.

Diese Ergebnisse aus dem Labe des Frankfurter Neurobiologen Wolf Singer stießen ursprünglich auch auf Skepsis in der Forschergemeinde. Im Gegensatz zu philosophischen Erklärungsversuchen konnten verschiedene Vorhersagen des Modells allerdings im Experiment überprüft werden. Bisher hat dieses Modell zur Entstehung des menschlichen Bewußtseins jedenfalls alle Prüfsteine überwinden können.

(erschienen in „DIE WELT“ am 22. November 1991)

Der lange Weg zum intelligenten Roboter

Der erste Schritt ist getan: Deutsche Wissenschaftler haben eine Nervenzelle und einen Transistor miteinander verbunden. Die Nervenzelle als biologische Einheit erzeugt einen äußerst schwachen Stromimpuls, der an das elektronische Bauteil weitergeleitet und dort tausendfach verstärkt wird. Während die Ulmer Forscher ausgehend von der „biologisch-technischen Synapse“ langfristig an die Entwicklung neuer Sensoren denken, ist die Fantasie mancher Zeitgenossen den technischen Möglichkeiten bereits weit vorausgeeilt.

Sie träumen davon, die Fähigkeiten von Mensch und Maschine zu vereinen und so die biologisch gesetzten Grenzen des eigenen Daseins zu überwinden. Zeuge dieser Träume ist eine Fülle von mehr oder weniger gut gemachten Büchern und Kinofilmen, vom Science-Fiction-Klassiker „2001 – Odyssee im Weltraum“ mit dem eigensinnigen Bordcomputer HAL 9000 bis hin zum Kampf zwischen guten und bösen Androiden in der Hollywood-Produktion Terminator II.

Noch aus der Zeit des kalten Krieges stammt der Vorschlag, Raketen mit Taubenhirnen auszustatten. Wenn es irgendwie gelänge, die Zellen eines Tieres „umzuprogrammieren“, könnte man eine intelligente Waffe schaffen, die dann fähig sein sollte, ihr Ziel selbstständig aufzuspüren. Natürlich, so argumentierte man, wären solche Geschosse auch in der Lage, Freund von Feind zu unterscheiden und lohnende Ziele ausfindig zu machen.

Ob derartige Ausgeburten der Ingenieurskunst jemals Realität werden, steht in den Sternen. Cruise-Missiles jedenfalls weichen heutzutage auch ohne Taubenhirn nur wenige Meter von ihrem Ziel ab, und die ehemals aufsehenerregende Idee wurde zu den Akten gelegt. Dennoch ist die Leistungsbilanz moderner Computer im Vergleich zum Tierreich eher ernüchternd. Die Rechenkraft eines Schneckenhirns beispielsweise wird heute gerade von den neuesten Bürocomputern bewältigt. Die schnellsten Supercomputer können es immerhin schon mit einem Mäusegehirn aufnehmen, sind allerdings selten unter zehn Millionen Mark zu haben.

Doch obwohl diese Wunderwerke (die Supercomputer) schon gut 100 Milliarden Informationseinheiten (Bit) pro Sekunde verarbeiten können, bleibt es doch in aller Regel bei der stumpfsinnigen Rechenarbeit. Noch immer sind alle „gewöhnlichen“ Computer bewegungsunfähig. Nur wenige Roboter können heute bereits zwei Treppenstufen überwinden, ohne auf die Nase zu fallen.

Diese Prototypen wie der 220 Kilogramm schwere „Asshy“ im Shibaura Institut für Technologie, Tokyo, sind hingegen zu sehr damit beschäftigt, die Balance zu halten, als daß man sie auch noch mit Rechenaufgaben belästigen könnte. Mit seiner stattlichen Größe von 210 Zentimetern vermag Asshy zwar durchaus zu beeindrucken, Gehversuche sind aber auch nach über zwanzig Jahren Forschung noch mit einem großen Risiko behaftet, wie Asshys geistiger Vater, Akira Sato bereitwillig einräumt.

Eine Ausnahme bilden lediglich die insektenähnlichen Roboter, die am Massachusetts Institute of Technology von Rodney Brooks entwickelt werden. Das bisher erfolgreichste Modell, der sechsbeinige „Genghis“ hat etwa die Größe eines Schuhkartons und schafft es immerhin seine Bewegungen zu koordinieren. Was fehlt ist allerdings nach immer ein Roboter – ob in Menschengestalt oder nicht – der die Fähigkeit zur freien Bewegung kombiniert mit einer akzeptablen Rechenleistung.

Doch wäre es nicht wunderbar, wenn man einer Maschine auch Entscheidungen zumuten könnte, die ein gewisses Urteilsvermögen voraussetzen? Wenn diese Maschinen in der Lage wären, Probleme selbsttätig zu erkennen und zu lösen? Wäre dies nicht ein weiterer Schritt hin zu ein Gesellschaft, in der die Menschen nur noch das tun, was ihnen zusagt?

In diese Richtung bewegen sich die Vorstellungen von Hans Moravec, Direktor des Labors für mobile Roboter an der amerikanischen Carnegie Mellon Universität. Er eröffnet sein unter Wissenschaftlern heiß diskutiertes, Buch „Mind Children“ mit den Worten: „Ich glaube, daß Roboter mit menschlicher Intelligenz in fünfzig Jahren weit verbreitet sei werden.“

Über die Frage, ob derartige Maschinen jemals ein „Bewußtsein“ entwickeln können, gehen die Ansichten ebenfalls stark auseinander. Moravec ist der Meinung, daß alles was dafür gebraucht wird, ein Modell der Außenwelt sei, das komplex genug ist um die Konsequenzen verschiedener Entscheidungen durchzuspielen. Er glaubt, dass der Zeitpunkt schon abzusehen ist, an dem jede wichtige körperliche oder geistige Funktion des Menschen ein künstliches Pendant haben wird. „In spätestens fünfzig Jahren haben wir den intelligenten Roboter, eine Maschine die denken und handeln wird wie ein Mensch.“

(erschienen in „DIE WELT“ am 13. November 1991)

Der lange Weg zum intelligenten Roboter

Der erste Schritt ist getan: Deutsche Wissenschaftler haben eine Nervenzelle und einen Transistor miteinander verbunden. Die Nervenzelle als biologische Einheit erzeugt einen äußerst schwachen Stromimpuls, der an das elektronische Bauteil weitergeleitet und dort tausendfach verstärkt wird. Während die Ulmer Forscher ausgehend von der „biologisch-technischen Synapse“ langfristig an die Entwicklung neuer Sensoren denken, ist die Fantasie mancher Zeitgenossen den technischen Möglichkeiten bereits weit vorausgeeilt.

Sie träumen davon, die Fähigkeiten von Mensch und Maschine zu vereinen und so die biologisch gesetzten Grenzen des eigenen Daseins zu überwinden. Zeuge dieser Träume ist eine Fülle von mehr oder weniger gut gemachten Büchern und Kinofilmen, vom Science-Fiction-Klassiker „2001 – Odyssee im Weltraum“ mit dem eigensinnigen Bordcomputer HAL 9000 bis hin zum Kampf zwischen guten und bösen Androiden in der Hollywood-Produktion Terminator II.

Noch aus der Zeit des kalten Krieges stammt der Vorschlag, Raketen mit Taubenhirnen auszustatten. Wenn es irgendwie gelänge, die Zellen eines Tieres „umzuprogrammieren“, könnte man eine intelligente Waffe schaffen, die dann fähig sein sollte, ihr Ziel selbstständig aufzuspüren. Natürlich, so argumentierte man, wären solche Geschosse auch in der Lage, Freund von Feind zu unterscheiden und lohnende Ziele ausfindig zu machen.

Ob derartige Ausgeburten der Ingenieurskunst jemals Realität werden, steht in den Sternen. Cruise-Missiles jedenfalls weichen heutzutage auch ohne Taubenhirn nur wenige Meter von ihrem Ziel ab, und die ehemals aufsehenerregende Idee wurde zu den Akten gelegt. Dennoch ist die Leistungsbilanz moderner Computer im Vergleich zum Tierreich eher ernüchternd. Die Rechenkraft eines Schneckenhirns beispielsweise wird heute gerade von den neuesten Bürocomputern bewältigt. Die schnellsten Supercomputer können es immerhin schon mit einem Mäusegehirn aufnehmen, sind allerdings selten unter zehn Millionen Mark zu haben.

Doch obwohl diese Wunderwerke (die Supercomputer) schon gut 100 Milliarden Informationseinheiten (Bit) pro Sekunde verarbeiten können, bleibt es doch in aller Regel bei der stumpfsinnigen Rechenarbeit. Noch immer sind alle „gewöhnlichen“ Computer bewegungsunfähig. Nur wenige Roboter können heute bereits zwei Treppenstufen überwinden, ohne auf die Nase zu fallen.

Diese Prototypen wie der 220 Kilogramm schwere „Asshy“ im Shibaura Institut für Technologie, Tokyo, sind hingegen zu sehr damit beschäftigt, die Balance zu halten, als daß man sie auch noch mit Rechenaufgaben belästigen könnte. Mit seiner stattlichen Größe von 210 Zentimetern vermag Asshy zwar durchaus zu beeindrucken, Gehversuche sind aber auch nach über zwanzig Jahren Forschung noch mit einem großen Risiko behaftet, wie Asshys geistiger Vater, Akira Sato bereitwillig einräumt.

Eine Ausnahme bilden lediglich die insektenähnlichen Roboter, die am Massachusetts Institute of Technology von Rodney Brooks entwickelt werden. Das bisher erfolgreichste Modell, der sechsbeinige „Genghis“ hat etwa die Größe eines Schuhkartons und schafft es immerhin seine Bewegungen zu koordinieren. Was fehlt ist allerdings nach immer ein Roboter – ob in Menschengestalt oder nicht – der die Fähigkeit zur freien Bewegung kombiniert mit einer akzeptablen Rechenleistung.

Doch wäre es nicht wunderbar, wenn man einer Maschine auch Entscheidungen zumuten könnte, die ein gewisses Urteilsvermögen voraussetzen? Wenn diese Maschinen in der Lage wären, Probleme selbsttätig zu erkennen und zu lösen? Wäre dies nicht ein weiterer Schritt hin zu ein Gesellschaft, in der die Menschen nur noch das tun, was ihnen zusagt?

In diese Richtung bewegen sich die Vorstellungen von Hans Moravec, Direktor des Labors für mobile Roboter an der amerikanischen Carnegie Mellon Universität. Er eröffnet sein unter Wissenschaftlern heiß diskutiertes, Buch „Mind Children“ mit den Worten: „Ich glaube, daß Roboter mit menschlicher Intelligenz in fünfzig Jahren weit verbreitet sei werden.“

Über die Frage, ob derartige Maschinen jemals ein „Bewußtsein“ entwickeln können, gehen die Ansichten ebenfalls stark auseinander. Moravec ist der Meinung, daß alles was dafür gebraucht wird, ein Modell der Außenwelt sei, das komplex genug ist um die Konsequenzen verschiedener Entscheidungen durchzuspielen. Er glaubt, dass der Zeitpunkt schon abzusehen ist, an dem jede wichtige körperliche oder geistige Funktion des Menschen ein künstliches Pendant haben wird. „In spätestens fünfzig Jahren haben wir den intelligenten Roboter, eine Maschine die denken und handeln wird wie ein Mensch.“

(erschienen in „DIE WELT“ am 13. November 1991)

Neuro-Forscher entdecken die Ethik

Im jüngsten Kino-Kassenschlager, dem „Terminator II„, wird der Zuschauer mit einer recht gewalttätigen Vision geschockt: Intelligente Maschinen, von Menschen erdacht und gebaut, sollen im Jahr 1997 die amerikanische Verteidigung übernehmen. Als die Militärs feststellen, daß die Supercomputer ein eigenes Bewußtsein entwickeln, versucht man den Stecker zu ziehen. Die Maschinen antworten mit einem atomaren Gegenschlag; drei Milliarden Menschenleben werden ausgelöscht.

Die Geschichte von den Robotern, die durchdrehen und die Kontrolle an sich reißen, ist zwar alles andere als neu, dennoch gibt es Grund zur Vorsicht. Als die Computer des amerikanischen Lenkwaffenkreuzers Vincennes am 3. Juli 1988 einen iranischen Airbus nicht von einem Militärjet zu unterscheiden vermochten, verloren 290 Zivilisten ihr Leben. Wenn schon „gewöhnliche“ Technologie zu derartigen fatalen Verwechselungen führen kann, ist dann die Gefahr durch denkende, lernfähige und somit auch unberechenbare Computer nicht ungleich größer?

Eine neue Broschüre des Bundesforschungsministeriums räumt hierzu ein, daß die Anwendungsmöglichkeiten neuronaler Netzcomputer „natürlich auch den Keim zu unkontrollierbarer Eigendynamik“ in sich bergen. Aus diesem Grunde sei eine die technische Entwicklung begleitende Technikbewertung erforderlich, formulierte eine zehnköpfige Expertenkommission. An eine Einschränkung der Forschungstätigkeit oder gar an ein Verbot der Entwicklung neuronaler Netze wird aber nicht gedacht. Zu vielfältig sind offensichtlich die Vorteile der neuen Technologie, die von medizinischen Anwendungen über Spracherkennung und -übersetzung bis hin zur Erkundung des Weltalls reichen, um nur einige Beispiele zu nennen.

Schon länger als die Neuroinformatiker machen sich Biologen und Mediziner Gedanken über die Konsequenzen ihres Tuns. Denn einerseits finden die Resultate der Neurobiologie ja unmittelbaren Eingang bei der Entwicklung künstlicher Neuronaler Netze; andererseits bringt die Erforschung des menschlichen Gehirns auch eine Vielzahl eigener ethischer Probleme mit sich.

Schon die Experimente selbst, die ja in den weitaus meisten Fällen an Versuchstieren durchgeführt werden, stoßen oft auf heftige Kritik in der Öffentlichkeit. Bilder von jungen Katzen oder von Menschenaffen, deren Hirnströme mit Hilfe von implantierten Elektroden gemessen werden, haben – nicht nur auf den Tierfreund – eine stark emotionalisierende Wirkung. Ob die Tiere bei diesen Experimenten nun Schmerz empfinden oder nicht, ob die Experimente zu meßbaren Fortschritten in der Medizin führen und ob diese Art der Nutzung von Mitgeschöpfen mehr oder weniger grausam ist als die gemeinhin akzeptierte Massentierhaltung, danach wird nur in Ausnahmefällen gefragt.

Der Frankfurter Hirnforscher Wolf Singer ist sicher kein Einzelfall: „Wenn Rundfunk oder Fernsehen anrufen, heißt es immer nur: Hier haben wir was gegen Sie vorliegen. Sie können, wenn Sie wollen, um fünf vorbeikommen und noch schnell ein Statement zu Ihrer Verteidigung abgeben.“ Zu komplex sind wohl die Probleme, mit denen die Neuroforscher zu kämpfen haben, zu gering der „Unterhaltungswert“, um die notwendige öffentliche Diskussion anzustoßen, an der beide Seiten brennend interessiert sein sollten.

Denn je mehr wir über die Funktion der grauen Zellen herausfinden, umso größer werden auch die Chancen zur Manipulation. Einer Ratte, der man die Möglichkeit gegeben hatte, durch Tastendruck eine Elektrode im eigenen Hirn zu stimulieren, betätigte den „Lustschalter“ an die 5000-mal in der Stunde – bis sie erschöpft zusammenbrach.

Buchautor Johannes Holler („Das neue Gehirn“) bezeichnet das Hirn zu Recht als den größten Drogenhersteller und -Konsumenten. Die dort hergestellten Botenstoffe verändern im Zusammenspiel mit ihren Ankerplätzen in jeder Sekunde unsere Wirklichkeit; erzeugen Liebe und Lust, Haß und Depression. Rund 70 Botenstoffe und 50 Ankerplätze sind bisher bekannt, und ständig werden neue dazu entdeckt.

Durch die gezielte Entwicklung neuer Medikamente könnte beispielsweise die Wirkung des Rauschgiftes Cannabis aufgehoben werden, indem man den seit kurzem bekannten Ankerplatz blockiert. Auch einem Eiweiß, an dem Kokain seine Wirkung entfaltet, sind die Forscher auf der Spur. Ein Ersatzstoff für Nikotin, das ebenfalls bestimmte Rezeptoren im Gehirn aktiviert, könnte Millionen Raucher von ihrer Sucht befreien.

Doch nicht nur Suchtkranke, sondern auch Millionen von Patienten, die alleine in Deutschland an Depressionen, Schizophrenie, Epilepsie und der Alzheimer´schen Krankheit leiden, wollen die Möglichkeiten der Neuroforschung nutzen. Sie vertrauen darauf, daß unsere Gesellschaft mit den Risiken und Versuchungen dieser Wissenschaft besser zurechtkommt als lustbesessene Laborratten.

(erschienen in „DIE WELT“ am 8. November 1991)