Zum Hauptinhalt springen

Gewalt als Folge einer Kopfverletzung?

Dass gewalttätige Menschen häufiger im Gefängnis landen als friedliche Zeitgenossen dürfte niemanden überraschen. Die Frage, warum jemand eine Körperverletzung begeht, ist aber nicht so einfach zu beantworten. In der Fachzeitschrift Lancet Psychiatry haben Wissenschaftler nun eine Studie veröffentlicht, wonach Frauen, die in schottischen Gefängnissen einsitzen, extrem häufig Kopfverletzungen erlitten haben. Und eben diese Frauen hatten eindeutig häufiger eine Vorgeschichte gewaltsamer Straftaten als andere Insassen ohne Kopfverletzungen.

Im Detail hatten die Forscher die 109 freiwilligen Studienteilnehmerinnen erst gründlich untersucht, und dann in einem Interview befragt. Dabei stellte sich heraus, dass 85 dieser Frauen – also fast 80 Prozent – nach eigenen Angaben in ihrem Vorleben signifikante Kopfverletzungen mit vorübergehender Bewusstlosigkeit erlitten hatten, 71 davon sogar mehrfach, und bei 34 hatte dies zu einer bleibenden Behinderung geführt. Die meisten Verletzungen waren auf häusliche Gewalt zurückzuführen, viele Frauen waren außerdem als Kinder oder Erwachsene misshandelt worden.

Der wichtigste Befund der Studie aber lautet, dass die Frauen mit Kopfverletzungen eindeutiger häufiger Gewalt angewandt hatten. Die Wahrscheinlichkeit dafür war bei ihnen mehr als drei Mal so hoch, wie bei Frauen ohne Kopfverletzungen, und sie saßen dafür im Durchschnitt auch länger im Gefängnis.

Die Untersuchung wurde von der schottischen Regierung finanziert und kommt zu dem Schluss, dass Kopfverletzungen in der Vorgeschichte bei der Entwicklung einer gerechteren Strafordnung berücksichtigt werden sollten.

Quelle:

McMillan TM et al.: Associations between significant head injury and persisting disability and violent crime in women in prison in Scotland, UK: a cross-sectional study. Lancet Psychiatry. 2021 Jun;8(6):512-520. doi: 10.1016/S2215-0366(21)00082-1.

So erkennt man einen Experten

Ob Corona oder Klima, Gentechnik oder Atomkraftwerke – ständig treffe ich auf Facebook, Twitter und in den Medien auf Leute, die als Experten auftreten, obwohl sie offensichtlich keine Ahnung haben. Das frustriert mich nicht nur als Wissenschaftsjournalist, ich sehe darin auch eine echte Gefahr für unsere Gesellschaft. Deshalb habe ich heute mal zur Abwechslung einen kleinen Ratgeber geschrieben, wie man echte Experten von den Großmäulern unterscheiden kann. Bitte nicht missverstehen: Jeder darf und soll seine Meinung frei äußern dürfen; von mir aus auch Verschwörungstheorien und harte verbale Attacken. Nur sollte man dann eben auch bereit sein, sich mit den Argumenten der Gegenseite auseinanderzusetzen. Und damit klar kommen, dass man als Depp dasteht, wenn man offensichtlich Blödsinn erzählt hat.

Also woran erkennt man nun, wer Ahnung hat? Zunächst sollte man schauen, welche Ausbildung die fragliche Person genossen hat, wie viel Erfahrung sie mit dem Thema hat, und ob sie auf dem betreffenden Fachgebiet einen Abschluss hat. Niemand käme auf die Idee, sich von seinem Frisör den Blinddarm ´rausnehmen zu lassen, und die Bremsen meines Autos würde ich lieber in einer Kfz-Werkstatt reparieren lassen, als beim Heilpraktiker.

Wissenschaft wird an Hochschulen gelehrt, und da gibt es natürlich mehr oder weniger gute. Natürlich kann man behaupten, hier oder dort dies oder jenes studiert zu haben. Das kann aber auch jeder Studienabbrecher, und bewiesen ist damit doch eher, dass man es nicht geschafft hat. Erst wer die mehrjährige Ausbildung samt Prüfungen übersteht bekommt einen Titel, und der ist dann geschützt (ausführlich erklärt in der Wikipedia).

Ich möchte mich hier auf die Naturwissenschaften und die Medizin konzentrieren. Da steht auf der untersten Stufe in Deutschland der Bachelor der Wissenschaft (B.Sc., Bachelor of Science) oder des Ingenieurswesens (B. Eng., Bachelor of Engineering). Etwa drei, manchmal auch vier Jahre muss man dafür investieren. Die nächste Stufe (früher der einzige unterhalb des Dr.) ist das Diplom. Laut Wikipedia an einer Fachhochschule oft in 3 Jahren zu erwerben, an einer „richtigen“ Universität netto in 4 – 5 Jahren. Ich habe für meinen Dipl.-Biol. 7 Jahre gebraucht – denkt, was ihr wollt. Das Diplom ist heute Voraussetzung für einen Master wie z.B. den „Master of Science“ (M. Sc.). Der frisst auch noch ´mal 1 oder 2 Jahre Lebenszeit. Von da ab sind es dann nur noch 3, 4, oder 5 Jahre für einen Doktor-Titel wie z.B. den für Naturwissenschaften (Dr. rer. nat) oder für Medizin (Dr. med.). Der Professor schließlich ist kein akademischer Grad, sondern der Ausweis dafür, dass man an einer Hochschule/Uni lehren darf.

Das ist natürlich nur ein erster Anhaltspunkt. Natürlich gibt es gute und schlechte, fleißige und faule Bachelors, Doktoren und Professoren und ebenso schwankend ist auch die Qualität der Master-, Diplom- und Doktorarbeiten. Wie gut, dass es ein wunderbares und noch dazu kostenloses Instrument gibt, um die wissenschaftliche Leistung einer Person abzuschätzen. Es nennt sich PubMed, und dahinter verbirgt sich die weltweit größte Sammlung von Literaturzitaten in der Biomedizin. Etwa 30 Millionen Einträge hat der aus amerikanischen Steuergeldern finanzierte, englischsprachige Service. Jeder Eintrag listet den oder die Autoren, den Titel, und die Fachzeitschrift, wo die Arbeit erschienen ist, meist auch eine kurze Zusammenfassung, sowie einen Link zur Originalveröffentlichung (die dann allerdings oftmals Geld kostet, wenn man sie in voller Länge lesen möchte). Gibt man in das Suchfeld zum Beispiel „coronavirus“ ein, so sieht man Folgendes:

Die Suche nach dem Begriff „coronavirus“ liefert mehr als 20000 Einträge

Ganz oben auf der Ergebnisseite steht die Zahl der Treffer (20083). Die Grafik auf der linken Seite zeigt, wann diese Publikationen erschienen sind, und wie viele pro Jahr. Mit den Kästchen darunter kann man die Suche weiter einengen – zum Beispiel auf vollständige Texte, die kostenlos verfügbar sind („Free full text“ anklicken).

Aber woher weiß ich jetzt, ob beispielsweise Professor Christian Drosten wirklich Ahnung von Coronaviren hat, oder nur ein Poser ist? Dazu gibt man den Nachnamen ein, gefolgt von dem ersten Buchstaben des Vornamens. Also „Drosten C“. Auf Anhieb liefert mir diese einfache Suche 381 Ergebnisse! PubMed selbst hat die Treffer nach Wichtigkeit sortiert und hat oben eine Veröffentlichung platziert, die noch keine 6 Wochen alt ist. Wer sich auskennt sieht auch, dass sie in einem der renommiertesten Medizinjournale erschienen ist, dem New England Journal of Medicine, und noch dazu ist sie kostenlos.

Eindrucksvoll: Die Publikationsliste von Prof. Christian Drosten auf PubMed.

Natürlich sind nicht alle Facharbeiten, die Drosten bisher geschrieben hat, über das Coronavirus. Um nur diese zu sehen, verfeinern wir unsere Suche. Das geht ganz einfach mit der Formel „drosten c AND coronavirus“. Es bleiben noch immer 146 Veröffentlichungen übrig, was uns beweist, dass wir hier einen echten Experten vor uns haben.

Weil wir gerade dabei sind, checken wir nach dem gleichen Prinzip noch einen weiteren bekannten deutschen Mikrobiologen, Professor Alexander S. Kekulé.  Ich sehe 32 Veröffentlichungen, ein paar zum Zika-Virus, einen über Ebola, aber keinen einzigen über Coronaviren. Dann schon lieber Professor Lothar Wieler, Präsident des Robert-Koch-Instituts und zusammen mit Drosten derzeit wohl der einflussreichste Wissenschaftler, der die Bundesregierung in Sachen Coronavirus berät. Dem wird zwar von Kritikern gerne vorgehalten, dass er ja „nur“ ein Veterinärmediziner sei, aber auch Wieler hat eine beeindruckende Publikationsliste mit 241 Einträgen, wenn auch nur 3 zu Coronaviren.

Weil ich mich so geärgert habe jetzt noch ein Mann, der definitiv kein Experte für Coronaviren ist: Dr. Wolfgang Wodarg. Der durfte sich 10. März 2020 in der ZDF-Sendung Frontal21 über die Quarantänemaßnahmen und Verbotsregelungen verbreiten, bezeichnete dies als „Panikmache“ und erklärte, für Coronaviren bräuchte es keine besonderen Schutzvorkehrungen oder Tests. Ein positiver Corona-Befund habe keine klinische Bedeutung.

Leider kein Experte für Coronaviren: Dr. Wolfgang Wodarg, der im ZDF von Panikmache sprach.

Wodarg hat genau 2 Publikationen auf PubMed vorzuweisen, eine aus dem Jahr 1989 und eine von 2015. Keiner dieser Beiträge hat auch nur im entferntesten mit Viren zu tun, und ich habe mich einmal mehr gefragt, was das eigentlich für Leute sind, die beim öffentlich-rechlichen Rundfunk derartige Beiträge zu verantworten haben.

Nachwort: Natürlich können auch Experten irren. Um die Corona-Krise zu überwinden braucht es nicht nur Virologen und Epidemiologen, Ärzte und Pfleger, sondern auch Spezialisten auf vielen anderen Gebieten. Die Guten erkennt man oft daran, dass sie sich ihrer Grenzen bewusst sind. An Sätzen wie: „Das weiß ich nicht“, „das ist nicht mein Fachgebiet“, oder „dazu kann ich nichts sagen“. Es sind Sätze, die ich gerne öfter hören würde.

Reiche Frauen leben am längsten

Über Ungleichheit wird zu Recht viel diskutiert. Beim wertvollsten Gut – unserer Lebenserwartung – gibt es mindestens zwei Dinge, die entscheidend sind.

Reich zu sein ist das Eine. Eine Frau zu sein das Andere. Und am besten ist die Kombination aus beidem: Wie jetzt eine Studie ergab, leben die reichsten Norwegerinnen im Durchschnitt fast 16 Jahre länger als die ärmsten Norweger.

Hintergrund der Studie war eigentlich die Frage, ob soziale Ungleichheit in einem Land das Leben verkürzt. Dafür verglich man Norwegen, wo das reichste Prozent der Einwohner acht Prozent des Gesamteinkommens bezieht, mit den USA, wo die entsprechende Gruppe 20 Prozent des Gesamteinkommens auf sich vereinigt.

Jonas Minet Kinge vom Norwegischen Institut für öffentliche Gesundheit und seine Kollegen nutzten dafür die Informationen zum Haushaltseinkommen pro Person, zur Lebenserwartung und zur Todesursache aus vier miteinander vernetzten norwegischen Datenbanken. Um Verzerrungen durch Kinder zu vermeiden, die auf Kosten ihrer Eltern leben, beschränkten sie die Analyse auf Personen ab 40 Jahren.

Am längsten lebten demnach mit 86,4 Jahren jene Frauen, die zu dem einen Prozent der Top-Verdiener zählten. Frauen mit maximal 10 Prozent des Durchschnittseinkommens lebten dagegen im Schnitt 8,4 Jahre weniger, also 78 Jahre. Damit konnten sie sich aber immer noch deutlich länger des Daseins freuen als Männer in der gleichen Einkommensgruppe. Die hatten nämlich im Durchschnitt nur 70,6 Jahre zu erwarten – also 7,4 Jahre weniger als die „armen“ Frauen; 13,8 Jahre weniger als die reichen Männer und 15,8 Jahre weniger als die reichen Frauen.

Soziale Ungleichheit alleine reicht nicht aus, um die frappierenden Unterschiede zu erklären. So hatten Norweger mit geringem und mittlerem Einkommen zwar eine höhere Lebenserwartung als US-Amerikaner im gleichen Einkommensbereich. Betrachtet man jedoch die Gesamtbevölkerung, so waren die Unterschiede im Verhältnis zum Einkommen in beiden Ländern ähnlich stark ausgeprägt. Diese, in beiden Ländern ähnlich große „Schere“ spricht gegen die Annahme, dass ein staatliches Gesundheitswesen (wie in Norwegen) per se gerechter sein muss. Auch die soziale Ungleichheit der beiden Gesellschaften taugt nicht für eine Erklärung. Die lässt sich nämlich mit dem sogenannten Gini-Koeffizienten messen – und da müsste Norwegen auf Platz 4 eigentlich viel besser abschneiden als die USA auf Platz 31.

Kinge JM et al.: Association of Household Income With Life Expectancy and Cause-Specific Mortality in Norway, 2005-2015. JAMA. 2019 May 13.

Sich regen? Von wegen!

Eine, vom Nationalen Krebsinstitut mitfinanzierte, Langzeitstudie zeigt, dass US-Amerikaner unverändert lange auf ihrem Hintern sitzen. Damit verbringen sie sechs bis acht Stunden täglich – eine Zeitspanne, die sich zwischen 2001 und 2016 kaum verändert hat.

Herausgefunden hat dies ein Team um die Epidemiologin Dr. Lin Yang von der Forschungsstelle Cancer Epidemiology and Prevention Research, CancerControl Alberta (Kanada). Sie wertete die Daten aus einer regelmäßig stattfinden landesweiten Umfrage aus, dem National Health and Nutrition Examination Survey. Unter den fast 52000 Studienteilnehmern waren 10359 Kinder, 9639 Jugendliche und 31898 Erwachsene. Die Daten beruhten allerdings nicht wie heute üblich auf der Auswertung von Fitnessarmbändern, sondern auf der Selbsteinschätzung der Befragten.

Dabei kam heraus, dass im letzten Erfassungszeitraum 2015/2016 unter den Kindern 62 Prozent täglich mindestens zwei Stunden Fernsehsendungen oder Videos anschauten.  Unter den Jugendlichen war dieser Anteil mit 59 Prozent und bei Erwachsenen mit 65 Prozent ähnlich groß, und bei den Rentnern ab 65 Jahren lag er sogar bei 85 Prozent.

Im Vergleich der Jahre seit 2001 hatte es bei den Kindern zwar eine leichte Abnahme gegeben (um 3,4 Prozentpunkte), dafür schauten die Senioren im Schnitt aber 3,5 Prozent länger, sodass die Gesamtbilanz unverändert blieb.

In allen Altersgruppen zugenommen hat der Anteil derjenigen, die täglich außerhalb der Arbeit oder Schule für mindestens eine Stunde am Computer saßen. Bei Kindern stieg dieser Anteil von 43 auf 56 Prozent, bei Jugendlichen von 53 auf 57 Prozent, und bei Erwachsenen gar von 29 auf 50 Prozent.

Experten und Fachgesellschaften haben wiederholt vor den Gefahren des zu langen Sitzens gewarnt („Sitzen ist das neue Rauchen“). Klar ist, dass zu wenig Bewegung insbesondere das Risiko für Herzkrankheiten erhöht. Genutzt haben die Appelle jedoch wenig. Im Gegenteil lief der Trend – zumindest in den USA – im vergangenen Jahrzehnt in die falsche Richtung. Als die Forscher für die aktuelle Erhebung die Gesamtsitzzeiten in den Jahren 2007 bis 2016 verglichen, fanden sie bei den Jugendlichen eine Zunahme von 7 auf 8,2 Stunden täglich und für Erwachsene von 5,5 auf 6,4 Stunden täglich. Selbst diese Zahlen könnten das wahre Ausmaß der „Sitzepidemie“ noch unterschätzen. Für die aktuelle Auswertung hatte man nämlich weder die Zeit am Telefon noch das Lesen von Büchern berücksichtigt.

Yang L et al.: Trends in Sedentary Behavior Among the US Population, 2001-2016. JAMA. 2019 Apr 23;321(16):1587-1597. doi: 10.1001/jama.2019.3636.

USA: Pharmawerbung nimmt Patienten ins Visier

Umgerechnet 8,5 Milliarden Euro haben Pharmafirmen, Gerätehersteller und Verbände im Jahr 2016 in den USA ausgegeben, um direkt bei kranken Menschen und anderen „Verbrauchern“ für ihre Produkte zu werben. Die Ausgaben für diese sogenannte „Direct-to-Consumer (DCT)“-Werbung haben sich damit in nur 20 Jahren mehr als vervierfacht. Insgesamt wurden rund 30 Milliarden Dollar ausgegeben – das entspricht 26 Milliarden Euro.

Dies ist das Ergebnis einer Analyse der Gesundheitsforscher Lisa M. Schwartz und Steven Woloshin, die im Fachblatt JAMA des US-amerikanischen Ärzteverbandes veröffentlicht wurde. Während es in Deutschland und fast allen anderen Ländern verboten ist, rezeptpflichtige Medikamente direkt beim Verbraucher zu bewerben, ist dies in den USA erlaubt. Alleine für diesen Bereich wurden im Jahr 2016 insgesamt 4,6 Millionen Anzeigen geschaltet, davon 663.000 im Fernsehen. Der Trend, so berichten Schwartz und Woloshin, geht dabei immer mehr zu besonders teuren Behandlungen wie Immuntherapien gegen Krebs und biotechnologisch hergestellten Medikamenten.

Mit 20 Milliarden Dollar waren die Werbemaßnahmen für medizinische Fachkräfte zuletzt zwar etwa doppelt so hoch wie für die DTC-Werbung. Deren Anteil ist aber von ursprünglich 12 Prozent auf 32 Prozent gewachsen. Bei den Kampagnen geht es nicht nur darum, Ärzte und Patienten vom Nutzen bestimmter Pillen, Untersuchungen oder Labortests zu überzeugen. Teilweise zielen sie auch darauf ab, die Definition bestimmter Krankheiten zu verändern, sodass mehr Personen für eine Behandlung in Frage kommen.

Unter allen Ländern der Welt haben die USA im Verhältnis zum Bruttosozialprodukt mit 16,8 Prozent die zweithöchsten Gesundheitskosten. In Deutschland sind es 11,2 Prozent.

Kombiprogramm hält Senioren länger fit

Wie kann man die Selbstständigkeit von Senioren erhalten, die noch in ihrer eigenen Wohnung leben, aber schon Probleme mit Alltagsaktivitäten haben, wie zum Beispiel kochen, das Bett oder die Wäsche zu machen? Diese Frage haben sich Forscher und Ärzte an der Johns-Hopkins-Universität im US-amerikanischen Baltimore gestellt. Das Besondere daran ist, dass das Team um Professor Sarah L. Szanton sich nicht mit gut gemeinten Ratschlägen begnügte, sondern die Wirkung der vorgeschlagenen Maßnahmen systematisch ausgetestet und bewiesen hat.

In einer sogenannten randomisierten klinischen Studie verteilten sie 300, meist weibliche, Senioren ab 65 Jahren nach dem Zufallsprinzip auf 2 Gruppen. Beide Gruppen bekamen innerhalb von 5 Monaten 10 Mal Besuch. Während jedoch in der einen Gruppe lediglich ein Forschungsassistent vorbei schaute, der mit den Senioren darüber sprach, welche Aktivitäten sie gerne lernen oder ausüben möchten, bekam die andere Gruppe Besuch von bis zu 3 Spezialisten, die sich untereinander über die beste Vorgehensweise abstimmten: Ein Ergotherapeut, eine Krankenschwester, und ein Handwerker.

Das Programm trägt den Namen “Community Aging in Place—Advancing Better Living for Elders”, was sich etwa mit “Altern daheim – für ein besseres Leben der Senioren“ übersetzen lässt und mit CAPABLE (englisch für „fähig“) abgekürzt wird. Zuerst prüft der Ergotherapeut dabei, unter welchen Einschränkungen die Betroffenen leiden, welche Ziele sie haben, und inwiefern die Wohnungseinrichtung dabei hinderlich ist. Die Krankenschwester fragt nach Beschwerden wie Schmerzen, Depressionen, den eingenommen Medikamenten sowie Kraft und Balance. Gemeinsam wird dann überlegt, wie man den Senioren helfen kann, die selbst gesteckten Ziele zu erreichen – einschließlich von Reparaturen im Haus und baulichen Veränderungen, die das Leben erleichtern sollen.

Gemessen wurde das Ergebnis auf einer Skala, die die Fähigkeit beschreibt, Aktivitäten des täglichen Lebens (engl. Activities of daily live, ADL) zu bewältigen. Die Schwere der so erfassten Behinderungen verringerte sich dabei in der intensiv betreuten Gruppe um 30 %. Jeweils etwa 80 Prozent der Senioren in dieser Gruppe sagten auf Nachfrage, ihr Leben sei jetzt leichter geworden, sie könnten sich jetzt besser um sich selbst kümmern, und sie hätten mehr Vertrauen darin, die täglichen Aufgaben zu meistern. In der Vergleichsgruppe hatten dagegen nur etwa halb so viele Senioren (etwa 40 %) entsprechende Verbesserungen bemerkt.

Gekostet hat das „Rundum-Paket“ etwas weniger als € 2500 pro Teilnehmer. Darin eingeschlossen waren die Reparaturen und Veränderungen der Wohnung, die man auf etwa € 1100 Euro begrenzt hatte. Finanziert wurde die Studie von den US-Nationalen Gesundheitsinstituten (National Institutes of Health, NIH).

Begeistert kommentieren die beiden Altersmediziner Marlon J.R. Aliberti und Kenneth E. Covinsky die der Fachzeitschrift JAMA Internal Medicine erschienene Studie: CAPABLE sei ein innovatives Programm, um die Behinderungen und Einschränkungen bei älteren Menschen mit niedrigem Einkommen zu verringern. Außerdem rechnen sie vor, dass CAPABLE zumindest in den USA auch helfen könnte, die Kosten für das Gesundheitswesen zu senken. Ein Platz in einem Pflegeheim wird dort nämlich mit umgerechnet etwa € 4400 Euro pro Monat veranschlagt. Man würde also fast das Doppelte der Programmkosten einsparen, wenn es damit gelänge, die Einweisung um durchschnittlich auch nur einen Monat zu verzögern.

Quellen:

  • Szanton SL et al.: Effect of a Biobehavioral Environmental Approach on Disability Among Low-Income Older Adults: A Randomized Clinical Trial. JAMA Intern Med. 2019 Jan 7. doi: 10.1001/jamainternmed.2018.6026.
  • Aliberti MJR, Covinsky KE. Home Modifications to Reduce Disability in Older Adults With Functional Disability. JAMA Intern Med. 2019 Jan 7. doi: 10.1001/jamainternmed.2018.6414.

Lehrreicher Krankenhausreport

Wie gut sind unsere Krankenhäuser? Diese Frage hat Utta Seidenspinner im Auftrag des ZDF untersucht, und weil mich diese Frage beruflich ebenso wie privat interessiert habe ich die gleichnamige 45 Minuten lange Sendung angeschaut, kritisch hinterfragt und – auch für Sie – das Wichtigste mitgeschrieben.

Beginnen wir mit einigen Fakten: Fast 2000 Krankenhäuser gibt es in Deutschland, jeweils etwa ein Drittel davon sind kommunale Einrichtungen, sie haben gemeinnützige Träger, oder es handelt sich um Privatkliniken. In den 2000 Krankenhäusern stehen eine halbe Million Betten, etwa 30 Prozent davon sind leer.

Geht Profit vor Patientenwohl? Diese Frage stand im Mittelpunkt der Sendung, und dazu sollte man wissen, dass fast 40 Prozent aller Häuser Verluste machen und 20 Prozent die Schließung wegen Pleite droht. Das Geld ist also knapp, obwohl jeder dritte Euro aus unseren Kassenbeiträgen in die Krankenhäuser fließt. Eine mögliche Lösung wären vielleicht höhere Beiträge – aber wer will die schon bezahlen? Schon jetzt erhalten die Kliniken jährlich 87 Milliarden Euro.

Ursprünglich hatten die Kliniken bei der Abrechnung ihrer Leistungen Tagessätze zugrunde gelegt. Vor 13 Jahren wurde das System dann umgestellt auf Fallpauschalen. Das bedeutet, dass es für jede Diagnose bzw. jeden Eingriff (wie z.B. einen entzündeten Blinddarm, der in einer Operation entnommen wird), einen festen Betrag gibt, egal wie lange der Patient dafür in der Klinik bleiben muss. So entstand der wirtschaftliche Anreiz, schneller und effizienter zu arbeiten, aber auch mehr Eingriffe zu machen. Vor allem solche mit besonders attraktiven Fallpauschalen.

Die Folgen waren absehbar: Früher mussten die Kliniken ihre Patienten möglichst lange behalten, wenn sie viel Geld verdienen wollten. Heute kommt es darauf an, möglichst viele in möglichst kurzer Zeit zu „verarzten“. Die durchschnittliche Aufenthaltsdauer in der Klinik ist drastisch gesunken. Wie das Statistische Bundesamt kürzlich berichtete waren es im Jahr 2015 nur noch 7,4 Tage gegenüber fast doppelt so vielen (14) im Jahr 1991. Die Zahl der Klinken verringerte sich im gleichen Zeitraum von 2411 auf 1980. Gleichzeitig stieg aber die Zahl der Operationen auf 16 Millionen im Jahr. Die ambulanten Eingriffe verdreifachten sich sogar im Zeitraum 2003 bis 2013, wie eine weitere Statistik belegt.

Jetzt aber genug der Zahlen. Der Verdacht steht im Raum, dass der wirtschaftliche Druck auf den Krankenhäusern zu Lasten der Patienten geht, und dass sich eine Zwei-Klassen-Medizin entwickelt, bei der die besser zahlenden Privatpatienten gegenüber den gesetzlich Versicherten bevorzugt werden.

Getestet haben die Macher der Sendung ihre Vermutung, indem sie zwei verschiedene Patienten in einem Münchner Klinikum begleiteten: Eine gesetzlich versicherte Hausfrau und ein privat versicherter Geschäftsmann, die aber beide wegen eines Bandscheibenvorfalls operiert werden mussten. Tatsächlich wurden beide im selben OP von dem selben Chirurgen operiert. Das Team umfasste jeweils sechs Personen und auch die benutzten Gerätschaften waren identisch. „Wir stellen fest: Der medizinische Aufwand ist der Gleiche.“ Dies bescheinigt auch der befragte Experte, Prof. Klaus-Dieter Zastrow.

Bei Verpflegung und Unterkunft gab es sehr wohl Unterschiede. Einzel- versus Mehrbettzimmer, mehr oder weniger gutes Essen,. Und natürlich die freie Arztwahl als „Bonus“ für die Privatversicherten. Dabei muss eine Chefarztbehandlung nicht unbedingt besser sein, sagt der Gesundheitsökonom Prof. Gerd Glaeske.

Ein weiterer Test soll die Frage beantworten, ob wegen der finanziellen Anreize zu viel operiert wird. Dieser Verdacht besteht insbesondere bei den jährlich 155000 Knie- und 212000 Hüftoperationen, sowie den 150000 Bandscheiben-Operationen.

Also lässt man einen Testpatienten mit vorgeschädigtem Knie zunächst bei einem medizinischen Gutachter beraten.  Der hält eine Operation für unnötig und rät eher zu einer Physiotherapie. Den gleichen Rat erhält der Testpatient in allen drei Kliniken, die er besucht. Dies obwohl doch eine Physiotherapie für die Klinik viel weniger Einnahmen bedeutet, als eine Operation…

Die These von den kommerzgetriebenen Kliniken (und Ärzten) ist damit aber nicht vom Tisch. Es folgt ein Bericht über einen frühgeborenen Jungen, der offenbar zu spät in eine Spezialklinik verlegt wurde, weil das Geburtskrankenhaus seine Möglichkeiten überschätzte. Ob bei der Verzögerung wohl eine Rolle spielte, dass die Versorgung von Frühchen besonders gut honoriert wird?

Der Abbau des Pflegepersonals wird ebenfalls angesprochen. Die wohl schwächsten Glieder in der Versorgung-Kette sind doppelt so häufig krank wie der Durchschnitt der Berufstätigen; ein Drittel sei vom Burn-Out gefährdet. Spätestens an dieser Stelle wird es fast unmöglich, dies nicht am Personalabbau und falschen finanziellen Anreizen für die Klinikbetreiber festzumachen.

Dass wir Patienten ebenfalls kräftig an der Kostenspirale drehen, zeigt ein Blick in eine Notaufnahme. Hier finden sich nämlich auch zahlreiche Mitmenschen ein, die mit ihren eher harmlosen Beschwerden nicht warten wollen, bis sie einen Termin beim Facharzt bekommen. Und jeder fünfte Patient hier könnte ebenso gut zu seinem Hausarzt gehen, so das Ergebnis einer Auswertung.

Schließlich wird auch noch eine Sorge diskutiert, die meines Erachtens wegen einer oft reißerischen Berichterstattung viele Menschen umtreibt: Wie groß ist die Gefahr durch Keime im Krankenhaus? Schön, dass man hier einen Rückblick eingebaut hat, der auf die enorm gestiegene Lebenserwartung von mittlerweile 80 Jahren verweist. Hygienemaßnahmen hätten erheblich dazu beigetragen, erinnert die Sprecherin. Doch das Problem ist ungelöst.

„Bis zu 900000 Menschen infizieren sich jährlich bei einem Klinikaufenthalt, schätzungsweise 30000 sterben daran.“

Dass die Keime gegen Arzneien unempfindlich werden ist der oftmals zu häufigen und ungenauen Gabe von Antibiotika geschuldet. Weil Hygienemaßnahmen wie das ständige Händewaschen und Desinfizieren zeitaufwändig sind, fällt es Ärzten und Pflegepersonal schwer, alle Regeln einzuhalten, berichtet anonym eine Krankenschwester aus eigener Erfahrung.

Wie sich die Keime verbreiten, wird anschaulich dargestellt. Dazu gehört auch der Hinweis, dass Bakterien und Viren häufiger von außen eingeschleppt werden, als in der Klink abgeholt. Etwa fünf Prozent der Patienten tragen jene Erreger am Leib, mit denen das Personal dann zu kämpfen hat. Sie verbreiten sich zum Beispiel über Türgriffe oder die Knöpfe im Aufzug, aber auch durch Ärzte, die auf Visite von einem Krankenhauszimmer zum nächsten gehen.

Dass eine Reporterin sich als Reinigungskraft getarnt in einem Krankenhaus umsieht und heimlich Proben zieht, darf man wohl als investigativen Journalismus bezeichnen. Später berichtet sie, dass sie statt einer fachgerechten Einweisung ein Formblatt erhalten hat mit dem Hinweis, sie müsse das zwar unterschreiben, aber jetzt nicht alles durchlesen.

Eine obligatorische Pflichtschulung drei Wochen nach Dienstbeginn sei aber eingeplant gewesen, rechtfertigt sich das Klinikum. Experte Zastrow stuft bestimmte Sparmaßnahmen wie eine zu geringe Anzahl an Putzlappen und unterdosierte Desinfektionsmittel als „skandalös“ ein. Ähnliche Zustände herrschen wohl auch an anderen Krankenhäusern, sagen die Experten. Die beanstandete Klinik relativiert die Ergebnisse des verdeckten Test und argumentiert, es seien nur geringe Keimbelastungen gewesen und keine Ansteckungen bekannt geworden.

Trotzdem lautet die Schlussfolgerung: „Das Risiko, sich mit einem Krankenhauskeim anzustecken, ist in Deutschland relativ hoch. Viele Fälle wären durch eine gründlichere Desinfektion vermeidbar. Regeln gibt es genug, doch die Umsetzung kostet Geld, und der Sparzwang ist groß.“

Zur besseren Einordnung hätte man meines Erachtens aber durchaus erwähnen können, dass Zastrow Mitglied dreier Fachgesellschaften ist, die schon seit langem für eine Besserstellung von Hygienikern in deutschen Kliniken kämpfen. Samt entsprechender Bezahlung, versteht sich. Im Abspann werden dann die entdeckten und vermuteten Mängel nochmals aufgezählt, doch endet der Beitrag mit einer positiven Note:

„andererseits werden in unseren Krankenhäusern in jedem Jahr Millionen Menschen behandelt und geheilt. Auch Dank innovativer Spitzenmedizin“.

Insgesamt eine wohltuend unaufgeregte Sendung zu einem lebenswichtigen Thema. Aufklärung und verantwortungsvoller Journalismus im besten Sinne. Wäre da nicht die reißerische, klischeebeladene Ankündigung der Sendung gewesen, hätte ich fast gesagt: „Na also, ZDF. Geht doch.“

Quelle: Wie gut sind unsere Krankenhäuser? ZDF, 1.3.2016. Im August 2016 noch unter ZDFmediathek

Rezepte gegen das Waldsterben

Der Wald kommt unter die Räder. So lautete bisher die auf den Punkt gebrachte Befürchtung von Naturschützern, Umweltforschern und Forstbesitzern. Immer deutlicher wurde in den letzten Jahren, daß die beachtlichen Erfolge bei der Luftreinhaltung zunichte gemacht werden durch die scheinbar unaufhaltsame Zunahme der Verkehrs, durch unser aller Drang nach der Freiheit auf den eigenen vier Rädern.

Gewachsen ist aber auch die Einsicht, daß die früher als „natürlich“ eingestuften Abfälle einer hochtechnisierten Landwirtschaft dem deutschen Wald heute nicht weniger schaden als die rauchenden Schornsteine der Nachkriegsjahre.

In zehn Jahren Waldschadensforschung  wurden gut 700 Projekte von Bund, Ländern und der Deutschen Forschungsgemeinschaft finanziert, auf etwa 360 Millionen Mark beläuft sich inzwischen die Rechnung. Dazu kommen 420 Millionen Mark aus Steuergeldern für „flankierende forstliche Maßnahmen“, die es den Waldbesitzern ermöglichen sollten, die Widerstandsfähigkeit der Waldökosysteme zu erhalten und zu verbessern. Eine schmerzfreie und billige Lösung des Problems ist dennoch nicht in Sicht.

„Die Forstwirtschaft hat relativ wenige Möglichkeiten, zu reagieren. Die Wälder sind den Emissionen schutzlos preisgegeben“, sagt Professor Karl Kreutzer vom Lehrstuhl für Bodenkunde der Forstwirtschaftlichen Fakultät der Universität München. Auch die Kalkung, mit der die Versauerung der Böden bekämpft werden soll, ist kein Allheilmittel. Auf seinen Versuchsflächen im Höglwald zwischen München und Augsburg wies Kreutzer nach, daß vermehrt Nitrat gebildet wird. Die Ionen werden mit dem Regen ausgeschwemmt und stellen eine langfristige Bedrohung für das Trinkwasser dar.

Zu den trüben Zukunftsaussichten kommt die Tatsache hinzu, daß die bisherigen Maßnahmen zur Luftreinhaltung am Gesundheitszustandes des deutschen Waldes wenig zu ändern vermochten. Während sich Nadelbaumarten seit Jahren langsam erholen, geht es mit den wichtigsten Laubbäumen weiter bergab. Dabei wurden in den letzten 15 Jahren eine ganze Reihe von Gesetzen und Verordnungen erlassen, die oftmals mit hohen Erwartungen verknüpft waren:

Noch zu Beginn der achtziger Jahre wurden in der alten Bundesrepublik weit über drei Millionen Tonnen Schwefeldioxid jährlich in die Luft geblasen, von denen vier Fünftel auf das Konto von Kraftwerken und Industrie gingen. Mit der Großfeuerungsanlagen-Verordnung von 1983 ging die Ära der rauchenden Schornsteine dann zu Ende. Vor allem der Einführung von Rauchgas-Entschwefelungsanlagen ist es zu verdanken, daß die SO2-Emissionen der alten Bundesländer mittlerweile um siebzig Prozent zurückgegangen sind. Durch Betriebsstilllegungen und die Umrüstung bestehender Anlagen klärt sich der Himmel über Ostdeutschland deutlich schneller, doch liegen noch keine neuen Zahlen vor.

Ob die bisherigen Anstrengungen dem Wald geholfen haben, ist schwer zu beurteilen. Wie Professor Wolfram Elling an der Fachhochschule Weihenstehphan in Freising zeigen konnte, scheint es bei Tannen und Fichten schon in der ersten Hälfte der achtziger Jahre zu einer Art Trendwende gekommen zu sein. An der besonders stark von den neuartigen Waldschäden betroffenen Weißtanne ließ sich dies an den immer breiter werdenden Jahresringen ablesen.

Allerdings gilt diese Beobachtung nur für noch erholungsfähige Bäume, wie der Dendrochronologe betont. Aber während Frost und Dürre für das Sterben der Weißtannen ebenso wie die Versauerung der Böden anscheinend nur von untergeordneter Bedeutung sind, ist der Zusammenhang zwischen örtlicher Schwefelbelastung und dem Schädigungsgrad dieser Baumart eindeutig.

Ein weiterer Hinweis darauf, daß die Reduktion des Schwefeldioxidausstoßes zumindest eine Entlastung für den Wald gebracht hat, stammt von Untersuchungen, bei denen die Nadelmasse von Fichten im Flachland bestimmt wurde. Sie nahm etwa ab 1985 so stark zu, daß die früheren Verluste heute kaum mehr zu erkennen sind. „Erholungsfähige“ Bäume, die auf 800 Metern Höhe im Fichtelgebirge geschlagen wurden, zeigen außerdem den bereits bei den Weißtannen beobachteten Zuwachs in der Breite der Jahresringe. „Die sehr deutliche Drosselung der Schwefeldioxidemissionen während des letzten Jahrzehnts kann hier mitspielen, liefert aber keine ausreichende Erklärung“, relativiert Professor Elling.

Eine Reduktion der Stickoxide hatte man sich von der im Sommer 1983 beschlossenen Einführung des Katalysators bei Personenkraftwagen erhofft. Die Vereinigten Staaten und Japan hatten zu diesem Zeitpunkt schon vorexerziert, daß der Ausstoß dieser Gase am Einzelfahrzeug durch den Einbau des Kat um 90 Prozent veringert werden kann. Dagegen hatten sich die NOx-Emissionen aus dem bundesdeutschen Kraftfahrzeugverkehr zwischen 1970 und 1982 fast verdoppelt: 1,4 Millionen Tonnen Stickoxide jährlich strömten damals durch den Auspuff in die Umwelt. Mit steuerlichen Anreizen und der europaweiten Einführung von bleifreiem Benzin hoffte man, diesen Betrag bis 1990 mindestens zu halbieren.

Inzwischen hat sich diese Kalkulation aber als Milchmädchenrechnung erwiesen, die Emissionen sind gegenüber 1982 um ein Drittel gestiegen. Seit der Einführung des Katalysator-Autos vor zehn Jahren wuchs die Zahl der Pkw in den alten Bundesländern von 24 auf über 32 Millionen. Die wiedervereinigten Deutschen legten 1991 zusammen 866 Milliarden Kilometer zurück, das entspricht etwa 6000 Mal der Entfernung von der Erde zur Sonne. Vier von fünf Kilometern wurden dabei im Auto gefahren, mit steigender Tendenz seit 1970.

Zwar werden mittlerweile 99 Prozent aller neuzugelassenen Pkw mit geregeltem Drei-Wege-Kat ausgeliefert, auf den Straßen rollen aber momentan noch sechs von zehn Karossen „hinten ohne“. Verschärfend kommt noch hinzu, daß der durchschnittliche Verbrauch der in Deutschland zugelassenen Pkw 1991 noch immer 9,9 Liter auf 100 Kilometer betrug, gegenüber 10,7 Litern im Jahre 1975. Die technischen Verbesserungen der letzten 16 Jahre kamen also nicht der Umwelt zugute sondern gingen laut einer Erklärung des Umweltbundesamtes einher mit einem „Trend zu leistungsstärkeren und schwereren PKW, die mit höheren Geschwindigkeiten gefahren werden.“

Für den Vorsitzenden des Bund für Umwelt und Naturschutz Deutschland (BUND), Hubert Weinzierl, stellt sich daher die Frage: „Sind wird bereit, den Wald unserer überbordenden Mobilität zu opfern?“. Auch Waldschadensforscher Kreutzer fordert „nicht nur den Kat, sondern kleinere Autos mit geringerem Treibstoffverbrauch.“

Die im Juli angekündigte sogenannte Sommersmogverordnung aber bringt in dieser Hinsicht keine Verbessserung. Im Auftrag der Bundesregierung hatte das Umweltministerium einen Entwurf ausgearbeitet, nach dem „Konzentrationswerte“ für Stickoxide, Benzol und Ruß ab Juli 1995 in Kraft treten und drei Jahre später nochmals verschärft werden sollen. Die örtlichen Behörden dürfen bei Überschreiten der Werte auf die Bremse treten und den Verkehr durch Umleitungen, Straßensperren, Geschwindigkeitsbeschränkungen und Fahrverbote drosseln.

Der Anreiz zum Kauf eines Katalysatorautos besteht darin, daß diese von Fahrverboten verschont bleiben sollen. Ursprünglich wollte Umweltminister Klaus Töpfer die schärferen Werte schon zum früheren Datum durchsetzen. Wie frustrierte Mitarbeiter hinter vorgehaltener Hand bekennen, scheiterte der Vorstoß aber am Widerstand der Ministerien für Verkehr und Wirtschaft, die zudem noch die Stimme des Kanzlers auf ihrer Seite wußten.

Durch die Sommersmogverordnung werden in erster Linie die Anwohner vielbefahrener Straßen entlastet. Sie dürfen darauf hoffen, in Zukunft weniger Gifte schlucken zu müssen. „Eine deutliche Minderung der Emissionen von Vorläufersubstanzen für Ozon“, wie sie Umweltminister Klaus Töpfer erwartet hält Dr. Holger Brackemann, Pressesprecher im Umweltbundesamt, aber für unrealistisch. Selbst bei weitgehenden Sperrungen der Innenstädte ergäben sich lediglich Veränderungen im Prozentbereich. Nötig seien aber Reduktionen um 70 bis 80 Prozent, hieß es bei der Behörde, die unter anderem für die wissenschaftliche Beratung des Umweltministers verantwortlich ist.

Derzeit liegt die Sommersmogverordnung ohnehin auf Eis. „Sie wird auf absehbare Zeit nicht in Kraft treten, es gibt Probleme, die Verordnung in der Bundesregierung konsensfähig zu machen und im Bundesrat durchzubringen.“, räumte Dr. Görgen ein. Widerstand kommt besonders von den Finanzministern der Länder, denen die voraussichtlichen Kosten zu hoch erscheinen, „den Umweltministern wiederum ist die Verordnung viel zu lasch“, schildert Görgen das Gerangel.

Erschwert wird die Durchsetzung von Schutzgesetzen für den Wald auch durch eine mangelnde Haftungspflicht. Hätten Waldbesitzer ein Recht auf Ausgleich der gewaltigen Verluste, die ihnen letztlich durch die Luftverschmutzung entstehen, so könnte dies zu einer Versöhnung der Gegensätze zwischen Umwelt- und Finanzministern führen.

Als Beleg für den mangelnden Handlungswillen der Bundesregierung verweisen Naturschützer gerne auf eine höchstrichterlich dokumentierte Gesetzeslücke: Schon vor sechs Jahren urteilte der Bundesgerichtshof gegenüber der Stadt Augsburg und einem Schwarzwälder Waldbesitzer, die auf Schadensersatz geklagt hatten, daß dafür die entsprechende Rechtsgrundlage fehle. Der Sache nach seien die Waldschäden jedoch „entschädingungswürdig und entschädigungsbedürftig“.

Nun muß das Verfassungsgericht darüber urteilen, wer wen entschädigen muß und mit wessen Geld dies geschehen soll. Ministerialrat Peter Splett, der im Landwirtschaftsministerium für die neuartigen Waldschäden zuständig ist, weiß, das die Forderung nach Ausgleichszahlungen leicht zu stellen, aber nur schwer umzusetzen ist. „Eine Entschädigung setzt voraus, daß man die Ansprüche juristisch klar formulieren kann.“ Dies sei aber angesichts der hochkomplexen Vorgänge im Ökosystem Wald fast unmöglich. Gegenüber dem Finanzministerium konnte man deshalb nicht einmal ungefähre Angaben über die Höhe der zu erwartenden Forderungen machen.

So steht zu befürchten, daß auch die Landwirte sich den Auflagen widersetzen werden, die derzeit in Bonner Ministerien angedacht werden. Ausgangspunkt der Überlegungen ist die Erkenntnis, daß in Folge einer intensiven Tierhaltung und der damit zusammenhängenden überreichlichen Ausbringung der anfallenden Gülle enorme Mengen an Stickstoff in Form von Ammoniak freigesetzt werden.

Unter dem Strich schädigt die Landwirtschaft den Wald daher noch stärker als der Individualverkehr, so die Bilanz eines Hintergrundpapiers aus dem Bundesforschungsministerium. Laut Abteilungsleiter Helmut Schulz soll mit einer Düngeverordnung, „die mittlerweile von der Bundesregierung in Angriff genommen wurde“, erreicht werden, daß Stickstoff in der Landwirtschaft nur noch dort eingesetzt wird, wo die Pflanzen ihn wirklich brauchen.

Vorgesehen ist auch, daß in Großtieranlagen Schadstofffilter eingebaut werden müssen. Dies wäre dann ein weiteres Mosaiksteinchen in der kaum noch überschaubaren Fülle von Gesetzen, Verordnungen, Abgaben, Steuern und technischen Maßnahmen, mit denen der Wald gerettet werden soll, ohne den Wähler zu verprellen.

(Originalmanuskript zu einem Artikel für Bild der Wissenschaft, erschienen in der Dezember-Ausgabe 1993)

Weitere Infos:

  1. Wolfram Elling, Waldschäden und Waldschadensforschung – eine kritische Zwischenbilanz, Naturwissenschaftliche Rundschau Heft 5/92, Seite 184.
  2. Caroline Möhring/BMFT, 10 Jahre Waldschadensforschung, Bonn 1992
  3. Umweltbundesamt, Jahresbericht 1992

Rückenwind für sanfte Landwirtschaft

Forschungsmittel von etwa 17 Mio. DM, die das Land Nordrhein-Westfalen in den letzten zehn Jahren an der Bonner Universität in der Förderung einer umweltverträglichen und standortgerechten Landwirtschaft investiert hat, haben sich inzwischen amortisiert. Dieser Meinung ist zumindest Professor Wilfried Werner, Sprecher des Lehr- und Forschungsschwerpunktes, an dem derzeit 15 verschiedene Institute beteiligt sind. „Die Fördergelder werden sich auch weiterhin gut verzinsen“, sagte Werner anläßlich einer Fachtagung, zu der die laufenden Projekte vorgestellt wurden.

Die in Bonn und auf dem Versuchsbetrieb Wiesengut bei Hennef entwickelten Produktionsverfahren zielen auf einen geschlossenen Nährstoffkreislauf innerhalb der Betriebe. Durch den gleichzeitigen Anbau von Ackerbohnen mit Senfpflanzen kann beispielsweise der Bedarf an stickstoffhaltigem Dünger reduziert und die Anreicherung von trinkwassergefährdendem Nitrat im Boden weitgehend verhindert werden, wie Martin Justus vom Institut für organischen Landbau berichtete.

Um die Backqualität von Weizen aus organischem Anbau zu steigern, erprobten Joachim Schulz-Marquardt und Markus Weber eine neue Pflanzmethode. Beim sogenannten Streifenanbau von Weizen mit Klee und anderen Pflanzen aus der Familie der Knöllchenbildner „wächst“ der Dünger regelrecht aus dem Acker: Der gehäckselte Klee setzt seine mineralischen Bestandteile nur langsam frei und ermöglicht dadurch die Aufzucht eines Qualitätsweizens mit hohem Proteingehalt. Auf dem Backwarenmarkt trifft dieser Weizen derzeit auf eine erhöhte Nachfrage nach Vollkorn- und Auszugsmehlen.

Neben dem „Nährstoffmanagement“ spielt in Bonn aber auch die Kontrolle von Ernteschädlingen mit biologischen Methoden eine wichtige Rolle, ebenso die artgerechte Haltung von Nutztieren und eine Minimierung des Arzneimittelverbrauchs. Erklärte Absicht des Programmes ist es denn auch, die gewonnen Erkenntnisse möglichst zügig interessierten Landwirten zur Verfügung zu stellen.

Nach Auskunft von Professor Ullrich Köpke vom Institut für Organischen Landbau widmen sich mittlerweile rund 100 Betriebe in Nordrhein-Westfalen der sanften Landwirtschaft. Bundesweit werden 0,7% aller Nutzflächen organisch bewirtschaftet. Die „Ökobauern“ produzieren zwar ein Drittel weniger als vergleichbare konventionelle Nachbarbetriebe, sie erzielen aber am Markt deutlich höhere Preise. Dabei werden in den westlichen Bundesländern 80% der Einnahmen über die Direktvermarktung erzielt. Unter dem· Strich ist das Pro-Kopf-Einkommen dieser Betriebe daher deutlich höher. Lediglich im Vergleich mit konventionellen Spitzenbetrieben schneiden die organisch bewirtschafteten Güter schlechter ab, sagte Köpke.

Für die Zukunft befürchtet Köpke allerdings einen Strukturwandel und einen Rückgang der Erträge für die Öko-Betriebe. Ein Grund dafür ist ironischerweise ein EG-weites Subventionsprogramm, das vor zwei Jahren ins Leben gerufen wurde. Er gewährt neuen Biobetrieben einen Zuschuß von etwa 450 DM pro Jahr und Hektar. Die Pioniere des organischen Landbaus gehen dagegen leer aus.

Während der fünfjährigen Laufzeit des Programms sind sie gegenüber den Newcomern bei gleichen Kosten stark benachteiligt. Die Verdoppelung der ökologisch bewirtschafteten Flächen in Nordrhein-Westfalen seit 1991 hat bereits zu einem Preisverfall für organisch produziertes Getreide geführt. Über weitere Hilfen für die Bio-Bauern wird derzeit in Brüssel verhandelt.

(erschienen in den VDI-Nachrichten am 5. November 1993)

Genanalysen – Chancen und Risiken

Fluch und Segen zugleich birgt die Möglichkeit einer Gendiagnose, wie der Amerikaner Henry T. Lynch aus eigener Erfahrung zu berichten weiß. Der grauhaarige Wissenschaftler von der Creighton Universität im Bundesstaat Nebraska hat seine ganze Karriere der Untersuchung erblicher Krebserkrankungen gewidmet – eine besonders bösartige Form des Darmkrebses, das Lynch-Syndrom, trägt sogar seinen Namen.

Auf einem Fachkongreß in Bonn schilderte der Mediziner kürzlich die enormen Belastungen, unter denen die weiblichen Mitglieder einer Großfamilie aus Omaha zu leiden haben. Bei dieser Familie tritt eine aggressive, erbliche Krebsform seit Generationen mit erschreckender Häufigkeit auf. Jede zweite Frau in dieser Familie muß damit rechnen, daß sich in der Brust- oder in den Eierstöcken lebensbedrohliche Geschwüre bilden.

Ein molekularbiologisches Verfahren, das erst in den letzten Jahren entwickelt wurde, erlaubt es seit kurzem, die Frauen anhand ihrer Gene in zwei gleichgroße Gruppen zu trennen: Mitglieder der einen Gruppe werden von ihrer Angst erlöst; ihr Krebsrisiko ist nicht höher als das in der normalen Bevölkerung. Die Frauen der anderen Gruppe tragen dagegen mit 98-prozentiger Wahrscheinlichkeit ein defektes Gen. „Im Prinzip können wir das zum Zeitpunkt der Geburt feststellen“, sagt Lynch, der selbst einen wichtigen Beitrag zur Entwicklung der Methode geleistet hat.

Für Frauen in der zweiten Gruppe ist das  Risiko drastisch erhöht, schon in mittlerem Alter an dem erblichen Brust-Ovariar Krebs-Syndrom (HBOC) zu erkranken. Auch durch halbjährliche Untersuchungen der bedrohten Organe und selbst die vorsorgliche operative Entfernung der Eierstöcke kann die Gefahr lediglich verringert werden. Nachdem Lynch die Frauen in ihrer vertrauten Umgebung in persönlichen Gesprächen über ihre Lage aufgeklärt hatte, stellte er eine Frage, die mit zunehmender Verbreitung genanalytischer Verfahren auf immer mehr Menschen zukommen wird: „Wollen Sie wirklich wissen, ob Sie in 15, 20 oder 40 Jahren damit rechnen müssen, an einer möglicherweise unheilbaren, tödlichen Krankheit zu leiden?“

Nach einer dreiwöchigen Bedenkzeit und eingehender Beratung entschieden sich die meisten Frauen schließlich für den Gentest. Menschliche Dramen hätten sich abgespielt, als die Resultate bekannt gegeben wurden, erinnert sich Lynch. Dramatisch auch ein weiteres Ergebnis: Unter den Frauen, bei denen ein defektes Gen gefunden wurde, verlangte die Hälfte, sämtliche Eintragungen in den Krankenakten zu löschen.

„Die Versicherungen sind ganz wild auf diese Daten, weil sie die Menschen mit erhöhtem Risiko am liebsten ausschließen würden“, erläutert Lynch. Um ähnliche Machenschaften in Deutschland bereits im Keim zu ersticken, streben Mitglieder aller im Bundestag vertretenen Fraktionen eine Ergänzung des Grundgesetzes an. Dort soll, gemäß einem Vorschlag der Verfassungskommission, in Artikel 74 die künstliche Befruchtung beim Menschen sowie die Untersuchung und die künstliche Veränderung von Erbinformationen aufgenommen werden. Ein Gesetz zur Genomanalyse würde damit auch der Zustimmung des Bundesrates bedürfen und hätte dann – im Gegensatz zu anderen gesundheitsrechtlichen Gesetzen – über die Ländergrenzen hinaus Gültigkeit.

Von einer bundeseinheitlichen Regelung erwartet die forschungspolitische Sprecherin der SPD, Edelgard Bulmahn zum Beispiel eine Garantie der „informationellen Selbstbestimmung“. Genetische Daten müßten demnach im Patienten-Arzt-Verhältnis verbleiben und dürften nicht an Dritte weitergegeben werden.

Nach Meinung von Kritikern wird es für solch eine Regelung höchste Zeit: Das „Human Genome Projekt“, mit dem in weltweiter Kooperation alle Erbanlagen des Menschen entschlüsselt werden sollen, schreitet schneller voran, als selbst Optimisten zu hoffen wagten. Schon Ende des nächsten Jahres könnten sämtliche geschätzt 75000 Gene des Homo sapiens kartiert sein (Anmerkung: Die Schätzung war viel zu hoch; derzeit geht man von ca. 21000 menschlichen Genen aus).

Die Versuchung, aufgrund der dann vorliegenden Daten, ungeborene Kinder, Ehepaare, Arbeitssuchende und Versicherungsnehmer anhand ihrer genetischen Daten zu beurteilen, wird auch unter Wissenschaftlern als ernsthafte Bedrohung empfunden. So befanden sich der amerikanische Gentherapie-Pionier French Anderson und sein Landsmann, der Gentechnik-Kritiker Jeremy Rifkin schon vor drei Jahren in seltener Übereinstimmung mit ihrer Forderung nach umfassendem Schutz für die genetischen Daten des Einzelnen.

Fundamentale ethische und soziale Probleme sieht auch der renommierte Molekularbiologe Benno Müller-Hill auf die Gesellschaft zukommen. In einem Beitrag für die britische Fachzeitschrift „Nature“ wagte der am Institut für Genetik der Universität zu Köln arbeitende Professor kürzlich einen Ausblick auf die nächsten dreißig Jahre. Er geht davon aus, daß Fortschritte in der Erkennung genetischer Eigenschaften am Anfang stehen, die Behandlung von Krankheiten dagegen möglicherweise um Jahrzehnte hinterher hinken wird.

Müller-Hill, der seine Kollegen neben der Arbeit als Grundlagenforscher auch mit Enthüllung über medizinische Verbrechen während des Dritten Reiches konfrontierte, lehnt Gentests keinesfalls grundsätzlich ab. „Wenn eine Person einen Gentest wünscht, dann soll sie den auch haben.“ Praktische Tests seinen aber sinnvoller. So wäre ein einfacher Rechentest bei der Aufnahme an der mathematischen Fakultät einer Universität sicherlich nützlicher als eine – derzeit noch nicht machbare – Genomanalyse. „Auch wenn es um den Arbeitsschutz geht, bin ich gegen erzwungene Gentests“, sagte Müller-Hill gegenüber den VDI-Nachrichten.  Allerdings räumt der Gen-Ethiker ein, daß Menschen, die ihrem Arbeitgeber oder der Versicherung freiwillig Daten präsentieren, welche auf ein geringes Risiko hinweisen, trotzdem im Vorteil wären.

Die Zuverlässigkeit derartiger Risikoanalysen wäre ohnehin begrenzt. Denn auch wenn ein Labortechniker in zehn Jahren möglicherweise in der Lage sein sollte, mit einem einfachen Test festzustellen, ob ein Embryo bereits eine Veranlagung für Krebs, Herzkrankheiten oder Fettleibigkeit hat – Zeitpunkt und Schweregrad der Erkrankung werden sich bestimmt nicht auf einer Farbskala ablesen lassen. Ein Großteil der menschlichen Eigenschaften scheint zudem von mehreren Genen gleichzeitig beeinflußt zu sein. Das, den Bundestag beratende Büro für Technikfolgen-Abschätzung weist darauf hin, daß die Wahrscheinlichkeit des Ausbruchs einer Krankheit trotz einer „genetischen Veranlagung“ häufig nur 10 bis 20 Prozent beträgt. Die pränatale Diagnose solch schwer zu quantifizierender Eigenschaften wie Intelligenz und Toleranz muß deshalb nicht prinzipiell unmöglich sein. Derzeit werden bereits Untersuchungen an verschiedenen Hunderassen durchgeführt mit dem Ziel, den Einfluß der Erbsubstanz auf die Charaktereigenschaften der Tiere zu ermitteln.

Auch ohne derartige Forschungsprojekte werden die sozialen Spannungen zunehmen, glaubt Müller-Hill. „Man kann sich vorstellen, daß es zu Protestbewegungen derjenigen kommt, die beschlossen haben, ihre genetische Identität nicht preiszugeben. Es wird auch Fundamentalisten geben, die sich niemals testen lassen, weil sie selbst die Resultate nicht wissen wollen. All diese Gruppen werden schwere soziale Nachteile in Kauf nehmen müssen.“

Die Wende werde erst kommen, prophezeit der Genetiker, wenn die obersten Gerichte entscheiden, daß die „genetische Ungerechtigkeit“ ungeheure Ausmaße annommen hat. Dann werde man es Angestellten und Versicherungsnehmern erlauben, falsche Daten zu präsentieren, ohne sie dafür gesetzlich zu belangen. Ein ganz ähnliches Urteil fällte übrigens im Frühjahr das Bundesverfassungsgericht: Schwangere Frauen dürfen beim Einstellungsgespräch über ihren Zustand lügen, befanden Deutschlands oberste Richter.

Der „Schatten genetischer Ungerechtigkeit“ wird nach der Prognose Müller-Hills vor allem auf diejenigen fallen, die von einem der zahlreichen Leiden des zentralen Nervensystems befallen sind. Erbanlagen, die für Schizophrenie, manische Depression oder niedrige Intelligenz verantwortlich sein können, vermutet er in Europa und den Vereinigten Staaten bei mindestens zehn Prozent der Bevölkerung. „Es wird nun behauptet, diese Eigenschaften seien vererbt. Tatsächlich ist aber sowohl der Einfluß der Familie als auch die Beitrag von Umweltfaktoren noch unklar.“

Eine Öffentlichkeit, die davon überzeugt ist, daß etwa eine bestimmte Geisteskrankheit ausschließlich auf defekte Gene zurückzuführen ist, wird die Erforschung und Beseitigung möglicher anderer Ursachen daher vernachlässigen, befürchtet der Molekularbiologe. „Es ist so viel einfacher, eine Pille zu verschreiben, als die sozialen Zustände zu ändern, die für die Schwere der Symptome verantwortlich sind.“

Den Schluß, daß man auf das Wissen über „gute“ und „schlechte“ Gene verzichten könne, hält Müller-Hill aber für falsch. Die neuen Kenntnisse würden seiner Meinung nach lediglich die Realität sichtbar machen und dadurch die Ungerechtigkeit in der Welt betonen. Dadurch würden dann Gesetze erforderlich, um die genetisch Benachteiligten zu schützen. „Soziale Gerechtigkeit muß genetische Ungerechtigkeit kompensieren.“

(Originalfassung eines Artikels für die VDI-Nachrichten, erschienen am 8. Oktober 1993)

Weitere Infos / Quellen:

  1. Müller-Hill B. The shadow of genetic injustice. Nature. 1993 Apr 8;362(6420):491-2. doi: 10.1038/362491a0.
  2. Hennen, Leo; Petermann, Thomas; Schmitt, J.-J.: TA-Projekt „Genomanalyse“: Chancen und Risiken genetischer Diagnostik. Endbericht (kostenlos abrufbar hier).