Zum Hauptinhalt springen

Software-Test PC Tools 6.0

Komfortable Benutzeroberfläche und Organisationswerkzeug in einem ist das englischsprachige Programm PC Tools 6.0. Es fällt schwer, Funktionen zu finden, die in diesem Softwarepaket nicht enthalten sind. Einmal in den Arbeitsspeicher geladen, wartet PC Tools darauf, auf einen Knopfdruck hin den Benutzer bei allen erdenklichen Funktionen zu unterstützen: Eine „Desktop Utility“ stellt Notizblock, Terminkalender, diverse Taschenrechner und eine leistungsfähige Datenbank zur Verfügung. Der Gebrauch verschiedener Telekommunikationseinrichtungen wird erleichtert, ein Makroeditor hilft bei der Automatisierung komplexer Funktionsabläufe, und ein Clipboard ermöglicht den Transfer von Daten zwischen verschiedenen Programmen.

Diese Leistungen können dank Mausunterstützung, Pull-Down-Menüs und einer kontextsensitiven Hilfefunktion ohne lange Einarbeitungszeit in Anspruch genommen werden. Die Benutzeroberfläche kann an das Niveau des Anwenders angepasst werden und lässt die gebräuchlichen Betriebssysteme im Vergleich erblassen. Das Jonglieren mit Dateien und ganzen Verzeichnissen wird zum Vergnügen. Jede beliebige Zeichenkette kann gesucht und anschließend editiert werden.

Unbefugten Manipulationen lässt sich durch Passwortschutz und Verschlüsselung von Dateien ein Riegel vorschieben. Zeit spart der Benutzer durch ein Cache-Programm, das die Zugriffszeiten auf die Festplatte reduziert. Ein Dateibetrachter macht die Inhalte der meisten Dateien in ihrem Originalformat sichtbar. So können etwa dBase-, Word- oder Lotus-123-Dateien eingesehen werden, ohne die zugehörigen Programme zu starten. Eigene Anwendungen lassen sich leicht in die Menüs der Benutzeroberfläche integrieren. Wünschenswert wäre eine deutschsprachige Version des vielfältigen Programms.

PC Tools Deluxe 6.0, Computer 2000 AG, für IBM PC, XT, PS/2 oder kompatible, 398 DM

(erschienen in der WELT vom 29. August 1990)

Was ist daraus geworden? Mir hat das Programm einige Jahre gute Dienste geleistet. Aber: „Den Sprung in das 32-Bit-Zeitalter haben die PC Tools nicht mehr geschafft“, so die Wikipedia. Aus PC Tools war zuletzt eine ganze Sammlung von Programmen geworden, die von der Firma Symantec vertrieben wurde. Offenbar kamen diese Tools aber nicht so gut an wie die früheren Versionen,  und das Angebot wurde am 4. Dezember 2013 eingestellt.

Einteilung der Antiarrhythmika – Neue Ergebnisse

Antiarrhythmika, eine recht heterogene Gruppe von Arzneimitteln, werden nach Vaughan Williams anhand ihrer Wirkungsmechanismen in vier Klassen eingeteilt. Doch wie hilfreich ist diese Einteilung für eine Vorhersage der gefürchteten proarrhythmischen Nebenwirkungen? Neue Erkenntnisse, die auf einer Veranstaltung der Knoll AG Ludwigshafen Ende Mai in Freiburg präsentiert wurden, stellen zumindest die gebräuchliche Subklassifizierung der Klasse I-Antiarrhythmika (Natriumantagonisten) in Frage. Diese Einteilung erfolgte aufgrund von In-Vitro-Versuchen an Herzmuskelfasern, woraus sich unscharfe Unterteilungskriterien ergaben. Besonders zwischen den Subklassen IA und I C gehen die Effekte fließend ineinander über.

Prof. Dr. H. Antoni und Dr. J. Weirich vom Physiologischen Institut der Universität Freiburg gelang es nun, einen Zusammenhang zwischen Wirkungsmechanismus und prospektiven Nebenwirkungen zu finden. Im Mittelpunkt der Analyse steht die Bindung von zwölf Substanzen der Klasse I am Natriumkanal. Diese Natriumkanäle durchlaufen bei der Erregung verschiedene Zustände und werden durch die Bindung eines Klasse-I-Antiarrhythmikums in einen nicht-leitenden Zustand versetzt. In Abhängigkeit von der Frequenz kommt es zu einer periodischen Bindung und Ablösung.

Die Sättigungs-Charakteristik dieser Reaktion führt zur Unterteilung der Klasse-I-Antiarrhythmika in drei distinkte Gruppen:

  • Gruppe I (Lidocain, Mexiletin und Tocainid) zeigt schnelle Blockierung und Deblockierung der Natriumkanäle sowie eine späte Sättigung;
  • Gruppe II (Encainid, Flecainid, Lorcainid, Chinidin und Procainamid), ebenfalls mit später Sättigung, aber mit langsamer Blockierung und Deblockierung;
  • Gruppe III (Disopyramid, Ethmocin, Nicainoprol, Prajmalin und Propafenon) mit noch relativ schneller Blockierung bei langsamer Deblockierung. Diese Gruppe zeigt eine frühe Sättigung.

Antoni betonte, Ziel der Arbeit sei nicht eine neue Klassifizierung gewesen, doch entspreche die neue Einteilung besser praktischen Belangen. Wichtig für die Praxis ist vor allem, wie sich eine rasche Frequenzerhöhung nach Gabe einer therapeutischen Dosis dieser Substanzen auswirkt.

Die Gefahr einer zu starken Hemmung bei länger andauerndem Frequenzanstieg (zum Beispiel Belastungstachykardie) ist diesen Überlegungen zufolge nämlich nur bei Substanzen der Gruppe II gegeben. Die langsam einsetzende Blockierungszunahme führt zu einer Sättigung erst nach etwa 20 Herzschlägen. Substanzen der Gruppe I erreichen diesen Zustand aufgrund ihrer schnellen Reaktionskinetik schon nach ein bis zwei Herzschlägen. Wirkstoffe der Gruppe drei zeigen bereits am unteren Ende der physiologisch relevanten Stimulationsfrequenz von ein bis drei Hertz eine ausreichende Blockade.

Legt man die Annahme zugrunde, dass eine 33-prozentige Blockade der Natriumkanäle zur vollständigen Unterdrückung von eng gekoppelten Extrasystolen ausreicht, so erfordert dies eine vergleichsweise höhere Dosierung der Gruppe-II-Substanzen. Bei erhöhter Belastung (Tachykardie) führt die Sättigungs-Charakteristik dieser Gruppe dann zu einer stärkeren Hemmung, die arrhythmogen wirken könne, so Weirich. Im Gegensatz zu Gruppe II seien Substanzen der Gruppen I und III durch ein Langzeit-EKG problemlos einzustellen, erklärte Dr. G. Schmidt von der Medizinischen Klinik der TU München.

Interessanterweise gelang es Dr. R. Myerburg und Mitarbeitern von der Kardiologischen Abteilung der Universität Miami an einem kleinen Patientenkollektiv, den proarrhythmetischen Effekt von Flecainid und Encainid (Gruppe II) durch ß-adrenerge Blockade mittels Propanolol zu unterdrücken. Diese Beobachtung legt einen möglichen autonomen Mechanismus für proarrhythmetische Effekte mancher Substanzen der (Vaughan Williams) Klasse IC nahe.

In einer Untersuchung an isolierten Kaninchenherzen gingen Dr. S. Dhein vom Institut für Pharmakologie der Universität Köln und seine Mitarbeiter der Frage nach, ob einige Substanzen der Klasse IC das epikardiale Aktivierungsmuster unter Normalbedingungen beeinflussen können. Wichtigste Messparameter waren die Orte der ersten Erregung an der Herzoberfläche (Break-through points), das heißt die Vektoren des epikardialen Erregungsablaufes im Vergleich zur vorhergehenden Erregung. Für Flecainid, nicht aber für Propafenon und Lidocain wurde dabei eine heterogene Ausbreitung des epikardialen Erregungsablaufes beobachtet. Bei niedriger extrazellulärer Kaliumkonzentration und hoher therapeutischer Dosis wurde bei dieser Substanz auch das Auftreten von Arrhythmien beobachtet.

Die diversen Effekte vieler Antiarrhythmika und deren Auswirkungen auf die Behandlungsstrategie bildeten auch in Hamburg einen Diskussionsschwerpunkt, wo Ende Juni ein ebenfalls vom Pharmaunternehmen Knoll AG veranstalteter Workshop mit Prof. Ph. Coumel vom Pariser Hôpital Lariboisière stattfand.

Coumel machte klar, dass es derzeit kein Arzneimittel und keine Behandlungsform gibt, um alle Probleme zu lösen. Niemals dürfe man vergessen, dass Arrhythmien kein unabhängiger Faktor seien, sagte Coumel, und verwies auf eine besonders enge Wechselwirkung mit der Hämodynamik.

Beobachtungen an Patienten, die allesamt während der ambulanten Überwachung einem Sekundenherztod erlagen, führten zur Einteilung in zwei distinkte Gruppen: Eine starke Steigerung der Herzfrequenz vor dem Todeseintritt in der einen Gruppe wurde auf eine bestimmende adrenerge Stimulation zurückgeführt.

In der zweiten Gruppe schienen elektrophysiologische Phänomene verantwortlich zu sein, eine Beschleunigung des Herzschlages wurde nicht beobachtet. Anhand der Reaktionen auf eine medikamentöse Behandlung lassen sich nun Hinweise auf den zugrunde liegenden Mechanismus einer Arrhythmie gewinnen. Leider werde immer wieder der Fehler gemacht, diese wertvollen Informationen zu ignorieren. Elektrophysiologische Phänomene, so Coumel, ließen sich mit moderaten Dosen „reiner“ Antiarrhythmika problemlos beherrschen. Ist dagegen das autonome Nervensystem wichtigster Parameter einer Arrhythmie, werde diese Behandlungsstrategie erfolglos sein. Der Umkehrschluss gelte demnach für Beta- Rezeptoren-Blocker.

Kritisch werde eine Behandlung vor allem dann, wenn man gezwungen sei, eine anfänglich unbefriedigende Reaktion des Patienten durch Erhöhung der Dosis zu verbessern. In der klinischen Situation begegne man meist einer Mischung aus elektrophysiologischen Phänomenen und deren Modulation durch das autonome Nervensystem. Wegen der Unmöglichkeit, diese komplexe Situation exakt einzuschätzen, müsse man komplex wirksame Medikamente wie Amiodaron und Propafenon verabreichen.

(erweiterte Fassung meines Textes im Deutschen Ärzteblatt vom 27. August 1990, ergänzt am 19. März 2017)

Quelle: Workshops der Knoll AG in Freiburg am 23. Mai 1990 und Hamburg, Juni 1990.

Originalliteratur:

Was ist daraus geworden? Ein Wikipedia-Artikel fasst den Stand der Dinge schön zusammen. Verkürzt gesagt gilt die alte Einteilung demnach als problematisch, eine bessere hat man aber noch nicht gefunden. Und wenn Sie bei diesem Artikel nur Bahnhof verstanden haben, kann ich Sie trösten: Mir ging es bei den Workshops damals genau so, und ich musste tagelang nacharbeiten, um den Artikel erstellen zu können.

Chaos und Evolution: Die Anfänge des Lebens

Unser Körper besteht zu rund zwei Dritteln aus Wasser. Dazu kommen noch Kohlenstoff, Stickstoff und eine Vielzahl von selteneren Elementen. Aus dem komplexen Zusammenspiel dieser unbelebten Bausteine sind über Milliarden von Jahren hinweg die vielfältigsten Lebensformen entstanden, von den „primitiven“ Urbakterien bis hin zur „Krone der Schöpfung“, Homo sapiens – der vernunftbegabte Mensch – hat sich nicht nur die Erde untertan gemacht; wir sind auch als einzige Art in der Lage, über unsere Entstehung‘ nachzudenken.

Wie entsteht Ordnung aus Chaos, Leben aus toter Materie? Aristoteles, der die Entstehung von Fischen und Insekten aus Schlamm gelehrt hatte, irrte ebenso wie Johan Baptista van Helmont, der im Mittelalter ein Rezept für die „Erzeugung“ von Mäusen aus Getreide und schmutziger Wäsche entwickelte.

Stanley Miller im Jahr 1999. In seinen Experimenten zur Entstehung des Lebens erzeugte der Biochemiker aus einfachsten Zutaten die Bausteine des Lebens. (Quelle: NASA/Wikipedia)

Bereits in den fünfziger Jahren wurde nachgewiesen, wie aus den einfachen Gasen der Uratmosphäre so hochkomplizierte Moleküle des Lebens wie Eiweiße und Nukleinsäuren entstanden sein könnten. Stanley Miller, damals noch Chemiestudent in Chicago, erhitzte eine Mischung aus Kohlendioxid, Methan, Ammoniak und Wasserstoff mit Wasser. Die Gewitter der Uratmosphäre wurden durch elektrische Entladungen, das Sonnenlicht durch UV-Lampen ersetzt.

Zum großen Erstaunen der Fachwelt gelang es Miller, nicht nur Zucker und Fettsäuren, sondern auch Nukleotide und Aminosäuren herzustellen, die Bausteine der Nukleinsäuren und Eiweiße also. Schließlich produzierten die Wissenschaftler in ihren Glaskolben sogar kurze Nukleinsäuren und Eiweißketten.

Aus dem Zusammenwirken von einigen simplen Gasen konnten also Moleküle mit überraschenden neuen Eigenschaften entstehen; eins plus eins ist manchmal mehr als zwei. Eiweiße und Nukleinsäuren sind nämlich in der Lage, Informationen zu speichern und zu vermehren. Die Reihenfolge ihrer Bausteine liefert die Betriebsanleitung, nach der alle Lebewesen funktionieren.

Das Wechselspiel zwischen diesen beiden Molekülklassen macht Leben überhaupt erst möglich. Ein Naturgesetz – der zweite Hauptsatz der Thermodynamik – besagt nämlich, dass unser gesamtes Universum unaufhaltsam einem Zustand völliger Zufälligkeit und Unordnung zustrebt, den wir Wärmetod nennen. Nukleinsäuren und Eiweiße schaffen dagegen Inseln der Ordnung, Lebewesen also, indem sie die Unordnung im Universum durch ihren Stoffwechsel vergrößern.

Nachdem also die Entstehung der ersten primitiven Nukleinsäuren und Eiweiße geklärt scheint, bleibt die Frage nach dem Urahn aller Lebewesen. Irgendwann müssen die vorhandenen Bauteile sich selbständig zum ersten zellähnlichen Gebilde organisiert haben, von dem wir alle abstammen. Ein ganz unwahrscheinlicher Zufall soll nach Ansicht des Nobelpreisträgers Jacques Monod alle Bestandteile der „Urzelle“ zusammengeführt haben. Wenn Monod recht hat, wäre die Urzeugung ein mit Sicherheit einmaliger Vorgang. Die Erde als der einzige bewohnte Planet im Universum?

Thomas R. Cech fand Hinweise, wonach die einfache Nukleinsäure RNA gleichzeitig als Informationsträger funktioniert und biochemische Reaktionen ausführen kann. (Von Jane Gitschier [CC BY 2.5 (http://creativecommons.org/licenses/by/2.5)], via Wikimedia Commons)

Die Entdeckung eines anderen Nobelpreisträgers zeigt einen Ausweg aus dem Dilemma: Der Amerikaner Thomas Cech fand heraus, dass sich unter günstigen Umständen eine einzelsträngige Nukleinsäure (RNA) selbst verdoppeln kann, und dafür nicht auf Eiweiße angewiesen ist. Diese molekularen Vielzweckkünstler sind also gleichzeitig Träger von Information und Funktion; befehlendes und ausführendes Element in einem. Viele Experten glauben darum, dass RNA-Moleküle an der Schwelle zum Lebendigen stehen.

Diese Beobachtung kann allerdings nur die Entstehung relativ kurzer RNA-Moleküle erklären, denn die Verdoppelung der RNA ist sehr fehleranfällig, Auch die einfachsten Lebewesen tragen heute tausendmal längere Erbfaden mit sich, die aus einer zweisträngigen Nukleinsäure – der DNA – bestehen. Diese „Doppelhelix“ ist stabiler und bei der Verdoppelung weniger fehleranfällig als die RNA, dafür aber längst nicht so vielseitig.

Mit seinen Experimenten am Göttinger Max-Planck-Institut für Biophysikalische Chemie will ein dritter Nobelpreisträger diesen „Knackpunkt“ der Evolution erhellen. Professor Manfred Eigen hat mit seiner Arbeitsgruppe einen ganzen Maschinenpark entworfen, mit dem die Evolution der ersten RNA-Moleküle simuliert werden soll. Der 62jährige Physiker glaubt, dass verschiedene Typen von RNA-Molekülen sich zu Anfang gegenseitig bei der Vermehrung halfen. Diese Art von Teamwork – Eigen spricht von einem „Hyperzyklus“ – ist ein weiteres Beispiel dafür, wie aus der Kombination bekannter Bausteine neue Eigenschaften entstehen könnten.

Chaosforscher sprechen von „Nichtlinearität“, was besagt, dass neue Wechselwirkungen zwischen den Teilen des Systems auftreten, die nicht vorherzusehen sind. Der Physiker und Philosoph Dr. Bernd Olaf Küppers bringt diese Beobachtung auf den Punkt, indem er sagt: „Das Ganze ist mehr als die Summe seiner Teile.“ Evolution läuft demnach gesetzmäßig ab, ist aber nicht voraussagbar.

„Evolution ist Chaos mit Rückkopplung“, meint der amerikanische Physiker Joseph Ford, einer der Pioniere der Chaosforschung. In den Versuchen am Göttinger Max-Planck-Institut besorgen Roboter diese Rückkopplung. Bei der Verdoppelung der verschiedenen RNA-Moleküle in ihren Reagenzgläsern schleichen sich Fehler ein. So entstehen Nachkommen mit veränderten Eigenschaften. Eigens Maschinen suchen nun automatisch diejenigen RNAs heraus, die sich am schnellsten vermehren und bieten diesen Molekülen die Möglichkeit zur weiteren Vermehrung. Innerhalb erstaunlich kurzer Zeit entstehen so RNA-Typen, die sich an ihre künstliche Umgebung optimal angepasst haben.

Vieles spricht dafür, dass sich vor rund vier Milliarden Jahren auf der Erde ein ähnlicher Prozess abgespielt hat. Mehrere erfolgreiche RNA-Moleküle bildeten vielleicht einen Hyperzyklus, zu dem später auch primitive Eiweiße hinzutraten.

Die Einzelheiten dieser Entwicklung werden sich wohl nie genau aufklären lassen. Es bleiben Lücken in unserer Vorstellung, die momentan noch mit recht diffusen Ideen verdeckt werden. So ist es beispielsweise immer noch unklar, wie sich ein erfolgreicher Hyperzyklus samt Eiweißen von seiner Umgebung abgrenzen und so die erste Zelle bilden konnte. Auch der Übergang von der RNA zur DNA als Träger der Erbinformation verschwimmt im Rückblick auf geschätzte 4000 Millionen Jahre Entwicklung.

(erschienen in der WELT am 20. August 1990. Letzte Aktualisierung am 19. März 2017)

Benzin-Ersatz Methanol soll Ozon-Werte senken

Auch wenn die wenigsten Auto­fahrer es wahrhaben wollen: Kraftfahrzeuge sind eine der Haupt­quellen für die zunehmende Luftver­schmutzung. Bei der Verbrennung von Benzin und Diesel setzen unsere fahrbaren Untersätze Schadstoffe frei, die für den Smog in Ballungszen­tren und gesundheitsgefährdende Ozonkonzentrationen am Boden ebenso verantwortlich sind wie für sauren Regen und den Treibhaus­effekt.

Viele Alternativen zu den her­kömmlichen Treibstoffen wurden be­reits erwogen: Wasserstoff und Bioal­kohol, komprimiertes und verflüssig­tes Erdgas, Solarenergie und Strom aus der Steckdose. Keine Substanz aber vereint derart viele Vorteile in sich wie der simple Alkohol Metha­nol. Zu diesem Schluss kam jedenfalls die Kalifornische Energiekommis­sion, die bis zum Jahr 1993 rund 5000 methanolgetriebene Autos auf den Highways des amerikanischen Bun­desstaates testen wird. US-Präsident George Bush wollte die Autoherstel­ler sogar dazu verpflichten, schon ab 1997 eine Million Fahrzeuge, angetrieben von „sauberen“ Kraftstoffen, auf die Straßen amerikanischer Großstädte zu bringen – ein Vorstoß, der beim Gerangel um die Neufassung des Luftreinhaltungsgesetzes allerdings auf der Strecke blieb.

Warum die Aufregung? Bei der Verbrennung von Methanol entsteht deutlich weniger Ozon als mit herkömmlichen Kraftstoffen. Diese Form des Sauerstoffs, die in rund 30 Kilometer Höhe als Schutzschild gegen die krebserregende UV-Strahlung dient, ist am Boden ein gefährliches Gift. Zu hohe Ozonkonzentrationen können besonders Kindern und älteren Menschen, aber auch Asthmatikern gefährlich werden. Atemnot, Husten und Brustschmerzen sind die Folgen, außerdem steht Ozon im Verdacht, auch bleibende Schäden der Lunge zu verursachen.

Nach einer Darstellung des Weißen Hauses lebt rund die Hälfte der amerikanischen Bevölkerung in Gebieten, in denen die gesetzlichen Grenz­werte für Ozon nicht eingehalten wer­den. So kam es 1988 in Los Angeles, begünstigt durch den heißen Som­mer, an 176 Tagen des Jahres zu über­höhten Ozonkonzentrationen. Auch in der Bundesrepublik kommt es in diesen Tagen laufend zu erheblichen Überschreitungen des Richtwertes von 120 Mikrogramm Ozon pro Ku­bikmeter Luft, wie er vom Verband Deutscher Ingenieure empfohlen wurde.

Eine Studie, die jüngst im amerika­nischen Wissenschaftsmagazin „Science“ veröffentlicht wurde, be­legt, dass der Einsatz von Methanol die Luftqualität im Großraum Los Angeles deutlich verbessern könnte. Der sofortige Einsatz von reinem Me­thanol (M 100) könnte demnach im Jahr 2000 die Spitzenwerte für Ozon fast so stark reduzieren wie ein totales Verbot von Kraftfahrzeugen. Mit ei­nem Gemisch aus 85 Prozent Metha­nol und 15 Prozent Benzin (M 85) wä­re noch eine 30prozentige Reduktion zu erreichen. Dr. Axel Friedrich, zu­ständiger Fachgebietsleiter beim Berliner Umweltbundesamt und einer der Kritiker der Methanoltechnologie, ist allerdings der Meinung, dass die amerikanischen Modellrechnungen nicht auf deutsche Verhältnisse übertragen werden können.

Unbestritten ist jedoch, dass die Verbrennung des Methanols insgesamt weniger Schadstoffe freisetzt als die herkömmlicher Kraftstoffe. Die teilweise recht komplexen Bestandteile von Benzin und Diesel neigen nämlich dazu, nur unvollständig zu verbrennen. Dadurch wird das giftige Gas Kohlenmonoxid („Garagenkiller“) freigesetzt, außerdem krebserzeugende Substanzen wie Rußpartikel und Benzol. Zusätzlich entstehen in Nebenreaktionen Stickoxide (NOx), die am Boden die Ozonbildung fördern und für den sauren Regen mitverantwortlich sind. Auch wenn, wie Kritiker anmerken, bei der Methanolverbrennung die krebserregende Chemikalie Formaldehyd vermehrt gebildet wird, spricht die Gesamtbilanz doch eindeutig für diesen Treibstoff.

Charles Gray ist bei der amerikanischen Umweltschutzbehörde EPA zuständig für die Entwicklung der gesetzlichen Richtwerte für Autoabgase. Er ist einer der glühendsten Befürworter des Methanols und glaubt, dass die konsequente Weiterentwicklung methanolgetriebener Fahrzeuge nicht nur die Atemluft dramatisch entgiften könnte, sondern auch einen wichtigen Beitrag zur Kontrolle des Treibhauseffektes liefern würde. Das Methanolauto der Zukunft, so Gray, soll im Vergleich zu heutigen Fahrzeugen nur ein Fünftel des Kohlendioxids und gar nur ein Zehntel der übrigen Schadstoffe produzieren.

Zukunftsmusik? „Insgesamt kann die technische Entwicklung der Methanolmotoren im Pkw als abgeschlossen betrachtet werden. Die Bundesrepublik Deutschland ist hier weltweit führend“, so bilanzierte Bundesforschungsminister Heinz Riesenhuber bereits vor gut einem Jahr. Vorausgegangen war dieser Behauptung ein fünfjähriges Pilotprogramm des BMFT unter Beteiligung der Kraftfahrzeug- und Kraftstoffindustrie. Mehr als 100 Pkws und zwei Busse waren erprobt worden, teils mit Vier- und Sechs-Zylinder-Ottomotoren, teils mit Vergaser. Ergebnis des Langzeitprogramms, bei dem manche der getesteten Fahrzeuge über 100000 Kilometer zurücklegten:

„Ein praxisgerechter Betrieb der Fahrzeuge mit gewohnt gutem Fahrverhalten und teilweise mit Leistungssteigerungen ist möglich.“ Insgesamt, so fand auch das BMFT, werden weniger Schadstoffe freigesetzt, die Gefahr der Smogbildung verringert und die Emission von Rußpartikeln mit Methanoldieselmotoren fast vollständig vermieden.

Für Autohersteller wie Mercedes­-Benz ist das Thema bereits ein „alter Hut“. Der Bau eines speziellen Motors sei nicht nötig, teilte Dr. Lothar Krösch mit. Methanol unterscheidet sich vorwiegend im niedrigeren Ener­giegehalt pro Volumeneinheit von herkömmlichem Benzin. Die zerset­zenden und stromleitenden Eigen­schaften des Methanols führen aller­dings dazu, dass der Tank aus rost­freiem Stahl gefertigt werden muss. Auch verschiedene Motorbauteile müssen an die höheren Anforderun­gen angepasst werden. Die Mehrko­sten, die dadurch entstehen, werden auf etwa 600 Mark geschätzt.

Auf dem Genfer Autosalon präsen­tierte Mercedes erstmals ein Fahrzeug für den Mischbetrieb, das wechseln­de Anteile von herkömmlichem Ben­zin und Methanol „verdaut“. Es han­delt sich dabei um ein Modell der 300er-Serie, bei dem ein Sensor den Methanolanteil im Treibstoff ermit­telt und dann die Einspritzung steu­ert. Derartige Fahrzeuge. wie sie auch von Ford und General Motors ent­wickelt wurden, bieten den offen­sichtlichen Vorteil, dass zukünftige Käufer nicht auf Tankstellen ange­wiesen sein werden, an denen Metha­nol angeboten wird.

Auch in finanzieller Hinsicht könn­te Methanol konkurrenzfähig sein. Zurzeit kostet eine Tonne Methanol auf dem Markt etwa 210 Mark, das bedeutet einen Literpreis von 16 Pfennig. Er ist aber sehr abhängig von der Ausgangs-Substanz und vom Herstellungsverfahren. Nach Schät­zungen der Internationalen Energie­agentur ist Methanol konkurrenzfä­hig, wenn der Erdölpreis über 20 Dol­lar pro Fass liegt – so wie es zurzeit als Folge der Irak-Krise der Fall ist. Für den Treibstoff, der ebenso wie Benzin und Diesel flüssig und leicht brenn­bar ist, wäre auch kein neues Vertei­lungsnetzwerk nötig. Bestehende Transport- und Lagervorrichtungen ließen sich ohne große Investitionen für Methanol nutzen.

Im Prinzip kann der zukunftsträch­tige Energieträger aus allen kohlen­stoffhaltigen Substanzen hergestellt werden. Die Möglichkeit, Methanol aus Erdgas oder Kohle, Erdölrück­ständen, Biomasse und sogar aus Ab­fall zu gewinnen, könnte diesen Treibstoff weltweit langfristig verfüg­bar machen, meint Dr. Hansgert Quadflieg, Leiter der Stabsstelle Pro­jektbegleitung beim TÜV Rheinland. Ökonomische Überlegungen konzen­trieren sich aber darauf, den „Alterna­tivkraftstoff Nummer eins“ aus Erd­gas herzustellen.

Da bei der Erdölgewinnung derzeit große Mengen an Methangas einfach abgefackelt werden, ließen sich durch die Umwandlung in Methanol gleich zwei Fliegen mit einer Klappe schlagen: Der Gesamtverbrauch an Primärenergie ginge zurück (es wür­de nämlich entsprechend weniger Benzin benötigt), gleichzeitig gelang­ten weniger Schadstoffe und Treib­hausgase in die Atmosphäre. Diese Lösung bietet sich vor allem für die USA an, da sie in Alaska über gewalti­ge Erdgasfelder verfügen.

Methanol für den deutschen Markt könnte aus bisher noch ungenutzten norwegischen Erdgasfeldern kom­men. Wie Quadflieg mitteilte, strebt Norwegen allerdings vor der kosten­intensiven Erschließung eine Abnah­megarantie der Bundesrepublik über einen längeren Zeitraum hinweg an. Dagegen bestehen auf deutscher Sei­te prinzipielle Bedenken gegenüber einer Preisgarantie bei schwanken­den Rohölpreisen. Ein Eingriff in den Mechanismus der freien Marktwirt­schaft, sprich Subventionen oder Steuererleichterungen, wird vom Wirtschaftsministerium abgelehnt.

(erschienen in der WELT am 16. August 1990. Letzte Aktualisierung am 18. März 2017)

Was ist daraus geworden? Aus der brasilianischen Botschaft bekam ich damals einen freundlichen Leserbrief mit Lob für den Artikel und dem Hinweis, dass in Brasilien zu dem Zeitpunkt bereits 4,5 Millionen Autos mit Äthanol (= Alkohol) unterwegs waren. Heute aber sehen wir bei einem Stop an der Tankstelle: Methanol hat sich nicht durchgesetzt. Beimischungen in geringer Konzentration werden aus Kostengründen nicht gemacht, lese ich in der Wikipedia. Und obwohl neben den USA auch Japan, China, Neuseeland und Südafrika mit der Technologie experimentiert haben, konnte sie sich nirgendwo durchsetzen. Der Hauptgrund dürfte die Entwicklung von Katalysatoren gewesen sein, wodurch die Emissionen an Kohlenwasserstoffen und Stickoxiden deutlich gesenkt wurden.

Biologen entdecken den Laser als Werkzeug

Wie von Geisterhand gesteuert, bewegen sich die beiden Zellen aufeinander zu; ein Kampf David gegen Goliath bahnt sich an. Die kleine „Killerzelle“ berührt schließlich die viel größere Tumorzelle und beginnt sofort, den Kontrahenten mit winzigen Giftpfeilen zu beschießen. Diese Giftpfeile – es handelt sich um den Eiweißstoff Perforin – ordnen sich in der Hülle der Tumorzelle zu Kanälen an. Wasser strömt in die Tumorzelle, unter dem Mikroskop schwillt Goliath an und droht zu zerplatzen.

Doch noch ist der Zweikampf nicht beendet; die Tumorzelle wehrt sich und scheint die eingedrungene Flüssigkeit abzupumpen, wie der verminderte Durchmesser erkennen lässt. Minutenlang tobt der Kampf um Leben und Tod, am Ende aber stirbt die Tumorzelle: David bleibt Sieger. Regisseur dieses faszinierenden Schauspiels ist der Diplomchemiker Stefan Seeger am Physikalisch-Chemischen Institut der Universität Heidelberg. Unverzichtbares Hilfsmittel: ein Infrarotlaser, mit dem die Hauptdarsteller nach Belieben über die Bühne geschoben werden können, die in diesem Fall aus einem Objektträger besteht.

Schon länger ist es möglich, Materie mit Laserlicht zu bewegen oder festzuhalten – die Fachleute sprechen vom „Beamen“ und haben bereits bewiesen, dass dieses Thema mehr ist als nur Science-Fiction. Arthur Ashkin, ein Mitarbeiter in den Labors der amerikanischen Telefongesellschaft AT &T, berichtete 1987 als erster von Versuchen, Bakterien und Viren mit gebündeltem Licht einzufangen. Möglich wurde dies durch den Einsatz neuartiger Geräte, sogenannter Nd:YAG·Laser (Neodymium-Yttrium-Aluminium-Granat), die ein Licht relativ schwacher Intensität mit einer Wellenlänge von 1064 Nanometern (milliardstel Meter) aussenden.

Im Gegensatz zu anderen Lasertypen, die als Schneidewerkzeuge oder Bohrer eingesetzt werden, zeigt der Nd:YAG·Laser nur eine schwache Wechselwirkung mit biologischen Materialien. Dennoch lässt sich der Laserstrahl so fokussieren, dass in seinem Brennpunkt Kräfte bis zum 700000fachen der Erdbeschleunigung auftreten. In den Händen des Experten wird der Infrarotlaser zu einer unglaublich feinen und überdies noch sterilen „optischen Pinzette“.

In der Heidelberger Arbeitsgruppe um Privatdozent Dr. Karl-Otto Greulich arbeiten Physiker, Chemiker und Molekularbiologen Hand in Hand. Dabei war der Erfolg dieses LABIO-Programmes (für Laser in der Biologie) keineswegs von Anfang an garantiert. Heute bilden die Heidelberger eine der wenigen Gruppen weltweit, die auf große Erfahrungen bei der Laserchirurgie an einzelnen Zellen verweisen kann.

Die Einsatzmöglichkeiten sind vielfältig und könnten beispielsweise die Immunologie um neue Erkenntnisse bereichern. Mit der optischen Pinzette lassen sich nicht nur einzelne Zellen steuern. Auch die Kräfte, die bei Wechselwirkungen zwischen den verschiedenen Zellen wirken, kann man messen. Beispielsweise ließen sich die Anziehungskräfte zwischen Abwehrzellen und Tumorzellen messen und mit der Anzahl von Rezeptormolekülen auf der Zelloberfläche vergleichen. Die Zahl dieser Ankerplätze schwankt nämlich zwischen einigen hundert und mehreren hunderttausend.

Vielleicht, so argumentieren einige Forscher, werden bestimmte Tumorzellen deswegen vom Abwehrsystem „übersehen“, weil nicht genug Rezeptoren vorhanden sind, um die Zellen der Immunabwehr an sich zu binden – eine Theorie, die sich jetzt überprüfen lässt.

Einer amerikanischen Arbeitsgruppe gelang es kürzlich sogar, die Kraft zu messen, mit der sich eine menschliche Samenzelle fortbewegt. Zeugungsunfähigkeit wird in schätzungsweise einem Prozent der Fälle mit schwächlichen Spermien in Verbindung gebracht, die unfähig sind, die Hülle der weiblichen Eizelle zu durchstoßen. In den Vereinigten Staaten denkt man deshalb schon daran, diesen Samenzellen den Weg „freizuschießen“. Ein gezielter Laserpuls auf die Membran einer Eizelle könnte sie kurzfristig für den Samen durchlässig machen.

Die Heidelberger haben allerdings nicht die Absicht, ihre Laser auf dem Gebiet der künstlichen Befruchtung einzusetzen oder gar menschliches Erbmaterial zu manipulieren. Stattdessen verweist Greulich auf andere Einsatzmöglichkeiten für seine Werkzeuge. Monoklonale Antikörper etwa, jene hochspezifischen Abwehrmoleküle des Immunsystems, müssen derzeit noch mit der unfreiwilligen Hilfe von Mäusen hergestellt werden. Dazu werden kurzlebige, antikörperproduzierende B·Zellen aus der Maus im Reagenzglas „blind“ mit unsterblichen Tumorzellen verschmolzen. In einem aufwendigen Suchverfahren müssen dann jene äußerst seltenen Hybride gefunden werden, die den Anforderungen der Wissenschaftler entsprechen: Unsterblich und somit beliebig vermehrbar sollen sie sein und Antikörper produzieren, die möglichst nur ein Ziel erkennen – in der Praxis sind das häufig die Tumoren menschlicher Krebspatienten.

Mit Hybridzellen menschlichen Ursprungs erhofft man sich eine bessere Erfolgsquote, doch können Patienten – anders als Mäuse – nicht mit Tumorzellen vorgeimpft werden, um die B-Zellen auf ihr Ziel zu programmieren. Darum sind B-Zellen mit der gewünschten Spezifität im menschlichen Blut nur sehr schwer zu finden, Die Lasertechnik bietet jetzt die Möglichkeit, die wenigen aussichtsreichen Kandidaten gezielt mit Tumorzellen zu verschmelzen.

Als „Schweißbrenner“ dient ein Laser, der kurzfristig auf die Stelle gerichtet wird, an der sich die beiden Zelltypen berühren. Die so entstandene Hybridzelle kann unter dem Mikroskop mit der optischen Pinzette herausgegriffen werden, eine zeitraubende Suche ist im Gegensatz zur „blinden“ Fusion nicht mehr nötig. Ein Nadelöhr müssen die Heidelberger Wissenschaftler allerdings noch durchqueren, bevor ihre Methode zur Routinetechnik wird: Die Hybridzellen weigern sich derzeit hartnäckig, die begehrten Antikörper zu produzieren.

(erschienen in der WELT am 11. August 1990. Letzte Aktualisierung am 18. März 2017)

Was ist daraus geworden? Ich erinnere mich noch an ein Seminar, das ich während des Diplomstudiums über das Thema „Laserpinzetten in der Biologie“ gehalten habe. Der Professor hielt diese Versuche für nutzlose Spielereien und meinen Vortrag für ziemlich überflüssig. In der Redaktion wurde es dagegen dankbar angenommen und im Rückblick bin ich stolz, dieses zukunftsträchtige Thema schon früh aufgegriffen zu haben. Über die Lasermanipulation von Zellen und Geweben gibt es inzwischen zahlreiche Lehrbücher, und eine Literatursuche zu „Optical Tweezers“ lieferte mir in der Datenbank PubMed 2750 Einträge.

VERDI -Studie: Verapamil versus Hydrochlorothiazid

Thiaziddiuretika und Betarezeptorenblocker gelten für viele Fachleute als Mittel der ersten Wahl zur Behandlung einer Hypertonie, obwohl das derzeit gültige Therapieschema der Deutschen Hochdruckliga auf der ersten Stufe ACE-Hemmer und Kalziumantagonisten als gleichwertige Medikamentengruppen empfiehlt. Einen Vergleich über die antihypertensive Wirksamkeit, Verträglichkeit und Nebenwirkungsrate des Kalziumantagonisten Verapamil (Isoptin®, Knoll AG) mit dem Thiaziddiuretikum Hydrochlorothiazid lieferte eine Langzeitstudie, die im Mittelpunkt eines Symposiums stand, das Anfang Mai am Rande der 3. Nationalen Blutdruck-Konferenz in Heidelberg stattfand. Organisator der Veranstaltung war die Kybermed GmbH, Emsdetten, industrieller Sponsor die Knoll AG, Ludwigshafen.

Die „VERDI“-(Verapamil versus Diuretikum)-Studie, bereits 1989 veröffentlicht, hatte eine Laufzeit von 48 Wochen und war als randomisierte, multizentrische (zehn Kliniken, zehn Praxen) Doppelblindstudie angelegt. Für 369 Patienten mit leichter bis mittelschwerer Hypertonie (95-120 mm Hg diastolisch) wurde als Endpunkt eine Blutdrucksenkung unter 90 mm Hg festgelegt, die durch mehrmalige Messung mit einem automatischen Blutdruckmeßgerät zu bestätigen war.

Wie Prof. Dr. Th. Phillipp von der Abteilung für Nieren- und Hochdruckkranke der Universitätsklinik Essen erläuterte, wurde die Behandlung mit 12,5 mg Hydrochlorothiazid oder 120 mg Verapamil in Retardzubereitung täglich eingeleitet. Bei Nichterreichen des Endpunktes nach vier Wochen wurden die Dosen verdoppelt, nach sechs Wochen vervierfacht.

Für Patienten, bei denen die Monotherapie nach acht Wochen keinen Erfolg zeigte, wurde eine Kombinationstherapie aus Hydrochlorothiazid (25 mg) und Verapamil (240 mg) eingeleitet, deren Dosen gegebenenfalls nochmals verdoppelt wurden. Therapieversager waren solche Patienten, die auch nach zwei Wochen auf der höchsten Dosisstufe das Endziel nicht erreicht hatten. Weitere Gründe für einen Therapieabbruch waren außer organisatorischen Gründen ein Anstieg des diastolischen Blutdruckes auf über 120 mm Hg sowie schwere Nebenwirkungen.

In der Monotherapie erreichten 42 von 169 Patienten (25 Prozent) unter Hydrochlorothiazid und 73 von 163 Patienten unter Verapamil (45 Prozent) den Zielblutdruck. Dabei erwies sich Verapamil in allen Dosisstufen als signifikant wirksamer als Hydrochlorothiazid. Die Gesamterfolgsrate unter Mono- und Kombinationstherapie war mit rund sechzig Prozent in beiden Gruppen nahezu identisch, da sich in der Kombinationstherapie bei Addition von Verapamil zu Hydrochlorothiazid größere Responderraten ergaben als bei der Zugabe von Hydrochlorothiazid zu Verapamil.

Wie B. Bürkle, Medizinische Poliklinik der Universität München, berichtete, ergab die EKG-Auswertung für Verapamil eine signifikante Reduktion der Herzfrequenz. Prof. Dr. A. Distler vom Berliner Universitätsklinikum Steglitz glaubt, dass sich trotz der vorgelegten Daten aus der VERDI-Studie keine unmittelbaren Konsequenzen für die Therapieempfehlungen ergeben werden, da für Kalziumantagonisten entsprechende Daten über Morbidität und Mortalität weiterhin fehlen.

Die Studiengruppe bezweifelt jedoch, ob die Gleichstellung von Diuretika, Betablockern, ACE-Hemmern und Kalziumantagonisten angesichts der erzielten Ergebnisse weiterhin berechtigt sei. Eine weitere große Untersuchung (HANE-Studie mit Hydrochlorothiazid, Atenolol, Nitrendipin und Enalapril), die bereits angelaufen ist, soll mehr Klarheit schaffen.

(erschienen in Deutsches Ärzteblatt am 6. August 1990. Letzte Aktualisierung am 17.3.2017)

Originalpublikationen: Holzgreve H, Distler A, Michaelis J, Philipp T, Wellek S. Verapamil versus hydrochlorothiazide in the treatment of hypertension: results of long term double blind comparative trial. Verapamil versus Diuretic (VERDI) Trial Research Group. BMJ : British Medical Journal. 1989;299(6704):881-886.

Philipp T, Anlauf M, Distler A, Holzgreve H, Michaelis J, Wellek S. Randomised, double blind, multicentre comparison of hydrochlorothiazide, atenolol, nitrendipine, and enalapril in antihypertensive treatment: results of the HANE study. HANE Trial Research Group. BMJ. 1997 Jul 19;315(7101):154-9.

Was ist daraus geworden? Diesen Artikel habe ich nur der Vollständigkeit halber auf meine Webseite genommen, und den Link zur mittlerweile veröffentlichten HANE-Studie ergänzt. Bluthochdruck war nie eines meiner Spezialgebiete, und mir fehlt die Muße, hierzu einen Überblick zu recherchieren. Am besten, Sie fragen Ihren Arzt oder Apotheker 😉

Chemiker entdecken die Chaosforschung

Chaos im Reagenzglas? Eine chemische Reaktion, die scheinbar ziellos mal in die eine, mal in die andere Richtung läuft? Die Beobachtung des Sowjetrussen Boris Belousow schien grundlegenden Naturgesetzen zu widersprechen. Sein Cocktail aus Schwefel und Malonsäure, Bromidionen und Cersulfat funktionierte als „chemisches Pendel“: Bei Zugabe des Farbstoffes Ferroin färbte sich die Lösung abwechselnd blau und rostrot – ein Schauspiel, das sich über Stunden hinzog.

Als Belousow vor 30 Jahren seine Kollegen auf dieses spektakuläre Verhalten aufmerksam machen wollte, schenkte man ihm keine Beachtung. Fachzeitschriften lehnten seine „angebliche“ Entdeckung als Hirngespinst ab. Erst 1964 – nach dem Tod des unglücklichen Belousow – konnte Anatoli Schabotinski beweisen, dass die Reaktion „echt“ war.

Die B-Z-Reaktion wird auch heute noch heiß diskutiert. Sie bietet ein gutes Beispiel für Rückkoppelung: Die zuerst gebildeten Reaktionsprodukte beeinflussen den weiteren Verlauf des Experimentes. Wenn man in einem Reaktionsgefäß nun ständig neue Chemikalien zugibt und gleichzeitig die Reaktionsprodukte entfernt, hat man fast schon ein Modell für eine lebende Zelle. Interessanterweise kann man jetzt die Konzentration der „Nährstoffe“ und die Durchflussgeschwindigkeit so einstellen, dass die periodischen Farbumschläge der B-Z-Reaktion immer unregelmäßiger werden und schließlich ins Chaos münden.

Diese Übergangsphase spielt sicher auch in der belebten Natur eine wichtige Rolle. Denn obwohl Ökosysteme und innere Uhren, Herzschlag und Stoffwechsel durch Rückkoppelung stabilisiert werden, kann eine winzige Störung oft fatale Folgen haben. Chemische Reaktionen eignen sich besonders als Modelle für die Entstehung von Chaos, weil die Ausgangsbedingungen eines Experimentes genau eingestellt werden können.

Beispiel für eine fraktale Reaktion: Das „Apfelmännchen“ (Verm. von Fedi CC-BY-SA-3.0 )

Umgekehrt profitiert auch die Chemie von den Erkenntnissen der Chaosforschung. Synthetische Polymere etwa, die Oberflächen von Katalysatoren und sogar die hochkomplizierten Eiweißmoleküle weisen eine Art von Ordnung auf, die erst durch die Entdeckung des amerikanischen Mathematikers Benoit Mandelbrot sichtbar wurde. All diese Systeme sind nämlich „selbstähnlich“.

Die Chaosforschung benutzt diesen Begriff, um deutlich zu machen, dass ein Teil des Ganzen bei entsprechender Vergrößerung so aussieht wie das Ganze. Ein anschauliches Beispiel ist die Struktur eines Baumes, von dem zunächst große Äste abzweigen. Betrachtet man einen Ast, so stellt man fest, dass dieser sich auf identische Weise in einzelne Zweige gliedert. Diese Verästelung setzt sich dann buchstäblich bis in die Blattspitzen fort, wo das gleiche Ordnungsprinzip den An- und Abtransport von Nähr- und Schadstoffen regelt.

Die Selbstähnlichkeit lässt sich nun in Zahlen (Fraktale) fassen, mit denen sich rechnen lässt. Ein spektakuläres Produkt dieser Art von Mathematik sind faszinierende Computergrafiken wie das berühmte „Apfelmännchen“. Die „fraktale Dimension“ lässt sich aber auch als Maß für die versteckte Symmetrie unregelmäßiger Materialien nutzen. Während eine Fläche die Dimension zwei, ein Raum die Dimension drei besitzt, findet man im Experiment beispielsweise für die Oberfläche von Aktivkohle einen Wert von 2,34.

Oft reicht die Kenntnis der fraktalen Dimension aus, um das Verhalten von Molekülen an der jeweiligen Oberfläche vorauszusagen. Die Gesetzmäßigkeiten, die für chemische Reaktionen in Lösung gelten, verlieren nämlich teilweise ihre Gültigkeit, wenn die Prozesse auf fraktalen Strukturen stattfinden. Mit Hilfe der fraktalen Dimension können die Experten beispielsweise Berechnungen über Reaktion und Transport von Schadstoffen im Platin-Katalysator anstellen, ohne dessen genaue Oberflächenstruktur zu kennen.

Auch für verschiedene „Biokatalysatoren“, für Eiweißstoffe also, wurde im Computerexperiment bereits die fraktale Dimension bestimmt. Sie liegt meist um 2,2, was einem ziemlich lockeren Aufbau entspricht. Berechnungen deuten darauf hin, dass dieser verhältnismäßig hohe Wert eine Voraussetzung für die schnelle Arbeit dieser Makromoleküle darstellt. Während die Analyse fraktaler Strukturen in der Chemie schon weit fortgeschritten ist, steckt die Produktion noch in den Kinderschuhen. An dieser Front ist noch wahre Pionierarbeit zu leisten.

(erschienen in der WELT vom 6. August 1990)

Gen für Blutgruppen entdeckt

Ein einziges Gen bestimmt beim Menschen die Blutgruppe. Wie amerikanische Forscher herausfanden, kommt dieses Gen in drei Varianten vor, die sich nur minimal unterscheiden. Zwei Varianten, das A-Gen und das B-Gen, enthalten die Information für einen Eiweißstoff (Transferase), der Zuckerreste auf den Zelloberflächen verändern kann.

Die Art dieser Zuckerreste bestimmt die Blutgruppen (A, B, AB oder 0) des Menschen. Obwohl sich A- und B-Gen nur in vier von fast 1000 Bausteinen unterscheiden, entstehen zwei verschiedene Transferasen, die unterschiedliche Zuckermoleküle übertragen. Transferase A „macht“ Blutgruppe A, Transferase B Blutgruppe B. Werden beide Transferasen produziert, so entsteht Blutgruppe AB. Bei der dritten Variante des Blutgruppengens (O-Gen) fehlt nur ein einziger Baustein. Dies führt zu einem Eiweißstoff, der überhaupt keine Zucker mehr übertragen kann. Daraus folgt die Blutgruppe Null.

OriginalliteraturYamamoto F, Clausen H, White T, Marken J, Hakomori S. Molecular genetic basis of the histo-blood group ABO system. Nature. 1990 May 17;345(6272):229-33.