Zum Hauptinhalt springen

Google-Technik soll Brustkrebs erkennen

Die Mammographie ist ein Verfahren, bei dem Röntgenbilder der weiblichen Brust angefertigt werden. Ziel ist es, eine Krebserkrankung möglichst früh zu erkennen, genauer zu erfassen, oder auszuschließen. Die schwierige Aufgabe erfordert ein langes Fachstudium, und selbst Radiologen mit großer Erfahrung liegen mit ihren Beurteilungen nicht selten daneben. Die Folge sind falsche Alarme („falsch Positive“), die zur Verunsicherung der Frauen führen und zu Nachuntersuchungen, die sich erst im Rückblick als unnötig herausstellen. Dazu kommen noch Tumoren, die übersehen werden („falsch Negative“), und die weniger gut behandelt werden können, wenn sie schließlich doch auffällig werden.

Genauere Diagnosen erhofft man sich von der Technik der künstlichen Intelligenz (KI), die von Firmen wie Google und Microsoft erforscht und zunehmend eingesetzt wird. Ein Schwerpunkt liegt dabei auf der selbstlernenden Computerprogrammen, die Anhand von Bildern und anderen Mustern Vorhersagen treffen sollen.

Eine Studie, die jetzt in der Fachzeitschrift „Nature“ veröffentlicht – und von Google finanziert – wurde zeigt, wohin die Reise gehen könnte: Ein Forscherteam trainierte die Software mit Mammographie-Bildern von 26.000 Frauen aus Großbritannien und 3000 aus den USA. Ob die Diagnosen richtig waren, konnte man überprüfen, weil die Frauen etwa 3 Jahre später erneut untersucht wurden.

Beim Vergleich der Vorhersage-Genauigkeit hatte die Software sowohl weniger falsche Alarme verursacht, als auch weniger Tumoren übersehen. Auch als die Forscher das KI-System lediglich mit den britischen Daten trainierten, und anschließend anhand der US-Daten testeten, war „Dr. Google“ überlegen. Gegenüber den US-Ärzten hatte die Software 3,5 Prozentpunkte weniger falsch Positive und 8,1 Prozentpunkte weniger falsch Negative. Dies zeigt, dass die Software länderübergreifend zum Einsatz kommen könnte und nicht nur in jenen Regionen, wo sie ursprünglich getestet wurde. Theoretisch könnten daher weltweit Engpässe in der Versorgung gelindert und vielerorts die Qualität verbessert werden.

Kritisch anzumerken ist allerdings, dass die Studie die Praxisbedingungen in vielen Ländern mit guter Versorgung ignoriert hat. So war die „statistisch signifikante“ Überlegenheit der Google-Software in Großbritannien nicht besonders ausgeprägt und bezog sich nur auf die jeweils ersten Radiologen, die dort die Mammogramme begutachtet haben. Üblich ist im britischen System – wie auch im deutschen – allerdings die Prüfung durch (mindestens) 2 Radiologen, von denen der zweite den Befund des ersten kennt. Legt man diesen Maßstab an, so war KI-System weniger gut als jeweils 2 Fachärzte. Der Unterschied war allerdings gering, und es ist abzusehen, dass lernfähige KI-Systeme wie das hier getestete schon bald zur Ausstattung einer modernen Praxis gehören werden. Wenn schon nicht als „Dr. Google“ dann vielleicht als „Assistent Google“.

Quelle:

McKinney SM, Sieniek M, Godbole V, et al. International evaluation of an AI system for breast cancer screening. Nature. 2020;577(7788):89–94. doi:10.1038/s41586-019-1799-6.

(Publikumsversion eines nur für Ärzte zugänglichen Fachartikels für Univadis.de, erschienen am 5. Januar 2020)

Hautkrebserkennung: Software schlägt Doktor

Allmählich müssen Hautärzte (Dermatologen) sich Sorgen machen, dass Kollege Computer ihnen Konkurrenz macht. Grund dafür ist die zunehmende Leistungsfähigkeit von Programmen aus dem Bereich der Künstlichen Intelligenz (KI), die selbstständig lernen können. Das Ergebnis eines, vom Bundesministerium für Gesundheit finanzierten Projektes lässt jedenfalls Staunen: Nachdem die Software mit mehr als 12000 Bildern von klinisch bestätigtem schwarzem Hautkrebs (Melanom) und gutartigen Veränderungen (Naevi) „gefüttert“ wurde, trat das System in der zweiten Runde gegen 157 Dermatologen von zwölf deutschen Universitätskliniken an – und schlug die meisten von ihnen.

In einer Art Wettkampf waren Bilder von 80 harmlosen Muttermalen und 20 bösartigen Melanomen einzuordnen. Den Autoren der im European Journal of Cancer erschienenen Studie waren die Untersuchungsergebnisse der zugehörigen Patienten bekannt, die KI-Software sollte sich dagegen auf ihre „Erfahrungen“ aus der Trainingsrunde stützen.

Dabei schnitt sie besser ab als 136 ihrer 157 menschlichen Konkurrenten. Vom Assistenz- bis zum Chefarzt waren unter den Dermatologen alle Ränge vertreten – und doch schafften es in der Einzelwertung nur sieben von ihnen, genauer zu sein als die Software und weniger Fehler zu machen. Immerhin weitere 14 Ärzte waren aber gleich gut wie die Software.

Kein Zweifel, „der Einsatz von künstlicher Intelligenz wird in der Dermatologie zukünftig wichtiger werden, um präzise Diagnosen zu erstellen“, kommentierte Jochen Sven Utikal, Leiter der Klinischen Kooperationseinheit des Deutschen Krebsforschungszentrums (DKFZ), in einer begleitenden Pressemitteilung. Der Computer, bzw. das KI-Programm wird also zum Kollegen, ersetzen wird er den Hautarzt vorläufig aber nicht. Denn in der Praxis sind die Probleme oftmals komplizierter. Dort gilt es, zwischen mehr als 100 verschiedenen Hautveränderungen zu unterscheiden, und nicht nur zwischen Muttermalen und schwarzem Hautkrebs. Studienleiter Titus Brinker macht sich um die Zukunft offenbar keine Sorgen: „“Es ist ähnlich wie beim Autopiloten im Flugzeug: Bei gutem Flugwetter und häufigen Strecken ist das Assistenzsystem hilfreich. Bei schwierigen Landungen muss ein erfahrener Pilot hingegen Verantwortung übernehmen. Das kann ein Computer so allein nicht leisten.“

Brinker TJ et al.: Deep learning outperformed 136 of 157 dermatologists in a head-to-head dermoscopic melanoma image classification task. Eur J Cancer. 2019 Apr 10;113:47-54. doi: 10.1016/j.ejca.2019.04.001.

Der lange Weg zum intelligenten Roboter

Der erste Schritt ist getan: Deutsche Wissenschaftler haben eine Nervenzelle und einen Transistor miteinander verbunden. Die Nervenzelle als biologische Einheit erzeugt einen äußerst schwachen Stromimpuls, der an das elektronische Bauteil weitergeleitet und dort tausendfach verstärkt wird. Während die Ulmer Forscher ausgehend von der „biologisch-technischen Synapse“ langfristig an die Entwicklung neuer Sensoren denken, ist die Fantasie mancher Zeitgenossen den technischen Möglichkeiten bereits weit vorausgeeilt.

Sie träumen davon, die Fähigkeiten von Mensch und Maschine zu vereinen und so die biologisch gesetzten Grenzen des eigenen Daseins zu überwinden. Zeuge dieser Träume ist eine Fülle von mehr oder weniger gut gemachten Büchern und Kinofilmen, vom Science-Fiction-Klassiker „2001 – Odyssee im Weltraum“ mit dem eigensinnigen Bordcomputer HAL 9000 bis hin zum Kampf zwischen guten und bösen Androiden in der Hollywood-Produktion Terminator II.

Noch aus der Zeit des kalten Krieges stammt der Vorschlag, Raketen mit Taubenhirnen auszustatten. Wenn es irgendwie gelänge, die Zellen eines Tieres „umzuprogrammieren“, könnte man eine intelligente Waffe schaffen, die dann fähig sein sollte, ihr Ziel selbstständig aufzuspüren. Natürlich, so argumentierte man, wären solche Geschosse auch in der Lage, Freund von Feind zu unterscheiden und lohnende Ziele ausfindig zu machen.

Ob derartige Ausgeburten der Ingenieurskunst jemals Realität werden, steht in den Sternen. Cruise-Missiles jedenfalls weichen heutzutage auch ohne Taubenhirn nur wenige Meter von ihrem Ziel ab, und die ehemals aufsehenerregende Idee wurde zu den Akten gelegt. Dennoch ist die Leistungsbilanz moderner Computer im Vergleich zum Tierreich eher ernüchternd. Die Rechenkraft eines Schneckenhirns beispielsweise wird heute gerade von den neuesten Bürocomputern bewältigt. Die schnellsten Supercomputer können es immerhin schon mit einem Mäusegehirn aufnehmen, sind allerdings selten unter zehn Millionen Mark zu haben.

Doch obwohl diese Wunderwerke (die Supercomputer) schon gut 100 Milliarden Informationseinheiten (Bit) pro Sekunde verarbeiten können, bleibt es doch in aller Regel bei der stumpfsinnigen Rechenarbeit. Noch immer sind alle „gewöhnlichen“ Computer bewegungsunfähig. Nur wenige Roboter können heute bereits zwei Treppenstufen überwinden, ohne auf die Nase zu fallen.

Diese Prototypen wie der 220 Kilogramm schwere „Asshy“ im Shibaura Institut für Technologie, Tokyo, sind hingegen zu sehr damit beschäftigt, die Balance zu halten, als daß man sie auch noch mit Rechenaufgaben belästigen könnte. Mit seiner stattlichen Größe von 210 Zentimetern vermag Asshy zwar durchaus zu beeindrucken, Gehversuche sind aber auch nach über zwanzig Jahren Forschung noch mit einem großen Risiko behaftet, wie Asshys geistiger Vater, Akira Sato bereitwillig einräumt.

Eine Ausnahme bilden lediglich die insektenähnlichen Roboter, die am Massachusetts Institute of Technology von Rodney Brooks entwickelt werden. Das bisher erfolgreichste Modell, der sechsbeinige „Genghis“ hat etwa die Größe eines Schuhkartons und schafft es immerhin seine Bewegungen zu koordinieren. Was fehlt ist allerdings nach immer ein Roboter – ob in Menschengestalt oder nicht – der die Fähigkeit zur freien Bewegung kombiniert mit einer akzeptablen Rechenleistung.

Doch wäre es nicht wunderbar, wenn man einer Maschine auch Entscheidungen zumuten könnte, die ein gewisses Urteilsvermögen voraussetzen? Wenn diese Maschinen in der Lage wären, Probleme selbsttätig zu erkennen und zu lösen? Wäre dies nicht ein weiterer Schritt hin zu ein Gesellschaft, in der die Menschen nur noch das tun, was ihnen zusagt?

In diese Richtung bewegen sich die Vorstellungen von Hans Moravec, Direktor des Labors für mobile Roboter an der amerikanischen Carnegie Mellon Universität. Er eröffnet sein unter Wissenschaftlern heiß diskutiertes, Buch „Mind Children“ mit den Worten: „Ich glaube, daß Roboter mit menschlicher Intelligenz in fünfzig Jahren weit verbreitet sei werden.“

Über die Frage, ob derartige Maschinen jemals ein „Bewußtsein“ entwickeln können, gehen die Ansichten ebenfalls stark auseinander. Moravec ist der Meinung, daß alles was dafür gebraucht wird, ein Modell der Außenwelt sei, das komplex genug ist um die Konsequenzen verschiedener Entscheidungen durchzuspielen. Er glaubt, dass der Zeitpunkt schon abzusehen ist, an dem jede wichtige körperliche oder geistige Funktion des Menschen ein künstliches Pendant haben wird. „In spätestens fünfzig Jahren haben wir den intelligenten Roboter, eine Maschine die denken und handeln wird wie ein Mensch.“

(erschienen in „DIE WELT“ am 13. November 1991)

Sprechende Maschine

Einen Computer, der Texte erkennt und vorliest, präsentierte Professor Terrence Sejnowski in einer amerikanischen Fernsehshow. Die Zuschauer waren begeistert von der ersten TV-Demonstration eines künstlichen neuronalen Netzes. Ein perfektioniertes System könnte etwa Blinden aus der Zeitung vorlesen; öffentliche Bibliotheken ließen sich per Telefon abfragen.

Nur Marvin Minsky, der jahrelang gepredigt hatte, daß derartige Leistungen nur mit der Progammiertechnik der Künstlichen Intelligenz zu verwirklichen seien, wollte das „Gestammel“ nicht verstanden haben. Wie auch immer, der Computer verdankt seine Fähigkeiten einem Programm (NETtalk), das eine Anordnung von mehreren Hundert Nervenzellen in drei Schichten simuliert. Die Eingabeschicht erkennt Textstücke von je sieben Buchstaben und ist über eine Zwischenschicht mit 26 „Ausgabeneuronen“ verbunden. Diese spezialisieren sich auf 17 Phoneme, auf Pausen, Betonungen und Übergänge – die Grundelemente der Sprache.

Anfangs gibt der angeschlossene Lautsprecher nur Unsinn von sich, doch wird nach jedem Fehler die korrekte Aussprache in der Ausgabeschicht eingestellt und die Stärke der Verbindungen zur Zwischenschicht verändert. Verbesserte Aussprache wird mit verstärkten Verbindungen zur Ausgabeschicht „belohnt“ und umgekehrt; langsam tastet man sich an das richtige Ergebnis heran.

Nach dem Lernen einiger Tausend Worte klingt das Netz in etwa 90 Prozent aller Fälle richtig – und das völlig ohne Regelwerk und ohne eine lange Liste der vielen sprachlichen Ausnahmeregeln. Unbekannte Worte werden fast so gut erkannt wie bereits einstudierte. NetTalk lernt also Regeln, die weder Linguisten noch Neurobiologen noch Programmierer bisher ergründen konnten.

(erschienen in „DIE WELT“ am 30. Oktober 1991)