27.02.2020    Madeline Sieland
  • Drucken

Hätten doch alle nur auf Bluedot gehört. Dann wäre die Ausbreitung des Coronavirus vielleicht früher zu stoppen gewesen. Denn Bluedot hatte bereits neun Tage vor der Weltgesundheitsorganisation darauf hingewiesen, dass im chinesischen Wuhan etwas nicht stimmt.

Woher Bluedot das wusste? Das kanadische Unternehmen ist auf Seuchenfrüherkennung spezialisiert und setzt dabei auf eine Kombination aus menschlicher und Künstlicher Intelligenz (KI). Der Bluedot-Algorithmus durchforstet im Internet regionale Nachrichten, Blogs und Foren in 65 Sprachen, checkt Datenbanken zu Tier- und Pflanzenkrankheiten und registriert offizielle Gesundheitswarnungen. Zudem hat das Tool Zugriff auf die Ticketdaten von Fluglinien und kann dadurch sogar den voraussichtlichen Weg einer Pandemie vorhersagen. Das funktionierte schon 2014 bei der Ebola-Pandemie in Westafrika und beim Zika-Ausbruch in Florida 2016. Und auch in Sachen Corona hatte Bluedot recht mit der Prognose, das Virus würde sich als Erstes in Richtung Bangkok, Seoul, Taipeh und Tokio ausbreiten.

Wunsch und Wirklichkeit

Bluedot ist ein Beispiel, das zeigt, wie KI in der Medizin schon jetzt zum Einsatz kommt – und Schlimmeres verhindern kann. Theoretisch zumindest. Man müsste eben nur auf die KI hören … Eine KI aber, die dem Arzt eine komplizierte Operation abnimmt, mithilfe von Algorithmen Analysen und Prognosen zu Patienten erstellt, eigenständig Therapien erarbeitet oder kranke Menschen allein versorgt – das ist Zukunftsmusik. Noch.

„KI ist Software. Jede Software hat Fehler und benötigt daher Updates, um diese Fehler zu beheben.“ Jay Tuck, KI-Experte

Denn die Technologie entwickelt sich rasant, und so ist es höchste Zeit, über die damit verbundenen Chancen, aber auch Risiken nachzudenken. „Künstliche Intelligenz bietet in der Medizin hervorragende Chancen. Wir sollten ihre Entwicklung daher auf jeden Fall fördern“, sagt Mathias Höschel, Vorsitzender des Bundesverbands Verrechnungsstellen (BVVG) und Aufsichtsrat der PVS Holding. Doch er weiß auch: Es ist nicht alles Gold, was glänzt. „Es wird niemals möglich sein, sich ausschließlich auf Algorithmen zu verlassen. Am Ende muss immer der Mensch die letzten Entscheidungen fällen.“ Höschels Warnung: „Wir dürfen uns niemals vollkommen in die Hände von KI begeben.“

Das sieht KI-Experte Jay Tuck genauso. „Künstliche Intelligenz ist keine Hardware, es handelt sich also nicht um Roboter oder Maschinen. KI ist Software“, sagt der frühere ARD Journalist und Autor des Buchs „Evolution ohne uns. Wird Künstliche Intelligenz uns töten?“. Das hat Folgen, die weitreichend sein können. Denn, so Tuck, „jede Software hat Fehler und benötigt daher Updates, um diese Fehler zu beheben“.

Technik mit Eigenleben

Über mögliche Fehler in der Medizin-KI ist bislang noch nicht sehr viel bekannt, aber es gibt Erfahrungswerte aus anderen Bereichen, in denen die Technologie schon seit Jahren eingesetzt und immer wichtiger wird. Zum Beispiel im Militär. Weltweit führend sind die US-Streitkräfte. Doch gerade deshalb mussten sie lernen, welche gravierenden Folgen Softwarefehler haben können. Als sie beispielsweise im Irak eine Land-Drohne mit automatischer Waffe einsetzten, die darauf programmiert war, eigenständig Ziele zu erfassen und beschießen, begann sie, Dinge zu tun, die sie nicht tun sollte. „Sie geriet aufgrund eines Softwarefehlers außer Kontrolle und richtete sich gegen die eigenen Leute“, so Tuck. „Sie musste schließlich von Menschen außer Gefecht gesetzt werden.“

Nicht ganz so gravierend, aber ebenfalls ein Beispiel dafür, was mit einer fehlerhaften KI passieren kann, sind die Chatbots Bob und Alice von Facebook. Die beiden haben eine mysteriöse Geheimsprache entwickelt – glaubte man zumindest. Als die Forscher die Gedankengänge der KI nicht mehr nachvollziehen konnten, beendeten sie die Arbeit daran. Dabei waren sie nicht ganz unschuldig am vermeintlichen Eigenleben, das die Chatbots entwickelten: Ursache war ein simpler Programmierfehler. Man hatte schlichtweg vergessen, den Bots vorzuschreiben, sich ausschließlich in Englisch miteinander zu unterhalten. Es sei wahrscheinlich, dass solche Fehlleistungen in Zukunft auch im Medizinbereich geschehen, erwartet Experte Tuck. Die Bandbreite der möglichen KI-Fehler sei sehr groß und die Folgen seien unabsehbar – von eher ärgerlichen bis hin zu lebensbedrohlichen.

Gefahr in Verzug

Riskant könnte KI vor allem auch werden, wenn sie bei der Erfüllung ihrer Aufgaben versagt. „KI ist ungleich besser als wir Menschen darin, medizinische Befunde und Analysen zu erstellen“, so Höschel. Zum Beispiel bei der Krebsdiagnose mit CT und MRT: Sie kann erheblich besser als das Auge oder das Gehirn des Arztes vorhersagen, ob an einer Stelle des Körpers ein Krebstumor entsteht. Die Gefahr aber, so warnt Tuck, liege darin, dass die Ärzte sich vollkommen auf die KI-Analyse verlassen, diese aber aufgrund fehlerhafter Software falsch sein kann. Höschel schließt sich dem Urteil Tucks an: „Als reines Tool ist die KI sehr gut. Aber wenn sie komplett die Kontrolle übernimmt, kann das gefährlich werden.“ Dass es zu solchen Fehlern eines Tages kommen könnte, sei zumindest in der Anfangszeit wahrscheinlich, da KI ein selbstlernendes System ist.

Der Mensch mischt mit

Trotz der drohenden Gefahren halten Höschel und Tuck KI für unverzichtbar. Die größte Gefahr sei daher der Mensch selbst und seine Verweigerungshaltung gegenüber neuen Technologien. Viele hoch qualifizierte Kräfte, vor allem Ärzte, fürchten, ihre menschliche Arbeit könnte abgewertet werden. „Diese Menschen könnten die Einführung von KI blockieren – zum Schaden derjenigen, denen sie doch eigentlich helfen soll“, so Tuck.

„Es wird niemals möglich sein, sich ausschließlich auf Algorithmen zu verlassen.“ Mathias Höschel, BVVG

Diese Gefahr mag auch Höschel nicht ausschließen, sieht sie aber auf bestimmte Medizinbereiche beschränkt. Die Radiologie etwa. „Tatsächlich würde ich meinen Kindern nicht raten, sich als Radiologen zu spezialisieren, denn der Aufgabenbereich wird kleiner“, sagt Höschel. Aber auch dabei gelte: Der 
letzte Entscheidungsträger muss immer der Mensch bleiben, damit sich Menschen nicht vollkommen der KI ausliefern. So ist es auch bei Bluedot. Dort verlassen sich die Epidemiologen nicht allein auf die KI-Vorhersage. Sie evaluieren die Prognosen unter wissenschaftlichen Gesichtspunkten, ehe sie die vermutlich betroffenen Länder warnen. Und in Sachen Corona konnten sie nicht anders als der KI recht zu geben.

27.02.2020    Madeline Sieland
  • Drucken
Zur Startseite