Künstliche Intelligenz wird in der Medizin schon verwendet. Wenn ein Arzt während einer Untersuchung sein Smartphone zur Hand nimmt, dann könnte er eine App verwenden, um Unterstützung für eine Diagnose in einem bildgebenden Verfahren zu suchen. Weitere Anwendungsbereiche liegen in der automatisierten Terminvergabe, in der Telemedizin und Videotelefonie, sowie in Apps, die dem Patienten helfen, seine Beschwerden zuzuordnen und gezielt ärztliche Hilfe zu suchen.
„Was heute unter Künstliche Intelligenz in der Medizin läuft, sind Mustererkennungsverfahren, also Algorithmen, die in sehr hochdimensionalen komplexen Daten Muster erkennen und klassifizieren können. Wobei auch voraussagende Muster erkannt werden. Die aktuellen Standardmethoden sind seit acht bis neun Jahren etabliert und basieren auf neuronalen Netzwerken,“ erklärte Dr. Horst Hahn, Leiter des Fraunhofer Institut für Digitale Medizin MEVIS in Bremen in der Online-Diskussion, die am 15. April 2021 im Rahmen der Kaiserschild Lectures von der Universität Wien organisiert wurde.
Komplementarität von Mensch und Maschine
Künstliche Intelligenz ist in der öffentlichen Debatte mit mehreren Problemen behaftet. Zunächst ist es schon der Name Künstliche Intelligenz, der an Schwammigkeit leide, was zur Vorstellung einer unberechenbaren Macht führe, die sich eines Tages gegen uns richten könne. Tatsächlich sind es aber Mathematiker, welche die Algorithmen entwickeln – und sie wissen in der Regel sehr genau, was sie berechnen, so der Konsens der diskutierenden Forscher. Auch sei es keineswegs so, dass Künstliche Intelligenz Ärztinnen und Ärzte ersetzen soll. In Forschungskreisen gehe man von der Komplementarität von Mensch und Maschine aus. Schließlich gebe es mittlerweile auch schon Human in the Loop Systeme, bei denen der Mensch die Maschine in schwierigen oder unbekannten Situationen unterstützt.
Fallen von Künstliche Intelligenz Systemen in der Medizin
„Die Muster oder gefundenen Zusammenhänge sind nur so valide wie die zugrundeliegenden Daten und auch in der Medizin werden Daten nicht immer ohne Bias erhoben“ räumt die Expertin für Data Mining, Professor Claudia Plant vom Institut für Informatik an der Universität Wien ein. So sei bekannt, dass Frauen, sowie bestimmte Ethnien und genetische Subgruppen in medizinischen Datenbanken unterrepräsentiert sind. „Noch viel problematischer ist, dass wir eigentlich gar nicht wissen, worauf wir achten müssen“, sagt Plant. Die Forschung dazu stecke noch in den Kinderschuhen.
Hahn wies darauf hin, dass Künstliche Intelligenz ganz allgemein unerwünschte Auswirkungen auf die Gesellschaft haben könne. Denn wenn Maschinen aus umfassenden hochdimensionalen Daten schneller als Menschen Vorhersagen treffen können, führe das leicht dazu, dass Menschen den Blick für Einzelheiten verlieren und Entscheidungen an die Maschine abgeben. „Dann tappt man genau in die Fallen von Systemen Künstlicher Intelligenz, nämlich wenn zum Beispiel Daten nicht stimmen und die Subgruppe nicht gut genug trainiert ist, dann sind die Antworten nicht in Ordnung oder haben genau den Bias, den Frau Plant anspricht“, so Hahn.
“Wenn Maschinen aus umfassenden hochdimensionalen Daten schneller als Menschen Vorhersagen treffen können, führt das leicht dazu, dass Menschen den Blick für Einzelheiten verlieren und Entscheidungen an die Maschine abgeben.”
Dr. Horst Hahn, Institutsleiter Fraunhofer Institut für digitale Medizin MEVIS Bremen
Problem Datenschutz
Künstliche Intelligenz basiert auf sehr großen Datenmengen, die in Open Data Plattformen gesammelt werden. Forscher sind abhängig von diesen Quellen. Gleichzeitig ist die Gefahr der Identifizierbarkeit von Patienten allgegenwärtig. Vor allem wenn es um seltene Krankheiten geht, wenn man verschiedene online verfügbare Datenquellen verknüpft oder auch nur ein Datum versehentlich nicht löscht. Hahn forscht an einem Projekt, in dem die Daten am Ort ihrer Entstehung bleiben, wo sie auch ausgewertet werden und die Auswertungen aufeinander abgestimmt werden. Es ist eine Form von föderiertem Lernen oder multizentrischen maschinellen Lernansätzen, die es ermöglicht, Algorithmen so zu trainieren, dass die Daten privat bleiben.
Diesen Ansatz hält er für umso notwendiger, als immer komplexere Fragen gestellt werden. Wie etwa den Zusammenhang einer bestimmten genetischen Variante mit Mustern, die wir in der Bildgebung sehen und den möglichen Krankheitsverlauf daraus? Gleichzeitig werden die Fragen auch sensibler. Wenn man zum Beispiel wissen will, wie hoch die Wahrscheinlichkeit ist, eine Krankheit zu entwickeln und dabei mehrere Datenquellen miteinander verbindet.
Berechenbare Künstliche Intelligenz
Noch ein weiterer Aspekt könnte längerfristig zu einer Wissenskluft führen: Künstliche Intelligenz kann zwar sehr gute Entscheidungen treffen, kann sich aber nicht immer erklären. Dadurch sind Kausalität und Korrelation nicht getrennt zu beobachten, wie von der Wissenschaftstheorie gefordert. Laut Hahn forschen Forscher weltweit daran und es gebe auch schon verschiedene Methoden, die lediglich hinreichend zu implementieren wären. Zum Beispiel gibt es die Möglichkeit, in der Datenbank ähnliche Fälle abzufragen, um so Sicherheit zu erlangen. Außerdem könne man bewerten, wo das neuronale Netz unsicher sei. „Da gibt es eine ganze Reihe von Ansätzen und ich glaube, dass wir mit diesen Systemen eines Tages gewissermaßen reden werden, dass wir sie fragen dürfen, woher weißt du das und dass sie auch lernen zu sagen, ich weiß es nicht“, sagt Hahn.
Überzogene Forderung
Prof. Jens Meier der den Lehrstuhl für Anästhesiologie und Intensivmedizin an der Universität Linz hat, denkt, dass die Forderung nach einer erklärbaren Künstlichen Intelligenz überzogen sein könnte. „Wir kennen den Mechanismus der Medizin nicht hinreichend genau und wissen nur aus Beobachtungen wie die Dinge funktionieren. Die Kausalität in der Medizin ist zwar etwas, das wir gerne nach außen hin verkaufen, aber wenn wir ehrlich sind, haben wir häufiger nur Beobachtungen.“
Unterstützung bekam er von Dr. Barbara Prainsack vom Institut für Politikwissenschaft an der Universität Wien. Sie sagt, dass Erfahrungswissen nicht immer explizit artikuliert sei. Das bedeute aber nicht, dass Entscheidungen falsch oder schlecht seien. Prainsack: „Messen wir hier also mit zweierlei Maß und sagen, die Maschine muss alles erklären können und der Mensch nicht?“
Gestaltung der Interaktion
Die gesellschaftliche Verantwortung liege darin, die Interaktion zwischen Mensch und Maschine richtig zu gestalten, resümiert Prainsack. Maschinen ermüden nicht und können große Mengen an Daten verarbeiten. Es gehe aber nicht um die reine Informationsvermittlung. Kontextwissen und Kommunikation könne man sich von Maschinen nicht erwarten.
„Wenn die Aufgabe Menschen erfordert, dann sollten Prozesse nicht automatisiert werden, auch wenn es technisch vielleicht möglich wäre.”
Dr. Barbara Prainsack, Institut für Politikwissenschaften, Universität Wien
Plant regt eine Intensivierung der Künstliche Intelligenz Forschung in der Medizin an – mit dem formulierten Ziel, dem Menschen damit zu nützen. Weltweit würden die meisten Gelder für die Künstliche Intelligenz-Forschung in den militärischen Bereich gehen – und das häufig in Ländern mit fragwürdigen demokratischen Systemen. Plant: „Ich denke, wir sollten den Mut, zu einer europäischen Werten entsprechenden Künstliche Intelligenz-Forschung in der Medizin, aber auch in anderen Themen haben.“
Auch interessant: Neues Gesetz: Europäische Kommission will Liste mit extrem risikoreicher KI