Künstliche Intelligenz (KI) oder Arzt: Wer diagnostiziert besser? KI könnte eine vielversprechende Unterstützung bei der Krebsfrüherkennung sein. Das zeigt eine nun in Nature publizierte Studie (2020: 577: 89-94) von Google Health und Wissenschaftlern aus den USA und Großbritannien. Den Arzt ersetzen könnten die Algorithmen aber nicht, so die Studienautoren.
DeepMind, das KI-Modell von Google, wurde mit zwei repräsentativen Datensätzen von mehr als 91.000 Frauen aus Großbritannien und den USA zunächst darauf trainiert, Anzeichen von Krebs in Form von Tumorgewebe zu erkennen, berichtet die Ärzte Zeitung (online, 3.1.2020). Dann wurden Mammografien von mehr als 25.000 Frauen aus Großbritannien und über 3.000 Frauen aus den USA aufgenommen, die gemeinsam von der KI und sechs Radiologen bewertet wurden. Laut Studie soll KI die Krebsarten mit einem ähnlichen Grad an Genauigkeit identifiziert haben wie erfahrene Radiologen. Die Anzahl der falsch positiven Ergebnisse in der US-basierten Gruppe reduzierte sich um 5,7 Prozent, in der in Großbritannien ansässigen Gruppe um 1,2 Prozent. Auch die Anzahl der falschen negativen Tests, bei denen Ergebnisse fälschlicherweise als normal eingestuft werden, würden mit Hilfe der KI um 9,4 Prozent in der US-Gruppe und um 2,7 Prozent in der britischen Gruppe gesenkt werden.
Auch wenn Künstliche Intelligenz und Big Data ihren Platz im Gesundheitssystem bekommen: Der deutsche Mathematiker und Methodenwissenschaftler Gerd Antes warnte in Wien vor einem „unreflektierten Hype und unhaltbaren Heilsversprechungen“ (vgl. Ärzte Zeitung, online, 2.1.2020). Antes war viele Jahre Leiter des Deutschen Cochrane Zentrums in Freiburg und gilt als Wegbereiter der evidenzbasierten Medizin im deutschsprachigen Raum. Darauf basiert auch seine kritische Haltung beim Thema Digitalisierung. „Jede neue Technologie muss auf ihren Nutzen, Schaden und ihre Kosten hin untersucht werden.“ Dies werde allerdings in der aktuellen Euphorie gerne ignoriert, so Antes beim Colloquium der Gesundheit Österreich. Insbesondere in Zusammenhang mit Big Data herrsche der Irrglaube, dass mehr Daten automatisch zu mehr Wissen führen würden. Mehr Daten könnten aber auch mehr Fehler bedeuten und damit mehr Risiko für den Patienten.
Die Ärzteschaft sollte sich den ethischen Fragen stellen, die KI im Gesundheitswesen bedeutet und sich insbesondere Gedanken machen über die Abgrenzung ihrer Aufgaben gegenüber KI. Darauf weist die Münchner Medizinethikerin Alena Buyx, Mitglied des Deutschen Ethikrates (vgl. Ärzte Zeitung, online, 2.1.2020) hin. „Soll man vielleicht jetzt schon menschliche Personalquoten einführen?“, stellte Buyx zur Diskussion. Wenn Checkin-Terminals wie etwa bereits in der Uniklinik Schleswig-Holstein die Aufnahme in ein Krankenhaus übernehmen, keine Menschen mehr Patienten hilfreich zur Seite stehen und dann erst am Bett jemand mit dem Patienten spricht, verunsichere dies nicht nur ältere Menschen. Zu wenig Menschen in der Umgebung von Patienten können nicht nur am Krankenbett Probleme verursachen. Auch mögliche mit der KI verbundene soziale und gesellschaftliche Effekte wie fehlende Zuwendung und Empathie sowie die Auswirkungen auf die Kommunikation müssten berücksichtigt werden, betont die Medizinethikerin.