Bioethik aktuell

Künstliche Intelligenz: Werden uns in Zukunft Algorithmen behandeln?

Ärzte und Ethiker sorgen sich um die mögliche Intransparenz der KI und zukünftige Arzt-Patienten-Beziehung

Lesezeit: 04:01 Minuten

Die Leopoldina-Akademie wirft einen kritischen Blick auf die steigende Nutzung von KI-Systemen. Verantwortungsdiffusion und fehlende Erklärbarkeit gehören zu den genannten Problemfeldern. Diese betreffen nicht nur die Welt der Start-ups und Tech-Giganten. Auch das Gesundheitssystem muss sich neben den Chancen auch mit den Risiken der neuen KI-Technologie auseinandersetzen.

©Freepik

In China wird wurde das erste „KI-Krankenhaus“ entwickelt. In einer Simulation soll ein Algorithmus durch die Behandlung „virtueller Patienten“ lernen, wie ein echter Arzt zu behandeln.  Klar ist, wo die Reise hingehen soll: In Zukunft sollen auch „KI-Ärzte“ hochwertige und leistbare Gesundheitsdienstleistungen anbieten. (Global Times - China's first AI hospital town debuts, 24.5.2024) .

Verantwortungslücken sind vorprogrammiert

Der Einsatz von KI birgt großes Potenzial. Darin ist sich die Forschung einig. Die Autorinnen eines Diskussionspapiers der Leopoldina Akademie Generative KI – jenseits von Euphorie und einfachen Lösungen (Nr. 34/2024) verweisen allerdings auf einige Problemfelder der generativen KI, die sich auch bei der Integration von KI ins Gesundheitssystem wiederfinden.

Eines davon ist das vieldiskutierte Problem der Verantwortungslücke (Responsibility Gap). Überall dort, wo automatisierte KI-Systeme eingesetzt werden, besteht die Gefahr, dass Menschen die Prozesse der KI-Anwendung nicht mehr kontrollieren oder nachvollziehen können. Im medizinischen Kontext könnte sich zum Beispiel die KI-basierte Therapieentscheidung als die falsche Wahl für den Patienten entpuppen oder es könnten Fehler in der Datenanalyse passieren, die den weiteren Verlauf der Therapie negativ beeinflussen.

Ärzte haben Bedenken gegen die fehlende Transparenz von KI-Ergebnissen

Solche Szenarien führen zu der Frage der Verantwortung: Wer ist verantwortlich für diese Fehler? Die Rückführung der letzten Verantwortung wird durch die involvierten autonomen KI-Systeme erschwert. Denn der Schaden wurde nicht direkt von den Entwicklern oder den Ärzten ausgelöst. Hoch entwickelte KI-Systeme fungieren in gewissem Sinne automatisiert und Ärzte haben Schwierigkeiten dabei, die „Entscheidung“ dieser selbstlernenden Programme nachzuverfolgen, wie eine Studie der Medizinischen Universität Hannover zeigt  (BMC Medical Ethics, (2023) 24:48 https://doi.org/10.1186/s12910-023-00929-6). Fehlende Erklärbarkeit und Verantwortungslücken gehören zu den größten Bedenken von Ärzten bezüglich der Implementierung von KI.

KI als Verantwortungsträger?

Um der Forschung freien Lauf zu lassen und Entwickler von der Pflicht, die Fehler ihrer KI-Systeme verantworten zu müssen, zu befreien, fordern Stimmen aus der Jurisprudenz und der Ethik, dass die KI-Softwaresysteme selbst zu legalen Verantwortungsträgern erhoben werden. Julian Nida-Rümelin, Direktor am Bayerischen Institut für digitale Transformation, spricht sich dagegen aus. Für ihn gilt, dass in jedem Fall Menschen die Verantwortung  im Umgang mit Technologie übernehmen müssen – und nicht umgekehrt. „Die menschliche Verantwortung teilweise aufzulösen, (…) das wäre genau der Einstieg in eine inhumane Fehlentwicklung der Digitalisierung.“, so Nida-Rümelin in einem Interview (»Verantwortung können wir nicht deligieren«, Vor:denker, 2024). Auch andere Forscher wie Sabine Salloch (Medizinische Hochschule Hannover) betonen, dass Algorithmen nur bei der Behandlungsentscheidung unterstützen, aber nicht ersetzen können. Ergebnisse müssen immer vom Menschen interpretiert werden, denn bei ihm liegt auch die letzte Verantwortung, so die Ärztin und Philosophin (Ethik Med, 2023, https://doi.org/10.1007/s00481-023-00779-1).

Der „datafizierte“ Patient ist eine Reduktion

Ein personenzentrierter Patientenzugang gilt als Goldstandard einer geglückten Ärzte-Patienten Beziehung. Dazu gehören neben fachlicher Kompetenz Empathie, Kommunikationsfähigkeit und Sensibilität. Der Medizinethiker Giovanni Rubeis (Karl Landsteiner Universität Krems) geht davon aus, dass die verstärkte Implementation von KI in das Gesundheitswesen starke Auswirkungen auf die Qualität der therapeutischen Beziehung zwischen Arzt und Patient haben könnte. Eine Steigerung von KI-basierter Datenanalyse und Diagnostik könne zu einer „datafizierten“ Sicht auf den Patienten führen, die den Patienten auf ein Set von quantifizierbaren Daten reduziert, betont Rubeis in seiner 2024 erschienenen Monografie „Ethics of Medical AI“ (Springer, 2024, https://doi.org/10.1007/978-3-031-55744-6).

Wenn Ärzte Befunde und Daten analysieren, statt den Patienten zu behandeln, kommt die ärztliche Empathie zu kurz. Das hat Auswirkungen auf die Qualität der Behandlung und Heilung. (Bioethik aktuell, 21.09.2024)

KI-Systeme täuschen Emotionen vor

Zahlreiche Unternehmen arbeiten bereits an der Herstellung von Care-Robotern und „KI-Therapeuten“. Menschliche Zuwendung und Mitgefühl kann allerdings nie durch KI ersetzt werden. KI-Systeme besitzen keine menschlichen Emotionen und somit kein genuines Einfühlungsvermögen.

Pflegeroboter können Emotionen daher nur simulieren, aber nicht erwidern. Die fehlende emotionale Responsivität wiederum könnte sich als Bumerang erweisen: Patienten fühlen sich dann erst recht alleingelassen, unverstanden und irritiert. Der Ersatz von menschlichem Kontakt durch KI-Roboter impliziert daher für Rubeis einen Verlust an Menschlichkeit und Empathie in der Pflege und Therapie. Auch Pflegeethiker Arne Manzeschke sieht den Gebrauch von KI und Robotik in logistischen Aufgaben, nicht aber als Ersatz für die menschlichen Beziehungen mit vulnerablen Patienten (Bioethik aktuell, 30.9.2024).

Ethiker warnen vor vorschnellem Agieren

Die Entwicklung von KI-Systemen wächst rasant. Gleichzeitig fühlen sich rund 70 Prozent der befragten Unternehmensleiter (darunter auch Gesundheitsunternehmen) einer 2024 erschienen Roland Berger Studie nicht genügend auf die technische Umstellung vorbereitet (Future of Health - The AI (r)evolution in health 11/2024). Medizinethiker wie Rubeis und Salloch hoffen, dass die hohe Geschwindigkeit der technologischen Weiterentwicklung nicht dazu führen wird, dass medizinische Einrichtungen unter Wettbewerbsdruck vorschnell agieren und ethische Analysen dabei außer Acht lassen.

Institut für Medizinische
Anthropologie und Bioethik
Unterstützt von: