Große Erwartungen, große Risiken: Ein internationales Expertenteam warnt vor „Todsünden“ der KI in der Medizin – von blindem Vertrauen bis zu fehlerhaften Prognosen. Die Systeme spiegeln dabei oft menschliche Schwächen wider. Der Ruf nach klaren Regeln und verantwortungsvollem Einsatz wird lauter.
von
Die Künstliche Intelligenz (KI/AI) macht sich auch in der Medizin breit. Laut der Meinung eines internationalen Expertenteams samt Umfrage unter 914 Fachleuten in 143 Staaten finden sich aber auch erhebliche Defizite in den Systemen. Zu einem guten Teil dürfte es sich dabei um klassische menschliche Defekte handeln: zum Beispiel Selbstüberschätzung, blindes Vertrauen und fehlerhafte Statistik.
„Künstliche Intelligenz (KI) findet zunehmend Einzug in klinische Umgebungen und wirft Fragen nach Vertrauen, Fairness, Empathie und Steuerung (Governance) auf. Trotz ihrer rasanten Verbreitung bleibt das ethische Terrain der KI in der Medizin instabil. Wir stellen die 'Sieben Todsünden der KI in der Medizin' vor, ein konzeptionelles Rahmenwerk wiederkehrender systemischer Fehlermuster …“, schrieben jetzt Heimo Müller (MedUni Graz) und seine Co-Autoren (Wien/BOKU), den USA und Kanada in NPJ Digital Medicine in einer Online-Vorausveröffentlichung (doi: 10.1038/s41746-026-02607-4).
Breite Zustimmung
Die Experten entwickelten gemeinsam in einer systematischen Analyse der wissenschaftlichen Literatur, von klinischen Leitlinien und bereits vorhandenen regulatorischen Bedingungen ein Konzept dafür, wo die Künstliche Intelligenz derzeit in der Medizin Defizite und Gefährdungspotenziale aufweist.
Dann ging man einen Schritt weiter, so die Autoren: „Zur Validierung dieses vorab festgelegten Rahmens führten wir zwischen Juli 2024 und März 2025 eine weltweite, fachübergreifende Umfrage unter 914 Stakeholdern aus 143 Ländern durch. Die Ergebnisse bestätigten eine breite Zustimmung zu jedem der vorher identifizierten Risiken und zeigten eine kulturübergreifende Übereinstimmung ethischer Bedenken sowie weiterhin bestehende Unterschiede in der Einstellung zur Regulierung – insbesondere zwischen technologisch fortgeschrittenen Nationen und Schwellenländern.“
Die 7 Todsünden
Sieht man sich die Liste der „Sieben Todsünden der KI in der Medizin an“, kommt man nicht darüber hinweg, dass sie wohl eins zu eins von den menschlichen Erfindern Künstlicher Intelligenz stammen, stammen müssen. Was ehemals als „eminenzbasierte“ Medizin auf der Grundlage der Erfahrung einzelner Professoren bzw. Autoritäten bezeichnet und mittlerweile durch „evidenzbasierte Medizin“ mit breiter Untermauerung durch wissenschaftliche Studien ersetzt wurde, findet sich scheinbar auch in der medizinischen AI. Die sieben Mankos:
Blindes Vertrauen: 84,9 Prozent der befragten "Stakeholder" stimmten völlig darin überein, dass KI ohne ausreichende Bewertung zu inkorrekten und falschen Entscheidungsprozessen mit möglichen Schäden führen kann.
Überregulierung: Dass Überregulierung von KI in der Medizin für potenziellen Nutzen hinderlich sein kann, darüber waren die 914 befragten Experten eher uneins. Nur 53,6 Prozent stimmten dem voll zu. Mehr Befürchtungen diesbezüglich hatten Fachleute aus reichen Ländern.
Entmenschlichung: 58,5 Prozent der Befragten stimmten voll darin überein, dass die Verbreitung von KI in der Medizin die Gefahr eines Verlusts an menschlichem Mitfühlen bedeuten und die Zufriedenheit der Patienten schädigen könnte.
Fehlgeleitete Optimierung: Mehr als zwei Drittel (68,6 Prozent) befürworteten stark den Ansatz, dass KI-Systeme vor allem Zahlenwerte optimieren könnten, ohne zu einer bedeutsamen Verbesserung für die beteiligten Menschen zu führen.
Überinformation und falsche Prognosen: 72,5 Prozent waren voll der Meinung, dass exzessive, AI-generierte Informationen das Vertrauen in die Daten schädigen und zu Verwirrung führen können.
Fehlinterpretierte Statistik: 68,4 Prozent waren der festen Meinung, dass der falsche Gebrauch von statistischen Modellen für Einzelentscheidungen zu falschen Resultaten führen kann.
Selbstreferenzielle Eigenbewertung: Am Schluss stand schlichtweg die Selbstüberschätzung in der Eigenbeurteilung, welche offenbar Mensch und KI gleichermaßen zu eigen sein dürfte. 76 Prozent der Befragten stimmten vollständig damit überein, dass KI-Systeme, die sich selbst ohne Kontrolle von außen bewerten, ein Manko an Rechenschaftspflicht, Haftung bzw. Verantwortlichkeit aufweisen dürften. Hinzu komme ein Mangel an Transparenz.
Mediziner raten zu vorsichtiger Benutzung
Mediziner und Manager befanden sich in der Befragung zumeist eher auf der skeptischen bis vorsichtigen Seite. Die Autoren wollen ihre Arbeit nicht bei den „Sieben Todsünden der KI in der Medizin“ belassen. Sie beabsichtigen, in einer nachfolgenden Arbeit den Fokus ins Positive umzukehren.
„Wir schlagen darüber hinaus eine Umkehrung des Rahmens in 'sieben Kardinaltugenden für KI in der Medizin' vor und bieten damit handlungsrelevante Prinzipien für eine verantwortungsvolle Entwicklung und Steuerung. Ziel ist es, über verstreute ethische Richtlinien hinauszugehen und ein einheitliches Diagnoseinstrument für vertrauenswürdige, nutzerzentrierte medizinische KI zu entwickeln.“






