Jul 23, 2025

Ein Erfahrungsbericht aus der klinischen Realität – und ein Plädoyer für verständliche KI-Kommunikation 
Von Julie Demirtas, Gesundheit,- und Krankenpflegerin, Study Nurse, ang. BA Gesundheitswissenschaften in der Charité - Universitätsmedizin zu Berlin 

Die Forschung zur Künstlichen Intelligenz (KI) in der Medizin boomt – und doch bleibt sie für viele Patient:innen etwas Abstraktes, vielleicht sogar Bedrohliches. Das zeigte sich auch in der Evaluationsstudie, an der ich von Januar bis Juli an der Charité beteiligt war. Unser Team – bestehend aus Study Nurses – begleitete Patient:innen in verschiedensten Stationen und Lebenslagen. Und täglich begegnete uns dabei eines: Skepsis gegenüber KI. 

Diese Skepsis ist kein Zufall. Denn wir trafen Menschen nicht in Alltagssituationen, sondern in Ausnahmesituationen. Wir sahen Patient:innen, die gerade eine chronische Krankheit diagnostiziert bekommen hatten. Andere warteten auf eine Operation unter Vollnarkose und erzählten uns von ihren Albträumen. Manche waren Opfer von Gewalt geworden oder lagen im Sterben. In solchen existenziellen Momenten stehen technologische Entwicklungen – verständlicherweise – nicht im Vordergrund. 

Und doch: Gerade in solchen Momenten kann es entscheidend sein, wie wir über KI sprechen. 

Wenn die Realität komplexer ist als jedes Datenmodell 

In der Studie war oft Teil unseres Gesprächs: „Diese Daten werden pseudonymisiert und mithilfe Künstlicher Intelligenz ausgewertet.“ Für viele Patient:innen blieb dieser Satz schwer greifbar. Einige fragten nach: Was bedeutet das? Wer hat dann Zugriff? Ist das sicher? Was passiert, wenn die KI einen Fehler macht? 

Solche Fragen sind nicht irrational – sie sind absolut berechtigt. 

Ein aktueller Artikel in BMJ Health & Care Informatics mit dem Titel 
„Developing, implementing and governing artificial intelligence in medicine: a step-by-step approach to prevent an artificial intelligence winter“ 
zeigt, wie komplex die Entwicklung und Implementierung von KI in der Medizin tatsächlich ist. Es geht nicht nur um Algorithmen – sondern um ethische, regulatorische, technische und praktische Fragestellungen, die eng miteinander verknüpft sind. Der Artikel stellt ein strukturiertes Vorgehen vor, das besonders für Menschen ohne tiefes KI-Vorwissen verständlich aufbereitet ist – eine Art Fahrplan für alle, die KI in der Praxis nutzen, begleiten oder bewerten möchten. 

Er verfolgt dabei genau das Ziel, das wir als Study Nurses jeden Tag zu spüren bekamen: KI nicht im Labor stehen zu lassen, sondern sie sicher und sinnvoll dorthin zu bringen, wo sie gebraucht wird – ans Patientenbett. 

Was wir brauchen: verständliche Brücken zwischen Forschung und Realität 

Für uns in der Praxis heißt das: Wir müssen nicht alles über neuronale Netze und Trainingsdaten wissen – aber wir müssen erklären können, was mit den Gesundheitsdaten passiert. Wir müssen auf Sorgen eingehen können, auch wenn sie manchmal diffus erscheinen. Und wir dürfen anerkennen, dass Vertrauen in Technik immer auch Vertrauen in Menschen bedeutet. 

Denn wenn eine Patientin gerade auf eine OP vorbereitet wird, wenn ein Mensch mit der Diagnose Krebs ringt oder jemand nach einem Unfall traumatisiert ist – dann ist die Priorität nicht, wie eine Studie funktioniert. Sondern: Bin ich hier sicher? Werde ich ernst genommen? Wer spricht mit mir – und warum? 

KI-Skepsis ernst nehmen – und trotzdem neue Wege öffnen 

Statt KI-Skepsis als „Hindernis“ zu betrachten, lohnt es sich, sie als Chance zu begreifen: Eine Gelegenheit, zuzuhören. Zu erklären. Nachzufragen. Die Perspektive zu wechseln. 

Vielleicht bedeutet das im Alltag manchmal, ein Gespräch zu vertagen, wenn ein Mensch gerade zwischen Trauma, Diagnose und Schmerz schwankt. Vielleicht heißt es auch, standardisierte Einwilligungsformulierungen zu hinterfragen – und durch menschlichere, begreifbare Sprache zu ersetzen. 

Oder auch, uns selbst einzugestehen, dass wir KI nicht in jeder Tiefe verstehen – und trotzdem in der Lage sind, Brücken zu bauen. Weil wir da sind. Weil wir zuhören. Weil wir die Schnittstelle sind zwischen Bytes und Bettkante. 

Fazit: KI wird nicht durch Algorithmen akzeptiert, sondern durch Begegnungen 

Der Artikel von van de Sande et al. erinnert uns daran: Klinische KI ist kein Selbstläufer. Sie braucht nicht nur Daten und Rechenleistung, sondern auch gute Kommunikation, kritische Reflexion und echte Teamarbeit – mit allen Beteiligten. 
Wenn wir Künstliche Intelligenz in der Medizin sinnvoll einsetzen wollen, müssen wir sie zuerst menschlich machen. 

Und das heißt: reden. zuhören. erklären. offen bleiben. 
Nur so wird aus Skepsis vielleicht eines Tages Vertrauen. 

 

Quelle: 
van de Sande D, Sijbrands EJG, de Boer A, et al. 
Developing, implementing and governing artificial intelligence in medicine: a step-by-step approach to prevent an artificial intelligence winter
BMJ Health & Care Informatics 2025;29:e100495. https://informatics.bmj.com/content/29/1/e100495