24.03.2026
Von Fadel Arnaout, MSc Health Professions Education / BSc Nursing,
Umschüler zum Fachinformatiker für Daten- und Prozessanalyse (IHK Berlin),
Praktikant am Institut für Medizinische Informatik, Charité – Universitätsmedizin Berlin
Fadel Arnaout ist ausgebildete Pflegefachkraft. Seit Sommer 2025 absolvierte er ein Praktikum im Projekt KIP-SDM an der Charité – Universitätsmedizin Berlin.
Dies ist der dritte und letzte Eintrag seiner Reise in die Welt der Nursing Analytics.
Wenn aus Analyse Vorhersage wird
Dieser Beitrag richtet sich an Leser:innen aus Pflege, Pflegeinformatik und Nursing Analytics, die sich dafür interessieren, wie aus Routinedaten nicht nur Analysen, sondern auch erste Vorhersagemodelle entstehen.
In den letzten Monaten habe ich gelernt, wie man klinische Routinedaten strukturiert aufbereitet und analysiert. Im letzten Abschnitt meines Praktikums ging es nun einen Schritt weiter:
Nicht mehr nur verstehen, was passiert ist – sondern versuchen vorherzusagen, was passieren könnte.
Dabei wurde mir schnell klar: Der Schritt von der Analyse zur Modellierung ist größer, als ich zunächst gedacht habe.
Vom Basismodell zur erweiterten Modellierung
Als Ausgangspunkt habe ich ein einfaches Baseline-Modell aufgebaut – auf Basis von Alter und Geschlecht. Zwei Variablen, die auch in der Pflegepraxis als zentrale Risikofaktoren bekannt sind.
Die Ergebnisse waren erwartbar:
Das Modell konnte Zusammenhänge erkennen, war aber für eine verlässliche Vorhersage nur begrenzt geeignet.
Erst durch die Erweiterung des Prädiktorenraums wurde es wirklich spannend.
Dazu habe ich zusätzliche Merkmale aus den Routinedaten integriert, beispielsweise:
Anzahl dokumentierter Diagnosen
Medikationsdaten (Aufnahme-, Klinik- und Entlassmedikation)
Bewegungs- und Falldaten
pflegerische Dokumentation, wie Sturzrisikoeinschätzungen
Diese sogenannten Meta-Features beschreiben nicht einzelne Inhalte, sondern die Struktur und Häufigkeit von Einträgen im System – und genau darin lag ein großer Mehrwert für die Modellierung.
Dabei ist wichtig zu betonen: Die zugrunde liegenden Daten hätten auch eine deutlich granularere Analyse ermöglicht, beispielsweise auf Ebene einzelner Diagnosen (ICD-10) oder spezifischer Medikamentengruppen.
Ich habe mich jedoch bewusst dafür entschieden, zunächst auf einer aggregierten Meta-Ebene zu arbeiten, um ein robustes und übersichtliches Modell aufzubauen. Eine detailliertere, inhaltlich feinere Modellierung wäre ein sinnvoller nächster Schritt in weiterführenden Analysen.
Eine wichtige Erkenntnis: Daten statt Bauchgefühl
Eine der größten Herausforderungen für mich war nicht technischer Natur – sondern fachlich.
Als Pflegefachkraft habe ich klare Erwartungen:
Bestimmte Diagnosen oder Medikamente erhöhen das Sturzrisiko.
In der Modellierung musste ich dieses Wissen jedoch bewusst zurückstellen.
Der Ansatz war datengetrieben:
Nicht ich entscheide, was wichtig ist – sondern die Daten.
Erst im Nachhinein werden die Ergebnisse mit Fachwissen und Literatur abgeglichen.
Diese Trennung war ungewohnt, aber zentral.
Sie hat mir gezeigt, wie wichtig es ist, zwischen Hypothesen und datenbasierter Evidenz zu unterscheiden.
Modellbewertung: Gute Werte sind nicht alles
Zur Bewertung der Modelle wurden klassische Metriken verwendet, insbesondere die AUROC.
Vereinfacht gesagt beschreibt sie, wie gut ein Modell zwischen „Sturz“ und „kein Sturz“ unterscheiden kann.
Dabei zeigte sich ein wichtiges Spannungsfeld:
Modelle können statistisch sehr gut sein – und trotzdem praktisch schwer nutzbar.
Ein zentraler Grund dafür liegt im klinischen Kontext:
Stürze sind im Verhältnis zur Gesamtpopulation selten – was aus Versorgungssicht erfreulich ist, aus analytischer Sicht jedoch eine Herausforderung darstellt. Gleichzeitig handelt es sich um ein multidimensionales Ereignis, das durch eine Vielzahl klinischer, funktionaler und organisatorischer Faktoren beeinflusst wird.
Gerade deshalb sind präzise Modelle wichtig:
für Patientensicherheit, aber auch im Hinblick auf Folgekosten und Versorgungsqualität.
Mehr Features ≠ automatisch besser
Durch die erweiterten Modelle konnte die Vorhersageleistung deutlich verbessert werden.
Gleichzeitig wurde mir klar:
Mehr Variablen bedeuten nicht automatisch bessere Modelle.
Es entsteht ein Balanceakt zwischen:
Modellleistung
Interpretierbarkeit
und Overfitting
Für mich war das eine wichtige Lernerfahrung:
Datenanalyse ist kein „mehr ist besser“, sondern immer auch ein Abwägen.
Rückblick auf sechs Monate Nursing Analytics
Wenn ich auf mein Praktikum zurückblicke, sehe ich vor allem eine Entwicklung:
Vom ersten Verständnis der Datenstrukturen
→ über die systematische Analyse
→ hin zur ersten eigenen Modellierung
Besonders prägend war für mich die Arbeit an der Analyse von Sturzereignissen, die ich auch im Rahmen einer wissenschaftlichen Publikation mitbearbeiten durfte („The Gender Gap in Inpatient Fall Risk Assessment: Results from a Retrospective Analysis of EHR Data“). Eine Übersicht weiterer Publikationen findet sich hier.
Ich habe gelernt, dass Nursing Analytics genau an der Schnittstelle entsteht, die mich schon lange interessiert:
Pflege, Daten und evidenzbasierte Entscheidungsfindung.
Ausblick
Auch wenn mein Praktikum endet, bleibt das Thema für mich zentral.
In meinem weiteren beruflichen Weg möchte ich Pflegeinformatik und Pflegepädagogik miteinander verbinden – mit dem Ziel, datenbasierte Kompetenzen stärker in die Pflegepraxis und Ausbildung zu integrieren.
Denn eines habe ich in den letzten Monaten klar verstanden:
Daten ersetzen keine Pflege.
Aber sie können helfen, Pflege besser zu verstehen – und langfristig zu verbessern.