Clear Sky Science · de
Künstliche Intelligenz-basierte System zur Vorfallanalyse und zum Lernen zur Verbesserung der Patientensicherheit und Behandlungsqualität
Warum intelligentere Vorfallbewertungen für Patienten wichtig sind
Hinter jeder sicheren Krebsbehandlung steht eine unsichtbare Schicht aus Überprüfen, Doppelprüfen und Lernen aus Beinahe‑Fehlern. Die Strahlentherapie ist hochpräzise, doch ihre komplexen, teamorientierten Arbeitsabläufe lassen Raum für kleine Fehler, die sich zu großen Problemen auswachsen können. Krankenhäuser erfassen bereits Tausende von Berichten über Beinaheunfälle und kleinere Störungen, doch das händische Durchsehen dieser Berichte ist langsam und inkonsistent. Dieser Artikel beschreibt ein neues, auf künstlicher Intelligenz basierendes System, das Expertinnen und Experten dabei hilft, Vorfallberichte schnell zu analysieren, versteckte Muster in Ursachen und Ablauf zu erkennen und dieses Wissen in sicherere Versorgung umzusetzen.

Von menschlichen Geschichten zum systemischen Lernen
Wenn während einer Strahlenbehandlung etwas Ungewöhnliches passiert – etwa eine missverständliche Anweisung, eine Verzögerung oder ein Beinaheereignis – verfassen Klinikerinnen und Kliniker eine narrative Meldung in eigenen Worten. Traditionell lesen Qualitäts‑ und Sicherheitsteams jede Geschichte, bewerten, was schiefgelaufen ist, und ordnen sie einem Human‑Factors‑Rahmenwerk namens HFACS zu, das beitragende Ursachen von vordergründigen Fehlhandlungen bis hin zu tieferliegenden organisatorischen Problemen gliedert. Dieser Ansatz ist wirkungsvoll, aber zeitaufwändig, besonders in vielbeschäftigten Krebszentren, in denen Tausende Vorfälle protokolliert werden, die meisten ohne Patientenschaden, aber dennoch lehrreiche Informationen enthalten. Das neue, auf künstlicher Intelligenz basierende Incident Analysis and Learning System (AI‑ILS) zielt darauf ab, diese Teams zu unterstützen, indem es einen großen Teil der Klassifizierungsarbeit automatisiert und gleichzeitig die fachliche Aufsicht bewahrt.
Die Sprache von Vorfällen säubern und klären
Bevor ein Algorithmus eine Vorfallbeschreibung verstehen kann, muss der Text sowohl datenschutzkonform als auch inhaltlich klar sein. AI‑ILS entfernt zuerst personenbezogene Daten – wie Namen, Daten und Aktennummern – mithilfe spezialisierter Sprachmodelle, die trainiert wurden, sensible Informationen in medizinischen Texten zu erkennen. Anschließend werden medizinische Abkürzungen und lokale Fachbegriffe in klarere Formulierungen erweitert, sodass Akronyme wie „DIBH“ oder berufsbezogene Abkürzungen korrekt interpretiert werden. Diese zweistufige Aufbereitung macht die Berichte anonym und für das Kernmodell verständlicher, ohne die ursprüngliche Struktur und Intention der Erzählung zu zerstören, was für die genaue Bewertung dessen, was schiefgelaufen ist, entscheidend ist.
Der KI beibringen, tiefere Ursachen zu erkennen
Im Zentrum des Systems steht ein großes Sprachmodell, das an 1.548 sorgfältig erstellten Beispiels‑Vorfallberichten feinabgestimmt wurde. Ein multidisziplinäres Team – darunter Physiker, Pflegekräfte, Therapeutinnen und Therapeuten, Dosimetristen und Ärztinnen und Ärzte – verfasste diese Beispiele, um eine breite Palette an Problemen über die vier HFACS‑Ebenen abzudecken: unsichere Handlungen, Voraussetzungen (wie Personalbesetzung oder Umwelt), Aufsicht und weiterreichende organisatorische Einflüsse. Das Modell wurde in vier parallelen Zweigen trainiert, je einem für jede Ebene, mit einer zusätzlichen Option „keines der oben genannten“, um zu vermeiden, dass jede Geschichte in eine unpassende Kategorie gezwängt wird. Nach der Feinabstimmung verbesserte sich die Leistung des Modells deutlich: Seine Fähigkeit, korrekte von inkorrekten Etiketten zu unterscheiden (gemessen anhand gängiger Genauigkeits‑ und Korrelationsmetriken), stieg von etwa Zufallsniveau auf starke Übereinstimmung mit der Expertenbewertung.
Das System in realen Kliniken testen
Die Forschenden wandten AI‑ILS anschließend auf 350 echte Vorfallberichte aus der internen Sicherheitsdatenbank eines großen Krebszentrums an. Im Vergleich mit den Klassifikationen erfahrener medizinischer Physikerinnen und Physiker fanden sie etwa 79 % strikte Übereinstimmung und fast 88 % Übereinstimmung, wenn Grenzfälle als „möglicherweise akzeptabel“ gewertet wurden. Das System arbeitete deutlich schneller als Menschen: Es konnte einen Vorfall vollständig verarbeiten und klassifizieren in etwa fünf Sekunden, während Prüferinnen und Prüfer rund zweieinhalb Minuten pro Fall benötigten. Eine einfache Chat‑ähnliche Oberfläche ermöglicht es Klinikerinnen und Klinikern zu sehen, wie die KI einen Bericht interpretiert hat, Folgefragen zu stellen und besser zu verstehen, warum eine bestimmte Ursache vorgeschlagen wurde – das macht das Werkzeug zum Partner statt zur Blackbox.

Was das für sicherere Versorgung bedeutet
Die Studie legt nahe, dass ein sorgfältig zugeschnittenes KI‑System Expertinnen und Experten zuverlässig dabei unterstützen kann, große Mengen an Sicherheitsberichten zu verarbeiten, und so Zeit für tiefere Untersuchungen und konkrete Maßnahmen freisetzt. Anstatt menschliches Urteilsvermögen zu ersetzen, organisiert und standardisiert AI‑ILS Vorfallmuster über vordergründige Fehler, Arbeitsbedingungen, Aufsicht und organisatorische Praktiken hinweg. Mit breiterer Einführung und größeren, multizentrischen Datensätzen könnten ähnliche Werkzeuge Krankenhäusern helfen, von reaktiven Korrekturen nach Zwischenfällen zu proaktiven, datengetriebenen Verbesserungen der Versorgung überzugehen – was still und stetig vermeidbare Schäden reduziert und komplexe Behandlungen wie die Strahlentherapie für Patientinnen und Patienten überall sicherer macht.
Zitation: Jinia, A.J., Chapman, K., Liu, S. et al. Artificial intelligence-based incident analysis and learning system to enhance patient safety and improve treatment quality. npj Digit. Med. 9, 254 (2026). https://doi.org/10.1038/s41746-026-02390-2
Schlüsselwörter: Patientensicherheit, Strahlentherapie, Vorfallmeldung, Künstliche Intelligenz, Menschliche Faktoren