Clear Sky Science · de
Ein Datensatz zur Beantwortung von Informationsbedürfnissen von Patient:innen in Bezug auf den klinischen Verlauf eines Krankenhausaufenthalts
Warum das für Patient:innen und Familien wichtig ist
Wenn jemand das Krankenhaus verlässt, suchen Angehörige und Betroffene oft besorgt im Internet nach Antworten: Warum wurde dieser Test gemacht? Waren diese Medikamente wirklich nötig? Die heutigen Krankenhausakten enthalten viele dieser Antworten, doch sie sind für Ärzt:innen geschrieben, nicht für Patient:innen. Dieser Artikel stellt ArchEHR-QA vor, einen neuen Datensatz, der Forschenden helfen soll, KI-Tools zu entwickeln und zu testen, die dichte Krankenhausdokumente in klare, präzise Antworten auf echte Patientenfragen verwandeln können.

Von Online-Sorgen zu Krankenhausakten
Die Forscher begannen mit einer einfachen Idee: echte Fragen, die Menschen in öffentlichen Gesundheitsforen stellen, zu nehmen und sie mit echten Krankenhausakten zu paaren, die diese Fragen beantworten könnten. Sie sammelten Beiträge von Patient:innen und Angehörigen auf einem beliebten medizinischen Diskussionsportal, wobei der Fokus auf Fällen lag, in denen jemand kürzlich auf der Intensivstation (ICU) oder in der Notaufnahme war. Dies sind Situationen, in denen Menschen häufig ängstlich und verunsichert sind und in denen Entlassungsanweisungen und Online-Recherchen oft wichtige Fragen offenlassen.
Aufbau realistischer Frage-Antwort-Paare
Da die Personen in den Foren und die Patient:innen in der Krankenhausdatenbank unterschiedliche Individuen sind, passte das Team jede Online-Frage sorgfältig mit einer de-identifizierten Entlassungszusammenfassung ab, die eine sehr ähnliche medizinische Situation beschrieb. Klinikerinnen und Kliniker formulierten dann jede Laienfrage zu einer kurzen, präzisen Version um, wie sie eine Ärztin oder ein Arzt verwenden würde, ohne die eigentliche Frageabsicht zu verändern. Anschließend gingen sie jeden Krankenhausbericht Satz für Satz durch und markierten, welche Zeilen essenziell, welche hilfreich ergänzend und welche nicht nötig waren, um die Frage zu beantworten. Schließlich verfassten lizenzierte Klinikerinnen und Kliniker kurze, leicht verständliche Antworten, die ausschließlich auf den markierten Teilen der Krankenhausakte basierten.

Was der neue Datensatz enthält
Die fertige ArchEHR-QA-Sammlung umfasst 134 Patientenfälle: 104 mit ICU-Aufenthalten und 30 aus Notfallbesuchen. Für jeden Fall gibt es die ursprüngliche Patientenfrage, die von Clinician umformulierte Version, einen sorgfältig gekürzten Ausschnitt aus der Krankenhausakte, satzbezogene Wichtigkeitskennzeichnungen und eine etwa fünf Sätze lange, von einem Clinician verfasste Antwort. Die Fälle decken viele Fachrichtungen ab – etwa Herzkrankheiten, Lungenerkrankungen, Infektionen und Erkrankungen des Gehirns – und umfassen eine breite Altersspanne und unterschiedliche Hintergründe. Alle Materialien werden in gängigen digitalen Formaten bereitgestellt, sodass andere Forschende sie leicht nutzen können.
Heutige KI-Modelle auf dem Prüfstand
Um zu zeigen, wie ArchEHR-QA verwendet werden kann, bewerteten die Autor:innen mehrere moderne große Sprachmodelle, die lokal ausgeführt werden können. Sie baten jedes Modell, die Fragen anhand der Ausschnitte aus den Krankenhausakten zu beantworten und die genauen Sätze anzugeben, die die Antworten stützten. Das Team maß dann zwei Dinge: wie gut die Modelle die richtigen Belege in der Akte auswählten (Faktentreue) und wie nah ihre Antworten an den von Kliniker:innen verfassten Antworten lagen (Relevanz). Es wurden verschiedene Prompting-Strategien ausprobiert, darunter das gleichzeitige Verfassen der Antwort und die Auswahl von Belegen sowie ein schrittweises Vorgehen, bei dem erst geantwortet und anschließend Belege genannt wurden. Insgesamt erfassten die besten Setups etwa die Hälfte der wichtigsten Sätze korrekt und erzeugten Antworten, die zum Teil, aber bei weitem nicht vollständig, mit den Expertenerklärungen übereinstimmten.
Wie diese Arbeit Kliniker:innen entlasten kann
Die Studie untersuchte auch, wo die Modelle Fehler machten. Manchmal nannten sie die richtigen Krankenhaus-Sätze, interpretierten diese jedoch falsch, oder sie orientierten sich zu stark an der Wortwahl der Patientenfrage statt an der eigentlichen Akte. Diese Schwächen unterstreichen, warum robuste Benchmarks nötig sind, bevor KI sicherentwürfe für Mitteilungen an Klinikerinnen und Kliniker erstellen darf. ArchEHR-QA wurde bereits in einer internationalen Forschungsherausforderung eingesetzt, bei der Dutzende Teams mit mehrstufigen Systemen experimentierten, die zunächst relevante Sätze finden und dann Antworten generieren. Der Datensatz kann auch verwandte Aufgaben unterstützen, etwa das Auffinden wichtiger Informationen in langen Notizen oder das Zusammenfassen von Patientenfragen.
Was das für die zukünftige Versorgung bedeutet
Einfach gesagt bietet dieser Artikel eine Grundlage für den Aufbau vertrauenswürdiger digitaler Helfer, die Krankenhausbehandlungen in für Patient:innen verständlicher Sprache erklären können, gestützt auf das, was tatsächlich in ihren Akten steht. Indem reale Fragen mit realen klinischen Belegen und Expertenantworten verknüpft werden, macht ArchEHR-QA messbar, ob KI-Systeme sowohl akkurat als auch nützlich sind. Falls sich solche Systeme weiter verbessern, könnten sie eines Tages klare, individualisierte Erklärungen entwerfen, die Klinikerinnen und Kliniker überprüfen — wodurch die Posteingangsbelastung sinkt und Patient:innen sowie Familien schneller und verlässlicher Antworten darauf bekommen, was im Krankenhaus geschehen ist und wie es weitergeht.
Zitation: Soni, S., Demner-Fushman, D. A Dataset for Addressing Patient’s Information Needs related to Clinical Course of Hospitalization. Sci Data 13, 523 (2026). https://doi.org/10.1038/s41597-026-06639-z
Schlüsselwörter: elektronische Gesundheitsakten, Patientenfragen, medizinische KI, klinische Notizen, Fragebeantwortung