Clear Sky Science · nl
Door kunstmatige intelligentie ondersteund systeem voor incidentanalyse en leren ter verbetering van patiëntveiligheid en behandelkwaliteit
Waarom slimmer incidentenonderzoek belangrijk is voor patiënten
Achter elke veilige kankerbehandeling ligt een onzichtbare laag van controleren, dubbelcontroleren en leren van bijna‑ongelukken. Radiotherapie is zeer precies, maar de complexe, teamgebaseerde werkprocessen laten ruimte voor kleine fouten die zich kunnen uitspreiden tot grotere problemen. Ziekenhuizen verzamelen al duizenden rapporten over bijna‑missers en kleine storingen, maar die verhalen handmatig doorzoeken is traag en inconsistente. Dit artikel beschrijft een nieuw, op kunstmatige intelligentie gebaseerd systeem dat experts helpt incidentrapporten snel te analyseren, verborgen patronen in hoe en waarom iets misgaat te ontdekken, en die kennis om te zetten in veiliger zorg.

Van menselijke verhalen naar systeemleren
Wanneer er tijdens een bestraling iets ongewoons gebeurt—zoals een verwarrende instructie, een vertraging of een bijna‑ongeluk—leggen zorgverleners dit vast in een verhalend rapport in hun eigen woorden. Traditioneel lezen kwaliteit‑ en veiligheidsteams elk verhaal, bepalen wat er misging en koppelen het aan een human factors‑kader genaamd HFACS, dat bijdraagt oorzaken uiteenlegt van voorvlakfouten tot diepere organisatorische problemen. Deze aanpak is krachtig maar tijdrovend, vooral in drukke kankercentra waar duizenden incidenten worden geregistreerd, waarvan de meeste geen schade veroorzaken maar toch waardevolle lessen bevatten. Het nieuwe AI‑ILS (Artificial Intelligence–based Incident Analysis and Learning System) wil deze teams ondersteunen door veel van het classificatiewerk te automatiseren, terwijl de deskundige beoordeling behouden blijft.
De taal van incidenten opschonen en verduidelijken
Voordat een algoritme een incidentverhaal kan begrijpen, moet de tekst zowel veilig te delen als duidelijk van betekenis zijn. AI‑ILS verwijdert eerst persoonlijke gegevens—zoals namen, data en dossiernummers—met gespecialiseerde taalmodellen die getraind zijn om gevoelige informatie in medische teksten te herkennen. Vervolgens breidt het medische shorthand en lokale jargon uit naar helderdere bewoordingen, zodat acroniemen zoals “DIBH” of functiegebonden afkortingen correct worden geïnterpreteerd. Deze twee‑stappen voorbereiding maakt de rapporten anoniem en makkelijker te begrijpen voor het kernmodel, terwijl de oorspronkelijke structuur en intentie van het verhaal behouden blijven — cruciaal om nauwkeurig te oordelen wat er misging.
Een AI leren diepere oorzaken te zien
In het hart van het systeem draait een large language model dat is verfijnd met 1.548 zorgvuldig samengestelde voorbeeld‑incidentrapporten. Een multidisciplinair team—waaronder fysici, verpleegkundigen, therapeuten, dosimetristen en artsen—schreef deze voorbeelden om een brede reeks problemen over de vier HFACS‑niveaus te bestrijken: onveilige handelingen, voorcondities (zoals personeelsbezetting of omgeving), supervisie en bredere organisatorische invloeden. Het model werd in vier parallelle takken getraind, één voor elk niveau, met een extra optie “geen van bovenstaande” om te voorkomen dat elk verhaal in een onpassende categorie werd gepropt. Na fine‑tuning verbeterde de prestatie van het model sterk: het vermogen om juiste en onjuiste labels te onderscheiden (gemeten met gangbare nauwkeurigheids‑ en correlatiemaatstaven) steeg van ongeveer toevalsniveau naar sterke overeenstemming met deskundig oordeel.
Het systeem testen in echte klinieken
Vervolgens pasten de onderzoekers AI‑ILS toe op 350 echte incidentrapporten uit de interne veiligheidsdatabase van een groot kankercentrum. Bij vergelijking van de classificaties met die van ervaren medische fysici vonden zij ongeveer 79% strikte overeenstemming en bijna 88% overeenstemming wanneer grensgevallen als “mogelijk aanvaardbaar” werden meegeteld. Het systeem werkte veel sneller dan mensen: het kon een incident volledig verwerken en classificeren in ongeveer vijf seconden, terwijl beoordelaars circa tweeënhalve minuut per geval nodig hadden. Een eenvoudige chat‑achtige interface stelt zorgverleners in staat te zien hoe de AI een rapport interpreteerde, vervolgvragen te stellen en beter te begrijpen waarom een bepaalde oorzaak werd voorgesteld, waardoor het gereedschap een partner wordt in plaats van een zwarte doos.

Wat dit betekent voor veiliger zorg
Deze studie suggereert dat een zorgvuldig afgestemd AI‑systeem deskundigen betrouwbaar kan ondersteunen bij het duiden van grote hoeveelheden veiligheidsrapporten, waardoor er meer tijd vrijkomt voor diepgaand onderzoek en actie. In plaats van menselijk oordeel te vervangen, organiseert en standaardiseert AI‑ILS incidentpatronen over frontlijnfouten, werkomstandigheden, supervisie en organisatorische praktijk. Met bredere adoptie en grotere, multicenter datasets zouden vergelijkbare hulpmiddelen ziekenhuizen kunnen helpen te evolueren van reactieve oplossingen na incidenten naar proactieve, data‑gedreven verbeteringen in de zorgverlening — stilletjes te werken aan het verminderen van voorkombare schade en het veiliger maken van complexe behandelingen zoals radiotherapie voor patiënten overal.
Bronvermelding: Jinia, A.J., Chapman, K., Liu, S. et al. Artificial intelligence-based incident analysis and learning system to enhance patient safety and improve treatment quality. npj Digit. Med. 9, 254 (2026). https://doi.org/10.1038/s41746-026-02390-2
Trefwoorden: patiëntveiligheid, radiotherapie, incidentenmelding, kunstmatige intelligentie, menselijke factoren