Clear Sky Science · nl
Een kwalitatieve interviewstudie naar perspectieven van patiënten, zorgprofessionals en ontwikkelaars over de implementatie van patiëntgerichte AI-systemen in de echte wereld
Waarom dit belangrijk is voor gezinnen in het dagelijks leven
Nu computers slimmer worden, hopen veel mensen dat kunstmatige intelligentie (AI) artsen kan helpen gezondheidsproblemen vroeg te signaleren en zorg op maat te leveren. Toch slagen zelfs zeer nauwkeurige AI-instrumenten er vaak niet in echt een verschil te maken in het leven van mensen zodra ze uit het laboratorium komen. Deze studie onderzoekt nauwkeurig wat patiënten, zorgprofessionals en AI-ontwikkelaars denken dat nodig is om patiëntgerichte AI in de dagelijkse zorg te brengen, met een instrument dat tijdens de zwangerschap het risico op postpartumdepressie voorspelt als praktijkvoorbeeld.

Drie groepen tegelijk aan het woord
De onderzoekers interviewden 36 mensen: zwangere of recent bevallen patiënten, zorgprofessionals die hen behandelen, en AI-ontwikkelaars met ervaring in mentale of reproductieve gezondheid. In plaats van alleen te meten of het algoritme accuraat was, richtte het team zich op hoe het daadwerkelijk in het leven van mensen en in klinische routines zou passen. Ze vroegen elke groep hoe ze zouden denken over het zien of gebruiken van door AI gegenereerde risicoscores voor postpartumdepressie, hoe die informatie gedeeld zou moeten worden, en wie verantwoordelijk zou zijn als er iets misging. Door deze stemmen binnen één kader te combineren, bracht de studie spanningen en overeenkomsten aan het licht die moeilijk zichtbaar zijn wanneer slechts één groep wordt geraadpleegd.
Vrees voor schade en hoop op echte hulp
Algemeen waren de deelnemers het erover eens dat elke patiëntgerichte AI meer goed dan kwaad moet doen. Patiënten maakten zich zorgen dat een hoge risicoscore voor depressie het stigma zou kunnen verdiepen of zelfs betrokkenheid van jeugdzorg zou kunnen uitlokken. Zorgprofessionals richtten zich op het gevaar van bevooroordeelde of lage-kwaliteit data, vooral als bepaalde raciale of sociale groepen ondervertegenwoordigd waren. Ontwikkelaars benadrukten de noodzaak deze problemen te identificeren en te verminderen terwijl de tools worden gebouwd, niet pas na inzet. Tegelijkertijd benadrukten alle partijen dat het instrument moet leiden tot duidelijke, bruikbare acties—zoals eenvoudigere verwijzingen naar geestelijke gezondheidszorg of sociale ondersteuning—in plaats van slechts een extra getal in het dossier. Wanneer risicoscores werden getoond zonder voor de hand liggende vervolgstappen, wisten zowel patiënten als clinici vaak niet hoe ze moesten reageren.
Hoe informatie gedeeld moet worden
Mensen hadden sterke en uiteenlopende opvattingen over hoe AI-resultaten patiënten zouden moeten bereiken. Sommigen wilden hun risicoscores voorafgaand aan afspraken via een online portaal zien zodat ze vragen konden voorbereiden en emoties privé konden verwerken. Anderen gaven er de voorkeur aan resultaten alleen te horen in gesprek met een vertrouwde zorgverlener die kon uitleggen wat ze betekenden. Alle groepen waren het erover eens dat uitleg in duidelijke, niet-medische of technische taal moet zijn, en dat patiënten begeleiding nodig zouden hebben om te interpreteren wat een bepaald percentage of risicoklasse concreet voor hun leven betekent. Veel patiënten wilden weten welke specifieke factoren, zoals eerdere gezondheidsgeschiedenis of huidige stress, hun score aandreven zodat ze met hun zorgteam konden bespreken wat mogelijk veranderbaar is.
Vertrouwen, privacy en gedeelde verantwoordelijkheid
Vertrouwen in AI bleek sterk verbonden met vragen rond privacy en aansprakelijkheid. Deelnemers wilden geruststelling dat persoonlijke gegevens, vooral gevoelige informatie over geestelijke gezondheid en zwangerschap, veilig zouden worden opgeslagen en gebruikt. Patiënten gingen er vaak van uit dat alles wat zichtbaar is in hun online dossier al gecontroleerd en accuraat is, wat de consequenties van fouten vergroot. Zorgprofessionals maakten zich zorgen over het krijgen van de schuld als ze een AI-advies opvolgden—of juist niet—en dat later tot nare uitkomsten leidde. Ontwikkelaars stelden dat verantwoordelijkheid gedeeld moet worden: zorgsystemen, toezichthouders, clinici en AI-makers hebben allemaal een rol bij het checken op bias, het monitoren van prestaties in de loop van de tijd en het beslissen hoe en wanneer tools in de zorg gebruikt mogen worden.

Wat er nu moet veranderen
Uit deze gesprekken schetsen de auteurs meerdere praktische stappen om AI echt patiëntgerichter te maken. Zorgprofessionals hebben training, tijd en ondersteunende hulpmiddelen nodig om AI-uitkomsten te interpreteren en erover met patiënten te praten. Patiënten en eerstelijnsclinici moeten vroeg worden betrokken bij het ontwerp en de testfase van AI-systemen, zodat vragen over eerlijkheid, bruikbaarheid en communicatie vanaf het begin worden aangepakt. AI-uitvoer moet worden gepresenteerd in flexibele, gemakkelijk te begrijpen vormen die opties voor actie benadrukken, niet alleen risiconiveaus. Tenslotte zijn duidelijke, gelaagde regels en toezicht nodig om privacy te beschermen en verantwoordelijkheid te delen tussen instellingen, toezichthouders en ontwikkelaars. Samen kunnen deze veranderingen helpen AI te verplaatsen van indrukwekkende laboratoriumresultaten naar veiligere, zinvollere ondersteuning voor gezinnen tijdens de zwangerschap en daarna.
Bronvermelding: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5
Trefwoorden: kunstmatige intelligentie in de gezondheidszorg, postpartumdepressie, patiëntgerichte zorg, ethiek van digitale gezondheid, screening geestelijke gezondheid