Clear Sky Science · nl
De rol van agentische kunstmatige intelligentie in de gezondheidszorg: een scopingreview
Slimmere hulp achter de schermen in het ziekenhuis
Stel je een digitale assistent in het ziekenhuis voor die niet alleen vragen beantwoordt, maar stilletjes volgt wat er gebeurt, beslist wat de volgende stap moet zijn en actie onderneemt zonder elke keer gevraagd te worden. Dit artikel onderzoekt dat opkomende type technologie—"agentische AI" genoemd—en verkent hoe dicht we bij systemen zijn die artsen, verpleegkundigen en patiënten op een veilige manier kunnen ondersteunen in de dagelijkse klinische zorg.

Van eenvoudige programma’s naar doelgerichte partners
Computers in de geneeskunde begonnen als rekenmachines en starre regelvolgers: ze konden een beeld classificeren of een afwijkende laborwaarde markeren, maar alleen wanneer precies werd voorgeschreven wat ze moesten doen. Nieuwere "generatieve" systemen, zoals chatbots, kunnen tekst, afbeeldingen of code produceren, maar wachten nog steeds op menselijke prompts. Agentische AI gaat een stap verder. Deze systemen zijn rond doelen ontworpen—zoals het verbeteren van de respons van een traumateam, het afstemmen van kankerbehandeling of het helpen van een kind vooruitgang te boeken in therapie. Ze verzamelen informatie uit meerdere bronnen, plannen een handelingspad, roepen zelfstandig andere softwaretools aan en passen hun handelen aan naarmate de situatie zich ontwikkelt, terwijl mensen de grote beslissingen behouden.
Waar deze digitale agenten getest worden
De auteurs doorzochten vijf belangrijke onderzoeksdatabanken en vonden wereldwijd slechts zeven studies die echt dit meer onafhankelijke type AI in de gezondheidszorg gebruikten. De projecten besloegen spoedeisende hulp, kankerbehandeling en -diagnostiek, medische beeldvorming, revalidatie en proteïneanalyse voor geneesmiddelenonderzoek. Één systeem volgde traumagevallen in real time, maakte vollediger rapporten en activeerde waarschuwingen wanneer vitale waarden buiten de norm raakten. Een ander stuurde gepersonaliseerde dagelijkse berichten naar kankeroverlevenden om wandelen te stimuleren. Een virtual-realityspel paste de moeilijkheidsgraad aan om kinderen met het syndroom van Down te helpen motorische en sociale vaardigheden te ontwikkelen. Andere systemen richtten zich op het lezen van thoraxfoto’s, het plannen van bestralingstherapieën, het detecteren van leverkanker via kleine deeltjes in bloed en het automatisch analyseren van complexe proteïnegegevens relevant voor nieuwe therapieën.

Wat deze systemen goed kunnen—en waar ze tekortschieten
Over deze experimenten lieten de agentische systemen zien dat ze met een zekere mate van zelfstandigheid konden opereren: ze streefden naar duidelijk omschreven doelen, namen het initiatief om analyses uit te voeren of andere programma’s aan te roepen, en combineerden in sommige gevallen de inspanningen van meerdere samenwerkende AI-"agenten." De resultaten waren vaak indrukwekkend. Eén hulpmiddel onderscheidde leverkanker van niet-kanker met meer dan 94 procent nauwkeurigheid, ook bij patiënten waarvan de gebruikelijke bloedmarker misleidend was. Een ander evenaarde of overtrof expert-planners bij het ontwerpen van bestralingstherapieën, en een systeem voor redeneren over thoraxfoto’s bereikte state-of-the-art prestaties zonder voor elke nieuwe vraag opnieuw getraind te worden. Toch waren deze successen sterk gebonden aan nauwe taken. De meeste systemen werkten alleen in gecontroleerde omgevingen, met zorgvuldig voorbereide data, en geen enkel systeem kon echt leren en verbeteren over lange tijdsperioden of vroeger patiënten op een betekenisvolle manier onthouden.
Veiligheid, vertrouwen en de menselijke toets
De review wijst ook op belangrijke risico’s. Omdat deze agenten zelfstandig kunnen handelen—data ophalen, plannen voorstellen, zelfs waarschuwingen activeren—kunnen fouten of slechte coördinatie ernstige gevolgen hebben, vooral in tijdkritische domeinen zoals kankerzorg. Veel van de studies hadden een matig tot ernstig risico op bias en testten de hulpmiddelen niet in de dagelijkse klinische praktijk. Er zijn ook zorgen over verborgen redenering ("black box"-gedrag), cyberbeveiliging en wie verantwoordelijk is als een autonoom systeem bijdraagt aan schade. Regelgevers in de Verenigde Staten en Europa beginnen medische AI als "hoog risico" te beschouwen, maar de huidige regels zijn niet geschreven met sterk onafhankelijke, doelgestuurde software in gedachten. De auteurs betogen dat menselijk toezicht centraal moet blijven en dat er duidelijkere regels nodig zijn over hoe ver zulke systemen op eigen houtje mogen gaan.
Wat er hierna moet gebeuren
Voorlopig is agentische AI in de gezondheidszorg meer een veelbelovend prototype dan een voltooid product. De review laat zien dat deze systemen kunnen helpen bij een breed scala aan taken—van het monitoren van patiënten en het ondersteunen van revalidatie tot het plannen van complexe kankerbehandelingen—maar slechts één studie betrof echte patiënten in een gecontroleerde trial. De auteurs pleiten voor gedeelde definities van wat als "agentisch" telt, standaardmethoden om veiligheid en baten te meten en grotere, praktijkgerichte klinische studies. Ziekenhuizen zullen ook betere datasystemen, sterkere privacybescherming en duidelijke richtlijnen nodig hebben die clinici aan het roer houden. Als deze fundamenten zorgvuldig worden gelegd, kan agentische AI uitgroeien tot een betrouwbare digitale teamgenoot die de werkdruk verlicht, besluitvorming scherpt en uiteindelijk de patiëntenzorg verbetert, in plaats van een mysterieuze zwarte doos die zelf keuzes maakt.
Bronvermelding: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5
Trefwoorden: agentische AI, automatisering in de gezondheidszorg, klinische besluitsondersteuning, AI voor medische beeldvorming, digitale gezondheid