Clear Sky Science · nl

Het vernieuwen van wereldwijde regelgevingskaders voor generatieve AI in medische hulpmiddelen is een urgente prioriteit

· Terug naar het overzicht

Waarom dit ertoe doet voor uw gezondheid

Generatieve kunstmatige intelligentie, waaronder geavanceerde chatbots, dringt snel door in dokterspraktijken en ziekenhuizen. Deze systemen kunnen doktersnotities opstellen, gezondheidsvragen beantwoorden en zelfs diagnoses suggereren. Deze review legt uit waarom onze huidige regels voor medische hulpmiddelen niet klaar zijn voor zulke flexibele en onvoorspelbare technologieën, en waarom het bijwerken ervan essentieel is voor veilige, eerlijke en betrouwbare zorg wereldwijd.

Figure 1. Hoe AI-hulpmiddelen, artsen en patiënten via slimmere regels verbonden worden om veiliger medische zorg te leveren.
Figure 1. Hoe AI-hulpmiddelen, artsen en patiënten via slimmere regels verbonden worden om veiliger medische zorg te leveren.

Nieuwe hulpmiddelen die veel meer doen dan één taak

Oudere medische software was ontworpen om één duidelijk afgebakende taak uit te voeren, zoals het opsporen van een tumor op een scan. Generatieve AI en grote taalmodellen daarentegen kunnen veel verschillende taken aan, van het samenvatten van medische dossiers tot het adviseren over behandelopties. Ze worden getraind op enorme verzamelingen online tekst, afbeeldingen en andere gegevens, wat ze krachtig maar ook moeilijk volledig te doorgronden of te beheersen maakt. Omdat hun antwoorden van het ene gebruik tot het andere kunnen veranderen en bevooroordeelde of zelfverzekerde fouten of "hallucinaties" kunnen bevatten, passen ze niet netjes in bestaande categorieën voor medische hulpmiddelen die zijn ontworpen voor voorspelbaardere tools.

Waarom de huidige veiligheidsregels tekortschieten

Toezichthouders hebben geprobeerd bij te benen met een aanpak van de "totale productlevenscyclus" die een hulpmiddel volgt van ontwerp tot gebruik in de praktijk. Dat helpt bij veel soorten AI, maar het artikel betoogt dat het niet genoeg is voor grote taalmodellen. Het is vrijwel onmogelijk alle trainingsgegevens te inspecteren op fouten of verborgen persoonlijke informatie. Het evalueren van hoe goed deze systemen werken is ook lastig, omdat hun lange, open antwoorden moeilijk te scoren zijn met eenvoudige accuraatheidstests. Studies tonen aan dat sommige modellen goed presteren op examenachtige vragen maar worstelen met rommelige, reële gevallen, en op belangrijke taken slechter kunnen presteren dan clinici. Daar komt bij dat er geen afgesproken manier is om vooringenomenheid te meten of te monitoren, wat betekent dat systemen stilzwijgend minder goed kunnen werken voor bepaalde patiëntengroepen.

Verborgen risico's na uitrol

Zodra tools op basis van grote taalmodellen worden vrijgegeven, wordt het bijhouden van hun veiligheid nog complexer. Veel modellen bouwen voort op gedeelde basissystemen en worden vervolgens aangepast of opnieuw getraind door verschillende bedrijven, waardoor het moeilijk is precies te weten welke gegevens en wijzigingen eronder zitten. Sommige tools bereiken patiënten rechtstreeks als gezondheidsadvies-apps zonder formele goedkeuring. Problemen kunnen ongerapporteerd blijven, vooral wanneer fouten zijn weggestopt in lange doktersnotities die door een AI-scribe zijn opgesteld. Bestaande goedkeuringsroutes die leunen op het aantonen van "overeenstemming" met oudere producten kunnen misbruikt worden voor tools die in feite behoorlijk anders zijn. Tegelijkertijd worden ethische kwesties zoals privacy, autonomie, vertrouwen en de impact op de arts-patiëntrelatie maar deels behandeld in de huidige regelgeving.

Figure 2. Hoe rommelige gezondheidsgegevens door toezichtstappen worden gefilterd tot veiligere AI-hulpmiddelen die in alledaagse medische apparaten worden gebruikt.
Figure 2. Hoe rommelige gezondheidsgegevens door toezichtstappen worden gefilterd tot veiligere AI-hulpmiddelen die in alledaagse medische apparaten worden gebruikt.

Het bouwen van slimmer en eerlijker toezicht

De auteurs belichten opkomende ideeën om regelgeving flexibeler en effectiever te maken. "Regulatory sandboxes" laten nieuwe AI-hulpmiddelen onder toezicht in beperkte settings testen, zodat toezichthouders en ontwikkelaars kunnen leren van ervaring en regels snel kunnen aanpassen. Nieuwe concepten zoals "software als medische dienst" streven ernaar sterk geautomatiseerde AI-agenten meer te behandelen als doorlopende gezondheidsdiensten dan als vaste producten. Het artikel benadrukt ook het belang van inzicht in de volledige leveringsketen, van gegevensverzameling en modelbouw tot cloudhosting en hardware, zodat zorgsystemen veerkrachtig kunnen blijven wanneer digitale hulpmiddelen falen of worden aangevallen. Wereldwijde netwerken van toezichthouders, onderzoekers en zorgsystemen beginnen checklists, testnormen en toezichthoudende laboratoria te delen om hun inspanningen op één lijn te brengen.

Gelijkheid centraal houden

Een belangrijke zorg is hoe generatieve AI de kloof in gezondheid tussen rijke en arme regio's kan vergroten of verkleinen. Als modellen voornamelijk zijn getraind op gegevens uit hoge-inkomenslanden, kunnen ze slecht presteren in settings met weinig middelen of voor ondervertegenwoordigde gemeenschappen. Het artikel pleit voor doelbewuste opname van perspectieven en gegevens uit lage- en middeninkomenslanden, en voor steun om deze regio's te helpen hun eigen AI-hulpmiddelen veilig te bouwen en inzetten. Rapportagestandaarden en evaluatie-instrumenten gericht op gezondheidsrechtvaardigheid kunnen verborgen vooroordelen aan het licht brengen, terwijl samenwerkingen succesvolle AI kunnen helpen opschalen van pilotprojecten naar echte klinieken zonder kwetsbare groepen achter te laten.

Wat dit betekent voor de toekomst

Eenvoudig gezegd concludeert het artikel dat generatieve AI in de geneeskunde te snel beweegt voor bestaande regelboeken. Om patiënten te beschermen en vertrouwen te winnen, moeten landen samenwerken aan nieuwe, adaptieve regelgevende kaders die gelijke tred houden met veranderende modellen, terwijl ze privacy, veiligheid en eerlijkheid waarborgen. De auteurs zien onafhankelijke wereldwijde organen voor zich die gedeelde standaarden vaststellen, vergelijkbaar met die voor cyberbeveiliging, zodat ziekenhuizen en patiënten overal van deze hulpmiddelen kunnen profiteren zonder blootgesteld te worden aan vermijdbare schade.

Bronvermelding: Ong, J.C.L., Ning, Y., Liu, M. et al. Innovating global regulatory frameworks for generative AI in medical devices is an urgent priority. npj Digit. Med. 9, 364 (2026). https://doi.org/10.1038/s41746-026-02552-2

Trefwoorden: generatieve AI, medische hulpmiddelen, gezondheidszorgregulering, grote taalmodellen, gezondheidsrechtvaardigheid