Clear Sky Science · nl
Uitdagingen bij het toepassen van de EU-AI‑wet onderzoeksuitsluitingen op hedendaags AI‑onderzoek
Waarom nieuwe regels voor AI iedereen raken
Kunstmatige intelligentie verplaatst zich snel van onderzoekslaboratoria naar ziekenhuizen, banken, scholen en overheidsinstanties. Om mensen te beschermen en tegelijkertijd innovatie te stimuleren, heeft de Europese Unie ’s werelds eerste brede wetgeving specifiek voor AI opgesteld: de EU‑AI‑wet. Dit artikel onderzoekt nauwkeurig een schijnbaar smal maar cruciaal onderdeel van die wet: de speciale uitzonderingen voor onderzoek. De auteurs betogen dat in de praktijk van moderne AI de scheidslijn tussen “alleen onderzoek” en “gebruik in de echte wereld” vaag is, en dat die vaagheid ofwel nuttige wetenschap kan afremmen ofwel de deur kan openen voor risicovolle toepassingen die langs de waarborgen glippen.

Hoe de nieuwe AI‑wet ons probeert te beschermen
De EU‑AI‑wet schetst een breed kader dat de meeste actoren die AI‑systemen bouwen, verkopen en gebruiken bestrijkt, zelfs als ze buiten Europa opereren maar mensen in de EU beïnvloeden. Binnen dit ruime bereik kent de wet twee belangrijke uitzonderingen voor onderzoek. De ene geldt wanneer AI‑systemen nog in ontwikkeling zijn en nog niet op de markt zijn gebracht of voor hun beoogde doel worden gebruikt; de andere geldt voor voltooide systemen die uitsluitend voor wetenschappelijk onderzoek zijn ontworpen en gebruikt. Op papier zijn deze uitzonderingen bedoeld om te voorkomen dat bureaucratie experimenteren verstikt, terwijl wordt gewaarborgd dat AI in het dagelijks leven voldoet aan strikte eisen op het gebied van veiligheid, transparantie en respect voor fundamentele rechten.
Waar het lab eindigt en het echte leven begint
De eerste uitzondering, voor de ontwikkelingsfase, gaat uit van een duidelijke scheiding tussen labtesten en gebruik in de echte wereld. De wet stelt dat activiteiten voordat een systeem “op de markt wordt gebracht” of “in gebruik wordt genomen” buiten haar reikwijdte vallen, maar sluit expliciet testen onder realistische omstandigheden uit van deze veilige zone. Dat klinkt eenvoudig totdat we gebruikelijke AI‑praktijken in aanmerking nemen: bijvoorbeeld het stilletjes laten draaien van een prototype in een ziekenhuis en het verzamelen van live data zonder artsen enige output te tonen. Is dat nog steeds “labwerk” of al “testen in de echte wereld”? De auteurs leggen uit dat het antwoord afhangt van het beoogde doel van het systeem. Als het verborgen systeem voor diagnostiek wordt getest, geldt het waarschijnlijk als testen in de echte wereld en moet het de beschermingen van de wet activeren, inclusief goedkeuringen, toezicht en strikte tijdslimieten.

Wanneer onderzoek en commercie overlappen
De tweede uitzondering, voor wetenschappelijk gebruik, probeert AI te beschermen die zowel is ontwikkeld als uitsluitend wordt gebruikt voor onderzoek. In de praktijk is deze eis moeilijk scherp te krijgen. Moderne wetenschap verloopt vaak via samenwerkingen tussen universiteiten, ziekenhuizen, bedrijven en publieke instanties. Hulpmiddelen die in een lab worden gebouwd, kunnen later commerciële producten worden, of een bedrijf kan een systeem verkopen dat een universiteit alleen voor onderzoek gebruikt. Het artikel behandelt concrete scenario’s die laten zien hoe de bewoording van de wet tot vreemde of onduidelijke uitkomsten kan leiden — bijvoorbeeld een instrument dat oorspronkelijk voor patiëntenzorg is ontworpen maar uiteindelijk alleen voor beeldanalyse in een studie wordt gebruikt. De auteurs waarschuwen dat vage begrippen zoals “uitsluitend doel” zowel eerlijke verwarring als strategisch gedrag uitnodigen, zoals het presenteren van een product als “onderzoek” om naleving uit te stellen.
Het risico van achterdeurtjes en vertragingen
Deze grijze gebieden zijn belangrijk omdat ze bepalen wie aan de strengere regels van de AI‑wet moet voldoen. Als definities te vaag zijn, kunnen sommige actoren stiekem bijna‑productietests op echte mensen uitvoeren zonder het toezicht dat de wet beoogt, of delen van hun keten naar andere landen verplaatsen om verplichtingen te ontwijken. Als definities te strikt zijn of star worden toegepast, kunnen onderzoekers—vooral in publieke of non‑profitomgevingen—zware regelgevende lasten krijgen, zelfs wanneer er geen commerciële invalshoek is en er duidelijk maatschappelijk nut is, zoals bij klimaatmodellering of ziektevoorspelling. De auteurs stellen dat deze spanning tussen het vermijden van achterdeurtjes en het vermijden van onnodige bureaucratie door beide uitzonderingen loopt en wordt versterkt door het ontbreken van een gedeelde EU-brede definitie van “wetenschappelijk onderzoek.”
Wat er moet veranderen voor veiligere, slimmer AI
Uiteindelijk concluderen de auteurs dat de onderzoeksuitsluitingen in de EU‑AI‑wet steunen op een verouderd beeld van onderzoek als iets dat netjes gescheiden is van echte wereldimpact en commerciële belangen. In de hedendaagse AI zijn live data, pilot‑implementaties en gemengde publiek‑private projecten eerder de norm dan de uitzondering. De auteurs pleiten voor duidelijkere definities van kernbegrippen zoals “realistische omstandigheden” en “wetenschappelijk onderzoek,” praktische richtlijnen over hoe en wanneer een AI‑systeem de grens naar gereguleerd gebruik overschrijdt, en sterkere waarborgen tegen misbruik van uitzonderingen. Zij betogen dat zonder zulke verfijningen de wet het risico loopt ofwel haar eigen beschermingen te ondermijnen ofwel waardevol onderzoek naar minder gereguleerde regio’s te verdrijven — waardoor mensen worden blootgesteld aan hoogrisico‑systemen die beter onder controle hadden kunnen worden gehouden als de regels realistischer waren en beter aansloten bij hoe AI tegenwoordig daadwerkelijk wordt ontwikkeld.
Bronvermelding: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0
Trefwoorden: EU AI Act, AI-regelgeving, onderzoeksuitsluitingen, digitale geneeskunde, AI-ethiek