Clear Sky Science · fr
Défis liés à l’application des exemptions de recherche de la loi européenne sur l’IA aux recherches contemporaines sur l’IA
Pourquoi de nouvelles règles sur l’IA nous concernent tous
L’intelligence artificielle passe rapidement des laboratoires de recherche aux hôpitaux, banques, écoles et administrations publiques. Pour protéger les personnes tout en favorisant l’innovation, l’Union européenne a créé la première loi large au monde consacrée entièrement à l’IA, connue sous le nom de loi IA de l’UE. Cet article examine de près un angle apparemment étroit mais crucial de cette loi : les dérogations spéciales pour la recherche. Les auteurs soutiennent que, dans le monde réel de l’IA moderne, la frontière entre « simple recherche » et « usage réel » est floue, et que cette imprécision peut soit étouffer des travaux scientifiques utiles, soit laisser passer des applications risquées qui échappent aux protections.

Comment la nouvelle loi sur l’IA tente de nous protéger
La loi IA de l’UE instaure un cadre vaste qui couvre la plupart des acteurs impliqués dans la conception, la vente et l’utilisation de systèmes d’IA, y compris ceux opérant hors d’Europe mais ayant des effets sur des personnes dans l’UE. Dans ce large périmètre, la loi prévoit deux exemptions clés pour la recherche. La première s’applique lorsque les systèmes d’IA sont encore en développement et n’ont pas encore été commercialisés ni mis en service ; la seconde concerne les systèmes achevés conçus et utilisés uniquement pour la recherche scientifique. Sur le papier, ces dérogations visent à éviter que la bureaucratie n’étouffe l’expérimentation, tout en garantissant que l’IA utilisée dans la vie quotidienne respecte des exigences strictes de sécurité, de transparence et de respect des droits fondamentaux.
Où le laboratoire se termine et la vie réelle commence
La première exemption, relative à la phase de développement, suppose une séparation nette entre les tests en laboratoire et l’usage réel. La loi indique que les activités menées avant qu’un système ne soit « mis sur le marché » ou « mis en service » échappent à son champ d’application, mais exclut explicitement des zones sûres les tests réalisés en conditions réelles. Cela paraît simple jusqu’à ce qu’on considère des pratiques courantes en IA : par exemple, faire fonctionner discrètement un prototype dans un hôpital et collecter des données en direct sans montrer aucun résultat aux médecins. Est‑ce toujours du travail « en laboratoire » ou déjà un « test en conditions réelles » ? Les auteurs expliquent que la réponse dépend de l’usage prévu du système. Si le système caché est évalué pour poser des diagnostics, il est vraisemblablement considéré comme un test en conditions réelles et doit déclencher les protections prévues par la loi, y compris autorisations, supervision et limites temporelles strictes.

Quand recherche et activité commerciale se chevauchent
La seconde exemption, pour usage scientifique, vise à protéger les IA développées et utilisées exclusivement à des fins de recherche. Dans la pratique, cette exigence est difficile à cerner. La recherche moderne se déroule souvent par des partenariats entre universités, hôpitaux, entreprises et organismes publics. Des outils conçus en laboratoire peuvent ensuite être transformés en produits commerciaux, ou une entreprise peut vendre un système qu’une université n’utilise que pour la recherche. L’article passe en revue des scénarios concrets montrant comment la formulation de la loi peut conduire à des résultats étranges ou ambigus — par exemple un outil initialement destiné aux soins aux patients mais finalement utilisé uniquement pour l’analyse d’images dans une étude. Les auteurs mettent en garde contre des notions vagues comme « finalité exclusive » qui prêtent à la fois à une confusion honnête et à des comportements stratégiques, comme présenter un produit comme « recherche » pour reporter les obligations de conformité.
Le risque de contournements et de ralentissements
Ces zones grises sont importantes car elles déterminent qui doit respecter les règles plus strictes de la loi IA. Si les définitions sont trop lâches, certains acteurs pourraient mener discrètement des tests proches du déploiement sur des personnes réelles sans la supervision prévue par la loi, ou déplacer des parties de leur chaîne vers d’autres pays pour échapper aux obligations. Si les définitions sont trop strictes ou appliquées sans souplesse, les chercheurs — en particulier dans le secteur public ou à but non lucratif — pourraient être contraints de supporter des charges réglementaires lourdes même lorsqu’il n’y a pas d’objectif commercial et qu’un bénéfice public clair existe, comme pour la modélisation climatique ou la prévision de maladies. Les auteurs soutiennent que cette tension entre éviter les contournements et éviter une paperasserie inutile traverse les deux exemptions et est aggravée par l’absence d’une définition commune au niveau de l’UE de la « recherche scientifique ».
Ce qui doit changer pour une IA plus sûre et plus intelligente
En conclusion, l’article estime que les dérogations de recherche de la loi IA de l’UE reposent sur une image dépassée de la recherche comme quelque chose de nettement séparé de l’impact réel et de l’intérêt commercial. Dans l’IA contemporaine, les données en direct, les déploiements pilotes et les projets public‑privé mixtes sont la norme plutôt que l’exception. Les auteurs appellent à des définitions plus claires de concepts clés comme « conditions réelles » et « recherche scientifique », à des orientations pratiques sur la manière et le moment où un système d’IA franchit la ligne vers un usage réglementé, et à des garde‑fous renforcés contre les usages abusifs des exemptions. Ils affirment que sans de telles améliorations, la loi risque soit de compromettre ses propres protections, soit de pousser des recherches précieuses vers des régions moins réglementées — exposant ainsi les personnes à des systèmes à haut risque qui auraient pu être mieux contrôlés si les règles avaient été plus réalistes et mieux alignées sur les pratiques réelles de développement de l’IA aujourd’hui.
Citation: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0
Mots-clés: loi IA de l’UE, réglementation de l’IA, exemptions de recherche, médecine numérique, éthique de l’IA