Clear Sky Science · fr
Il est urgent d’innover les cadres réglementaires mondiaux pour l’IA générative dans les dispositifs médicaux
Pourquoi cela compte pour votre santé
L’intelligence artificielle générative, y compris des outils tels que des chatbots avancés, pénètre rapidement les cabinets et les hôpitaux. Ces systèmes peuvent rédiger des notes de consultation, répondre à des questions de santé et même proposer des diagnostics. Cette revue explique pourquoi nos règles actuelles pour les dispositifs médicaux ne sont pas prêtes pour des technologies aussi flexibles et imprévisibles, et pourquoi leur mise à jour est essentielle pour des soins sûrs, équitables et dignes de confiance à l’échelle mondiale. 
De nouveaux outils qui font bien plus qu’une seule tâche
Les anciens logiciels médicaux étaient conçus pour une tâche clairement définie, comme détecter une tumeur sur un scan. L’IA générative et les grands modèles de langage, en revanche, peuvent accomplir de nombreuses tâches différentes, depuis la synthèse de dossiers médicaux jusqu’à des conseils sur des options thérapeutiques. Ils sont entraînés sur d’énormes collections de textes, d’images et d’autres données en ligne, ce qui les rend puissants mais aussi difficiles à comprendre ou à contrôler complètement. Comme leurs réponses peuvent varier d’une utilisation à l’autre et inclure des erreurs assurées ou des « hallucinations », ils ne s’insèrent pas facilement dans les catégories existantes de dispositifs médicaux, conçues pour des outils plus prévisibles.
Pourquoi les règles de sécurité actuelles sont insuffisantes
Les autorités ont tenté de suivre le rythme en adoptant une approche du « cycle de vie complet du produit » qui suit un dispositif depuis sa conception jusqu’à son utilisation réelle. Cela aide pour de nombreux types d’IA, mais l’article soutient que ce n’est pas suffisant pour les grands modèles de langage. Il est presque impossible d’inspecter l’ensemble des données d’entraînement pour y déceler des erreurs ou des informations personnelles dissimulées. Évaluer les performances de ces systèmes est également délicat, car leurs réponses longues et ouvertes sont difficiles à noter avec des tests d’exactitude simples. Des études montrent que certains modèles obtiennent de bons résultats à des questions de type examen mais peinent face à des cas réels désordonnés, et peuvent être moins performants que des cliniciens sur certaines tâches essentielles. De plus, il n’existe pas de méthode acceptée pour mesurer ou surveiller les biais, ce qui signifie que les systèmes pourraient discrètement fonctionner moins bien pour certains groupes de patients.
Risques cachés après le déploiement
Une fois les outils basés sur des grands modèles de langage déployés, suivre leur sécurité devient encore plus complexe. Beaucoup de modèles reposent sur des systèmes de base partagés, puis sont ajustés ou réentraînés par différentes entreprises, rendant difficile la traçabilité exacte des données et des modifications sous-jacentes. Certains outils atteignent les patients directement sous forme d’applications de conseil en santé sans approbation formelle. Les problèmes peuvent rester non signalés, surtout lorsque des erreurs se dissimulent dans de longues notes cliniques rédigées par un scribe IA. Les voies d’approbation existantes qui reposent sur la démonstration d’une « similarité » avec des produits antérieurs peuvent être détournées pour des outils qui sont en réalité très différents. Parallèlement, des enjeux éthiques tels que la vie privée, l’autonomie, la confiance et l’impact sur la relation médecin‑patient ne sont que partiellement traités dans les réglementations actuelles. 
Construire une surveillance plus intelligente et plus juste
Les auteurs mettent en avant des idées émergentes pour rendre la régulation plus flexible et efficace. Les « bacs à sable réglementaires » permettent de tester de nouveaux outils d’IA sous supervision dans des contextes limités, afin que régulateurs et développeurs puissent apprendre de l’expérience et ajuster rapidement les règles. De nouveaux concepts tels que le « logiciel en tant que service médical » visent à considérer des agents d’IA hautement automatisés davantage comme des services de santé continus que comme des produits fixes. L’article insiste également sur l’importance de comprendre l’ensemble de la chaîne d’approvisionnement, depuis la collecte des données et la construction des modèles jusqu’à l’hébergement dans le cloud et le matériel, afin que les systèmes de santé restent résilients en cas de défaillance ou d’attaque des outils numériques. Des réseaux mondiaux de régulateurs, de chercheurs et de systèmes de santé commencent à partager des listes de contrôle, des normes de test et des laboratoires de supervision pour harmoniser leurs efforts.
Garder l’équité au centre
Une préoccupation majeure est de savoir si l’IA générative risque d’élargir ou de réduire l’écart de santé entre régions riches et pauvres. Si les modèles sont principalement entraînés sur des données provenant de pays à revenu élevé, ils peuvent être peu performants dans des contextes à ressources limitées ou pour des communautés sous‑représentées. L’article appelle à une inclusion volontaire des perspectives et des données des pays à revenu faible et intermédiaire, et à un soutien pour aider ces régions à concevoir et déployer leurs propres outils d’IA en toute sécurité. Des standards de rapportage et des outils d’évaluation axés sur l’équité en santé peuvent faire apparaître des biais cachés, tandis que des collaborations peuvent aider à transférer des IA réussies depuis des projets pilotes vers des cliniques réelles sans laisser derrière elles les groupes vulnérables.
Ce que cela signifie pour l’avenir
En termes simples, l’article conclut que l’IA générative en médecine évolue trop vite pour les manuels actuels. Pour protéger les patients et gagner la confiance, les pays doivent travailler ensemble sur de nouveaux cadres réglementaires adaptatifs capables de suivre l’évolution des modèles tout en garantissant la protection de la vie privée, la sécurité et l’équité. Les auteurs envisagent des organismes mondiaux indépendants fixant des normes partagées, à l’instar de celles qui existent pour la cybersécurité, afin que les hôpitaux et les patients du monde entier puissent bénéficier de ces outils sans être exposés à des dommages évitables.
Citation: Ong, J.C.L., Ning, Y., Liu, M. et al. Innovating global regulatory frameworks for generative AI in medical devices is an urgent priority. npj Digit. Med. 9, 364 (2026). https://doi.org/10.1038/s41746-026-02552-2
Mots-clés: IA générative, dispositifs médicaux, régulation des soins de santé, grands modèles de langage, équité en santé