Clear Sky Science · fr
Faire progresser la gouvernance de l'IA en santé grâce à un modèle de maturité complet fondé sur une revue systématique
Pourquoi des règles plus intelligentes pour l'IA médicale sont essentielles
Les hôpitaux se précipitent pour utiliser l'intelligence artificielle afin de détecter les maladies plus tôt, réduire les tâches administratives et rendre les soins plus efficaces. Mais si ces outils sont mal choisis ou mal gérés, ils peuvent commettre des erreurs en silence, creuser les inégalités ou gaspiller des ressources précieuses. Cet article explique comment une équipe de chercheurs a passé au crible des dizaines de référentiels existants pour l'IA médicale et a élaboré une feuille de route pratique que toute organisation de santé — d'une petite clinique à un grand hôpital universitaire — peut utiliser pour déployer l'IA de manière sûre et équitable.
Comprendre un paysage de recommandations encombré
Ces dernières années, des experts du monde entier ont proposé des listes de contrôle, des lignes directrices et des structures de supervision pour l'utilisation de l'IA en santé. Les auteurs ont passé en revue systématiquement 35 de ces cadres publiés entre 2019 et 2024, en retenant 29 qui offraient des orientations concrètes et plurielles plutôt que de se concentrer sur une seule question comme l'éthique. Ils ont constaté que, si de nombreux documents traitaient du développement d'un algorithme ou de sa surveillance dans le temps, beaucoup moins abordaient les réalités organisationnelles : qui doit être responsable ? Comment les hôpitaux doivent-ils choisir entre des produits concurrents ? Et comment les systèmes de santé moins dotés peuvent-ils suivre le rythme ? Ce patchwork de recommandations, souvent rédigé en pensant aux grands centres académiques, laissait les structures plus petites sans voie claire à suivre.

Sept blocs de construction pour une bonne supervision de l'IA
À partir de leur revue, les chercheurs ont distillé sept domaines essentiels qui doivent être traités pour intégrer l'IA de manière responsable dans les soins aux patients. Il s'agit notamment d'avoir une structure de leadership claire, de définir soigneusement le problème clinique avant de recourir à la technologie, de comprendre comment l'algorithme est conçu et entraîné, de vérifier les produits externes avant l'achat, de tester l'efficacité d'un outil sur la population locale, de l'intégrer de façon réfléchie aux flux de travail cliniques quotidiens et de suivre ses performances une fois déployé. Dans la littérature, l'accent était fortement mis sur des tâches comme la formulation du problème, le développement du modèle et la surveillance continue. Pourtant, les auteurs ont relevé une moindre couverture de l'évaluation des produits externes et de la conception d'instances de gouvernance reflétant les perspectives des cliniciens, des experts techniques, des patients et des professionnels du droit et de l'éthique.
Du cadre théorique à une feuille de route par étapes
Pour transformer ces recommandations dispersées en quelque chose de plus utilisable, l'équipe a créé le Healthcare AI Governance Readiness Assessment, ou HAIRA — un « modèle de maturité » en cinq niveaux décrivant à quoi ressemble une gouvernance compétente à des degrés croissants de sophistication. Au niveau 1, une organisation dispose d'une sensibilisation de base et s'appuie principalement sur les garanties des fournisseurs pour les outils prêts à l'emploi, avec peu de tests internes ou d'intégration. Au niveau 2, des procédures documentées existent, un simple comité de supervision est en place, la sélection des outils est plus structurée et la surveillance des performances est basique. Le niveau 3 décrit des systèmes régionaux ou communautaires capables de valider les modèles de manière autonome, d'évaluer les risques tels que les biais, d'intégrer l'IA aux programmes d'amélioration de la qualité et de gérer le changement de façon systématique à mesure que les outils entrent en pratique clinique.
Évoluer vers des pratiques avancées et exemplaires
Les niveaux 4 et 5 représentent ce que les auteurs considèrent comme une gouvernance avancée et de pointe. Au niveau 4, typique des grands centres médicaux universitaires, les organisations disposent de dirigeants exécutifs dédiés à l'IA, de structures éthiques solides, d'une infrastructure de données avancée et de fortes capacités internes de développement et d'évaluation, y compris une surveillance en temps réel. Le niveau 5 représente des institutions qui non seulement gèrent bien l'IA mais contribuent aussi à définir les normes du secteur. Ces organisations mènent des études multisites pour démontrer la sécurité et l'efficacité, expérimentent de nouveaux types d'applications d'IA et partagent leurs enseignements via des centres d'excellence et des collaborations. Fait important, le modèle applique une règle du « maillon le plus faible » : le niveau global d'une organisation est limité par le domaine le moins développé parmi les sept, reflétant la réalité selon laquelle une seule protection manquante — comme une surveillance déficiente — peut compromettre des efforts par ailleurs sophistiqués.

Ce que cela signifie pour les patients et les soignants
Pour les patients, le modèle HAIRA vise à garantir que les outils d'IA sont introduits de manière à réellement améliorer les soins plutôt qu'à ajouter des risques cachés. Pour les cliniciens et les dirigeants de systèmes de santé, il offre une échelle réaliste : une petite pratique pourrait d'abord viser le niveau 2 en documentant comment elle choisit et vérifie les outils des fournisseurs, tandis qu'un système plus large pourrait progresser vers des niveaux supérieurs en investissant dans des équipes de données, des méthodes d'évaluation équitables et une surveillance continue. Les auteurs soulignent que tous les hôpitaux n'ont pas besoin de capacités de pointe, mais que tous doivent respecter des normes de base en matière de sécurité, d'équité et de responsabilité. En alignant les attentes de gouvernance sur les ressources disponibles, leur cadre cherche à rendre l'IA médicale digne de confiance accessible dans des contextes de soins divers, et pas seulement dans les institutions les mieux financées.
Citation: Hussein, R., Zink, A., Ramadan, B. et al. Advancing healthcare AI governance through a comprehensive maturity model based on systematic review. npj Digit. Med. 9, 236 (2026). https://doi.org/10.1038/s41746-026-02418-7
Mots-clés: intelligence artificielle en santé, gouvernance de l'IA, aide à la décision clinique, politique de santé numérique, équité algorithmique