Clear Sky Science · fr

Le rôle de l’intelligence artificielle agentique en santé : une revue de portée

· Retour à l’index

Des assistants plus intelligents en coulisses à l’hôpital

Imaginez un assistant numérique à l’hôpital qui ne se contente pas de répondre aux questions, mais observe discrètement ce qui se passe, décide de ce qu’il faut faire ensuite et agit sans être sollicité à chaque fois. Cet article explore ce type émergent de technologie — appelé « IA agentique » — et examine à quel point nous en sommes proches pour que de tels systèmes soutiennent en toute sécurité les médecins, les infirmières et les patients dans des soins cliniques réels.

Figure 1
Figure 1.

Des programmes simples aux partenaires guidés par des objectifs

Les ordinateurs en médecine ont commencé comme des calculatrices et des suiveurs de règles rigides : ils pouvaient classer une image ou signaler une valeur de laboratoire anormale, mais uniquement lorsqu’on leur disait exactement quoi faire. Les systèmes « génératifs » plus récents, comme les chatbots, peuvent produire du texte, des images ou du code, et attendent néanmoins des invites humaines. L’IA agentique va plus loin. Ces systèmes sont conçus autour d’objectifs — par exemple améliorer la réponse d’une équipe de traumatologie, personnaliser un traitement du cancer ou aider un enfant à progresser en thérapie. Ils recueillent des informations depuis de nombreuses sources, élaborent un plan d’action, sollicitent d’autres outils logiciels de leur propre initiative et ajustent leurs actions en fonction du déroulement des événements, tout en laissant aux humains la responsabilité des décisions majeures.

Où ces agents numériques sont testés

Les auteurs ont examiné cinq grandes bases de données de recherche et n’ont trouvé que sept études dans le monde qui utilisaient véritablement ce style d’IA plus autonome en santé. Les projets portaient sur les soins d’urgence, le traitement et le diagnostic du cancer, l’imagerie médicale, la rééducation et l’analyse de protéines pour la découverte de médicaments. Un système suivait en temps réel des dossiers de traumatologie, produisant des rapports plus complets et déclenchant des alertes lorsque les signes vitaux déviaient. Un autre envoyait des messages quotidiens personnalisés à des survivants du cancer pour encourager la marche. Un jeu en réalité virtuelle adaptait sa difficulté pour aider des enfants atteints de syndrome de Down à développer des compétences motrices et sociales. D’autres systèmes se concentraient sur la lecture de radiographies thoraciques, la planification des traitements par radiothérapie, la détection du cancer du foie à partir de particules sanguines infimes, et l’analyse automatique de données protéiques complexes pertinentes pour de nouvelles thérapies.

Figure 2
Figure 2.

Ce que ces systèmes savent bien faire — et où ils montrent leurs limites

Dans ces expériences, les systèmes agentiques ont montré qu’ils pouvaient fonctionner avec un certain degré d’indépendance : ils poursuivaient des objectifs clairement définis, prenaient l’initiative de lancer des analyses ou d’appeler d’autres programmes, et dans certains cas combinaient les efforts de plusieurs « agents » d’IA coopérants. Les résultats étaient souvent impressionnants. Un outil distinguait le cancer du foie des cas non cancéreux avec plus de 94 % de précision, y compris chez des patients dont le marqueur sanguin habituel était trompeur. Un autre égalait ou surpassait des planificateurs experts pour concevoir des traitements en radiothérapie, et un système de raisonnement sur les radiographies thoraciques atteignait des performances de pointe sans être réentraîné pour chaque nouvelle question. Pourtant, ces succès restaient étroitement liés à des tâches restreintes. La plupart des systèmes ne fonctionnaient que dans des environnements contrôlés, sur des données soigneusement préparées, et aucun ne pouvait véritablement apprendre et s’améliorer sur de longues périodes ni se souvenir des patients passés de manière significative.

Sécurité, confiance et la touche humaine

La revue signale également des risques importants. Parce que ces agents peuvent agir de leur propre initiative — récupérer des données, proposer des plans, voire déclencher des alertes — des erreurs ou une mauvaise coordination pourraient avoir des conséquences graves, en particulier dans des domaines sensibles au facteur temps comme les soins du cancer. De nombreuses études présentaient un risque de biais modéré à sérieux et n’ont pas testé les outils dans la pratique clinique quotidienne. Il existe aussi des préoccupations concernant le raisonnement caché (comportement en « boîte noire »), la cybersécurité et la responsabilité en cas de dommage lié à un système autonome. Les régulateurs aux États-Unis et en Europe commencent à considérer l’IA médicale comme « à haut risque », mais les règles actuelles n’ont pas été conçues pour des logiciels hautement indépendants et à la recherche d’objectifs. Les auteurs soutiennent que la supervision humaine doit rester centrale et qu’il faut des règles plus claires sur l’étendue des actions que ces systèmes peuvent entreprendre de manière autonome.

Ce qu’il faut faire ensuite

Pour l’heure, l’IA agentique en santé est plutôt un prototype prometteur qu’un produit abouti. La revue montre que ces systèmes peuvent aider sur un large éventail de tâches — de la surveillance des patients et du soutien à la rééducation à la planification de traitements complexes contre le cancer — mais une seule étude a impliqué de vrais patients dans un essai contrôlé. Les auteurs appellent à des définitions partagées de ce qui constitue « agentique », à des méthodes standardisées pour mesurer la sécurité et les bénéfices, et à des études cliniques plus vastes et en conditions réelles. Les hôpitaux devront aussi disposer de meilleurs systèmes de données, de protections de la vie privée renforcées et de directives claires qui maintiennent les cliniciens aux commandes. Si ces fondations sont posées avec soin, l’IA agentique pourrait évoluer vers un coéquipier numérique fiable qui allégerait les charges de travail, affinerait les décisions et, en fin de compte, améliorerait la prise en charge des patients, plutôt qu’une boîte noire mystérieuse prenant des décisions seule.

Citation: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5

Mots-clés: IA agentique, automatisation des soins de santé, soutien à la décision clinique, IA pour l’imagerie médicale, santé numérique